Giáo sư Havard đề xuất biện pháp ngăn AI vượt tầm kiểm soát
Theo Giáo sư Zittrain, giải pháp tiềm năng là áp dụng dán nhãn cho sản phẩm dữ liệu do AI tạo ra, cho phép các nhà thiết kế phần mềm và người dùng được lựa chọn có sử dụng những dữ liệu đó hay không.
Công nghệ trí tuệ nhân tạo (AI) ngày càng có khả năng và tự chủ hơn, có thể gây nguy hiểm và không dự đoán được, do đó có thể dẫn đến những kết quả ngoài dự kiến của người tạo nên chúng.
Chính vì vậy, việc đặt ra những quy định kiểm soát AI trở nên cấp bách hơn. Đây là nhận định của Giáo sư Jonathan Zittrain thuộc Khoa khoa học máy tính và chính sách công tại Đại học Havard.
Trong bài viết đăng trên tạp chí The Atlantic, Giáo sư Zittrain cho biết AI hiện có 3 đặc tính: có thể được giao những nhiệm vụ cấp cao, thậm chí mơ hồ mà vẫn độc lập xử lý được; có thể tương tác với thế giới nói chung, sử dụng các công cụ phần mềm khác nhau một cách tùy ý; và có thể hoạt động vô thời hạn nếu người vận hành không dừng chúng lại.
Do các mô hình ngôn ngữ lớn giờ đây có thể giúp biến các mục tiêu ngôn ngữ đơn thuần thành những hướng dẫn cụ thể mà máy tính có thể hiểu và thực hiện được, công nghệ AI giờ đây có thể tiếp thu thông tin từ thế giới bên ngoài và có tác động ngược trở lại vào thế giới.
Kết quả là khó có thể biết AI sẽ ra sao môi trường thay đổi do công nghệ này giờ có thể vượt ra khỏi các kỹ năng ban đầu.
Ngoài ra khó có thể nhận diện AI, người thiết lập, cách thức và thẩm quyền yêu cầu AI dừng hoạt động, không loại trừ trường hợp công nghệ AI có thể kết thúc giống như rác vũ trụ, các vệ tinh phóng lên quĩ đạo và sau đó bị bỏ quên.
Giáo sư Zittrain cảnh báo công nghệ AI được cài đặt để thực hiện các mục tiêu không rõ ràng cũng có thể chọn phương tiện sai để thực hiện. Nguy cơ tiềm tàng khác là thông tin giả trên mạng.
Giáo sư Zittrain đề xuất rằng cần sàng lọc các tiêu chuẩn Internet hiện nay. Một giải pháp tiềm năng là áp dụng dán nhãn cho sản phẩm dữ liệu do AI tạo ra, cho phép các nhà thiết kế phần mềm và người dùng được lựa chọn có sử dụng những dữ liệu đó hay không.
Giáo sư Zittrain cho rằng cần có các biện pháp chuẩn hóa đối với AI để dừng hoạt động chúng khi cần thiết. Đối với những sản phẩm AI được thiết kế hoạt động mãi mãi, cần có quy trình kiểm tra, chỉnh sửa thường xuyên hơn, thậm chí yêu cầu đăng ký hoạt động./.