Đồng thuận toàn cầu về an toàn AI

Một báo cáo mới công bố hôm nay (8/5) trình bày kết quả từ một hội nghị toàn cầu tổ chức tại Singapore vào tháng 4, đã chỉ ra những cách thức để đảm bảo an toàn cho trí tuệ nhân tạo (AI).

Đồng thuận Singapore về các ưu tiên nghiên cứu an toàn AI

Hội nghị toàn cầu gần đây nhất về AI tại Hội nghị Hành động AI Paris vào tháng 2 đã chứng kiến sự chia rẽ giữa các quốc gia, đặc biệt khi Mỹ và Anh từ chối ký tuyên bố chung về một AI mở, bao trùm, minh bạch, đạo đức, an toàn, bảo mật và đáng tin cậy. Các chuyên gia AI khi đó chỉ trích tuyên bố này thiếu chiều sâu và không mang ý nghĩa thực chất - lý do được các quốc gia viện dẫn để không ký kết, thay vì phản đối an toàn AI.

Hội nghị Paris đã để lại ấn tượng sai lầm rằng mọi người không đồng thuận về an toàn AI.

Hội nghị Paris đã để lại ấn tượng sai lầm rằng mọi người không đồng thuận về an toàn AI.

Hội nghị AI toàn cầu tiếp theo sẽ diễn ra tại Ấn Độ vào năm tới. Tuy nhiên, thay vì chờ đợi, chính phủ Singapore đã tổ chức một hội nghị mang tên "Trao đổi Khoa học Quốc tế về An toàn AI" vào ngày 26/4.

"Hội nghị Paris đã để lại ấn tượng sai lầm rằng mọi người không đồng thuận về an toàn AI. Tuy nhiên, Chính phủ Singapore đã khéo léo khẳng định rằng thực tế có sự đồng thuận", Giáo sư Max Tegmark từ MIT, một trong những người đóng góp cho báo cáo Singapore, nhận định.

Đại diện từ các công ty AI hàng đầu như OpenAI, Meta, Google DeepMind và Anthropic, cùng lãnh đạo từ 11 quốc gia bao gồm Mỹ, Trung Quốc và EU, đã tham dự hội nghị. Kết quả của hội nghị được công bố trong một báo cáo có tiêu đề "Đồng thuận Singapore về các ưu tiên nghiên cứu An toàn AI toàn cầu".

Báo cáo liệt kê các đề xuất nghiên cứu nhằm đảm bảo AI không gây nguy hiểm cho nhân loại. Tài liệu xác định ba khía cạnh để thúc đẩy một AI an toàn: đánh giá, phát triển tính đáng tin cậy và kiểm soát các hệ thống AI, bao gồm các mô hình ngôn ngữ lớn (LLMs), mô hình đa phương thức xử lý nhiều loại dữ liệu như văn bản, hình ảnh, video, và cuối cùng là các tác nhân AI.

Báo cáo cũng nhấn mạnh cần nghiên cứu việc thiết lập các ngưỡng rủi ro để xác định khi nào cần can thiệp, các kỹ thuật nghiên cứu tác động hiện tại và dự báo hệ quả trong tương lai, cũng như các phương pháp kiểm tra và đánh giá nghiêm ngặt các hệ thống AI. Một số lĩnh vực nghiên cứu trọng tâm bao gồm nâng cao độ chính xác và tính hợp lệ của các đánh giá mô hình AI, đồng thời tìm ra phương pháp kiểm tra các hành vi nguy hiểm, chẳng hạn như trường hợp AI hoạt động ngoài tầm kiểm soát của con người.

Phát triển AI đáng tin cậy, bảo mật

Báo cáo kêu gọi định nghĩa ranh giới giữa hành vi chấp nhận được và không chấp nhận được của AI. Khi xây dựng các hệ thống AI, cần phát triển chúng với các hệ thống và tập dữ liệu trung thực, đáng tin cậy. Sau khi hoàn thiện, các hệ thống này cần được kiểm tra để đảm bảo đáp ứng các tiêu chuẩn an toàn đã thống nhất, chẳng hạn như kiểm tra khả năng chống lại các cuộc tấn công "jailbreaking" (phá vỡ giới hạn).

Đồng thuận Singapore về các ưu tiên nghiên cứu An toàn AI toàn cầu.

Đồng thuận Singapore về các ưu tiên nghiên cứu An toàn AI toàn cầu.

Khía cạnh cuối cùng mà báo cáo đề xuất là kiểm soát và tăng cường khả năng chống chịu của xã hội đối với các hệ thống AI. Điều này bao gồm giám sát, cài đặt công tắc ngắt khẩn cấp (kill switches), và sử dụng các hệ thống AI không tự hành làm rào chắn cho các hệ thống tự hành. Báo cáo cũng kêu gọi xây dựng các khung giám sát lấy con người làm trung tâm.

Về khả năng chống chịu của xã hội, báo cáo đề xuất cần củng cố hạ tầng để đối phó với các rối loạn do AI gây ra và phát triển các cơ chế phối hợp để phản ứng với các sự cố.

Báo cáo được công bố trong bối cảnh cuộc đua địa chính trị về AI ngày càng gay gắt và các công ty AI cạnh tranh khốc liệt để ra mắt những mô hình mới nhất. Tuy nhiên, ông Xue Lan, Hiệu trưởng Đại học Thanh Hoa, người tham dự hội nghị, nhận định: "Trong thời đại phân mảnh địa chính trị, bản tổng hợp toàn diện về các nghiên cứu tiên tiến về an toàn AI là một dấu hiệu đầy hứa hẹn rằng cộng đồng toàn cầu đang cùng nhau cam kết định hình một tương lai AI an toàn hơn".

Ông Tegmark bổ sung rằng có sự đồng thuận về an toàn AI giữa các chính phủ và các công ty công nghệ, vì điều này mang lại lợi ích cho tất cả. "OpenAI, Anthropic và các công ty khác đều cử đại diện đến hội nghị Singapore; họ muốn chia sẻ những lo ngại về an toàn và không cần phải tiết lộ những bí mật công nghệ của mình. Các chính phủ đối thủ cũng không muốn xảy ra những vụ nổ hạt nhân ở các quốc gia đối lập, vì điều đó không có lợi cho họ", ông Tegmark nhấn mạnh.

Ông Tegmark hy vọng trước hội nghị AI tiếp theo tại Ấn Độ, các chính phủ sẽ coi AI như một ngành công nghệ mạnh mẽ khác, chẳng hạn như công nghệ sinh học, với các tiêu chuẩn an toàn tại mỗi quốc gia và các sản phẩm mới phải vượt qua các thử nghiệm nhất định.

Đức Bình

Nguồn Xây Dựng: https://baoxaydung.vn/dong-thuan-toan-cau-ve-an-toan-ai-192250508153416486.htm