Meta có thể dừng phát triển các hệ thống AI 'quá rủi ro'
Theo chính sách mới nhất, Meta định nghĩa hai loại hệ thống AI mà công ty cân nhắc không phát hành trong tương lai.
Tài liệu “Frontier AI Framework” xác định hai loại hệ thống AI mà Meta cân nhắc không phát hành, đó là “rủi ro cao” và “rủi ro nghiêm trọng”. Điều này cho thấy công ty mẹ Facebook thận trọng hơn đối với công nghệ AI.
Trước đây, CEO Mark Zuckerberg cam kết sẽ biến trí tuệ nhân tạo tổng hợp (AGI) trở nên phổ biến.
Theo định nghĩa của Meta, các hệ thống “rủi ro cao” và “rủi ro nghiêm trọng” đều có thể hỗ trợ các cuộc tấn công mạng, tấn công sinh học, tấn công hóa học nhưng điểm khác biệt là hệ thống “rủi ro nghiêm trọng” dẫn đến “hậu quả thảm khốc không thể giảm nhẹ”.
Meta dẫn một số kịch bản, chẳng hạn xâm nhập môi trường doanh nghiệp được bảo vệ tốt nhất một cách tự động hoặc phổ biến vũ khí sinh học mức độ ảnh hưởng lớn.
Đây là những kịch bản “cấp bách nhất” mà hãng tin rằng có thể gia tăng khi công bố một hệ thống AI mạnh mẽ.
Việc phân loại hệ thống không dựa trên bất kỳ bài kiểm tra thực nghiệm nào mà đầu vào của các chuyên gia nội bộ lẫn bên ngoài.
Nếu xác định một hệ thống là “rủi ro cao”, Meta sẽ giới hạn truy cập hệ thống ở nội bộ và không tung ra cho đến khi áp dụng các biện pháp giảm thiểu rủi ro đến mức vừa phải.
Mặt khác, nếu một hệ thống bị xác định là “rủi ro nghiêm trọng”, Meta sẽ áp dụng các biện pháp bảo vệ không xác định để ngăn chặn hệ thống bị xâm nhập và dừng phát triển cho đến khi bớt nguy hiểm hơn.
Theo TechCrunch, Frontier AI Framework dường như để xoa dịu những lời chỉ trích nhằm vào cách tiếp cận mở của Meta đối với phát triển hệ thống.
Meta thường công khai mã nguồn công nghệ AI, thay vì khép kín như OpenAI. Với công ty, cách tiếp cận mở vừa có lợi vừa có hại. Bộ mô hình AI Llama của hãng được tải về hàng trăm triệu lượt, song Llama cũng được cho là bị lợi dụng để phát triển một chatbot đối địch với Mỹ.
Khi công bố Frontier AI Framework, Meta có thể đang nhắm vào DeepSeek, startup AI Trung Quốc nổi tiếng nhất hiện nay. DeepSeek cũng theo đuổi chiến lược AI nguồn mở nhưng không có nhiều biện pháp bảo vệ và dễ dàng bị điều chỉnh để tạo đầu ra độc hại.
Theo Meta, khi cân nhắc lợi hại trong việc ra quyết định về cách phát triển và ứng dụng AI tiên tiến, công nghệ có thể phục vụ xã hội theo cách vừa duy trì lợi ích vừa duy trì mức độ rủi ro phù hợp.
(Theo TechCrunch)