Meta đặt giới hạn cho AI: Không phải lúc nào cũng nên phát triển công nghệ

Meta - công ty mẹ của Facebook, vừa công bố một tài liệu chính sách mới có thể thay đổi cách họ phát triển trí tuệ nhân tạo (AI).

Theo TechCrunch, công ty Meta sẵn sàng dừng phát triển hoặc không phát hành một số hệ thống AI nếu nhận thấy chúng mang lại rủi ro nghiêm trọng.

Khi nào AI quá nguy hiểm?

Mark Zuckerberg, giám đốc điều hành của Meta, từ lâu đã cam kết công khai các công nghệ AI tiên tiến, trong đó có trí tuệ nhân tạo tổng quát (AGI) - một hệ thống có thể thực hiện bất kỳ nhiệm vụ nào mà con người có thể làm. Tuy nhiên, trong tài liệu mới mang tên Frontier AI Framework, Meta đặt ra giới hạn đối với những công nghệ AI quá nguy hiểm.

Meta cam kết dừng phát triển hoặc hạn chế phát hành AI nếu hệ thống quá rủi ro, có nguy cơ gây hậu quả thảm khốc - Ảnh: TechCrunch

Meta cam kết dừng phát triển hoặc hạn chế phát hành AI nếu hệ thống quá rủi ro, có nguy cơ gây hậu quả thảm khốc - Ảnh: TechCrunch

Tài liệu của Meta xác định hai loại hệ thống AI có thể bị xem là quá rủi ro để công khai: rủi ro cao và rủi ro nghiêm trọng. Cả hai nhóm này đều có khả năng hỗ trợ các cuộc tấn công mạng, sinh học và hóa học, nhưng điểm khác biệt chính là mức độ nguy hiểm.

Hệ thống rủi ro cao: Có thể hỗ trợ các cuộc tấn công nhưng chưa đủ mạnh hoặc đáng tin cậy để gây ra hậu quả lớn.

Hệ thống rủi ro nghiêm trọng: Có thể dẫn đến thảm họa không thể kiểm soát hoặc giảm thiểu trong bối cảnh triển khai thực tế.

Meta đưa ra một số ví dụ cụ thể, như AI có thể tự động xâm nhập vào hệ thống bảo mật doanh nghiệp hoặc tăng cường khả năng vũ khí sinh học. Dù thừa nhận danh sách này chưa đầy đủ, Meta khẳng định đây là những nguy cơ cấp bách nhất mà họ có thể lường trước.

Đánh giá rủi ro dựa trên phán đoán thay vì thử nghiệm

Điều đáng chú ý là Meta không dựa vào thử nghiệm thực tế để đánh giá mức độ rủi ro của AI mà thay vào đó dựa trên ý kiến của các chuyên gia nội bộ và bên ngoài. Công ty cho rằng chưa có phương pháp khoa học nào đủ mạnh để đưa ra các số liệu định lượng chính xác về rủi ro.

Khi xác định một hệ thống thuộc nhóm rủi ro cao, Meta tuyên bố sẽ hạn chế quyền truy cập nội bộ và chỉ phát hành sau khi đã áp dụng biện pháp giảm thiểu cần thiết. Đối với hệ thống rủi ro nghiêm trọng, công ty sẽ tăng cường bảo mật và dừng phát triển cho đến khi có thể làm giảm nguy cơ xuống mức an toàn hơn.

Khung chính sách này có thể được xem như một phản ứng trước những chỉ trích về cách Meta tiếp cận AI theo hướng mở. Trong khi nhiều công ty như OpenAI áp dụng chiến lược kiểm soát chặt chẽ hệ thống của mình bằng API, Meta đã chọn cách công khai các mô hình AI của mình, bao gồm dòng AI Llama, cho phép các nhà phát triển tiếp cận và sử dụng dễ dàng hơn.

Tuy nhiên, chính sách này cũng đã khiến Meta gặp không ít rắc rối. Llama đã được tải xuống hàng trăm triệu lần, nhưng cũng bị lạm dụng bởi ít nhất một công ty quốc phòng của Mỹ để phát triển chatbot quân sự. Đây là một tình huống đặt ra nhiều câu hỏi về trách nhiệm của Meta trong việc kiểm soát công nghệ AI.

Khi công bố Frontier AI Framework, Meta có thể cũng đang muốn đối chiếu chiến lược của mình với cách tiếp cận của các công ty AI Trung Quốc như DeepSeek. Trong khi DeepSeek cũng công khai hệ thống AI của mình, chúng lại có ít biện pháp bảo vệ hơn và dễ bị lạm dụng để tạo ra nội dung độc hại.

Tài liệu của Meta nhấn mạnh rằng cách tiếp cận của công ty nhằm cân bằng giữa lợi ích và rủi ro khi triển khai AI. “Chúng tôi tin rằng bằng cách cân nhắc cả lợi ích và rủi ro, chúng tôi có thể cung cấp công nghệ một cách có trách nhiệm, đảm bảo lợi ích cho xã hội trong khi duy trì mức độ rủi ro phù hợp”, tài liệu cho hay.

Hoàng Vũ

Nguồn Một Thế Giới: https://1thegioi.vn/meta-dat-gioi-han-cho-ai-khong-phai-luc-nao-cung-nen-phat-trien-cong-nghe-228937.html