AI có thể làm tăng nguy cơ xuất hiện đại dịch nhân tạo lên 5 lần?

Theo nghiên cứu của các chuyên gia hàng đầu tiết lộ trên tạp chí TIME, sự phát triển của AI có thể khiến các đại dịch do con người gây ra có khả năng xảy ra cao gấp 5 lần so với một năm trước.

Dữ liệu này phản ánh những lo ngại được các công ty AI OpenAI và Anthropic nêu ra trong những tháng gần đây, khi cả hai đều cảnh báo rằng các công cụ AI hiện tại đang đạt đến khả năng hỗ trợ đáng kể cho những kẻ xấu cố gắng tạo ra vũ khí sinh học.

Từ lâu, các nhà sinh học đã có thể biến đổi virus bằng công nghệ phòng thí nghiệm. Phát triển mới chính là khả năng của các chatbot như ChatGPT hoặc Claude, có thể đưa ra lời khuyên khắc phục sự cố chính xác cho những nhà sinh học nghiệp dư đang cố gắng tạo ra vũ khí sinh học chết người trong phòng thí nghiệm.

Các chuyên gia an toàn từ lâu đã coi độ khó của quá trình khắc phục sự cố này là một rào cản đáng kể đối với khả năng của những kẻ khủng bố trong việc tạo ra vũ khí sinh học, Seth Donoughe, đồng tác giả của nghiên cứu cho biết.

“Giờ đây, nhờ AI, chuyên môn cần thiết để cố ý gây ra một đại dịch mới có thể trở nên dễ tiếp cận với nhiều người hơn nữa”, ông nói.

AI ngày càng nguy hiểm khi có thể hỗ trợ tạo vũ khí sinh học, làm tăng nguy cơ đại dịch do con người gây ra - Ảnh: Getty

AI ngày càng nguy hiểm khi có thể hỗ trợ tạo vũ khí sinh học, làm tăng nguy cơ đại dịch do con người gây ra - Ảnh: Getty

Con số đáng báo động

Từ tháng 12.2024 - 2.2025, Viện Nghiên cứu dự báo Mỹ đã hỏi 46 chuyên gia an ninh sinh học và 22 "siêu dự báo viên" (những cá nhân có tỷ lệ thành công cao trong việc dự đoán các sự kiện tương lai) để ước tính nguy cơ của một đại dịch do con người gây ra. Trung bình, người tham gia khảo sát cho rằng xác suất xảy ra trong bất kỳ năm nào là 0,3%.

Khi được hỏi nguy cơ đó sẽ tăng bao nhiêu nếu các công cụ AI đạt hiệu suất tương đương một nhóm chuyên gia trong bài kiểm tra khắc phục sự cố virus học khó, câu trả lời là nguy cơ hàng năm sẽ tăng vọt lên 1,5%, tức gấp 5 lần.

Điều đáng lo ngại là các nhà dự báo không biết rằng Donoughe, một nhà nghiên cứu khoa học tại tổ chức phi lợi nhuận SecureBio, đang thực hiện chính những thử nghiệm đó. Vào tháng 4, nhóm của Donoughe công bố kết quả cho thấy các hệ thống AI hàng đầu hiện nay có thể vượt trội hơn các nhà virus học cấp tiến sĩ trong bài kiểm tra khắc phục sự cố khó.

Nói cách khác, AI hiện đã có khả năng mà các nhà dự báo cho rằng sẽ làm tăng nguy cơ đại dịch do con người gây ra lên gấp 5 lần. Viện Nghiên cứu Dự báo dự định sẽ khảo sát lại nhóm chuyên gia này trong tương lai để xem quan điểm của họ về rủi ro có thay đổi như dự đoán không, nhưng nghiên cứu này sẽ mất nhiều tháng để hoàn thành.

Thận trọng nhưng không hoảng loạn

Chắc chắn, có một vài lý do để hoài nghi về những kết quả này. Dự báo là một khoa học không chính xác tuyệt đối, và đặc biệt khi dự đoán các sự kiện hiếm gặp. Các nhà dự báo trong nghiên cứu cũng tiết lộ họ thiếu hiểu biết về tốc độ tiến bộ của AI.

Ví dụ, hầu hết cho rằng AI sẽ không vượt qua con người trong bài kiểm tra virus học cho đến sau năm 2030, trong khi thử nghiệm của Donoughe cho thấy rào cản đó đã bị vượt qua. Dù vậy, ngay cả khi xem xét thận trọng, các tác giả nghiên cứu cho rằng kết quả vẫn chỉ ra một hướng đáng lo ngại.

"Có vẻ như khả năng AI trong tương lai gần thực sự có thể tăng đáng kể nguy cơ của một dịch bệnh do con người gây ra”, Josh Rosenberg, CEO của Viện Nghiên cứu Dự báo nhận định.

Giải pháp hy vọng

Nghiên cứu cũng xác định các cách giảm rủi ro vũ khí sinh học do AI gây ra, chia thành 2 nhóm:

Bảo vệ cấp mô hình: Các nhà nghiên cứu hoan nghênh nỗ lực của các công ty như OpenAI và Anthropic trong việc ngăn AI phản hồi các lời nhắc xây dựng vũ khí sinh học. Ngoài ra, hạn chế phổ biến các mô hình AI có “trọng số mở” và bổ sung biện pháp chống lại việc “jailbreak” (bẻ khóa) cũng có thể giảm nguy cơ AI bị lợi dụng để khởi phát đại dịch.

Kiểm soát công ty tổng hợp sinh học: Hiện nay, có thể gửi mã di truyền cho các công ty tổng hợp axit nucleic và nhận về vật liệu sinh học tương ứng. Tuy nhiên, pháp luật không yêu cầu các công ty này sàng lọc mã di truyền trước khi tổng hợp. Điều này rất nguy hiểm, vì vật liệu di truyền tổng hợp có thể được dùng tạo ra mầm bệnh đặt hàng qua thư. Các tác giả nghiên cứu khuyến nghị các phòng thí nghiệm nên sàng lọc chuỗi di truyền để kiểm tra mức độ nguy hại.

Nếu các biện pháp này được thực hiện, nguy cơ đại dịch do AI hỗ trợ sẽ giảm còn 0,4%, chỉ nhỉnh hơn một chút so với mức cơ sở 0,3% trước khi AI có thể tạo vũ khí sinh học.

"Nhìn chung, đây có vẻ là một lĩnh vực rủi ro mới đáng chú ý. Nhưng vẫn có những phản ứng chính sách phù hợp để đối phó”, ông Rosenberg kết luận.

Hoàng Vũ

Nguồn Một Thế Giới: https://1thegioi.vn/ai-co-the-lam-tang-nguy-co-xuat-hien-dai-dich-nhan-tao-len-5-lan-234630.html