Liệu nhân loại có còn cơ hội sửa sai khi AI được giao quyền kiểm soát hạt nhân?

Lịch sử đã chứng minh rằng bản năng con người nhiều lần cứu thế giới khỏi chiến tranh hạt nhân. Nhưng nếu AI thay thế con người trong những quyết định sinh tử, liệu nhân loại có còn cơ hội sửa sai?

Hàn Quốc thử nghiệm AI tạo sinh trong tập trận chung với Mỹ. Ảnh: Yonhap/TTXVN

Hàn Quốc thử nghiệm AI tạo sinh trong tập trận chung với Mỹ. Ảnh: Yonhap/TTXVN

Theo Giáo sư Michael O'Hanlon, Giám đốc nghiên cứu trong chương trình Chính sách Đối ngoại tại Viện Brookings, vào cuối năm 2024, một thỏa thuận lịch sử đã được ký kết giữa Chủ tịch Trung Quốc Tập Cận Bình và Tổng thống Mỹ khi đó Joe Biden, trong đó cả hai nhà lãnh đạo nhất trí rằng trí tuệ nhân tạo (AI) không bao giờ được trao quyền quyết định phát động chiến tranh hạt nhân. Quyết định này được đưa ra sau 5 năm thảo luận tại Đối thoại Mỹ - Trung Quốc về Trí tuệ nhân tạo và An ninh quốc gia, do Viện Brookings và Trung tâm An ninh và Chiến lược Quốc tế của Đại học Thanh Hoa tổ chức.

Nhưng tại sao lại có sự lo ngại về việc giao quyền quyết định hạt nhân cho AI? Lịch sử Chiến tranh Lạnh đã để lại những bài học quý giá, cho thấy trí thông minh và bản năng con người đôi khi là yếu tố quyết định ngăn chặn thảm họa hạt nhân.

Ba lần thế giới suýt chứng kiến chiến tranh hạt nhân

Thứ nhất, cuộc khủng hoảng tên lửa Cuba (1962): Khi Liên Xô bí mật vận chuyển tên lửa có khả năng mang đầu đạn hạt nhân đến Cuba nhằm cải thiện cán cân hạt nhân với Mỹ, hầu hết các cố vấn của Tổng thống John F. Kennedy, bao gồm cả Hội đồng Tham mưu trưởng Liên quân, đều khuyến nghị tấn công không kích vào các vị trí của Liên Xô tại Cuba.

Tuy nhiên, Tổng thống Kennedy đã chọn giải pháp kết hợp giữa việc phong tỏa hải quân và ngoại giao bí mật với nhà lãnh đạo Liên Xô Nikita Khrushchev. Thỏa thuận cuối cùng bao gồm việc Mỹ cam kết dỡ bỏ tên lửa khỏi Thổ Nhĩ Kỳ và không tấn công Cuba, đổi lại Liên Xô sẽ rút tên lửa và vũ khí hạt nhân khỏi hòn đảo này.

Thứ hai, báo động giả tháng 9/1983: Vào thời điểm đó, sĩ quan giám sát Liên Xô Stanislav Petrov nhận được tín hiệu từ hệ thống cảm biến cho thấy Mỹ đang tấn công Liên Xô bằng 5 tên lửa đạn đạo xuyên lục địa (ICBM) và sẽ phát nổ trong vòng khoảng 20 phút. Thực tế, đó chỉ là sự phản chiếu của ánh sáng mặt trời từ các đám mây bất thường.

Dựa vào nhận định cá nhân rằng bất kỳ cuộc tấn công thực sự nào của Mỹ sẽ lớn hơn nhiều (vì một cuộc tấn công nhỏ sẽ chỉ kích động sự trả đũa mà không gây thiệt hại đáng kể cho lực lượng hạt nhân Liên Xô), ông Petrov đã quyết định không báo cáo về "cuộc tấn công" này, tránh gây ra phản ứng trả đũa không cần thiết.

Thứ ba, cuộc tập trận Able Archer (tháng 11/1983): Chỉ vài tháng sau đó, NATO tiến hành cuộc tập trận quân sự lớn mang tên Able Archer trong bối cảnh quan hệ Mỹ - Liên Xô căng thẳng tột độ. Trong bối cảnh này, Tổng thống Ronald Reagan đã có bài phát biểu về "Star Wars" (chiến tranh giữa các vì sao) và thống báo Mỹ đang chuẩn bị triển khai tên lửa Pershing II có khả năng mang đầu đạn hạt nhân ở châu Âu.

Trong cuộc tập trận, NATO mô phỏng việc chuẩn bị cho một cuộc tấn công hạt nhân bằng cách đặt đầu đạn giả lên máy bay. Tình báo Liên Xô quan sát thấy nhưng không biết rằng đầu đạn là giả, nên đã chuẩn bị hệ thống vũ khí hạt nhân thật của họ để đáp trả. Tình báo Mỹ nhận thấy những chuẩn bị này, nhưng tướng Không quân Leonard Perroots đã khuyến nghị Mỹ không nên phản ứng bằng cách đặt đầu đạn thật vào hệ thống của mình.

Liệu AI có ra quyết định tốt hơn con người?

Giáo sư O'Hanlon lưu ý, trong cả ba trường hợp trên, nếu AI được giao quyền quyết định dựa trên học thuyết và quy trình tiêu chuẩn thời đó, có thể đã dẫn đến thảm họa hạt nhân: Trong cuộc khủng hoảng tên lửa Cuba, quan điểm đồng thuận thời đó ủng hộ mạnh mẽ việc ngăn chặn mọi sự xâm phạm với Liên Xô. Một AI "thận trọng" dựa trên học thuyết của thời đó có thể sẽ khuyến nghị loại bỏ các cơ sở hạt nhân của Liên Xô ở Cuba trước khi chúng hoạt động.

Trong sự cố báo động giả, một hệ thống AI có thể đã kết luận rằng 5 ICBM đang thực hiện một cuộc tấn công nhắm vào giới lãnh đạo Liên Xô, dẫn đến một cuộc tấn công "trả đũa" không cần thiết. Trong cuộc tập trận Able Archer, AI có thể đã kết luận rằng cả hai siêu cường đều có kế hoạch tấn công phủ đầu vào thời điểm đó, nên tình huống trở nên rất nguy hiểm.

Điều đáng chú ý trong cả ba tình huống là: chính bản năng, sự thấu hiểu và tính nhân văn của con người đã góp phần quan trọng vào việc tránh thảm họa. Ông Kennedy đã vượt qua áp lực từ các cố vấn quân sự để tìm giải pháp hòa bình; ông Petrov đã sử dụng suy đoán logic thay vì tuân theo quy trình chuẩn; và Tướng Perroots đã nhận ra nguy cơ leo thang do hiểu lầm.

Trong những tình huống như vậy, việc đặt mình vào vị trí của đối phương, hiểu được sự lo lắng và động cơ của họ, là yếu tố then chốt - điều mà AI, dù được lập trình tinh vi đến đâu, cũng khó có thể sở hữu hoàn toàn.

Như vậy, dù công nghệ AI có thể tiến bộ đến đâu, việc giao quyền quyết định tối cao về vũ khí hạt nhân cho máy móc vẫn tiềm ẩn rủi ro không thể chấp nhận. Các hệ thống AI có thể hỗ trợ con người bằng cách phân tích dữ liệu, kiểm tra suy nghĩ và hành vi, nhưng quyết định cuối cùng nên luôn thuộc về con người. Do đó, thỏa thuận giữa Mỹ và Trung Quốc là một bước đi quan trọng trong việc đảm bảo rằng loài người luôn giữ quyền kiểm soát đối với những quyết định quan trọng nhất trong lịch sử.

Vũ Thanh/Báo Tin tức

Nguồn Tin Tức TTXVN: https://baotintuc.vn/phan-tichnhan-dinh/lieu-nhan-loai-co-con-co-hoi-sua-sai-khi-ai-duoc-giao-quyen-kiem-soat-hat-nhan-20250310164113157.htm