Mặt tối của AI khi tên lửa bắn vào trường nữ sinh Iran
Vụ việc tên lửa nhắm mục tiêu vào trường học ở Iran, khiến 175 dân thường thiệt mạng đã khiến thế giới phải đặt ra câu hỏi về rủi ro khi sử dụng AI vào mục đích quân sự.

Phần lớn dân thường trong vụ tên lửa rơi vào trường học ở Iran là trẻ em. Ảnh: Reuters.
Ngày 28/2, một tên lửa Tomahawk được dẫn đường bởi AI đã phá hủy trường tiểu học Shajareh Tayyebeh ở Minab, miền nam Iran. Ít nhất 175 người thiệt mạng, hơn 100 trong số đó là trẻ em dưới 12 tuổi, theo số liệu từ Liên Hợp Quốc và phía Iran.
Kết quả điều tra sơ bộ của Lầu Năm Góc xác định đây là lỗi nhắm mục tiêu của Mỹ. Trường học này từng nằm trong khuôn viên một căn cứ Hải quân Vệ binh Cách mạng Iran (IRGC), song một bức tường ngăn cách đã xuất hiện vào khoảng năm 2013-2016, tách trường khỏi căn cứ. Ảnh vệ tinh của Amnesty International xác nhận điều này. Trường học đã hoạt động nhiều năm, có trang web riêng và tài khoản mạng xã hội.
Câu chuyện đáng buồn trên đã phơi bày mặt tối của AI trong việc sử dụng dữ liệu. Hệ thống Maven Smart System, nền tảng nhắm mục tiêu do Palantir xây dựng theo hợp đồng 1,3 tỷ USD với Lầu Năm Góc, đã được sử dụng trong chiến dịch.
Maven tích hợp ảnh vệ tinh, dữ liệu radar và tín hiệu tình báo, sử dụng mô hình AI Claude của Anthropic để phân loại mục tiêu và tạo các gói không kích theo thời gian thực. Trong 24 giờ đầu của chiến dịch Iran, hệ thống này đã tạo ra hàng trăm tọa độ tấn công.
Tuy nhiên, một số cựu quan chức quân sự Mỹ trả lời Semafor rằng chính con người phải chịu trách nhiệm cho vụ tấn công trường học. Nguyên nhân là dữ liệu do con người quản lý đã lỗi thời và không được cập nhật kịp thời khi một trường học thay thế căn cứ quân sự tại cùng tọa độ.
Dmytro Matviyuk, chuyên gia drone từng làm việc với các hệ thống tự động tương tự, nhận định vấn đề chưa bao giờ nằm ở AI.
"Hệ thống AI chỉ đáng tin cậy nhờ những người xây dựng, cung cấp dữ liệu và giám sát chúng. Khi mắt xích con người thất bại, dù do dữ liệu sai hay quy trình bị rút gọn, máy móc sẽ tiếp tục thực thi lỗi đó một cách chính xác", ông Matviyuk nói.

Việc sử dụng AI trong quân sự vẫn cần sự giám sát trực tiếp từ con người. Ảnh: Reuters.
Vụ việc trên cũng đặt ra câu hỏi lớn về giới hạn của hệ thống AI trong chiến tranh. Theo dữ liệu của Lầu Năm Góc, Maven có độ chính xác nhận dạng mục tiêu khoảng 60%, thấp hơn đáng kể so với 84% của các chuyên gia phân tích.
Hơn 120 nghị sĩ Dân chủ tại Hạ viện Mỹ đã gửi thư cho Bộ trưởng Quốc phòng Pete Hegseth yêu cầu làm rõ vai trò của AI trong vụ tấn công.
Sự việc cũng đan xen vào tranh chấp giữa Lầu Năm Góc và Anthropic. Chính quyền Trump đã liệt Anthropic vào danh sách "rủi ro chuỗi cung ứng" sau khi công ty này từ chối bỏ các giới hạn ngăn Claude tham gia vào hoạt động quân sự. Tuy vậy, Lầu Năm Góc vẫn tiếp tục sử dụng Claude trong giai đoạn chuyển đổi 6 tháng.
Nguồn Znews: https://znews.vn/mat-toi-cua-ai-trong-xung-dot-hien-dai-post1638155.html











