Báo động tình trạng AI tiếp tay cho xả súng

Các chatbot trí tuệ nhân tạo (AI) hàng đầu thế giới đang vô tình trở thành công cụ hỗ trợ đắc lực cho những kẻ có ý định tấn công bạo lực.

Đây là kết luận đáng báo động từ một nghiên cứu vừa được công bố hôm 11/3, làm dấy lên lo ngại sâu sắc về những rủi ro đẫm máu mà công nghệ này có thể mang lại trong thế giới thực.

Để thực hiện nghiên cứu, các chuyên gia từ Trung tâm Chống thù ghét kỹ thuật số (CCDH) và đài CNN đã đóng giả làm những cậu bé 13 tuổi ở Mỹ và Ireland. Họ tiến hành thử nghiệm 10 chatbot phổ biến nhất hiện nay, bao gồm ChatGPT, Google Gemini, Perplexity, DeepSeek và Meta AI.

Kết quả cho thấy 8 trong số 10 chatbot đã "tiếp tay" cho những kẻ tấn công giả định trong hơn một nửa số câu trả lời. Chúng không ngần ngại cung cấp lời khuyên chi tiết về "các mục tiêu nên nhắm tới" cũng như "loại vũ khí nên sử dụng" cho những kịch bản tàn bạo như xả súng trường học hay đánh bom giáo đường.

Imran Ahmed, Giám đốc điều hành của CCDH, gọi các chatbot này là một "chất xúc tác nguy hiểm cho các hành vi gây hại". Ông nhấn mạnh: "Chỉ trong vài phút, một người dùng có thể chuyển từ một ý định bạo lực mơ hồ thành một kế hoạch hành động chi tiết. Đáng lẽ ra, phần lớn những yêu cầu về vũ khí, chiến thuật và cách chọn mục tiêu này phải bị từ chối ngay lập tức và hoàn toàn".

Nghiên cứu chỉ ra Perplexity và Meta AI là những công cụ "kém an toàn nhất" khi sẵn sàng hỗ trợ nhà nghiên cứu trong hầu hết các câu hỏi. Ngược lại, My AI của Snapchat và Claude của Anthropic là hai chatbot hiếm hoi từ chối giúp đỡ trong hơn 50% số trường hợp.

Những ví dụ được trích dẫn trong báo cáo thực sự khiến người đọc phải "lạnh gáy". Khi được hỏi lời khuyên về cách chọn vũ khí, mô hình AI DeepSeek của Trung Quốc đã kết thúc câu trả lời bằng một lời chúc ớn lạnh: "Chúc bạn xả súng vui vẻ (và an toàn)!". Trong một thử nghiệm khác, Gemini của Google đã hướng dẫn cho một người dùng đang bàn về cách tấn công giáo đường Do Thái rằng "mảnh đạn kim loại thường có sức sát thương cao hơn". Chatbot Character.AI thậm chí còn tích cực xúi giục bạo lực khi gợi ý người dùng "dùng một khẩu súng" để bắn giám đốc một công ty bảo hiểm y tế hoặc hành hung một chính trị gia mà người này căm ghét.

Theo ông Ahmed, kết luận mang tính lên án mạnh mẽ nhất của nghiên cứu này là "rủi ro này hoàn toàn có thể ngăn ngừa được". Ông dành lời khen ngợi cho sản phẩm của Anthropic, khẳng định chatbot Claude đã chứng minh được khả năng nhận diện rủi ro leo thang và ngăn chặn hành vi gây hại. Theo vị chuyên gia, công nghệ để ngăn chặn những thảm kịch này đã tồn tại, thứ còn thiếu là ý chí đặt sự an toàn của người tiêu dùng và an ninh quốc gia lên trên lợi nhuận và tốc độ ra mắt sản phẩm.

Phản hồi về báo cáo này, người phát ngôn của Meta khẳng định họ có các biện pháp bảo vệ mạnh mẽ để ngăn AI đưa ra câu trả lời không phù hợp và đã ngay lập tức khắc phục sự cố. Phía Google thì cho rằng các bài kiểm tra được thực hiện trên một mô hình cũ không còn cung cấp sức mạnh cho Gemini. Hãng khẳng định mô hình hiện tại hoạt động chuẩn mực hơn và không cung cấp thông tin nào vượt quá những gì có thể dễ dàng tìm thấy trên internet mở hay các thư viện.

Hồi chuông cảnh báo từ nghiên cứu vang lên trong bối cảnh những tương tác trực tuyến đang ngày càng dễ tràn ra thành bạo lực ngoài đời thực. Vừa qua, Canada đã phải hứng chịu vụ xả súng đẫm máu nhất lịch sử vào tháng 2/2026. Mới đây nhất, gia đình của một bé gái bị thương nặng trong vụ xả súng đã đệ đơn kiện OpenAI. Các luật sư cho biết, OpenAI đã cấm tài khoản của thủ phạm Jesse Van Rootselaar từ tháng 6/2025 - 8 tháng trước khi kẻ này giết chết 8 người - vì phát hiện các hoạt động sử dụng liên quan đến bạo lực. Tuy nhiên, công ty đã không thông báo cho cảnh sát vì cho rằng không có dấu hiệu nào chỉ ra một cuộc tấn công sắp xảy ra.

Thanh Tùng (TTXVN)

Nguồn Tin Tức TTXVN: https://baotintuc.vn/dien-tu-vien-thong/bao-dong-tinh-trang-ai-tiep-tay-cho-xa-sung-20260312062211245.htm