Sự thật về video 'F-15 của Mỹ bị Iran bắn rơi' trên mạng

Giữa leo thang căng thẳng quân sự, mạng xã hội ngập tràn hình ảnh, video giả mạo cắt ghép từ game, clip duyệt quân sự cũ hay nhờ AI tạo ra.

 Hình ảnh tiêm kích bị bắn hạ được cho là lấy từ game. Ảnh: X.

Hình ảnh tiêm kích bị bắn hạ được cho là lấy từ game. Ảnh: X.

Mạng xã hội X đang lan truyền một hình ảnh và video gây chú ý. Tài khoản có tên "Iran Army Update" đã đăng tải đoạn clip ngắn về một máy bay chiến đấu đang bốc cháy dữ dội trên không.

Dòng trạng thái đi kèm khẳng định tên lửa Iran đã nhắm mục tiêu vào tiêm kích F-15 của Mỹ tại Kuwait. Bài đăng còn nhấn mạnh thêm rằng 3 chiếc F-15 đã bị phá hủy hoàn toàn trong ngày hôm trước là do Iran bắn hạ, không phải bị lưới phòng không đồng minh bắn nhầm như tuyên bố từ phía Mỹ.

Bài viết thu hút hơn 10 triệu lượt xem, hàng chục nghìn lượt chia sẻ và bình luận. Nhiều người dùng mạng tỏ ra lo lắng về nguy cơ khi Iran có năng lực bắn hạ máy bay Mỹ.

Tuy nhiên, thông tin này là bịa đặt. Trước đó, Bộ tư lệnh Trung tâm (CENTCOM) thuộc quân đội Mỹ thông báo 3 tiêm kích F-15E Strike Eagle đã rơi do "bị hệ thống phòng không Kuwait bắn nhầm" lúc 7h03 sáng 2/3, khi đang hỗ trợ chiến dịch Cơn thịnh nộ Kinh hoàng.

"Đoạn video này không có thật, nó được lấy từ game quân sự", nhà báo Shayan Sardarizadeh, thuộc trung tâm xác thực thông tin của BBC, khẳng định.

Đoạn clip trên có thể đã được cắt ra từ một trò chơi điện tử mô phỏng quân sự như Arma 3 và Digital Combat Simulator. Những dấu hiệu chỉ ra là quỹ đạo khi máy bay rơi, cách lửa bùng lên và luồng khói xả ra mang nét của thuật toán máy tính hơn là môi trường thực tế.

Hình ảnh từ Arma 3 của hãng Bohemia Interactive từng bị lợi dụng nhiều lần để tạo ra các đoạn video tin giả liên quan đến quân sự do có đồ họa chân thực. Người tạo tin giả chỉ cần thiết lập một kịch bản máy bay bị bắn cháy trong game, sau đó quay màn hình và giảm độ phân giải cho clip trông giống như được quay vội bằng điện thoại.

 Hình ảnh giả mạo phi công rơi tạo bằng AI. Ảnh: X/RpsAgainstTrump.

Hình ảnh giả mạo phi công rơi tạo bằng AI. Ảnh: X/RpsAgainstTrump.

Những bài viết khác của tài khoản này cũng được kiểm chứng giả mạo bằng công nghệ xác định AI hay trùng lặp video từ nhiều năm trước. Ví dụ như clip nhiều người di dời thực chất được lấy từ đoàn người tham gia lễ hội Hellfest tại Pháp, hay một số bài viết khác lấy từ các tài liệu diễn tập từ lâu.

Tình trạng tin giả càng trở nên tồi tệ hơn khi căng thẳng giữa Mỹ -Israel và Iran leo thang. Hàng loạt hình ảnh và video sai lệch đã tràn ngập các nền tảng mạng xã hội. Nhiều tài khoản cố tình chia sẻ lại những bức ảnh cũ. Một số kẻ khác sử dụng trí tuệ nhân tạo (AI) để tạo ra hình ảnh giả.

Một ví dụ điển hình là bức ảnh giả mạo về Benjamin Netanyahu, Thủ tướng đương nhiệm của Israel, cho thấy ông đang nằm dưới đống đổ nát sau một cuộc không kích. Tuy nhiên, công cụ Gemini của Google đã phát hiện ra nhãn định danh synthID của bức hình AI.

Một đoạn video lan truyền cho thấy lính Mỹ trở về nhà, khẳng định đây là hậu quả của cuộc xung đột với Iran. Thực chất đó là một đoạn video cũ từ tận năm 2011, mô tả lễ đón nhận thi hài diễn ra tại căn cứ không quân Dover.

Để nhận biết hình ảnh giả mạo, người dùng cần chú ý đến chuyển động vì trong môi trường game camera bắt nét rất mượt mà. Các hiệu ứng như khói và lửa trong game thường lặp lại một khuôn mẫu nhất định.

Đối với hình ảnh AI, người dùng có thể sử dụng các công cụ tìm kiếm hình ảnh đảo ngược, ứng dụng Google Lens hay TinEye để xác định nguồn gốc bức ảnh. “Nhiều video do AI tạo ra thường chỉ kéo dài tám giây hoặc ít hơn”, Hany Farid, giáo sư chuyên về pháp y kỹ thuật số tại Đại học UC Berkeley, cho biết.

Nhật Tường

Nguồn Znews: https://znews.vn/su-that-ve-video-f-15-cua-my-bi-iran-ban-roi-tren-mang-post1632026.html