Bị người tình AI lừa bạc tỉ

Chị Sarah, 45 tuổi, một người độc thân sống ở Úc, đã vào ứng dụng hẹn hò online Tinder để tìm bạn trăm năm, rồi bị 'tiếng sét ái tình' với một chàng đẹp trai tên là Daniel.

Vốn là người cẩn trọng với những mối quan hệ online nhưng với tài tán gái điêu luyện của Daniel, Sarah đã yêu mê mệt người này. Bằng hình ảnh một du khách trẻ thích khám phá các vùng đất mới, gan dạ và đam mê thể dục, tốt bụng và chu đáo, Daniel đã chinh phục Sarah hoàn toàn.

Hai người trò chuyện với nhau nhiều lần mỗi ngày. Sau một thời gian "vỗ béo con mồi", Daniel tâm sự với người tình rằng anh ta kiếm tiền cho lối sống xa hoa của mình bằng cách đầu tư vào tiền điện tử. Anh ta khuyên Sarah nên bắt đầu sử dụng một ứng dụng giao dịch Bitcoin hợp pháp là CoinSpot, qua đó có thể kiếm lợi nhuận và rút được tiền thật.

Ứng dụng hẹn hò online Tinder giúp tìm "bạn trăm năm"

Ứng dụng hẹn hò online Tinder giúp tìm "bạn trăm năm"

Sau khi khiến Sarah hứng thú với việc ngồi nhà mà vẫn kiếm được rất nhiều tiền, Daniel đề nghị Sarah vào một nền tảng đầu tư tiền điện tử lạ. Sarah say máu, liên tục rút hết số tiền tiết kiệm của mình, đầu tư vào đó ngày càng nhiều hơn, lên đến 100.000 USD (tương đương hơn 2,5 tỉ đồng). Sau đó, Sarah không thể đăng nhập vào tài khoản đầu tư của mình. Chị liên hệ với nền tảng và được thông báo rằng trang web mà chị đã truy cập là giả mạo. Toàn bộ tiền đầu tư của Sarah đã được chuyển vào một tài khoản do kẻ lừa đảo thiết lập.

Điều trớ trêu là gã đẹp trai, dẻo miệng Daniel không phải là người thật. Đó là một nhân vật do bọn tội phạm dùng công nghệ AI để tạo ra.

Khi chia sẻ vụ việc của mình trong chương trình có tên gọi "60 phút" trên kênh truyền hình số 9 của Úc phát ngày 25-8 vừa qua, Sarah cho biết Daniel xuất hiện trong các cuộc trò chuyện trông như người thật, kịch bản mà bọn tội phạm AI tạo ra cũng rất tự nhiên.

Khai thác sức mạnh của trí tuệ nhân tạo để mạo danh

Khai thác sức mạnh của trí tuệ nhân tạo để mạo danh

Ông Liam O'Shannessey, Giám đốc điều hành của Công ty Bảo mật Cyber CX, đã trình diễn trên truyền hình công nghệ nhân bản khuôn mặt cho phép kẻ lừa đảo gọi video cho nạn nhân của chúng. Ông nói: "Chúng tôi có thể thực hiện những livestream này, phát trực tiếp đến cuộc gọi WhatsApp, phát trực tiếp đến cuộc gọi FaceTime. Chúng tôi cũng có thể đưa vào một số công nghệ thay đổi giọng nói".

Các chuyên gia khuyến cáo mọi người cần phải có ý thức cảnh giác nhiều hơn trong thời AI bùng nổ này. Khi không còn có thể dùng cách gọi điện video để chứng thực nhân thân của ai đó, bạn phải tìm những cách kiểm tra chéo khác để xác thực.

Hoài Xuân - Thanh Long -

Nguồn NLĐ: https://nld.com.vn/bi-nguoi-tinh-ai-lua-bac-ti-196240907141041052.htm