Công cụ được coi là phiên bản 'đen tối' của ChatGPT
Mặt tối của AI có thể được sử dụng để tạo ra các trò lừa đảo tinh vi, nội dung khiêu dâm giả mạo và vũ khí sinh hóa.
El Páis gọi FraudGPT là "em song sinh độc ác của ChatGPT". Công cụ AI tổng hợp này ẩn nấp trong web đen, có khả năng gửi các tin nhắn giả mạo ngân hàng, tạo ra phần mềm độc hại và xây dựng các trang web lừa đảo. Netenrich, nền tảng bảo mật công nghệ dựa trên dữ liệu, đã nêu rõ mối nguy hiểm của chatbot AI này.
Nhưng FraudGPT không phải là trường hợp duy nhất. WormGPT cũng bị xem là "tên tội phạm trên không gian mạng" vì công cụ này tự động tạo các email giả mạo có sức thuyết phục cao được cá nhân hóa cho người nhận.
Tất cả cho thấy trí tuệ nhân tạo có thể được khai thác cho các mục đích xấu, từ lừa đảo phức tạp đến các chiến dịch thông tin sai lệch, nội dung khiêu dâm không có sự đồng thuận và thậm chí cả vũ khí sinh hóa.
Josep Albors thuộc công ty bảo mật công nghệ Tây Ban Nha ESET cho biết: "Mặc dù đây vẫn là một công nghệ tương đối mới nhưng bọn tội phạm đã nhanh chóng khai thác".
Albors chỉ ra các chiến dịch lừa đảo có mục tiêu, phức tạp, các thông tin sai lệch và deepfake, video do AI điều khiển làm thay đổi hoặc thay thế khuôn mặt, cơ thể, giọng nói của một người.
Âm thanh, hình ảnh giả mạo
Theo Philipp Hacker, giáo sư tại Trường Nghiên cứu Kỹ thuật số mới châu Âu, trí tuệ nhân tạo tổng hợp có thể được sử dụng để phát triển phần mềm độc hại hiệu quả cao, khó phát hiện và có khả năng nhắm mục tiêu vào các hệ thống và lỗ hổng cụ thể.
"Mặc dù chuyên môn của con người vẫn rất quan trọng đối với sự phát triển của virus máy tính tiên tiến, nhưng trí tuệ nhân tạo có thể hỗ trợ trong giai đoạn đầu tạo ra phần mềm độc hại", Hacker nói.
Albors cho biết việc sử dụng các kỹ thuật như vậy vẫn chưa phổ biến. Tuy nhiên, các công cụ như FraudGPT hay WormGPT có thể trở thành vấn đề nghiêm trọng trong tương lai.
"Với sự trợ giúp của những công cụ này, ngay cả những người có kiến thức kỹ thuật hạn chế cũng có thể tạo ra các chiến dịch độc hại với khả năng thành công cao hơn. Điều này có nghĩa là người dùng cá nhân và công ty sẽ phải đối mặt với nhiều mối đe dọa hơn".
Lừa đảo càng thuyết phục thì khả năng thành công càng cao. Một số đang sử dụng AI để tổng hợp âm thanh.
Fernando Anaya thuộc công ty an ninh mạng Proofpoint cho biết: "Trò lừa đảo tiền điện tử 'Pig Butchering' (nghĩa đen: mổ lợn) cuối cùng có thể chuyển từ tin nhắn sang cuộc gọi, nâng cao hiệu quả của nó". Trò lừa đảo này có tên như vậy vì những tên tội phạm 'vỗ béo' nạn nhân bằng cách lấy lòng tin, sau đó đánh cắp mọi thứ họ có. Mặc dù thường được liên kết với tiền điện tử, nhưng trò lừa đảo này cũng có thể được áp dụng cho các giao dịch tài chính khác.
Proofpoint cũng đã phát hiện tội phạm mạng sử dụng công nghệ này để đánh lừa các quan chức.
AI cũng được sử dụng để sửa đổi hình ảnh và video. Các nhân vật có ảnh hưởng và người nổi tiếng như Elon Musk và chính trị gia người Tây Ban Nha Alberto Núnẽz Feijóo đều đã bị ghép mặt vào vào clip không liên quan. Josep Albors nói: "Deepfakes thường được sử dụng để thúc đẩy các khoản đầu tư tiền điện tử khiến nhiều người mất tiền".
Từ nội dung khiêu dâm đến vũ khí sinh hóa
Việc sử dụng AI để tạo ra nội dung khiêu dâm không có sự đồng thuận là đặc biệt đáng báo động. Philipp Hacker cho biết: "Nó nhắm vào phụ nữ và gây ra tổn hại đáng kể cho cá nhân và cuộc sống của họ.
Năm ngoái, các nữ sinh Tây Ban Nha đã báo cáo những bức ảnh khỏa thân deepfake lan truyền trên mạng xã hội và những người nổi tiếng như Rosalía cũng là nạn nhân của các cuộc tấn công tương tự.
Giáo sư Philipp Hacker nói rằng công nghệ AI cũng đã được sử dụng "để tạo ra những hình ảnh sai lệch về người nhập cư, ảnh hưởng đến dư luận, đồng thời thực hiện các chiến dịch thông tin sai lệch quy mô lớn".
Trí tuệ nhân tạo có tiềm năng vượt xa các ứng dụng hiện tại. Một bài báo trên tạp chí Nature Machine Intelligence khám phá cách các công nghệ AI để phát hiện thuốc có thể bị lạm dụng để thiết kế vũ khí sinh hóa. Các chuyên gia an ninh mạng khác cảnh báo rằng những thuật toán có thể xâm nhập vào phần mềm cơ sở hạ tầng quan trọng, "làm mờ ranh giới giữa các kịch bản tấn công truyền thống và khiến chúng trở nên khó dự đoán hay chống lại theo luật, quy định hiện hành".
Học máy và các kỹ thuật khác có thể phát hiện và ngăn chặn các cuộc tấn công tinh vi. Tuy nhiên, Josep Anaya nhấn mạnh sự cần thiết phải giáo dục người dùng cách nhận biết email lừa đảo và các mối đe dọa khác.
Philipp Hacker cho biết việc giải quyết các rủi ro của việc sử dụng AI đòi hỏi các biện pháp quản lý, giải pháp công nghệ và nguyên tắc đạo đức. Các biện pháp ngăn chặn khác bao gồm triển khai những nhóm độc lập với nhiều công cụ để phát hiện lỗ hổng.
"Việc giải quyết những rủi ro này rất phức tạp do các vấn đề đạo đức trong AI và sự khả thi của những biện pháp phòng ngừa nhất định", Hacker nói.
Nguồn Znews: https://znews.vn/cong-cu-duoc-coi-la-phien-ban-den-toi-cua-chatgpt-post1456673.html