'Đại dịch'... deepfake
Trước thềm cuộc bầu cử quốc hội vào tháng 4 tới, tại Hàn Quốc, các video sử dụng công nghệ giả mạo khuôn mặt (deepfake) đang lan truyền nhanh chóng trên mạng xã hội. Những video này sử dụng trí tuệ nhân tạo (AI) để tạo ra những bài phát biểu sai sự thật, gây ảnh hưởng đến quyết định của cử tri và buộc các nhà chức trách của nước này phải tăng cường cảnh giác.
Theo đài RFI, gần đây xuất hiện hình ảnh có giọng nói và khuôn mặt của Tổng thống Hàn Quốc Yoon Suk Yeol trên màn hình, nhưng hóa ra đó là một đoạn video giả mạo với nội dung hoàn toàn sai sự thật. Video dùng công nghệ deepfake lan truyền rộng rãi trên các mạng xã hội này được tạo ra từ việc cắt ghép các bài phát biểu của ông Yoon Suk Yeol trong chiến dịch tranh cử tổng thống năm 2022. Mới nhất, một vụ video giả mạo khác được tung ra trước thềm cuộc bầu cử quốc hội.
Dù Ủy ban Bầu cử quốc gia đã yêu cầu chính quyền xóa video này để ngăn chặn việc lan truyền thông tin sai lệch, nhưng vẫn khó có thể làm cho video này biến mất khi nó đã được chia sẻ rộng rãi trên mạng.
Hàn Quốc đang trải qua một “đại dịch" deepfake thực sự. Báo The Korea Herald dẫn một báo cáo của Ủy ban Bầu cử quốc gia cho hay, có 129 video giả mạo xuất hiện chỉ trong 20 ngày (từ ngày 29-1 đến 16-2-2024). Luật pháp của Hàn Quốc không dung thứ cho hành vi này. Theo đó, tác giả của video deepfake phải đối mặt với mức án lên tới 7 năm tù và mức phạt 41.000 USD vì tội bôi nhọ và gây bất ổn trong bầu cử.
Kể từ khi công cụ hội thoại ChatGPT của OpenAI được tung ra năm 2022 và nhanh chóng trở nên phổ biến, nhiều nhân vật có uy tín trong lĩnh vực nghiên cứu AI đã cảnh báo về nguy cơ tiềm ẩn nếu công nghệ này bị sử dụng cho các mục đích sai trái. Mới nhất, các chuyên gia AI, trong đó có cả Yoshua Bengio - nhà nghiên cứu AI tiên phong - đã ký tên vào lá thư ngỏ kêu gọi tăng cường quản lý hoạt động sáng tạo nội dung sử dụng công nghệ deepfake tiềm ẩn nhiều nguy cơ cho xã hội.
Lá thư có đoạn nêu rõ, deepfake thường bị sử dụng trong sáng tạo các nội dung hình ảnh khiêu dâm, gian lận hoặc lan truyền các thông tin chính trị sai lệch. Khi AI phát triển ngày càng nhanh, các hình ảnh giả mạo khuôn mặt càng dễ được sáng tạo thì các công cụ bảo vệ càng trở nên quan trọng hơn. Những hình ảnh giả mạo khuôn mặt được tạo ra nhờ các thuật toán AI và thường được dùng cho các nội dung hình ảnh, âm thanh và video bắt chước nhân vật thật. Những cải tiến không ngừng trong công nghệ này đã giúp AI tạo ra những hình ảnh khó có thể phân biệt với sản phẩm do con người tạo ra.
Lá thư, với tiêu đề Can thiệp chuỗi cung ứng giả mạo khuôn mặt cũng có những đề xuất về cách quản lý công nghệ này. Trong đó, có hình sự hóa mọi hành vi dùng công nghệ deepfake để sản xuất nội dung khiêu dâm trẻ em; áp các án phạt hình sự với mọi cá nhân cố tình sáng tạo hoặc tiếp tay lan truyền các nội dung deepfake gây hại; yêu cầu các công ty AI tìm cách đảm bảo các sản phẩm của mình không bị sử dụng để tạo ra các nội dung deepfake có hại.
Tính đến sáng 21-2 vừa qua, hơn 400 cá nhân từ các lĩnh vực khác nhau như nghiên cứu học thuật, giải trí và chính trị đã ký vào lá thư, trong đó có cả các nhà nghiên cứu của Google và OpenAI.
Nguồn SGGP: https://sggp.org.vn/dai-dich-deepfake-post728265.html