Thời AI: Từ KOL AI đến nạn deepfake

Các ứng dụng công nghệ AI để thay đổi gương mặt, giọng nói hoạt động với người điều khiển phía sau đã phát triển đến mức thật giả khó phân, cũng chính vì vậy mà lằn ranh chính - tà khi sử dụng cũng trở nên mong manh hơn.

Với các công cụ trí tuệ nhân tạo (AI) sẵn có đang cung cấp trên thị trường và một chút kỹ năng thì ai cũng có thể tạo ra những video trình diễn, ca hát, giới thiệu sản phẩm y như người thật. Ứng dụng này khiến cho việc quay phim sản phẩm trở nên đơn giản, tiết kiệm và nhanh chóng. Thay vì cần nhiều buổi thuê người mẫu, người quay phim thì AI sẽ làm tất cả với số lượng người mẫu xinh đẹp không giới hạn với đủ kiểu gương mặt và góc quay. Ngành tiếp thị quảng cáo giờ đây đã quen thuộc với dịch vụ cung cấp KOL AI, những người ảo xinh đẹp, làm việc 24/24 với chi phí rất thấp so với KOL người thật.

Từ công cụ đắc lực đến giả mạo người thật

Bằng công cụ AI, người điều khiển ngồi trên máy tính tha hồ chọn nhân vật, bối cảnh, trang phục, góc quay, động tác và giọng nói, lời nói... rồi chạy chương trình tạo video, hình ảnh. Những nhân vật này rất khỏe, một “ca sĩ” có thể trình diễn một lúc vài chục bài hát với phong cách diễn xuất không trùng lặp, một “người mẫu” có thể thay hàng trăm bộ trang phục để quay phim, chụp ảnh trong một ngày.

Ngoài ra, những nhân viên bán hàng xinh đẹp có thể livestream 24/24 để giới thiệu sản phẩm mà không cần nghỉ ngơi dù chỉ 15 phút. Lợi thế chi phí và tính đa dụng của AI giúp cho các cửa hàng, doanh nghiệp nhỏ cũng có thể tạo ra nội dung tiếp thị, quảng cáo chuyên nghiệp không thua kém là bao so với dịch vụ bên ngoài.

Một công cụ AI dựng nhân vật phiên bản thương mại mà ai cũng có thể mua để sử dụng. Nhân vật số 1 là người thật, video xuất ra màn hình có thể tùy chọn như các nhân vật số 2, 3 và 4.Ảnh chụp màn hình.

Một công cụ AI dựng nhân vật phiên bản thương mại mà ai cũng có thể mua để sử dụng. Nhân vật số 1 là người thật, video xuất ra màn hình có thể tùy chọn như các nhân vật số 2, 3 và 4.Ảnh chụp màn hình.

Tuy nhiên, sự tiện dụng đó cũng đang bị lạm dụng không ít. Trong đợt lũ lụt vừa qua, trên mạng xã hội bỗng xuất hiện clip của một ca sĩ nổi tiếng với hình ảnh và giọng nói đúng như thật kêu gọi giúp đỡ mua thớt nhựa. Theo “ca sĩ” này, do kho hàng của cô ở Đà Nẵng bị mưa ngập nên toàn bộ hộp giấy đựng thớt đều hư hỏng, do đó cô xả kho bán giá chỉ bằng một phần tư giá gốc.

Không riêng ca sĩ này mà nhiều người nổi tiếng khác đủ mọi lĩnh vực như bác sĩ, nhà khoa học, diễn viên hay thậm chí cả một số tỉ phú Việt Nam cũng bị dựng video giả mạo tương tự để bán đủ thứ, từ hàng hóa thông thường đến biệt thự, từ sách đến khóa học, từ thực phẩm chức năng đến thuốc cường dương... thượng vàng hạ cám.

Tội phạm tạo ra deepfake ngày càng khó phân biệt

Với những công cụ AI mạnh như vậy thì tội phạm mạng không dễ bỏ qua, đặc biệt là các băng nhóm lừa đảo trực tuyến. Sự lợi hại còn tăng lên hàng trăm lần do tội phạm còn trang bị những hệ thống AI “phi đạo đức” (unethical AI) cho phép bỏ qua mọi giới hạn, những việc mà AI thông thường sẽ từ chối thực hiện khi được yêu cầu. Cuối năm ngoái, trong các cuộc đột kích vào những trung tâm lừa đảo ở Campuchia, công an Việt Nam và nước bạn đã thu giữ được hàng trăm máy tính, máy chủ dùng AI để tạo ra video, giọng nói giả mạo (deepfake) để lừa đảo.

Nhờ có các công cụ AI nhân bản giọng nói và chuyển đổi gương mặt (face swap), tội phạm mạng dễ dàng lừa đảo, qua mặt sinh trắc học, tung thông tin giả. Ở Việt Nam đã có một số quý ông “hảo ngọt” làm quen với các cô gái xinh đẹp qua mạng và bị lừa mất tiền tỉ. Các “em gái” này ngọt ngào đề nghị chuyển khoản để cho ngắm cảnh thoát y. Các anh nào biết rằng, phía sau hậu trường chỉ là một gã đàn ông bặm trợn ngồi trước máy quay phim diễn xuất cởi đồ, uốn éo khêu gợi, còn video hiện ra phía bên kia là những cô gái nóng bỏng, trách sao tiền không chuyển nhanh được.

Mới đây, clip cảnh báo được admin một Group Facebook thực hiện cho thấy chỉ cần có vài ảnh chụp chân dung nhiều góc độ và giọng nói mẫu tầm 10 giây, họ có thể tạo ra video giả mạo y như thật trên các ứng dụng video call. Đây là bước tiến đáng sợ trong việc lừa đảo bằng deepfake vì chỉ mới một năm trước đây, kẻ lừa đảo chỉ mới làm được những video mờ ảo, không rõ mặt và miệng mấp máy. Do chưa thể tạo ra các video như thật, chúng thường lấy cớ đường truyền yếu để né tránh cuộc gọi video.

Để phòng ngừa bị lừa đảo, khi nhận cuộc gọi video call với những yêu cầu lạ, đặc biệt là chuyển tiền, hãy gọi lại bằng số điện thoại thường để kiểm chứng. Hạn chế đến mức thấp nhất việc đưa hình ảnh, video có giọng nói và các loại giấy tờ lên mạng xã hội. Thông tin chủ tài khoản có thể bị đánh cắp qua “đường vòng” khi một ai đó trong số bạn bè bị hack chiếm tài khoản.

Nay thì khác, chỉ cần vài thao tác đơn giản là kẻ gian có thể lấy khuôn mặt, giả dạng một cuộc gọi để lừa người khác. Đôi khi chính nạn nhân cung cấp cho kẻ gian “nguyên liệu” là hình ảnh, video đăng trên mạng xã hội ở chế độ công khai, nhất là những clip livestream chính chủ có đầy đủ khuôn mặt nhiều góc độ và giọng nói. Một khi đã có đủ dữ liệu giọng nói và gương mặt, kẻ lừa đảo có thể dùng deepfake để giả mạo cấp trên, giả giọng lãnh đạo gọi điện thoại, giả mạo người thân... để dựng ra những kịch bản để chiếm đoạt tiền.

Với mức độ tinh vi của công nghệ deepfake hiện nay, việc nhận diện lừa đảo là không dễ chút nào. Ngay cả những công cụ chuyên nghiệp cũng chỉ phát hiện được hơn 50% video giả mạo, điểu đó cho thấy sự tinh vi trong công nghệ này. Để phòng ngừa bị lừa đảo, khi nhận cuộc gọi video call với những yêu cầu lạ, đặc biệt là chuyển tiền, hãy gọi lại bằng số điện thoại thường để kiểm chứng.

Ngoài ra, cũng nên hạn chế tối đa việc đưa hình ảnh, video có giọng nói và các loại giấy tờ lên mạng xã hội. Kể cả khi không đặt thông tin ở chế độ bạn bè, không công khai thì chủ tài khoản vẫn có thể bị lấy thông tin qua “đường vòng” khi một ai đó trong số bạn bè bị hack chiếm tài khoản.

Song Nghi

Nguồn Saigon Times: https://thesaigontimes.vn/thoi-ai-tu-kol-ai-den-nan-deepfake/