Sự thật về clip Phương Mỹ Chi, Hương Giang bình luận game
Hàng loạt video sử dụng giọng nói người nổi tiếng được tạo từ AI để bình luận game, highlight thể thao, mang tính hài hước nhưng cũng cần kiểm soát chặt chẽ.

Giọng một số người nổi tiếng được dùng để bình luận game. Ảnh: Meta.
Gần đây, trên mạng xã hội, chủ yếu là TikTok, xuất hiện hàng loạt video quay màn hình khi chơi game, nhưng đáng chú ý giọng bình luận lại đến từ những người nổi tiếng. Một số nghệ sĩ được lồng giọng như Hương Giang, Bích Phương, Phương Mỹ Chi hay các TikToker như Huy Forum, Thơ Nguyễn, Jenny Huỳnh để phân tích, bình luận game Liên quân Mobile, thể thao…
Tuy vậy, không nghệ sĩ nào thật sự lồng tiếng cho những video đó, mà do người dùng sử dụng AI để nhại lại giọng của họ. Theo hướng dẫn từ một tài khoản, người này đã sử dụng công cụ có tên Minimax để chuyển đổi văn bản sang giọng nói.
Minimax Techonology là một công ty AI của Trung Quốc, nổi tiếng với khả năng nhân bản giọng nói (voice cloning) chỉ từ một đoạn ghi âm ngắn. Minimax, cùng một số nền tảng khác như OpenAI TTS, ElevenLabs đã hạ thấp rào cản kỹ thuật, cho phép mọi người tạo giọng của bất kỳ ai.
Minimax được hậu thuẫn bởi các tập đoàn lớn như Tencent, Alibaba và nhiều quỹ đầu tư mạo hiểm. Khách hàng của công ty nằm trong nhiều ngành, như game, giáo dục, tài chính, giải trí với mục đích phổ biến là lồng tiếng video game, bình luận highlight thể thao, ghép vào video hài.
Các clip ngắn sử dụng giọng nói người nổi tiếng có khả năng lan truyền mạnh, dễ thành xu hướng. Người xem sẽ cảm thấy mới lạ, thú vị khi nghe người nổi tiếng mình yêu thích bình luận game hay nói những câu đang thịnh hành.
Đa số mọi người đều nhận ra đây là giọng từ AI, và cố tình bình luận khen giọng của người nổi tiếng đấy. Một số chính chủ như Hương Giang, Huy Forum cũng tỏ ra thích thú khi giọng của mình được sử dụng khá hài hước và đăng lại nội dung.

Hương Giang và Huy Forum đều đăng lại các video AI dùng giọng mình. Ảnh: TikTok.
Chỉ cần vài bản thu âm có sẵn, người dùng chỉ cần điền vào nội dung muốn nhái lại, và chờ đợi vài phút để có một bản hoàn chỉnh. Do đó, rất nhiều tài khoản mới được lập ra, ví dụ theo cú pháp tên người nổi tiếng đi kèm với tựa game, để đăng tải các video như thế. “Gần như không còn người nổi tiếng nào không chơi Liên quân”, một bình luận đùa.
Dù mang đến sự giải trí cho không gian mạng, một số người dùng đã khai thác tính năng này với mục đích xấu. Các vụ lừa đảo bằng deepvoice đã trở nên ngày càng tinh vi, khi sử dụng giọng người thân trong tình huống khẩn cấp để ép chuyển tiền tức thì.
Tại Việt Nam, một kiểu lừa đảo rộ lên gần đây là gọi cho các phụ huynh, thông báo con, em mình đang bị tai nạn, cần chuyển tiền ngay để làm phẫu thuật.
Tại nước ngoài, một giám đốc công ty tại Anh bị lừa hơn 240.000 USD sau khi nghe "sếp" yêu cầu chuyển tiền qua điện thoại. Một nhân viên tài chính tài Hong Kong bị lừa chuyển khoản 3,3 triệu USD sau khi nhận cuộc gọi từ “giám đốc".
Tại Trung Quốc, Minimax và các công ty AI giọng nói thường quy định “không dùng giọng người thật khi chưa được phép”, nhưng thực tế rất khó kiểm soát. Công nghệ này cũng khá giống với deepfake sử dụng gương mặt người nổi tiếng, khác ở đây là giọng nói, để quảng cáo trái phép, phát ngôn gây tranh cãi, tin giả.
Nhiều nghệ sĩ quốc tế như Drake, The Weeknd từng lên tiếng khi ca khúc “AI cover” dùng giọng họ để lan truyền. Vấn đề xâm phạm quyền riêng tư, lan truyền tin giả bằng AI cũng đang gây tranh cãi trên nhiều nước trên thế giới, nhằm thiết lập khung pháp lý phù hợp.
Voice cloning ngoài lồng tiếng video giải trí như trên còn có thể được dùng cho mục đích tích cực như tái hiện giọng người thân đã mất, hỗ trợ người mất giọng nói. Tuy nhiên, bất kỳ người nào được sử dụng giọng nói đều nên được biết về sự việc, nhằm kiểm soát hiệu quả, giảm nguy cơ lạm dụng cao.