Cảnh báo rủi ro từ trend tạo video bằng AI Veo 3
Sau thời điểm Google chính thức công bố công cụ tạo video AI Veo 3 tại sự kiện I/O 2025, mạng xã hội Việt Nam nhanh chóng trở thành 'điểm nóng' với hàng loạt video được tạo ra từ nền tảng này. Tuy nhiên, chia sẻ với phóng viên Chuyên trang Sinh Viên Việt Nam, các chuyên gia đã lên tiếng cảnh báo về nguy cơ bùng phát deepfake, tin giả khi sử dụng công cụ AI này.
Công cụ đột phá nhưng tiềm ẩn mặt tối
Anh Phạm Văn Hưng, hiện đang làm việc trong lĩnh vực công nghệ thông tin ở phường Hoàng Mai, Hà Nội nhận định: "Chỉ trong một thời gian ngắn, số lượng video tạo bằng Veo 3 tăng gấp nhiều lần. Đa phần là các video thử nghiệm, giới thiệu, quảng cáo sản phẩm, cửa hàng, tái hiện các tình huống thường ngày bằng lối kể chuyện hấp dẫn, hài hước".
Tuy nhiên, anh cũng cho biết dạo gần đây, trên các trang mạng xã hội đã xuất hiện nhiều bài đăng video sử dụng AI mang nội dung nhạy cảm, mang tính giật gân:
"Một số video dùng Veo 3 để mô phỏng lại hình ảnh người quen, ghép giọng nói giống thật đến mức khiến cả người trong cuộc cũng bị đánh lừa", anh Hưng nói thêm.
Veo 3 là phiên bản nâng cấp của công cụ tạo video bằng AI do Google phát triển, có khả năng dựng hình ảnh sống động đi kèm âm thanh từ giọng nói, tiếng động đến bối cảnh nền dựa trên câu lệnh văn bản. Đặc biệt, người dùng có thể tùy chỉnh nhân vật với gương mặt, biểu cảm và ngữ điệu theo ý muốn, khiến video trông “thật” hơn bao giờ hết.
Từ công cụ sáng tạo thành "vũ khí" lừa đảo?
Anh Nguyễn Ngọc Tuyên, chuyên gia công nghệ tại một công ty công nghệ thông tin toàn cầu đặt trụ sở tại Việt Nam, nhận định: “Veo 3 là bước nhảy vọt về công nghệ tạo video AI. Không chỉ dựng được cảnh, công cụ còn ghép giọng nói, biểu cảm và cử chỉ nhân vật tương thích với kịch bản đầu vào. Điều này khiến video trông không khác gì một đoạn phim quay thật".

Chuyên gia công nghệ Nguyễn Ngọc Tuyên.
Cũng theo anh Tuyên, chính mức độ “chân thật” này là lý do khiến Veo 3 trở thành công cụ lý tưởng của những kẻ gian để tạo ra thông tin giả:
“Chỉ với vài câu lệnh và vài phút xử lý, bất kỳ ai cũng có thể dựng lên một video y như người thật đang nói chuyện. Hệ quả là người dùng đại chúng vốn chưa có kỹ năng kiểm chứng thông tin rất dễ bị dẫn dắt, lan truyền thông tin sai lệch”, anh Tuyên nói.
Từ ngày 3/7, công cụ này đã được Google chính thức phát hành tại Việt Nam, được tích hợp trên chatbot Gemini với mức giá 489.000 đồng/tháng. Tuy vậy, với mức giá khá "chát" như hiện tại, cộng đồng mạng trong nước vẫn nhanh chóng tìm ra cách "vượt rào": sử dụng VPN, tạo tài khoản sinh viên ảo ở nước ngoài để chuyển sang gói Ultra với chi phí thấp, thậm chí là miễn phí.
Theo chuyên gia công nghệ Nguyễn Ngọc Tuyên, hành vi này không chỉ vi phạm điều khoản sử dụng của Google mà còn tiềm ẩn rủi ro bảo mật: “Các gói dịch vụ lậu, mua bán tài khoản được chia sẻ tràn lan trên mạng xã hội, đi kèm nguy cơ lộ thông tin cá nhân, bị gài mã độc, đánh cắp tài khoản. Không ít người vì ham rẻ mà mất trắng tiền bạc, các kênh mạng xã hội và thông tin cá nhân”.
Mặc dù vào ngày 5/6 vừa qua, Google đã tiến hành chặn chuyển đổi bất thường giữa các gói tài khoản, đồng thời siết lại cơ chế xác thực để hạn chế gian lận. Tuy nhiên, theo anh Ngọc Tuyên, điều này chỉ giảm tốc độ chứ chưa thể ngăn chặn hoàn toàn làn sóng người dùng lách luật để trải nghiệm Veo 3.
Một trong những hệ lụy nghiêm trọng được chuyên gia đặc biệt nhấn mạnh là hiện tượng “xói mòn lòng tin trực tuyến”. Khi người dùng tiếp xúc với quá nhiều nội dung AI giống thật nhưng không chính xác, người dùng dần mất niềm tin vào những gì mình thấy.
Anh khuyến nghị: “Cách bảo vệ tốt nhất hiện nay là tăng cường nhận thức cộng đồng. Người dùng cần tập thói quen xác minh thông tin, kiểm tra từ nhiều nguồn, đặc biệt là các kênh báo chí chính thống”.
Dù Google đã tích hợp watermark SynthID để nhận diện video AI, các chuyên gia cho rằng công cụ kỹ thuật chỉ là một phần. Luật pháp cần theo kịp để xử lý các hành vi vi phạm nghiêm trọng như giả mạo danh tính, lừa đảo qua video AI, deepfake xúc phạm nhân phẩm.

Luật sư Đường Nam Khánh, Đoàn Luật sư Hà Nội.
“Khi AI tạo nội dung nhanh hơn cả một phóng viên chuyên nghiệp, câu hỏi đặt ra là: ai chịu trách nhiệm? Người tạo prompt? Nền tảng? Hay người chia sẻ?”, luật sư Đường Nam Khánh, Đoàn Luật sư Hà Nội đặt vấn đề. Ông cho rằng Việt Nam cần sớm xây dựng hành lang pháp lý dành riêng cho nội dung do AI tạo ra, trong đó quy định rõ trách nhiệm người dùng, đơn vị phát triển và cơ chế xử lý nếu phát hiện vi phạm.
"Công nghệ AI hiện nay là một con dao hai lưỡi. Veo 3 là bước đột phá của thời đại video AI, nhưng nếu không được kiểm soát đúng chừng mực, công nghệ này có thể trở thành nguyên nhân khiến xã hội rơi vào khủng hoảng niềm tin. Trong lúc chờ khung pháp lý theo kịp, chính người dùng cần trở thành 'bộ lọc đầu tiên' để bảo vệ mình và cộng đồng khỏi những 'cú lừa' mang tên trí tuệ nhân tạo", luật sư nhận định.