Công nghệ AI tạo video như thật: Tiện ích vượt trội hay mối lo ngại mới?
Công nghệ AI đang mở ra kỷ nguyên mới trong sáng tạo hình ảnh, nhưng cũng đồng thời đặt ra những thách thức về đạo đức, pháp lý và nhận thức cộng đồng khi ranh giới giữa thật và giả ngày càng mong manh.
Google DeepMind mới đây giới thiệu Veo3, công nghệ AI có khả năng tạo video sống động, chân thực đến mức khó phân biệt với hình ảnh do con người quay dựng. Chỉ từ vài dòng mô tả văn bản, người dùng có thể tạo nên các đoạn phim có độ phân giải cao, ánh sáng, chuyển động và khung hình mượt mà như sản phẩm chuyên nghiệp.
Tuy nhiên, bên cạnh những tiềm năng ứng dụng tích cực, Veo3 và các công nghệ tương tự cũng đặt ra không ít thách thức, đặc biệt là nguy cơ bị kẻ xấu lợi dụng để sản xuất các video giả mạo, sai lệch thông tin, hoặc tạo ra nội dung phản cảm, gây ảnh hưởng xấu tới cộng đồng.
Khó phân biệt thật - giả
Chỉ cần vài phút lướt TikTok, Facebook,... người dùng có thể bắt gặp hàng loạt video do AI tạo ra. Các video có nội dung đa dạng từ cảnh quan giả tưởng, nhân vật hoạt hình cho đến hình ảnh người nổi tiếng "phát ngôn", "xuất hiện" trong những tình huống chưa từng xảy ra. Không ít video có tốc độ lan tỏa khủng khiếp, với hàng triệu lượt xem, chia sẻ...
Hợp tác quốc tế về xây dựng và thực thi các chính sách về AI
Lực lượng thực thi pháp luật cần tuyên truyền sâu rộng đến người dân về các hình thức lừa đảo, đánh cắp thông tin để người dân có thể nâng cao cảnh giác.
Hiện Mỹ, Liên minh châu Âu, Hàn Quốc... đã xây dựng bộ quy tắc dành riêng cho nội dung AI, bao gồm cả yêu cầu dán nhãn bắt buộc, chế tài với hành vi lợi dụng AI gây tổn hại cộng đồng và đầu tư công nghệ kiểm duyệt nội dung số.
Việt Nam cũng phải chủ động, hợp tác quốc tế về xây dựng và thực thi các chính sách về AI ngay bây giờ vì đây là vấn đề mang tính toàn cầu.
Luật sư PHÙNG THỊ HUYỀN, Đoàn Luật sư TP.HCM
Tuy nhiên, điều đáng lo ngại là các video này hoàn toàn không có dấu hiệu nào để nhận biết là sản phẩm của AI.
Anh Nguyễn Thành Long (33 tuổi, nhân viên thiết kế đồ họa, quận Gò Vấp, TP.HCM) kể rằng anh từng tưởng thật khi xem một đoạn video ghi lại cảnh một nhân vật nổi tiếng bình luận về một vấn đề xã hội. “Tôi suýt tin là thật nếu không kiểm tra kỹ. Chỉ cần gắn thêm logo một kênh tin tức giả, người xem dễ dàng bị dẫn dắt. Điều này rất nguy hiểm nếu bị lợi dụng cho mục đích chính trị hoặc truyền bá sai lệch” - anh cảnh báo.
Còn chị Vũ Thị Kim Ngân (chủ cửa hàng online, quận Tân Phú, TP.HCM) chia sẻ thực tế đáng báo động: “Tôi thấy nhiều shop dùng video giống như có người nổi tiếng giới thiệu sản phẩm. Hỏi lại mới biết là video do AI dựng. Điều này đánh vào tâm lý tin tưởng của người tiêu dùng, nhất là phụ nữ và người lớn tuổi”.
Không chỉ dừng lại ở giải trí, nguy cơ AI bị lạm dụng để sản xuất video tuyên truyền gây hoang mang dư luận hoặc lừa đảo tài chính cũng đang hiện hữu, nhất là khi Deepfake (phương tiện tổng hợp đã được điều khiển bằng kỹ thuật số để thay thế chân dung của người này bằng chân dung của người khác) và các công nghệ tương tự ngày càng dễ tiếp cận với người dùng phổ thông.

Công nghệ AI có khả năng tạo video sống động, chân thực đến mức khó phân biệt với hình ảnh do con người quay dựng. Ảnh: Chụp màn hình
Nên bắt buộc dán nhãn nội dung do AI tạo ra
Liên quan đến các quy định pháp luật về trí tuệ nhân tạo (AI), luật sư Đỗ Khắc Tất Hưng, Đoàn Luật sư TP.HCM, đánh giá rằng hiện pháp luật Việt Nam chưa có quy định riêng điều chỉnh trực tiếp AI.

Luật sư ĐỖ KHẮC TẤT HƯNG
Các quy định hiện tại chủ yếu chỉ đề cập gián tiếp, ví dụ như trong lĩnh vực sở hữu trí tuệ (Luật Sở hữu trí tuệ 2005), bảo vệ dữ liệu cá nhân (Luật Dữ liệu 2024, Nghị định 13/2023 về bảo vệ dữ liệu cá nhân) và an ninh mạng (Luật An ninh mạng 2018, Luật An toàn thông tin mạng 2015).
Tuy chưa có khung pháp lý chuyên biệt nhưng trong trường hợp AI bị lạm dụng để phát tán thông tin sai lệch, bịa đặt hoặc xúc phạm danh dự, nhân phẩm người khác, người thực hiện hành vi vẫn phải chịu trách nhiệm pháp lý theo các quy định hiện hành.
Cụ thể, theo điểm a, d khoản 1 Điều 8 và khoản 1 Điều 18 Luật An ninh mạng 2018, hành vi đưa thông tin bịa đặt, sai sự thật gây hoang mang trong nhân dân là hành vi bị nghiêm cấm. Người vi phạm có thể bị xử phạt hành chính 5-10 triệu đồng theo điểm a khoản 1 Điều 101 Nghị định 15/2020 (đối với tổ chức, mức phạt gấp đôi), đồng thời bị buộc gỡ bỏ nội dung vi phạm.
Trong trường hợp nghiêm trọng hơn, nếu phát tán thông tin sai lệch nhằm xúc phạm danh dự cá nhân người vi phạm có thể bị truy cứu trách nhiệm hình sự theo Điều 156 (tội vu khống); trường hợp làm, tàng trữ, phát tán tài liệu nhằm chống phá nhà nước thì có thể bị truy cứu trách nhiệm hình sự theo Điều 117 Bộ luật Hình sự 2015.
Mặc dù đã có các quy định mang tính nguyên tắc về trách nhiệm đối với người dùng nhưng pháp luật hiện hành cần bổ sung các quy định cụ thể đủ khả năng điều chỉnh các vấn đề phát sinh từ AI.
Theo LS Hưng, một trong những biện pháp quan trọng là buộc các nhà phát triển sản phẩm AI tích hợp vào sản phẩm của mình những giới hạn nhất định để hạn chế vi phạm từ nguồn, nhằm đảm bảo rằng các sản phẩm do AI tạo ra không vi phạm đạo đức, không phát tán thông tin sai lệch hay gây nguy hại cho xã hội, ngay cả khi người dùng cố tình sử dụng câu lệnh (prompt) yêu cầu tạo ra nội dung vi phạm.
Ngoài ra, việc bắt buộc gắn nhãn phân biệt cho nội dung do AI tạo ra cũng là cần thiết, giúp người sử dụng dễ dàng nhận diện đâu là sản phẩm của con người, đâu là của AI. Bên cạnh đó cũng cần quy định rõ trách nhiệm pháp lý đối với tổ chức và cá nhân phát triển AI. Nếu sản phẩm do AI tạo ra là vi phạm pháp luật hoặc gây thiệt hại, các bên liên quan bao gồm cả nhà phát triển, người dùng tạo câu lệnh và người đăng tải đều phải chịu trách nhiệm tùy mức độ.
Các quy định cũng cần yêu cầu các nhà phát triển AI lưu trữ đầy đủ lịch sử truy cập và các câu lệnh khởi tạo sản phẩm AI của người dùng trong một khoảng thời gian nhất định. Điều này giúp cơ quan có thẩm quyền có thể yêu cầu nhà phát triển cung cấp và truy xuất thông tin khi người dùng sử dụng sản phẩm AI vi phạm pháp luật, phục vụ cho công tác điều tra và xử lý vi phạm.
Cần khẩn trương xây dựng nguyên tắc quản lý AI
Các công nghệ như Veo (công cụ AI tạo video cực kỳ chân thật) có tiềm năng lớn trong sáng tạo nội dung, giáo dục, điện ảnh, truyền thông…
Tuy nhiên, nếu không kiểm soát, chúng cũng có thể bị lợi dụng để sản xuất video giả mạo, nội dung khiêu dâm, xuyên tạc chính trị hoặc phát tán thông tin sai lệch.
Ông NGÔ MINH HIẾU
Ví dụ, một video do AI dựng lại hình ảnh một người nổi tiếng kêu gọi đầu tư hoặc ủng hộ hành vi vi phạm pháp luật có thể gây ảnh hưởng nghiêm trọng về danh tiếng và pháp lý, nhưng không thể xử lý kịp nếu không có cơ chế kiểm soát ngay từ nền tảng.
Do đó, Việt Nam cần sớm ban hành bộ nguyên tắc đạo đức và pháp lý trong việc sử dụng AI trên không gian mạng, đặc biệt là trong việc tạo, chia sẻ nội dung bằng AI.
Tôi có một số đề xuất như sau:
- Bắt buộc các video AI phải có nhãn cảnh báo rõ ràng rằng nội dung được tạo bằng trí tuệ nhân tạo.
- Mạng xã hội phải có trách nhiệm phát hiện, kiểm duyệt nội dung deepfake độc hại và cung cấp công cụ tố cáo hiệu quả cho người dùng.
- Người tạo hoặc chia sẻ nội dung sai sự thật, bôi nhọ, xúc phạm bằng công cụ AI cần bị xử lý theo quy định pháp luật hiện hành.
- Vì nội dung này lan truyền xuyên biên giới, Việt Nam cần có hợp tác với các nền tảng lớn như Google, Meta, TikTok để gỡ bỏ nhanh nội dung vi phạm và truy vết kẻ xấu.
- Người dân cần tự trang bị kỹ năng nhận biết nội dung giả mạo, cảnh giác với các video không rõ nguồn gốc, và tránh chia sẻ thông tin chưa kiểm chứng.
Ông NGÔ MINH HIẾU, cựu cộng tác viên của Trung tâm Giám sát và An toàn không gian mạng Quốc gia (Cục An toàn thông tin, Bộ TT&TT cũ)