Trung Quốc phân luồng watermark AI với những sản phẩm của AI
Mới đây, Trung Quốc chính thức áp dụng quy định buộc gắn nhãn 'watermark AI' cho nội dung do trí tuệ nhân tạo tạo ra nhằm tăng minh bạch và kiểm soát tin giả.

Mọi nội dung của AI tại Trung Quốc sẽ bị kiểm soát chặt chẽ.
Để đi đến quy định trên, Trung Quốc không thực hiện trong một sớm, một chiều mà đã thực hiện sự chuẩn bị lâu dài. Từ tháng 9 năm ngoái, Cục Quản lý Không gian mạng Trung Quốc (CAC) đã soạn thảo một quy định mới nhằm giúp người dân biết được liệu một nội dung là thật hay được tạo bởi AI.
Khi các công cụ AI tạo sinh ngày càng tinh vi, ranh giới giữa thật - giả trở nên khó phân định, gây ra hàng loạt hệ lụy nghiêm trọng, từ nội dung khiêu dâm thiếu kiểm duyệt cho tới thông tin sai lệch phục vụ chính trị.
Khung pháp lý mới: Ký hiệu công khai lẫn kỹ thuật cho mọi nội dung do AI tạo ra
Vào ngày 14.3.2025, Cục Quản lý Không gian mạng Trung Quốc (CAC), cùng Bộ Công nghiệp và Công nghệ Thông tin, Bộ Công an và Cơ quan Phát thanh - Truyền hình đã ban hành “Biện pháp về ký hiệu nội dung tổng hợp do AI tạo ra” (Measures for Labeling of AI-Generated Synthetic Content), chính thức có hiệu lực từ ngày 1.9.2025.
Cùng với đó là tiêu chuẩn quốc gia bắt buộc mang tên GB 45438-2025: Cybersecurity Technology – Labeling Method for Content Generated by Artificial Intelligence, được công bố đồng thời và có hiệu lực cùng ngày.
Theo quy định này, mọi nhà cung cấp dịch vụ tạo nội dung bằng AI, bao gồm văn bản, hình ảnh, âm thanh, video và cảnh thực tế ảo… đều phải gắn nhãn rõ ràng (explicit) và nhãn ẩn (implicit) cho sản phẩm của họ. Nhãn rõ ràng có thể là văn bản, biểu tượng, watermark AI hoặc âm thanh thông báo cho người dùng biết rằng nội dung này là do AI tạo ra.
Song song, phần metadata của tệp (file) phải được nhúng các thông tin ẩn như nguồn gốc, công ty sản xuất hoặc các dấu hiệu kỹ thuật để hệ thống, công cụ truy vết có thể nhận biết nội dung xuất phát từ AI.
Biện pháp này không chỉ nhằm minh bạch hóa nguồn gốc nội dung mà còn giúp ngăn chặn việc lan truyền thông tin sai lệch, giả mạo - đặc biệt là các deepfake hoặc nội dung tổng hợp có thể gây hại cho dư luận hoặc an ninh thông tin. Hơn nữa, quy định cấm việc xóa, giả mạo, che giấu hoặc chỉnh sửa các nhãn. Việc loại bỏ watermark AI hoặc sửa metadata bị xem là vi phạm.
Tác động thực tiễn & thách thức triển khai: Từ lý thuyết đến giám sát toàn diện
Quy định mới đã đặt trách nhiệm lớn hơn lên vai các nền tảng truyền thông trực tuyến. Theo Measures, các nền tảng phân phối nội dung, như mạng xã hội, ứng dụng video, cửa hàng ứng dụng… phải thiết lập cơ chế phát hiện, kiểm tra và gắn nhãn watermark AI dựa trên metadata hoặc dấu hiệu kỹ thuật. Họ cũng phải có hệ thống phản hồi khi người dùng báo cáo nội dung gắn sai nhãn, hoặc khi nghi ngờ nội dung được tạo bởi AI.
Ngoài ra, biện pháp yêu cầu lưu bảo toàn hồ sơ (log) về đường đi của nội dung, tức nền tảng phải ghi nhận lịch sử lan truyền, chuyển tiếp để đảm bảo khả năng truy vết. Điều này biến quy định thành một hệ thống quản lý “end-to-end”: từ khi AI tạo ra nội dung, cho đến khi người dùng cuối nhìn thấy và tương tác.
Tuy nhiên, việc triển khai vẫn không hề đơn giản. Các chuyên gia pháp lý chỉ ra rằng việc quy chuẩn hóa metadata vốn để nhãn ẩn có thể được nhận diện trên nhiều nền tảng, nhiều mô hình AI… là một nhiệm vụ kỹ thuật khó khăn và tiêu tốn thời gian.
Bên cạnh đó, các nền tảng cần xây dựng công cụ phát hiện nội dung AI, hệ thống báo cáo người dùng và quy trình phản ứng ngay khi phát hiện vi phạm. Chính điều này khiến chi phí tuân thủ tăng cao.
Trên thực tế, một số nền tảng lớn như WeChat, Douyin hoặc Weibo đã bắt đầu triển khai các cơ chế này. Theo báo cáo từ các hãng tin, họ đã phát thông báo cho người dùng về nhãn watermark AI và cho phép người dùng gắn nhãn hoặc báo cáo nội dung nhãn sai.
Đây là minh chứng rằng quy định không chỉ là lý thuyết mà đang vào giai đoạn thực thi và chính quyền Trung Quốc sẵn sàng xử lý nếu các nền tảng không tuân thủ nghiêm túc.
Đồng thời, việc thực thi đặt ra bài toán về quyền riêng tư và tự do ngôn luận: khi nền tảng cần lưu trữ metadata, logs người dùng và nguồn gốc nội dung, có lo ngại rằng người dùng có thể bị theo dõi kỹ hơn hoặc bị hạn chế khả năng biểu đạt. Việc cân bằng giữa kiểm soát nội dung AI và bảo vệ quyền cá nhân sẽ là một trong những thách thức lớn.
Nhìn về tương lai: Trung Quốc định hình tiêu chuẩn toàn cầu?
Trung Quốc không phải là quốc gia đầu tiên đối mặt vấn đề này. Đạo luật AI của Liên minh châu Âu, được thông qua vào tháng 3 năm ngoái, cũng yêu cầu gắn nhãn tương tự. Chính quyền bang California cũng vừa ban hành một dự luật như vậy trong tháng này. Trước đó, các quy định AI của Trung Quốc cũng đã đề cập đến yêu cầu gắn nhãn nội dung AI, nhưng chỉ ở mức sơ lược.
Tuy nhiên, chính sách mới này đưa ra hướng dẫn chi tiết hơn về cách các nền tảng phải triển khai hình thức “đánh dấu” watermark AI. Lần đầu tiên, nó cũng quy định xử phạt các nền tảng mạng xã hội nếu để nội dung do AI tạo ra lan truyền rộng rãi mà không được phân loại đúng. Do đó, rủi ro tài chính và pháp lý đối với các công ty AI và nền tảng số sẽ lớn hơn nhiều nếu họ muốn “đi đường tắt” và không triển khai hệ thống gắn nhãn đúng chuẩn.
Với quy định nghiêm ngặt này, Trung Quốc đang nỗ lực trở thành mô hình đi đầu trong quản trị AI. Việc áp dụng song song biện pháp quản lý (Measures) và tiêu chuẩn quốc gia (GB 45438-2025) đã tạo ra khung pháp lý rõ ràng, không chỉ là khuyến nghị mà là nghĩa vụ bắt buộc.
Một số chuyên gia quốc tế cho rằng đây có thể là bước khởi đầu cho một tiêu chuẩn kỹ thuật có khả năng lan tỏa toàn cầu. Mô hình gắn nhãn kép (công khai và ẩn) nhằm tăng minh bạch và truy vết nguồn gốc nội dung AI có thể được nhiều nước học theo, đặc biệt trong bối cảnh lo ngại về tin giả và deepfake.
Tuy vậy, giới phân tích vẫn cảnh báo rằng quy chuẩn hóa metadata và khả năng giám sát liên nền tảng là chuyện dài hơi. Việc hợp tác giữa các nhà phát triển AI, nền tảng mạng xã hội và cơ quan quản lý để thống nhất chuẩn kỹ thuật là điều cần nhiều năm thực hiện.














