Meta triển khai nhiều lớp kiểm soát để tuân thủ quy định gắn nhãn nội dung AI tại Việt Nam
Trước yêu cầu mới của pháp luật Việt Nam về nhận diện nội dung do trí tuệ nhân tạo tạo ra, Meta cho biết đã áp dụng hệ thống kiểm soát nhiều lớp, kết hợp công nghệ và chính sách nhằm phát hiện, gắn nhãn và hạn chế rủi ro từ nội dung AI trên các nền tảng.
Từ ngày 1/3/2026, quy định pháp lý về trí tuệ nhân tạo tại Việt Nam chính thức có hiệu lực, yêu cầu các nội dung như hình ảnh, âm thanh, video do AI tạo ra phải có dấu hiệu nhận biết nhằm phân biệt với nội dung thật. Quy định này hướng tới việc hạn chế tình trạng giả mạo, deepfake và bảo vệ người dùng trên môi trường số.

Meta siết quản lý nội dung AI theo luật mới tại Việt Nam.
Trước yêu cầu này, đại diện Meta cho biết doanh nghiệp đã triển khai hệ thống kiểm soát theo cấu trúc ba lớp để đảm bảo tuân thủ. Ở cấp độ chính sách, các nội dung do AI tạo ra vẫn chịu sự điều chỉnh của bộ “Tiêu chuẩn cộng đồng”, tương tự nội dung do người dùng đăng tải. Những nội dung vi phạm, chẳng hạn liên quan đến bạo lực hoặc gây hại, sẽ bị gỡ bỏ.
Ở cấp độ thực thi, Meta áp dụng đồng thời ba biện pháp gồm gỡ bỏ, giảm mức độ lan tỏa và bổ sung thông tin. Theo đó, nội dung AI vi phạm sẽ bị xóa; các nội dung chưa vi phạm nhưng có nguy cơ gây hiểu nhầm sẽ bị hạn chế tiếp cận; đồng thời nền tảng cung cấp thêm thông tin để người dùng nhận diện.
Lớp thứ ba là minh bạch thông tin. Meta sử dụng các tiêu chuẩn nhận diện AI ở quy mô toàn cầu để phát hiện nội dung do trí tuệ nhân tạo tạo ra, từ đó gắn nhãn như “AI info” trên các định dạng video, hình ảnh hoặc âm thanh. Trong một số trường hợp, đặc biệt với nội dung có ხარისხ cao, nền tảng còn bổ sung nhãn như “Imagined with AI” nhằm tăng khả năng nhận biết cho người dùng.
Quá trình gắn nhãn được thực hiện dựa trên cả khai báo của người dùng và hệ thống tự động. Ngay cả khi không có khai báo, các công cụ của Meta vẫn có thể phát hiện và xử lý nội dung liên quan đến AI.
Đáng chú ý, doanh nghiệp này cũng sử dụng chính công nghệ AI để kiểm soát nội dung AI. Các hệ thống tự động có khả năng quét, phát hiện và thậm chí xử lý nội dung vi phạm từ sớm, trước khi chúng tiếp cận người dùng.
Việc triển khai các biện pháp trên được xem là bước đi nhằm tăng cường minh bạch thông tin và bảo vệ người dùng trong bối cảnh nội dung do AI tạo ra ngày càng phổ biến. Đồng thời, đây cũng là một phần trong nỗ lực của các nền tảng xuyên biên giới để thích ứng với khung pháp lý ngày càng hoàn thiện tại Việt Nam trong lĩnh vực công nghệ số.











