EU siết quản lý trí tuệ nhân tạo, hoàn thiện các quy định lớn từ năm 2026
Liên minh Châu Âu (EU) đang đẩy nhanh việc triển khai Đạo luật Trí tuệ nhân tạo (AI Act) - khuôn khổ pháp lý toàn diện đầu tiên trên thế giới nhằm quản lý việc phát triển và ứng dụng AI. Mới đây, Ủy ban Châu Âu đã công bố dự thảo mới về quy tắc gắn nhãn nội dung do AI tạo ra, góp phần hoàn thiện các quy định quan trọng được áp dụng rộng rãi từ năm 2026.

Đạo luật AI được Ủy ban Châu Âu hoàn thiện nhằm đặt ra một khuôn khổ quản lý đối với AI trên toàn EU. Ảnh minh họa
Ngày 5.3.2026, Ủy ban Châu Âu công bố bản dự thảo thứ hai của Bộ quy tắc thực hành về đánh dấu và gắn nhãn nội dung do AI tạo ra, nhằm giúp các nhà phát triển và các nền tảng công nghệ tuân thủ yêu cầu minh bạch trong việc sử dụng trí tuệ nhân tạo.
Theo dự thảo này, các hệ thống AI tạo nội dung sẽ phải áp dụng những biện pháp kỹ thuật như gắn watermark, metadata hoặc các dấu nhận dạng số để người dùng có thể nhận biết khi một hình ảnh, video, âm thanh hay văn bản được tạo ra bởi AI.
Quy định cũng đặc biệt nhấn mạnh việc gắn nhãn rõ ràng đối với deepfake hoặc những nội dung liên quan đến các vấn đề công cộng, nhằm hạn chế nguy cơ lan truyền thông tin sai lệch và bảo vệ người dùng trong môi trường số. Ủy ban Châu Âu đang tiếp tục lấy ý kiến các bên liên quan trước khi hoàn thiện bộ quy tắc chính thức, dự kiến công bố trong năm 2026.
Trước đó, Đạo luật AI của EU có hiệu lực từ ngày 1.8.2024 nhưng được triển khai theo lộ trình nhiều giai đoạn để các quốc gia thành viên và doanh nghiệp có thời gian thích ứng.
Theo kế hoạch, phần lớn các quy định quan trọng của luật sẽ bắt đầu áp dụng từ ngày 2.8.2026, đặc biệt là những yêu cầu đối với các hệ thống AI được xếp vào nhóm “rủi ro cao”. Các hệ thống này, thường xuất hiện trong những lĩnh vực như y tế, tuyển dụng, tài chính, giao thông hay giáo dục, phải đáp ứng các tiêu chuẩn nghiêm ngặt về quản lý dữ liệu, đánh giá rủi ro, kiểm soát của con người và tính minh bạch trước khi được đưa vào sử dụng.
Bên cạnh đó, luật cũng quy định cấm một số ứng dụng AI bị coi là gây rủi ro nghiêm trọng đối với quyền con người, chẳng hạn các hệ thống chấm điểm xã hội hoặc một số hình thức giám sát sinh trắc học quy mô lớn. Các quốc gia thành viên EU đồng thời được khuyến khích xây dựng những “sandbox pháp lý” - môi trường thử nghiệm có kiểm soát - để doanh nghiệp phát triển và kiểm tra các ứng dụng AI mới trước khi đưa ra thị trường.
Với quy mô thị trường lớn và vai trò dẫn dắt trong quản trị công nghệ, Đạo luật AI của EU được nhiều chuyên gia nhận định sẽ tạo ra chuẩn mực mới trong quản lý trí tuệ nhân tạo trên toàn cầu. Các doanh nghiệp công nghệ quốc tế muốn cung cấp sản phẩm hoặc dịch vụ AI tại thị trường EU đều phải tuân thủ các quy định của luật này.
Trong bối cảnh AI phát triển nhanh chóng, kinh nghiệm xây dựng khung pháp lý của EU cũng được xem là nguồn tham khảo quan trọng đối với nhiều quốc gia, trong đó có Việt Nam, trong quá trình hoàn thiện chính sách quản lý và thúc đẩy phát triển trí tuệ nhân tạo theo hướng an toàn, minh bạch và lấy con người làm trung tâm.
Đối với Vietnam, kinh nghiệm xây dựng khung pháp lý của EU được xem là nguồn tham khảo quan trọng trong quá trình hoàn thiện chính sách quản lý trí tuệ nhân tạo. Chính phủ Việt Nam hiện đang triển khai Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030, đồng thời nghiên cứu các quy định liên quan đến quản trị dữ liệu, đạo đức AI và kiểm soát rủi ro công nghệ.
Việc theo dõi và tham khảo mô hình quản lý AI của EU có thể giúp Việt Nam xây dựng khung pháp lý phù hợp, vừa thúc đẩy đổi mới sáng tạo vừa bảo đảm an toàn và quyền lợi của người dùng trong kỷ nguyên trí tuệ nhân tạo.













