Chỉ đạo mới nhất về Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao

Ngày 3/3/2026, Bộ Khoa học và Công nghệ ban hành Công văn 1101/BKHCN-CNS&CĐS về việc đề xuất Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao.

Theo Công văn 1101/BKHCN-CNS&CĐS, Bộ Khoa học và Công nghệ đề nghị các bộ, ngành, địa phương căn cứ Luật Trí tuệ nhân tạo 2025, số 134/2025/QH15, đặc biệt là tại Điều 9 và Điều 14; Luật Ban hành văn bản quy phạm pháp luật để đề xuất các hệ thống trí tuệ nhân tạo thuộc Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao.

Theo đó, thực hiện Luật Trí tuệ nhân tạo 2025 và nhiệm vụ được Thủ tướng Chính phủ giao tại Quyết định 2835/QĐ-TTg năm 2025 về ban hành Danh mục và phân công cơ quan chủ trì soạn thảo văn bản quy định chi tiết thi hành các luật, nghị quyết được Quốc hội khóa XV thông qua tại Kỳ họp thứ 10.

Bộ Khoa học và Công nghệ (Bộ KHCN) đã chủ trì, phối hợp với các cơ quan liên quan xây dựng dự thảo Quyết định của Thủ tướng Chính phủ ban hành Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao.

Ngoài ra, các cơ quan còn cần đề xuất Danh mục hệ thống trí tuệ nhân tạo phải chứng nhận sự phù hợp trước khi đưa vào sử dụng.

Anh minh họa: KT

Anh minh họa: KT

Việc đề xuất được thực hiện theo Biểu mẫu 01 và Biểu mẫu 02 tại Phụ lục I kèm theo Công văn.

Theo nội dung trích dẫn từ dự thảo Nghị định quy định chi tiết thi hành Luật Trí tuệ nhân tạo, Danh mục hệ thống AI rủi ro cao được xây dựng theo Điều 7 và Điều 8 của dự thảo Nghị định.

Theo khoản 1 Điều 7 dự thảo Nghị định, Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao do Thủ tướng Chính phủ ban hành bao gồm:

- Các hệ thống trí tuệ nhân tạo được xác định là có rủi ro cao;

- Các hệ thống trí tuệ nhân tạo bắt buộc phải chứng nhận sự phù hợp trước khi đưa vào sử dụng.

Bộ Khoa học và Công nghệ có trách nhiệm chủ trì, phối hợp với các bộ, cơ quan ngang bộ xây dựng và trình Thủ tướng ban hành hoặc sửa đổi Danh mục này.

Theo quy định tại Điều 3 Luật Trí tuệ nhân tạo 2025 thì việc phân loại mức độ rủi ro của hệ thống trí tuệ nhân tạo được thực hiện như sau:

- Hệ thống trí tuệ nhân tạo được phân loại theo các mức độ rủi ro sau đây:

+ Hệ thống trí tuệ nhân tạo có rủi ro cao là hệ thống có thể gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền và lợi ích hợp pháp của tổ chức, cá nhân, lợi ích quốc gia, lợi ích công cộng, an ninh quốc gia;

+ Hệ thống trí tuệ nhân tạo có rủi ro trung bình là hệ thống có khả năng gây nhầm lẫn, tác động hoặc thao túng người sử dụng do không nhận biết được chủ thể tương tác là hệ thống trí tuệ nhân tạo hoặc nội dung do hệ thống tạo ra;

+ Hệ thống trí tuệ nhân tạo có rủi ro thấp là hệ thống không thuộc trường hợp quy định tại điểm a và điểm b khoản 1 Điều 3 Luật Trí tuệ nhân tạo 2025.

- Việc phân loại rủi ro của hệ thống trí tuệ nhân tạo được xác định trên cơ sở các tiêu chí về mức độ tác động đến quyền con người, an toàn, an ninh; lĩnh vực sử dụng của hệ thống, đặc biệt là lĩnh vực thiết yếu hoặc liên quan trực tiếp đến lợi ích công cộng; phạm vi người sử dụng và quy mô ảnh hưởng của hệ thống.

PV/VOV.VN (T.H)

Nguồn VOV: https://vov.vn/cong-nghe/chi-dao-moi-nhat-ve-danh-muc-he-thong-tri-tue-nhan-tao-co-rui-ro-cao-post1272852.vov