Cần đưa ra các tiêu chí cụ thể để quy định mức độ rủi ro hệ thống trí tuệ nhân tạo
Thành viên Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Quang Huân đề nghị cần quy định rõ hơn định nghĩa mức độ rủi ro hệ thống trí tuệ nhân tạo bằng các tiêu chí cụ thể; ví dụ: gây chết người là rủi ro cao, gây bị thương là rủi ro trung bình…để dễ hiểu, dễ áp dụng hơn.

Đại biểu Nguyễn Quang Huân – thành viên Ủy ban Khoa học, Công nghệ và Môi trường phát biểu tại Phiên họp
Chiều 12/11, tại Trụ sở các cơ quan của Quốc hội, Ủy ban Khoa học, Công nghệ và Môi trường tổ chức Phiên họp toàn thể lần thứ 15, thẩm tra dự án Luật Trí tuệ nhân tạo.
Một vấn đề chính được nhiều đại biểu quan tâm cho ý kiến đó là về mức độ rủi ro hệ thống AI (Điều 7), quy định Hệ thống trí tuệ nhân tạo (AI) được phân loại thành 4 cấp độ rủi ro để áp dụng các biện pháp quản lý tương ứng, gồm: Rủi ro không chấp nhận được, rủi ro cao, rủi ro trung bình và rủi ro thấp.
Đại biểu Nguyễn Quang Huân – thành viên Ủy ban Khoa học, Công nghệ và Môi trường nhận định, quy định như dự thảo Luật còn mang tính định tính và rất khó xác định. Các khái niệm đưa ra quá chung chung, thiếu nội hàm rõ ràng, gây khó khăn trong việc xác định và áp dụng sau này.
Do vậy, cần quy định rõ hơn định nghĩa mức độ rủi ro bằng các tiêu chí cụ thể; ví dụ: gây chết người là rủi ro cao, gây bị thương là rủi ro trung bình…để dễ hiểu, dễ áp dụng hơn.
Cùng cho ý kiến về định nghĩa Hệ thống AI rủi ro cao (Điều 7.2), Phó Tổng thư ký của Liên đoàn Thương mại và Công nghiệp Việt Nam (VCCI) Đậu Anh Tuấn cho rằng, định nghĩa hiện đang được quy định trong dự thảo Luật quá rộng, bất cứ phương tiện hay sản phẩm nào, nếu người dùng lạm dụng, cũng có thể ảnh hưởng đến sức khỏe. Nếu chỉ quy định là "có thể gây thiệt hại" thì mức độ chưa đủ để coi là rủi ro cao.
Do đó, ông Đậu Anh Tuấn đề xuất cần bổ sung thêm cụm từ "gây thiệt hại nghiêm trọng" để giới hạn phạm vi. Chỉ khi thiệt hại đạt mức nghiêm trọng thì hệ thống AI mới nên được phân loại vào nhóm rủi ro cao, tương xứng với tổn thất.

Phó Tổng Thư ký của Liên đoàn Thương mại và Công nghiệp Việt Nam (VCCI) Đậu Anh Tuấn cho ý kiến tại Phiên họp
Cùng bày tỏ băn khoăn về quy định 4 mức rủi ro hệ thống AI như dự thảo Luật, Ủy viên là đại biểu Quốc hội hoạt động chuyên trách tại Ủy ban Pháp luật và Tư pháp của Quốc hội Đồng Ngọc Ba cho rằng, quy định như hiện nay là chưa tương thích với Luật Chất lượng sản phẩm hàng hóa hiện hành (chỉ có ba mức: thấp, trung bình, cao). Do đó, đề nghị cần rà soát lại để đảm bảo tính thống nhất này.

Ủy viên là đại biểu Quốc hội hoạt động chuyên trách tại Ủy ban Pháp luật và Tư pháp Đồng Ngọc Ba cho ý kiến tại Phiên họp
Tiếp tục cho ý kiến về mức độ rủi ro hệ thống AI, Luật phân chia rủi ro thành 4 mức độ và quản lý 4 chủ thể (nhà phát triển, nhà cung cấp, bên triển khai, người sử dụng). Đại biểu Nguyễn Thị Lệ Thủy - thành viên Ủy ban Khoa học, Công nghệ và Môi trường đánh giá, việc phân định trách nhiệm trong Luật hiện còn chưa rõ ràng. Vai trò và khả năng gây ra rủi ro của người sử dụng được quy định rất mờ nhạt. Nghĩa vụ và trách nhiệm cụ thể đối với từng nhóm đối tượng (khi họ phát triển, cung cấp hoặc sử dụng) thì chưa được nêu rõ.

Đại biểu Nguyễn Thị Lệ Thủy - thành viên Ủy ban Khoa học, Công nghệ và Môi trường phát biểu ý kiến
Đồng thời, đại biểu nhận định, việc áp dụng cơ chế hậu kiểm cho tất cả các mức độ rủi ro có thể không phù hợp, do AI có thể tạo ra những rủi ro bất ngờ. Ngoài ra, đại biểu nhấn mạnh, đây là lĩnh vực mới, việc quản lý nhà nước yêu cầu nguồn nhân lực chất lượng cao, trong khi tội phạm AI ngày càng phát triển nhanh, đặt ra câu hỏi về khả năng quản lý trong thực tiễn.












