ĐBQH tỉnh tham gia ý kiến vào dự thảo Luật Trí tuệ nhân tạo
Ngày 21/11, kỳ họp thứ 10, Quốc hội khóa XV thảo luận ở tổ về dự thảo Luật Trí tuệ nhân tạo. Tổ thảo luận số 11 gồm Đoàn ĐBQH tỉnh Điện Biên và thành phố Cần Thơ, do đồng chí Trần Tuấn Anh, Trưởng Đoàn ĐBQH TP. Cần Thơ làm Tổ trưởng.

Trưởng Đoàn ĐBQH TP. Cần Thơ Nguyễn Tuấn Anh phát biểu chủ trì phiên thảo luận.
Tham gia phát biểu ý kiến, đại biểu Lò Thị Luyến, Phó Trưởng đoàn chuyên trách, phụ trách Đoàn ĐBQH tỉnh nhận định, cơ quan soạn thảo và cơ quan thẩm tra đã rất nỗ lực, cố gắng để hoàn thiện dự án luật trình Quốc hội. Tuy nhiên, trí tuệ nhân tạo là vấn đề mới, khó và phức tạp, do đó cần cân nhắc thêm về thời điểm thông qua dự thảo để quy định được cụ thể, sát hợp với thực tiễn và nhận được sự đồng thuận của xã hội.
Đại biểu cho biết, dự thảo Luật quy định các mức độ rủi ro của hệ thống trí tuệ nhân tạo (AI) gồm: Rủi ro không chấp nhận được, rủi ro cao, rủi ro trung bình và rủi ro thấp; chưa quy định về giới hạn độ tuổi trẻ em được sử dụng AI.
Theo kinh nghiệm quốc tế, một số quốc gia có quy định giới hạn độ tuổi trẻ em được sử dụng AI, một số nước không quy định. Thực tế cũng ghi nhận nhiều hệ lụy như, trẻ em chỉ làm bạn với AI, nghe theo AI, thậm trí yêu và kết hôn với AI… Vì vậy, đại biểu đề nghị cân nhắc quy định cụ thể về giới hạn độ tuổi sử dụng AI đối với trẻ em.

Đại biểu Lò Thị Luyến, Phó Trưởng đoàn chuyên trách, phụ trách Đoàn ĐBQH tỉnh phát biểu ý kiến tại phiên thảo luận.
Dự thảo Luật quy định, việc phân loại rủi ro của hệ thống trí tuệ nhân tạo được xác định trên cơ sở các tiêu chí về mức độ tác động đến quyền con người, an toàn, an ninh; lĩnh vực sử dụng của hệ thống, đặc biệt là lĩnh vực thiết yếu hoặc liên quan trực tiếp đến lợi ích công cộng; phạm vi người sử dụng và quy mô ảnh hưởng của hệ thống.
Trước khi lưu hành hoặc đưa vào sử dụng, nhà cung cấp phải tự phân loại hệ thống trí tuệ nhân tạo. Trường hợp không xác định được mức rủi ro, nhà cung cấp được đề nghị Bộ Khoa học và Công nghệ xác nhận mức phân loại trên cơ sở hồ sơ kỹ thuật. Đại biểu cho rằng, quy định này khó khả thi.
“Nhà cung cấp là người am hiểu về AI, tạo ra AI, đưa AI vào lưu hành và sử dụng còn không xác định, không tự phân loại được mức độ rủi ro, lại đề nghị Bộ Khoa học và Công nghệ xác nhận mức phân loại. Như vậy sẽ tạo ra áp lực rất lớn cho Bộ, nhất là trong bối cảnh tinh gọn bộ máy, biên chế như hiện nay” - Phó Trưởng Đoàn ĐBQH tỉnh phân tích.
Đại biểu đề nghị quy định theo hướng, nhà cung cấp tự phân loại rủi ro; trường hợp không tự phân loại thì nhà cung cấp thuê tổ chức độc lập thực hiện. Bộ Khoa học và Công nghệ chỉ thực hiện chức năng kiểm tra, giám sát và quản lý nhà nước về lĩnh vực này.
Về xử lý vi phạm và trách nhiệm bồi thường thiệt hại, dự thảo Luật quy định phạt tối đa 2% doanh thu tại Việt Nam của năm trước liền kề của tổ chức đối với hành vi vi phạm quy định liên quan đến hệ thống trí tuệ nhân tạo có rủi ro không chấp nhận được và phạt tiền tối đa là 2 tỷ đồng đối với tổ chức vi phạm quy định khác. Cá nhân vi phạm thì mức phạt bằng ½ mức phạt tiền đối với tổ chức.
Theo đại biểu, nội dung về xử phạt vi phạm hành chính nên được quy định tại Luật Xử lý vi phạm hành chính, còn mức phạt cụ thể thì giao Chính phủ quy định để đảm bảo tính linh hoạt và phù hợp với sự phát triển kinh tế xã hội từng thời kỳ.

Thiếu tướng Tráng A Tủa, ĐBQH tỉnh phát biểu ý kiến tại phiên thảo luận.
Tham gia phát triển ý kiến tại phiên thảo luận, đại biểu Tráng A Tủa cho rằng, dự thảo Luật quy định khung đạo đức trí tuệ nhân tạo quốc gia được rà soát, cập nhật định kỳ tối thiểu 3 năm một lần là chưa phù hợp.
Đại biểu nhấn mạnh, trí tuệ nhân tạo phát triển với tốc độ rất nhanh, thay đổi từng ngày, từng giờ, nên chu kỳ rà soát dài như vậy sẽ khó đáp ứng yêu cầu thực tiễn. Vì vậy, đại biểu đề nghị xem xét quy định việc rà soát, đánh giá hàng năm hoặc hàng quý, nhằm kịp thời cập nhật, điều chỉnh khung đạo đức phù hợp với sự phát triển của công nghệ và yêu cầu quản lý.














