Khuyến khích phát triển trí tuệ nhân tạo, đồng thời hạn chế tối đa rủi ro, bảo vệ người dùng
Chiều 27/11, Quốc hội thảo luận tại hội trường về dự thảo Luật Trí tuệ nhân tạo. Các đại biểu cho rằng, luật phải cân bằng giữa thúc đẩy đổi mới sáng tạo, thu hút đầu tư, tăng tính cạnh tranh với hạn chế rủi ro và bảo vệ người dùng.
Phát triển trí tuệ nhân tạo: Cân bằng đổi mới sáng tạo và bảo vệ người dùng
Góp ý về dự thảo Luật Trí tuệ nhân tạo, đại biểu Hoàng Minh Hiếu (Nghệ An) tán thành với cách tiếp cận với trí tuệ nhân tạo (AI) của Chính phủ: Vừa thân thiện cho sự phát triển AI, vừa có những quy định để bảo đảm hạn chế tối đa các rủi ro mà AI có thể gây ra.

Đại biểu Phạm Văn Hòa (Đồng Tháp)
Để hạn chế tối đa rủi ro, theo ông Hiếu, việc đưa ra Cơ chế thử nghiệm có kiểm soát như dự thảo luật là rất cần thiết, bởi đây là vấn đề mới, liên quan đến rất nhiều lĩnh vực khác nhau, nếu chỉ dựa trên khuôn khổ pháp lý hiện hành thì không thể tạo điều kiện cho AI phát triển.
Theo quy định của dự thảo, tổ chức, cá nhân tham gia thử nghiệm có kiểm soát được miễn hoặc giảm một số nghĩa vụ tuân thủ quy định tại Luật này. Đại biểu cho rằng, quy định như vậy dẫn đến phạm vi được miễn trừ chỉ giới hạn trong phạm vi quy định của Luật này trong khi các hệ thống trí tuệ nhân tạo thường liên quan rất nhiều đến các quy định của pháp luật khác có liên quan.
Đại biểu lấy ví dụ thử nghiệm AI với xe tự lái không chỉ liên quan đến Luật Trí tuệ nhân tạo mà còn liên quan đến Luật trật tự an toàn giao thông đường bộ và Luật bảo vệ dữ liệu cá nhân. Vì vậy, đại biểu đề nghị Cơ quan chủ trì soạn thảo nghiên cứu, chỉnh lý quy định tại khoản 2 Điều 20 theo hướng xác định rõ tổ chức, cá nhân tham gia thử nghiệm có kiểm soát được miễn, hoặc giảm một số nghĩa vụ tuân thủ quy định tại Luật này và các luật khác có liên quan.
Ngoài ra, để tạo điều kiện thuận lợi cũng như khuyến khích tinh thần đổi mới sáng tạo, đại biểu đề nghị cần nghiên cứu, bổ sung cơ chế hỗ trợ cho các tổ chức, cá nhân tham gia thử nghiệm để phòng chống rủi ro. Chẳng hạn như cơ chế hỗ trợ bảo hiểm trách nhiệm trước khi tiến hành thử nghiệm hoặc nhà nước có thể hỗ trợ một phần ngân sách (qua các loại Quỹ) để khuyến khích sự tham gia thử nghiệm. Không có cơ chế chính sách này, các doanh nghiệp phát triển các hệ thống AI rủi ro cao (như xe tự lái) và đang trong giai đoạn khởi nghiệp sẽ rất ngại thử nghiệm, vì chỉ một tai nạn cũng đủ dẫn đến phá sản.
Cho ý kiến về dự thảo luật, nhiều đại biểu cũng đánh giá, trong kỷ nguyên AI, việc đưa ra hành lang pháp lý phù hợp sẽ mang lại động lực phát triển mới cho đất nước. Dù vậy, các quy định pháp lý về AI phải cân bằng giữa một bên là thúc đẩy đổi mới sáng tạo, thu hút đầu tư và tăng tính cạnh tranh với một bên là phòng ngừa, hạn chế rủi ro và bảo vệ người sử dụng.
Cũng lo lắng về rủi ro mà AI mang lại, đại biểu Phạm Văn Hòa (Đồng Tháp) đề nghị xem xét bổ sung yêu cầu đánh giá tác động đạo đức - xã hội ngay từ giai đoạn thiết kế hệ thống, dưới dạng báo cáo bắt buộc nộp cùng hồ sơ lưu hành vì đây là yêu cầu phù hợp với chuẩn quốc tế, giúp dự báo rủi ro từ sớm, bảo vệ các nhóm dễ bị tổn thương và nâng cao trách nhiệm giải trình.
Trong khi đó, đại biểu Phạm Trọng Nghĩa (Lạng Sơn) lại cảnh báo những rủi ro mà AI có thể mang lại. Thực tế, việc lạm dụng AI tiềm ẩn nhiều rủi ro như xâm phạm chủ quyền quốc gia, giảm hiệu lực quản trị công và ảnh hưởng tiêu cực đến mỗi cá nhân, mỗi gia đình, nhất là thế hệ trẻ. Vì thế, đại biểu đề nghị bổ sung vào dự án luật một điều quy định về hành vi bị nghiêm cấm như đã nêu trong báo cáo thẩm tra, trong đó có cấm lạm dụng AI trong khu vực công.
Đồng thời, đại biểu đề nghị Chính phủ sớm ban hành quy định về trách nhiệm khi sử dụng AI trong công vụ và ban hành bộ quy tắc đạo đức trí tuệ nhân tạo. Mặt khác, cần có quy định cụ thể hơn về trách nhiệm pháp lý trong việc phát triển và sử dụng AI.
Nhiều thách thức khi sử dụng AI trong lĩnh vực y tế
Theo đại biểu Trần Khánh Thu (Hưng yên), trí tuệ nhân tạo không chỉ giúp tối ưu hóa các quy trình trong ngành y tế, giảm tải công việc cho các y bác sĩ, các chuyên gia y tế mà còn đóng vai trò quan trọng trong việc cá nhân hóa điều trị, từ đó cải thiện kết quả chăm sóc sức khỏe và tăng cường hiệu quả sử dụng nguồn lực.

Đại biểu Trần Khánh Thu (Hưng Yên)
Tuy nhiên, bất cập là hiện nay chúng ta chưa có một khung pháp lý cụ thể và đầy đủ dành riêng cho việc ứng dụng trí tuệ nhân tạo trong y tế. Lấy dẫn chứng mới đây một bệnh nhân (55 tuổi, ở TP.HCM) được đưa đến Bệnh viện cấp cứu do tổn thương não, đột quỵ do con gái cho uống thuốc bởi “bác sĩ AI” kê đơn, đại biểu Trần Khánh Thu (Hưng Yên) đặt câu hỏi: "Người bán thuốc theo các đơn AI này thì có vi phạm pháp luật không?"
Theo đại biểu, trước đây chưa có một khung pháp lý cụ thể và đầy đủ dành riêng cho việc ứng dụng trí tuệ nhân tạo trong y tế. Mặc dù các luật như Luật Khám bệnh, chữa bệnh 2023 và Luật Dược 2016 điều chỉnh các hoạt động khám chữa bệnh và sản phẩm y tế, nhưng các quy định cụ thể về sản phẩm ứng dụng trí tuệ nhân tạo trong y học vẫn chưa rõ ràng. Các sản phẩm phục vụ khám bệnh, chữa bệnh dựa trên trí tuệ nhân tạo hiện vẫn phải tuân theo quy trình cấp phép chung dành cho thiết bị y tế, nhưng thiếu các tiêu chuẩn và quy định riêng về trí tuệ nhân tạo cho các sản phẩm đó. Ngoài ra, một số vấn đề như trách nhiệm pháp lý trong trường hợp trí tuệ nhân tạo mắc sai sót, bảo mật dữ liệu y tế, bảo đảm an toàn cho bệnh nhân cũng chưa được quy định rõ ràng trong các văn bản quy phạm pháp luật hiện hành.
Do đó, đại biểu rất hy vọng trong dự thảo Luật Trí tuệ nhân tạo lần này sẽ có thêm điều khoản khung pháp lý cụ thể hơn để quản lý các sản phẩm trí tuệ nhân tạo trong y tế, đặc biệt là về trách nhiệm của các bên liên quan.
Ngoài ra, dự thảo luật cũng phân loại rủi ro của hệ thống trí tuệ nhân tạo, đại biểu đề nghị cơ quan soạn thảo xem xét nên có phụ lục minh họa về các cấp độ rủi ro, tương tự Annex III của EU AI Act, với các tiêu chí định lượng như: mức độ tự chủ, quy mô người dùng, ảnh hưởng đến quyền cơ bản, hoặc lĩnh vực nhạy cảm (giáo dục, y tế, tư pháp, hạ tầng, việc làm…).













