Đề xuất bổ sung cơ chế hỗ trợ cho các tổ chức, cá nhân tham gia thử nghiệm AI
Ngày 27/11, Quốc hội thảo luận ở hội trường về dự án Luật Trí tuệ nhân tạo (AI). Để tạo điều kiện thuận lợi cũng như khuyến khích tinh thần đổi mới sáng tạo, Đại biểu Hoàng Minh Hiếu (Đoàn Nghệ An) cho rằng cũng cần nghiên cứu, bổ sung cơ chế hỗ trợ cho các tổ chức, cá nhân tham gia thử nghiệm để phòng chống rủi ro.

Ông Hoàng Minh Hiếu phát biểu (Ảnh: Quang Vinh)
Ông Hiếu đồng tình với cách tiếp cận xây dựng luật này của Chính phủ. Qua dự thảo luật này cũng xác định rõ cách thức Việt Nam tiếp cận với trí tuệ nhân tạo. Đó là vừa thân thiện cho sự phát triển AI, vừa có những quy định để bảo đảm hạn chế tối đa các rủi ro mà AI có thể đưa lại.
Trong bài phát biểu của mình, ông Hiếu tập trung phân tích thêm tới quy định tại Điều 20 của dự thảo Luật về Cơ chế thử nghiệm có kiểm soát để bảo đảm tính khả thi và tạo điều kiện thuận lợi nhất cho sự phát triển của các hệ thống AI, đặc biệt là các hệ thống AI trong nước.
Theo ông Hiếu, cơ chế thử nghiệm có kiểm soát đối với việc phát triển trí tuệ nhân tạo là hết sức quan trọng. Bởi vì trí tuệ nhân tạo là vấn đề rất mới, liên quan đến rất nhiều lĩnh vực khác nhau, nên nếu chỉ dựa trên khuôn khổ pháp lý hiện hành thì không thể tạo điều kiện cho AI phát triển. Mục đích chính của cơ chế thử nghiệm có kiểm soát đối với AI là gỡ bỏ rào cản pháp lý đang cản trở các mô hình AI, cho phép thử nghiệm trong phạm vi giới hạn để lấy dữ liệu chứng minh hiệu quả, từ đó thúc đẩy cải cách quy định lâu dài. Cách thức này cũng rất phù hợp với tư duy lập pháp hiện nay của chúng ta, đó là thể chế phải đi trước mở đường cho sự phát triển; cái gì biết thì quản, cái gì chưa biết, chưa rõ thì chưa quản. Vì vậy, các quy định về cơ chế thử nghiệm có kiểm soát phải là trọng tâm trong khuôn khổ pháp luật về trí tuệ nhân tạo. Do đó Cơ quan chủ trì soạn thảo cần nghiên cứu, quy định cụ thể hơn về vấn đề này trong dự thảo.
Về các góp ý cụ thể, ông Hiếu đề nghị xem lại quy định về việc tổ chức, cá nhân tham gia thử nghiệm có kiểm soát được miễn hoặc giảm một số nghĩa vụ tuân thủ quy định tại Luật này tại khoản 2 của Điều 20. Cách quy định như vậy dẫn đến phạm vi được miễn trừ chỉ giới hạn trong phạm vi quy định của Luật này trong khi các hệ thống trí tuệ nhân tạo thường liên quan rất nhiều đến các quy định của pháp luật khác có liên quan.
“Đối với việc thử nghiệm AI trong phương tiện tự lái sẽ liên quan nhiều đến các điều cấm trong Luật Trật tự an toàn đường bộ, Luật bảo vệ dữ liệu cá nhân. Chẳng hạn như một cơ chế thử nghiệm AI trong máy bay tự lái chở khách ở Nhật Bản được miễn trừ một số quy tắc hàng không. Hoặc việc thử nghiệm xe tự lái ở Trung Quốc, Nhật Bản được miễn trừ quy định của Luật bảo vệ dữ liệu cá nhân là được sử dụng dữ liệu hình ảnh không phải làm mờ hình ảnh khuôn mặt của người tham gia giao thông để đào tạo, huấn luyện thị giác của AI”, ông Hiếu nêu ví dụ và đề nghị Cơ quan chủ trì soạn thảo nghiên cứu, chỉnh lý quy định tại khoản 2 Điều 20 theo hướng xác định rõ tổ chức, cá nhân tham gia thử nghiệm có kiểm soát được miễn, hoặc giảm một số nghĩa vụ tuân thủ quy định tại Luật này và các luật khác có liên quan.
Về quy định việc giao cơ quan quản lý nhà nước về trí tuệ nhân tạo tổ chức tiếp nhận, thẩm định và xử lý hồ sơ tham gia hoạt động thử nghiệm có kiểm soát theo quy trình thẩm định và phản hồi nhanh, ông Hiếu đồng tình với quy định này, nhất là quy định thẩm định và phản hồi nhanh. Tuy nhiên, hệ thống AI không chỉ đơn thuần là vấn đề liên quan đến công nghệ, thuật toán mà còn là vấn đề đa ngành, liên ngành. Chính vì vậy, quy định tại khoản 5 có lẽ chỉ phù hợp với những hệ thống AI có mục đích chung như AI tạo sinh như ChatGPT, Gemini. Còn đối với những hệ thống AI chuyên biệt thì tính liên ngành rất cao.
Ông Hiếu lấy ví dụ như hệ thống DrAid là sản phẩm AI hỗ trợ chẩn đoán hình ảnh y tế được phát triển bởi công ty VinBrain. Nếu đăng ký thử nghiệm thì không thể không có vai trò giám sát và quản lý của Bộ Y tế. Chính vì vậy, ở một số nước việc thẩm định cấp phép thử nghiệm có kiểm soát đối với các hệ thống AI được giao cho một Hội đồng liên ngành. Từ đó, đề nghị chỉnh lý lại quy định tại khoản 5 theo hướng “Cơ quan quản lý nhà nước về trí tuệ nhân tạo chủ trì và phối hợp với các cơ quan quản lý nhà nước có liên quan tổ chức tiếp nhận, thẩm định và xử lý hồ sơ tham gia hoạt động thử nghiệm có kiểm soát”.
Ông Hiếu cũng đánh giá, quy định tại Điều 20 còn thiếu quy định về trách nhiệm bồi thường và bảo hiểm. Theo đó, quy định hiện hành của dự thảo Luật không đề cập ai chịu trách nhiệm nếu thử nghiệm gây thiệt hại cho bên thứ ba. Theo nguyên tắc chung thì tổ chức, cá nhân thử nghiệm sẽ phải bồi thường dân sự nếu gây thiệt hại. Do vậy, đề nghị cân nhắc để bổ sung quy định này vào dự thảo.
“Bên cạnh đó, để tạo điều kiện thuận lợi cũng như khuyến khích tinh thần đổi mới sáng tạo, chúng tôi cho rằng cũng cần nghiên cứu, bổ sung cơ chế hỗ trợ cho các tổ chức, cá nhân tham gia thử nghiệm để phòng chống rủi ro. Chẳng hạn như cơ chế hỗ trợ bảo hiểm trách nhiệm trước khi tiến hành thử nghiệm hoặc nhà nước có thể hỗ trợ một phần ngân sách (qua các loại Quỹ) để khuyến khích sự tham gia thử nghiệm. Không có cơ chế chính sách này, các doanh nghiệp phát triển các hệ thống AI rủi ro cao (như xe tự lái) và đang trong giai đoạn khởi nghiệp sẽ rất ngại thử nghiệm, vì chỉ một tai nạn cũng đủ dẫn đến phá sản”, ông Hiếu nói.













