Phát triển công nghệ, thúc đẩy đổi mới nhưng không để rủi ro vượt tầm
Theo các đại biểu, dự thảo Luật Trí tuệ nhân tạo trình Quốc hội không chỉ là đạo luật công nghệ, mà là đạo luật của tương lai. Như một lời cam kết của Quốc hội trước Nhân dân rằng, chúng ta phát triển công nghệ nhưng không đánh mất quyền kiểm soát; thúc đẩy đổi mới nhưng không để rủi ro vượt tầm.

Phó Chủ tịch Quốc hội Lê Minh Hoan điều hành phiên họp. Ảnh: Hồ Long
Chiều 27/11, dưới sự điều hành của Phó Chủ tịch Quốc hội Lê Minh Hoan, Quốc hội thảo luận tại Hội trường về dự thảo Luật Trí tuệ nhân tạo.
Thiếu quy định về trách nhiệm bồi thường và bảo hiểm
Quan tâm đến Điều 20, dự thảo Luật về cơ chế thử nghiệm có kiểm soát đối với việc phát triển trí tuệ nhân tạo, ĐBQH Hoàng Minh Hiếu (Nghệ An) nêu rõ, mục đích chính của cơ chế thử nghiệm có kiểm soát đối với trí tuệ nhân tạo (AI) là gỡ bỏ rào cản pháp lý đang cản trở các mô hình AI, cho phép thử nghiệm trong phạm vi giới hạn để lấy dữ liệu chứng minh hiệu quả, từ đó thúc đẩy cải cách quy định lâu dài. Cách thức này cũng rất phù hợp với tư duy lập pháp hiện nay của chúng ta, đó là thể chế phải đi trước mở đường cho sự phát triển.

ĐBQH Hoàng Minh Hiếu (Nghệ An) phát biểu. Ảnh: Quang Khánh
Đại biểu nhấn mạnh, các quy định về cơ chế thử nghiệm có kiểm soát phải là trọng tâm trong khuôn khổ pháp luật về AI, do vậy, cơ quan chủ trì soạn thảo cần nghiên cứu, quy định cụ thể hơn vấn đề này trong dự thảo Luật.
Theo đó, đại biểu đề nghị xem xét lại quy định về việc tổ chức, cá nhân tham gia thử nghiệm có kiểm soát được miễn trừ hoặc giảm một số nghĩa vụ tuân thủ quy định tại khoản 2, Điều 20, dự thảo Luật. Cách quy định như vậy dẫn đến phạm vi được miễn trừ chỉ giới hạn trong phạm vi quy định của Luật này, trong khi các hệ thống AI thường liên quan đến rất nhiều các quy định của pháp luật khác có liên quan.
Đại biểu dẫn chứng cơ chế thử nghiệm AI trong máy bay tự lái chở khách ở Nhật Bản được miễn trừ một số quy tắc về bảo đảm an toàn hàng không. Hoặc việc thử nghiệm xe tự lái ở Trung Quốc, Nhật Bản được miễn trừ theo quy định của Luật Bảo vệ dữ liệu cá nhân là được sử dụng dữ liệu hình ảnh mà không phải làm mờ hình ảnh khuôn mặt của người tham gia giao thông để đào tạo, huấn luyện thị giác của AI.
Từ kinh nghiệm của các nước, đại biểu đề xuất, cơ quan chủ trì soạn thảo nghiên cứu, chỉ quy định tại khoản 2, Điều 20 theo hướng xác định rõ tổ chức, cá nhân tham gia thử nghiệm có kiểm soát được miễn hoặc giảm một số nghĩa vụ tuân thủ quy định tại Luật này và các luật khác có liên quan.

Các đại biểu dự phiên họp. Ảnh: Hồ Long
Khoản 5, Điều 20, giao cơ quan quản lý nhà nước về AI tổ chức tiếp nhận, thẩm định và xử lý hồ sơ tham gia hoạt động thử nghiệm có kiểm soát theo quy trình thẩm định và phản hồi nhanh.
Đại biểu Hoàng Minh Hiếu lưu ý, hệ thống AI không chỉ đơn thuần là vấn đề liên quan đến công nghệ, thuật toán… mà còn là vấn đề đa ngành, liên ngành. Vì thế, quy định tại khoản 5 có lẽ chỉ phù hợp với những hệ thống AI có mục đích chung, như AI tạo sinh (ChatGPT, Gemini)... Còn đối với những hệ thống AI chuyên biệt, thì tính liên ngành rất cao.
Dẫn chứng hệ thống DrAid là sản phẩm AI hỗ trợ chẩn đoán hình ảnh y tế được phát triển bởi công ty VinBrain, đại biểu Hoàng Minh Hiếu cho rằng, nếu đăng ký thử nghiệm thì không thể không có vai trò giám sát và quản lý của Bộ Y tế. Chính vì vậy, ở một số nước việc thẩm định cấp phép thử nghiệm có kiểm soát đối với các hệ thống AI được giao cho một Hội đồng liên ngành.
Đại biểu đề nghị chỉnh lý lại quy định tại khoản 5, Điều 20, dự thảo Luật theo hướng “cơ quan quản lý nhà nước về trí tuệ nhân tạo chủ trì và phối hợp với các cơ quan quản lý nhà nước có liên quan tổ chức tiếp nhận, thẩm định và xử lý hồ sơ tham gia hoạt động thử nghiệm có kiểm soát”.
Đại biểu cũng cho rằng, quy định tại Điều 20, dự thảo Luật còn thiếu quy định về trách nhiệm bồi thường và bảo hiểm. Và không đề cập ai chịu trách nhiệm nếu thử nghiệm gây thiệt hại cho bên thứ ba. Theo nguyên tắc chung thì tổ chức, cá nhân thử nghiệm sẽ phải bồi thường dân sự nếu gây thiệt hại. Do vậy, đại biểu Hoàng Minh Hiếu đề nghị cân nhắc để bổ sung quy định này vào dự thảo Luật.
Mọi phần mềm AI hoạt động tại Việt Nam đều phải trang bị "cơ sở dữ liệu nền tảng làm người chuẩn mực”
ĐBQH Trần Văn Lâm (Bắc Ninh) đánh giá cao dự thảo Luật đã xác định nguyên tắc lấy con người làm trung tâm; phân loại và kiểm soát rủi ro; kiểm định hệ thống AI có mức độ rủi ro cao; phát triển hạ tầng tính toán và dữ liệu quốc gia. Đây là khung pháp lý tiến bộ, phù hợp xu thế quốc tế.

ĐBQH Trần Văn Lâm (Bắc Ninh) phát biểu. Ảnh: Hồ Long
Tuy nhiên, để Luật thực sự hoàn chỉnh và có tầm nhìn xa, đại biểu đề xuất một bổ sung then chốt, đó là: Hãy coi AI như một “con người mới sinh”. Một "thực thể trí tuệ nhưng còn trong trắng": chưa biết pháp luật, không hiểu đạo đức, lễ nghĩa, không có giá trị văn hóa, và không phân biệt đúng - sai nếu không được dạy.
“Nếu coi AI là một thực thể đang hình thành, thì trách nhiệm của chúng ta không chỉ là kiểm soát, mà còn là dạy AI ngay từ đầu, giống như dạy một đứa trẻ về những giá trị làm người chuẩn mực. Và đây nên phải là quy định bắt buộc trong Luật này, không chỉ khuyến cáo”, đại biểu Trần Văn Lâm nêu quan điểm.
Đại biểu kiến nghị Quốc hội bổ sung nguyên tắc pháp lý trong Luật là: “Mọi phần mềm AI hoạt động tại Việt Nam, dù do tổ chức trong hay ngoài nước phát triển, đều phải được trang bị một cơ sở dữ liệu nền tảng làm người chuẩn mực”.
Theo đại biểu, “cơ sở dữ liệu nền tảng làm người chuẩn mực” phải chứa đựng đầy đủ thông tin để dạy AI hiểu về pháp luật Việt Nam; dạy AI chuẩn mực đạo đức, văn hóa, truyền thống tốt đẹp của dân tộc; dạy AI khả năng nhận diện đúng - sai, hợp chuẩn - trái chuẩn; các giới hạn hành vi không được vượt qua, các quy tắc nhận diện rủi ro đối với con người. Và quan trọng nhất, bảo đảm kho dữ liệu nền tảng này phải luôn chiếm vị trí ưu tiên tuyệt đối trong việc chi phối hành vi của AI; không được phép bị ghi đè, thay thế hoặc bị vô hiệu hóa bởi bất kỳ thuật toán hoặc dữ liệu huấn luyện nào khác. Đây chính là “vòng kim cô” pháp lý và kỹ thuật bảo đảm AI không đi chệch hướng.

Quang cảnh phiên họp. Ảnh: Quang Khánh
Để triển khai hiệu quả định hướng này, đại biểu đề nghị, Bộ Khoa học và Công nghệ chủ trì xây dựng Bộ Cơ sở dữ liệu nền tảng “Làm người Việt Nam” - thống nhất, chuẩn hóa, cập nhật liên tục; cung cấp cho các nhà phát triển AI như một yêu cầu bắt buộc. Chính phủ phát triển hạ tầng tính toán quốc gia mạnh mẽ để bảo đảm AI Việt Nam được đào tạo trên các giá trị Việt Nam, không lệ thuộc vào mô hình nước ngoài.
Đồng thời, xây dựng Trung tâm quốc gia kiểm định AI, nhằm đánh giá sớm hành vi lệch chuẩn, kiểm soát các mô hình rủi ro cao, và kịp thời can thiệp khi có dấu hiệu vượt ngoài giới hạn. Thúc đẩy giáo dục AI trong toàn xã hội, đặt trọng tâm giúp người dân, doanh nghiệp và đặc biệt đội ngũ công quyền đủ năng lực nhận diện, sử dụng và giám sát AI đúng đắn.
Đại biểu Trần Văn Lâm nhấn mạnh, "Luật Trí tuệ nhân tạo hôm nay không chỉ là một đạo luật công nghệ, mà là một đạo luật của tương lai; một lời cam kết của Quốc hội trước Nhân dân, chúng ta phát triển công nghệ nhưng không đánh mất quyền kiểm soát; thúc đẩy đổi mới nhưng không để rủi ro vượt tầm. Và nuôi dưỡng AI bằng những giá trị Việt Nam để phục vụ con người Việt Nam".














