Tạo hành lang pháp lý an toàn để khuyến khích phát triển trí tuệ nhân tạo đồng thời bảo đảm an ninh quốc gia và quyền con người
Đó là ý kiến của các đại biểu thuộc Đoàn đại biểu Quốc hội tỉnh Bắc Ninh trong phiên thảo luận tại tổ của kỳ họp thứ 10, Quốc hội khóa XV, diễn ra sáng 21/10. Tại phiên thảo luận này, các đại biểu cho ý kiến vào dự án Luật Trí tuệ nhân tạo.

Quang cảnh phiên thảo luận tại tổ, sáng 21/11.
Nhất trí cao về sự cần thiết ban hành Luật Trí tuệ nhân tạo, các đại biểu cho rằng đây là một luật rất mới. Tuy nhiên, đây lại là luật hết sức cần thiết bởi trí tuệ nhân tạo đã và đang giữ vai trò ngày càng quan trọng trong việc thúc đẩy phát triển kinh tế - xã hội cũng như trong mọi mặt của đời sống. Song song với đó, trí tuệ nhân tạo cũng tạo ra những mặt trái, tác động không nhỏ và diễn biến rất nhanh. Do đó, cần thiết phải nghiên cứu, ban hành sớm đạo luật này nhằm tạo hành lang pháp lý để khuyến khích, thúc đẩy ứng dụng trí tuệ nhân tạo vào đời sống; kiểm soát được tác hại để tránh gây tổn hại cho an ninh quốc gia cũng như quyền con người.

Phó trưởng Đoàn đại biểu Quốc hội tỉnh Bắc Ninh Trần Văn Tuấn phát biểu trong phiên thảo luận tại tổ, sáng 21/11.
Phó trưởng Đoàn đại biểu Quốc hội tỉnh Bắc Ninh Trần Văn Tuấn khẳng định bên cạnh những ưu điểm, trí tuệ nhân tạo cũng đặt ra yêu cầu quản trị và kiểm soát để hạn chế tác hại đến nền kinh tế, an ninh quốc gia và quyền con người. Ví dụ: Ở thời điểm này năm ngoái hoặc hai năm trước, việc ứng dụng trí tuệ nhân tạo còn rất hạn chế, đặc biệt trong lĩnh vực an ninh trật tự. Khi đó, các đối tượng lợi dụng chỉ dừng ở việc cắt ghép hình ảnh để tống tiền hoặc thực hiện một số hành vi vi phạm khác. Nhưng đến nay, mức độ tinh vi đã cao hơn rất nhiều: xuất hiện các clip như thật từ hình ảnh, giọng nói đến thao tác… rất khó phân biệt.
Góp ý vào các nội dung cụ thể, đại biểu cho rằng tại Điều 7 quy định phân loại mức độ rủi ro của hệ thống trí tuệ nhân tạo gồm 4 mức: Rủi ro không thể chấp nhận được; rủi ro cao; rủi ro trung bình; rủi ro thấp. Việc phân loại như vậy là cần thiết để có chính sách khuyến khích phát triển, quản lý và kiểm soát phù hợp. Tuy nhiên, khái niệm giữa các mức còn mơ hồ, lẫn lộn; khó phân định rạch ròi giữa các mức độ rủi ro.
Quy định như vậy dễ dẫn đến người nghiên cứu ban đầu không thể biết sản phẩm của mình có thể bị xếp vào nhóm nào. Đến khi nghiên cứu xong, nếu bị kết luận là thuộc nhóm rủi ro không thể chấp nhận được thì cá nhân, tổ chức có thể bị xử lý - rất khó cho người phát triển trí tuệ nhân tạo, đặc biệt là những người trẻ sẵn sàng dấn thân vào lĩnh vực mới.
Do đó, đại biểu đề nghị bổ sung một điều khoản về đăng ký và xác nhận mức độ rủi ro đối với sản phẩm, ý tưởng trí tuệ nhân tạo trước khi nghiên cứu, phát triển. Sau khi được xác định, nếu quá trình triển khai có vi phạm thì mới áp dụng chế tài phù hợp. Làm như vậy sẽ tránh được sự mơ hồ và tạo niềm tin, khuyến khích nghiên cứu, phát triển trí tuệ nhân tạo.

Phó trưởng Đoàn đại biểu Quốc hội tỉnh Bắc Ninh Trần Thị Vân phát biểu trong phiên thảo luận tại tổ, sáng 21/11.
Phó trưởng Đoàn đại biểu Quốc hội tỉnh Bắc Ninh Trần Thị Vân cho biết: Tại khoản 4 Điều 6 dự thảo Luật giao chính phủ quy định chi tiết về Cổng thông tin một cửa và Cơ sở dữ liệu quốc gia về trí tuệ nhân tạo. Đề nghị Chính phủ khi quy định chi tiết cần cân nhắc kỹ các yêu cầu về kỹ thuật, pháp lý và an ninh. Cổng thông tin một cửa và Cơ sở dữ liệu quốc gia về trí tuệ nhân tạo phải bảo đảm tính minh bạch, khả năng truy cập của người dùng; quan tâm phân loại và quản lý rủi ro; đồng thời tôn trọng quyền riêng tư, đặc biệt đối với các dữ liệu cá nhân nhạy cảm như dữ liệu sinh trắc học cần được quản lý hết sức chặt chẽ và bảo mật. Cần phân loại rõ dữ liệu mở, dữ liệu có kiểm soát và dữ liệu thương mại, nhằm bảo đảm an toàn thông tin và thuận tiện trong khai thác.
Về xử lý vi phạm và trách nhiệm bồi thường thiệt hại, tại điểm b, khoản 2, Điều 30 quy định mức phạt tiền tối đa 2 tỷ đồng đối với tổ chức và 1 tỷ đồng đối với cá nhân nếu thực hiện cùng một hành vi vi phạm giống nhau.
Đại biểu cho rằng mức phạt này quá cao, chưa phù hợp với điều kiện thực tế Việt Nam. Trong bối cảnh chúng ta đang khuyến khích cá nhân, nhà nghiên cứu độc lập và sinh viên tham gia sáng tạo, thử nghiệm AI, mức phạt cao sẽ khiến họ e ngại rủi ro pháp lý, hạn chế tinh thần khởi nghiệp. Do đó, đề nghị phân biệt rõ hành vi mang tính phi thương mại với hành vi kinh doanh hoặc nhân danh tổ chức; mức phạt cao chỉ nên áp dụng đối với các hành vi có yếu tố thương mại.

Đại biểu Leo Thị Lịch phát biểu trong phiên thảo luận tại tổ, sáng 21/11.
Đại biểu Leo Thị Lịch cho biết, dự thảo chưa quy định rõ đầu mối thống nhất quản lý cơ sở dữ liệu quốc gia về AI, chính sách chia sẻ dữ liệu mở cho doanh nghiệp Việt Nam và bảo hộ quyền sở hữu đối với dữ liệu huấn luyện. Báo cáo 322/BC-BKHCN đã rà soát các chủ trương của Đảng nhưng chưa tiếp thu đầy đủ ý kiến từ Bộ Tài chính về cơ chế tài chính hỗ trợ chia sẻ dữ liệu công khai, dẫn đến tình trạng doanh nghiệp nhỏ khó tiếp cận dữ liệu chất lượng cao. Thực tiễn cho thấy, 80% thành công của AI phụ thuộc vào dữ liệu, nhưng Việt Nam đang thiếu dữ liệu nội sinh, tiếng Việt, nên nếu không bổ sung sẽ tạo bất lợi cạnh tranh cho doanh nghiệp trong nước.
Về cơ chế thử nghiệm có kiểm soát và chính sách ưu đãi, dự thảo quy định về ngân sách, thẩm quyền cơ quan quản lý còn mơ hồ, chưa có điều khoản chuyển tiếp để áp dụng cho các dự án AI đang triển khai; thiếu cân bằng nguồn lực thực hiện, đặc biệt với các hệ thống AI dùng cho quốc phòng, an ninh (chưa có nguyên tắc riêng để giảm rủi ro nhạy cảm).
Bên cạnh đó, dự thảo chưa quy định về khung đạo đức AI như một nguyên tắc riêng và tác động của AI đến trẻ em. Những thiếu sót này, nếu không khắc phục, sẽ làm giảm tính khả thi của Luật, không phù hợp với đường lối của Đảng về phát triển AI “có trách nhiệm, lấy con người làm trung tâm”.

Đại biểu Nguyễn Thị Kim Anh phát biểu trong phiên thảo luận tại tổ, sáng 21/11.
Đại biểu Nguyễn Thị Kim Anh phân tích: Nếu quá phụ thuộc vào AI, chỉ cần nhấn một lệnh là có thông tin, con người sẽ dần mất khả năng phân tích, sáng tạo và phản biện; lâu dài dẫn đến suy giảm tư duy. AI cũng có thể thiên lệch vì nội dung AI sinh ra phụ thuộc vào dữ liệu mà con người đưa vào. Nếu người xây dựng có đạo đức, trách nhiệm thì AI mới mang lại thông tin sạch, chuẩn, có lợi. Ngược lại, nếu dữ liệu sai lệch, thiếu chuẩn mực thì hậu quả rất lớn.
Đại biểu đề nghị cơ quan chủ trì soạn thảo nhấn mạnh vấn đề đạo đức AI, cả trong xây dựng lẫn sử dụng; đồng thời sử dụng AI nhằm tăng năng suất, mở rộng năng lực nhưng con người vẫn phải là trung tâm, AI chỉ là công cụ hỗ trợ. Đồng thời quy định nguyên tắc về việc phân nhóm độ tuổi học sinh được sử dụng AI, giao Chính phủ quy định cụ thể.

Đại biểu Đỗ Thị Việt Hà phát biểu trong phiên thảo luận tại tổ, sáng 21/11.
Đại biểu Đỗ Thị Việt Hà cho rằng: Một vấn đề rất quan trọng trong thanh tra, kiểm tra, xử lý vi phạm là xác định lỗi, tức là xác định trách nhiệm. Các luật hiện hành quy định về dân sự, hình sự hay thương mại đều dựa trên khái niệm về lỗi và hành vi của con người. Trong khi đó, hệ thống AI có thể hoạt động tự động và cũng không có ý chí theo nghĩa của pháp lý truyền thống. Tuy nhiên, AI cũng có khả năng gây ra lỗi và hành vi tương tự con người. Do đó, đề nghị bổ sung nội dung trách nhiệm nghiêm ngặt vào phần trách nhiệm đạo đức khi ứng dụng AI đối với tổ chức triển khai hệ thống AI trong các lĩnh vực ảnh hưởng trực tiếp đến an toàn, tính mạng con người như là y tế, giao thông và năng lượng. Đồng thời, cũng cần phải thiết lập cơ chế pháp lý để xác định ngưỡng trách nhiệm và làm rõ khi nào thì lỗi của hệ thống AI được quy kết cho con người (do lỗi lập trình, bảo trì, giám sát) và khi nào thì AI hành động theo cách mà không thể dự đoán được.
Về cơ sở dữ liệu quốc gia và hệ thống trí tuệ nhân tạo, cơ sở dữ liệu phục vụ trí tuệ nhân tạo, đại biểu đề nghị bổ sung ngay trong luật này việc xác định nguyên tắc cốt lõi khi xây dựng các cơ sở dữ liệu để bảo đảm dữ liệu đúng - đủ - sạch - sống. Đây là yếu tố then chốt để quyết định mức độ chính xác và mức độ tin cậy của hệ thống AI.
Đồng thời, cần bổ sung nguyên tắc để bảo đảm được cơ chế kết nối liên thông chia sẻ dữ liệu; xác định rõ đầu mối phối hợp liên ngành trong quản lý nhà nước về dữ liệu AI. Bổ sung nguyên tắc bắt buộc về an ninh mạng và bảo mật dữ liệu, các biện pháp phòng vệ, đặc biệt là liên quan đến việc sử dụng, lưu trữ và chuyển dữ liệu xuyên biên giới để bảo đảm an toàn thông tin, chủ quyền số và tạo hành lang pháp lý rõ ràng cho hoạt động AI.














