Gộp 3 quỹ về khoa học, công nghệ giúp tập trung nguồn lực
Thảo luận tại Tổ 16 (gồm Đoàn ĐBQH thành phố Đà Nẵng, tỉnh Tuyên Quang, tỉnh Cao Bằng) sáng 21/11, các đại biểu Quốc hội cho rằng, Quỹ Phát triển Trí tuệ Nhân tạo Quốc gia được thành lập sẽ giúp thúc đẩy, hỗ trợ năng lực nghiên cứu cũng như ứng dụng AI ở trong nước. Nhưng, hiện đang có 2 quỹ khác về khoa học, công nghệ nên cần cân nhắc gộp thành một quỹ chung để tập trung nguồn lực hỗ trợ nghiên cứu và đổi mới công nghệ, trong đó có AI.
Cần quy định hành vi bị cấm trong nghiên cứu, ứng dụng AI
Trí tuệ nhân tạo (AI) đang trở thành công nghệ mũi nhọn của cuộc cách mạng công nghiệp 4.0, mở ra nhiều cơ hội to lớn cho phát triển kinh tế - xã hội. Nhưng cũng đặt ra không ít thách thức, cấp bách về quản lý, đạo đức và an toàn mà các quy định pháp luật hiện hành chưa bao quát đầy đủ.
Do đó, các ĐBQH đều nhất trí với sự cần thiết xây dựng dự án Luật Trí tuệ nhân tạo nhằm tạo hành lang pháp lý đột phá cho trí tuệ nhân tạo, kiến tạo môi trường pháp lý thuận lợi để thúc đẩy đổi mới sáng tạo, nâng cao năng lực cạnh tranh quốc gia, đồng thời quản lý rủi ro, bảo vệ lợi ích quốc gia, quyền con người.

ĐBQH Trần Đình Chung (TP. Đà Nẵng) phát biểu. Ảnh: Phạm Thắng
Quan tâm đến sử dụng AI trong các cơ quan nhà nước, ĐBQH Trần Đình Chung (Đà Nẵng) cho rằng, việc này sẽ giúp các cơ quan, cán bộ, công chức tiết kiệm thời gian rất nhiều, xử lý công việc nhanh hơn và đồng bộ hơn, góp phần nâng cao chất lượng công việc.
Bên cạnh những lợi ích về chi phí và thời gian do ứng dụng AI trong cơ quan nhà nước, đại biểu cũng lưu ý, hiện có nhiều vấn đề đang đặt ra cần được nghiên cứu sâu hơn và cụ thể hóa vào dự thảo Luật.
Thứ nhất là tính bảo mật khi sử dụng AI, vì cán bộ, công chức hiện phải cung cấp các thông tin đầu vào phục vụ cho việc huấn luyện AI cũng như trong quá trình vận hành. Do đó, nếu không được quản lý chặt chẽ sẽ có nguy cơ đưa vào phần mềm AI các dữ liệu nội bộ, dữ liệu nhạy cảm hay các thông tin mật của nhà nước, hoặc dữ liệu bị sử dụng cho các mục đích khác ngoài mục đích huấn luyện AI. Dữ liệu cũng là vấn đề cần quan tâm khi chưa có quy định cụ thể về cách thức lưu trữ, nơi lưu trữ cũng như quyền truy cập.
Thứ hai việc tập trung một khối lượng lớn dữ liệu của các cơ quan nhà nước vào các phần mềm AI cũng tạo ra một rủi ro tin tặc tấn công đánh cắp dữ liệu. Đặc biệt, nguy cơ này cũng ngày càng gia tăng do cơ quan nhà nước chưa thể tự xây dựng và vận hành các phần mềm AI mà thường dựa trên sự hợp tác với các doanh nghiệp ở bên ngoài. Trong khi đó, các phần mềm gián điệp hiện nay của các nước ngoài cũng đang phát triển nên sử dụng AI cũng đứng trước nguy cơ bị đánh cắp dữ liệu và chi phối.
Thứ ba, một nguy cơ khác là tính chính xác. Bởi, phần mềm AI cũng có thể đưa ra các kết quả không chính xác do học từ dữ liệu có sẵn, có thể kế thừa định kiến hay các giải quyết không chính xác mà cán bộ công chức đã thực hiện trong quá khứ. “Dữ liệu không chính xác hay không đầy đủ cũng ảnh hưởng rất nhiều đến chất lượng của AI”, đại biểu nhấn mạnh.
Cán bộ, công chức hoặc là người dân cũng chưa có kỹ năng đặt câu hỏi cho AI, dẫn đến kết quả trả lời hạn chế. Trong khi, AI cần có thời gian để cập nhật các văn bản quy phạm pháp luật mới, hướng dẫn mới của cơ quan nhà nước.

ĐBQH Tạ Văn Hạ (TP Đà Nẵng) phát biểu. Ảnh: Phạm Thắng
Thứ tư, chất lượng xây dựng AI hiện nay cũng chưa đáp ứng được yêu cầu. Một số mô hình AI rất phức tạp khiến cho việc kiểm soát quá trình phân tích, xử lý dữ liệu và giải thích tại sao AI đưa ra một quyết định cụ thể trở nên rất khó khăn. Ngoài ra, vấn đề lỗi trong thuật toán hoặc hệ thống AI cũng dẫn đến sai sót.
Bên cạnh những đòi hỏi về hạ tầng kỹ thuật, nguồn nhân lực để ứng dụng AI trong cơ quan Nhà nước, đại biểu Trần Đình Chung cũng lưu ý, cần chú ý nguy cơ lạm dụng công nghệ AI sẽ làm giảm kỹ năng của cán bộ công chức. Cán bộ sẽ ít tìm tòi nghiên cứu vì cứ nghĩ chỉ cần đẩy vào phần mềm để AI trả lời giúp những vấn đề cần quan tâm.
“Sử dụng công nghệ AI trong cơ quan nhà nước là xu thế tất yếu phải thực hiện. Nhưng sử dụng như thế nào để bảo đảm hiệu quả công việc, song cũng bảo đảm yếu tố bảo mật, an toàn thông tin là vấn đề đang đặt ra”. Do vậy, đại biểu Trần Đình Chung tán thành xây dựng dự án Luật Trí tuệ nhân tạo, nhưng cũng đề nghị phải tiếp tục rà soát để bảo đảm tính đồng bộ, thống nhất với các luật liên quan.
Đại biểu cũng đề nghị nghiên cứu bổ sung một điều khoản quy định các hành vi, hoạt động bị nghiêm cấm trong nghiên cứu, ứng dụng, áp dụng AI, thay vì đặt rải rác ở nhiều điều khoản trong dự thảo Luật như hiện nay dẫn đến khó theo dõi.
Theo đại biểu, việc xác định rõ trách nhiệm pháp lý của AI rất quan trọng để tránh tranh cãi pháp lý trong tương lai cũng như xử lý vi phạm. Mặt khác, AI liên quan đến máy móc, công nghệ, nên bên cạnh phần lỗi do con người tạo ra, có thể quy trách nhiệm được, thì cũng có thể đổ cho máy móc, công nghệ hay yếu tố khác. Do vậy, phải nghiên cứu để quy định thật cụ thể, tránh lu mờ trách nhiệm pháp lý, nhất là trong ứng dụng, sử dụng AI trong cơ quan nhà nước.
Cần quy định rõ cơ quan chủ trì quản lý rủi ro trong các lĩnh vực
Quan tâm đến quản lý hệ thống AI có rủi ro cao quy định tại Mục II Chương II của dự thảo Luật, ĐBQH Vương Thị Hương (Tuyên Quang) cho rằng, lĩnh vực y tế cần được xác định là một trong những lĩnh vực có rủi ro cao khi ứng dụng trí tuệ nhân tạo, do tác động trực tiếp đến tính mạng, sức khỏe con người, dữ liệu cá nhân nhạy cảm và niềm tin xã hội. Các hệ thống AI hỗ trợ chẩn đoán hình ảnh, điều trị bệnh, phẫu thuật, phân tích gene… nếu thiếu kiểm định, thiếu tiêu chuẩn an toàn hoặc không minh bạch về dữ liệu huấn luyện có thể gây hậu quả nghiêm trọng, thậm chí không thể khắc phục.

ĐBQH Vương Thị Hương (Tuyên Quang) phát biểu. Ảnh: Phạm Thắng
Dự thảo Luật quy định về phân loại và quản lý rủi ro nhưng chưa làm rõ cơ quan chủ trì quản lý trong từng lĩnh vực cụ thể. Trong khi đó, đại biểu nhận thấy, đối với lĩnh vực y tế, nếu giao điều phối chung cho cơ quan quản lý công nghệ thông tin mà không quy định rõ vai trò chủ trì ngành y tế, có thể dẫn tới chồng chéo trong thẩm định, thiếu thống nhất tiêu chuẩn chuyên môn, khó khăn trong việc quản lý các sản phẩm trí tuệ nhân tạo được sử dụng như thiết bị y tế hoặc được áp dụng trong khám chữa bệnh.
Vì vậy, đề nghị bổ sung quy định giao Bộ Y tế chủ trì quản lý hệ thống trí tuệ nhân tạo có rủi ro cao trong lĩnh vực y tế, phối hợp với Bộ Thông tin và Truyền thông cùng các Bộ, ngành liên quan để: ban hành tiêu chuẩn kỹ thuật, đánh giá lâm sàng và kiểm định an toàn; quy định về bảo mật dữ liệu bệnh án và kết nối hệ thống thông tin y tế; giám sát rủi ro trong quá trình sử dụng.
“Việc quy định rõ đầu mối sẽ tạo cơ sở pháp lý chặt chẽ, bảo đảm an toàn người bệnh, đồng thời tạo điều kiện cho các doanh nghiệp công nghệ và cơ sở y tế triển khai ứng dụng AI một cách minh bạch, có kiểm soát”, đại biểu Vương Thị Hương nhấn mạnh.
Tán thành với quy định về Quỹ Phát triển Trí tuệ Nhân tạo Quốc gia tại Điều 23 của dự thảo Luật, ĐBQH Bế Minh Đức (Cao Bằng) cho rằng, quỹ này được hình thành nhằm thúc đẩy, hỗ trợ năng lực nghiên cứu cũng như ứng dụng AI ở trong nước. Tuy nhiên, hiện nay chúng ta có Quỹ Phát triển Khoa học Công nghệ Quốc gia, Quỹ Đổi mới Công nghệ Quốc gia, cũng nhằm mục tiêu hỗ trợ nghiên cứu và đổi mới công nghệ, trong đó có AI.

ĐBQH Bế Minh Đức (Cao Bằng) phát biểu. Ảnh: Phạm Thắng
Mặc dù phạm vi và đối tượng hỗ trợ của mỗi loại quỹ có sự khác nhau nhưng đều tập trung ở lĩnh vực khoa học, công nghệ. Do vậy, đề nghị cần có sự rà soát, xác định mối quan hệ giữa các loại quỹ để phát huy tính hiệu quả của các loại quỹ, tránh trùng lặp về chức năng, phân tán nguồn lực và tăng gánh nặng ngân sách.
Thậm chí, do cùng một bộ chủ quản, nên đại biểu đề nghị cần cân nhắc nghiên cứu gộp ba loại quỹ này, dồn nguồn lực để thực hiện các chính sách hỗ trợ cho phát triển khoa học, công nghệ được thuận lợi hơn.
Bên cạnh đó, đại biểu Bế Minh Đức cũng đề nghị, các luật chuyên ngành có liên quan cũng cần có các quy định riêng về AI trong phạm vi từng lĩnh vực. Đây là nguyên tắc cần được quy định, vì nước ta đang bước vào kỷ nguyên số. Trí tuệ nhân tạo đã và đang nghiên cứu, ứng dụng rộng rãi trong mọi ngành, mọi lĩnh vực kinh tế xã hội, quốc phòng, an ninh. Việc bổ sung nguyên tắc trên sẽ giúp bảo đảm điều chỉnh toàn diện các vấn đề đặc thù và đáp ứng yêu cầu quản lý trong bối cảnh công nghệ đang phát triển nhanh chóng như hiện nay.














