Cần có biện pháp ứng phó với sự thay đổi xã hội do AI mang lại

Theo Ủy ban Khoa học, Công nghệ và Môi trường, AI phát triển sẽ ảnh hưởng mạnh đến cơ hội việc làm của con người, đến quyền riêng tư và nhiều giá trị văn hóa, đạo đức. Do đó, cần có quy định về nguyên tắc đối với việc đánh giá tác động xã hội của AI, kèm theo biện pháp để ứng phó với sự thay đổi xã hội do AI mang lại.

Tiếp tục kỳ họp thứ 10, sáng ngày 21/11, Quốc hội nghe trình bày tờ trình và báo cáo thẩm tra về dự án Luật Trí tuệ nhân tạo.

Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng. Ảnh: Media Quốc hội

Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng. Ảnh: Media Quốc hội

Trình bày tờ trình, Bộ trưởng Khoa học và Công nghệ Nguyễn Mạnh Hùng cho biết, Luật Trí tuệ nhân tạo nhằm thể chế hóa chủ trương của Đảng và Nhà nước, tạo hành lang pháp lý đột phá cho trí tuệ nhân tạo; kiến tạo môi trường pháp lý thuận lợi để thúc đẩy đổi mới sáng tạo, nâng cao năng lực cạnh tranh quốc gia; đồng thời quản lý rủi ro, bảo vệ lợi ích quốc gia, quyền con người và chủ quyền số.

Theo Bộ trưởng, Luật Trí tuệ nhân tạo là luật khung, linh hoạt và thích ứng với sự phát triển của công nghệ. Trong đó đặt con người làm trung tâm với nguyên tắc tối cao là trí tuệ nhân tạo (AI) phục vụ con người, không thay thế con người; con người giám sát trí tuệ nhân tạo ở những quyết định trọng yếu; trí tuệ nhân tạo phải minh bạch, trách nhiệm và an toàn.

Bộ trưởng Nguyễn Mạnh Hùng cho biết, nội dung dự thảo Luật Trí tuệ nhân tạo kế thừa và bãi bỏ các quy định về trí tuệ nhân tạo tại Luật Công nghiệp công nghệ số số 71/2025/QH15; bổ sung các "khoảng trống" pháp lý để hoàn thiện pháp luật về trí tuệ nhân tạo. Tham khảo có chọn lọc pháp luật và kinh nghiệm thực tiễn về xu hướng phát triển trí tuệ nhân tạo của một số quốc gia phù hợp với điều kiện thực tiễn Việt Nam, pháp luật và điều ước quốc tế mà Việt Nam là thành viên.

Dự thảo gồm 8 chương với 36 điều, quy định về thúc đẩy hoạt động nghiên cứu, phát triển, cung cấp, triển khai và sử dụng hệ thống trí tuệ nhân tạo; quyền, nghĩa vụ của tổ chức, cá nhân có liên quan; quản lý Nhà nước đối với các hoạt động trí tuệ nhân tạo tại Việt Nam.

Đại diện cơ quan thẩm tra, Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường (KH,CN&MT) Nguyễn Thanh Hải cho biết, dự thảo Luật xây dựng theo hướng luật khung là phù hợp thực tiễn. Tuy nhiên, do lĩnh vực AI phát triển rất nhanh nên việc phải sửa đổi luật trong thời gian ngắn là có thể xảy ra. Có ý kiến cho rằng, Luật Trí tuệ nhân tạo là luật gốc và đối với mỗi luật chuyên ngành đều cần có một chương riêng về AI.

Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải. Ảnh: Media Quốc hội

Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường Nguyễn Thanh Hải. Ảnh: Media Quốc hội

Về phân loại và quản lý hệ thống AI theo rủi ro, Ủy ban cơ bản nhất trí với việc phân loại rủi ro thành 4 mức (rủi ro thấp, trung bình, cao và không chấp nhận được). Tuy nhiên, dự thảo Luật chưa xác định rõ tiêu chí định lượng hoặc định tính để xác định và phân loại rủi ro, chưa có các quy định về biện pháp quản lý, công cụ và phương pháp đánh giá rủi ro, dẫn đến lo ngại về trách nhiệm pháp lý trong triển khai.

Về cơ sở dữ liệu quốc gia hệ thống trí tuệ nhân tạo và cơ sở dữ liệu phục vụ trí tuệ nhân tạo, Ủy ban đề nghị bổ sung nguyên tắc cốt lõi để đảm bảo chất lượng đối với dữ liệu phục vụ AI, như dữ liệu phải “đúng - đủ - sạch - sống” và thống nhất dùng chung; có cơ chế kết nối liên thông, chia sẻ dữ liệu, không để dữ liệu bị phân tán tạo điểm nghẽn trong nghiên cứu, phát triển AI; có quy định nguyên tắc bắt buộc về đảm bảo an ninh mạng, bảo mật dữ liệu và phòng vệ đối với hạ tầng AI quốc gia, chống nguy cơ chiếm quyền điều khiển, rò rỉ dữ liệu.

Về trách nhiệm pháp lý của các bên liên quan, theo cơ quan thẩm tra, những hành vi và lỗi do con người thực hiện thì AI cũng có thể thực hiện. Trong khi đó, trách nhiệm pháp lý của bản thân AI còn nhiều quan điểm rất khác nhau nên rất khó xác định trách nhiệm theo nghĩa truyền thống. Khi có vụ việc phát sinh sẽ gây tranh chấp về trách nhiệm hành chính, dân sự, hình sự. Do vậy, cần bổ sung nguyên tắc để phân biệt trách nhiệm giữa các chủ thể, các bên liên quan, kể cả đối với nhà cung cấp nước ngoài khi cung cấp dịch vụ AI xuyên biên giới và phân biệt giữa các trường hợp cố ý, không cố ý hoặc lỗi do giới hạn kỹ thuật, không tiên lượng được trước.

Về các hành vi bị cấm, Ủy ban đề nghị bổ sung quy định về các hành vi bị cấm để góp phần nhận diện sớm về các hành vi vi phạm từ khâu nghiên cứu đến triển khai sử dụng AI, trong đó phải gồm cả hành vi của người sử dụng, của tổ chức, cá nhân lợi dụng AI thực hiện các hành vi bị cấm. Cụ thể, cấm sử dụng AI để gây rối, kích động chính trị, xâm phạm an ninh quốc gia, thao túng các cuộc bỏ phiếu, bầu cử,… ; cấm sử dụng AI để tạo dựng những nội dung giả mạo, tạo dựng hình ảnh, video clip,… phục vụ lừa đảo, xúc phạm danh dự, nhân phẩm, gây chia rẽ và các mục đích xấu khác.

Cơ quan thẩm tra cũng đề nghị bổ sung một mục riêng về việc sử dụng AI trong đào tạo, nghiên cứu và đổi mới sáng tạo. Theo Chủ nhiệm Ủy ban KH,CN&MT Nguyễn Thanh Hải, dự thảo Luật chưa có quy định về nội dung này, trong khi đây đang là khu vực tạo ra những đột phá, giá trị vượt trội mà con người chưa thể vươn tới được theo cách truyền thống. Chẳng hạn như AI đã hỗ trợ thiết kế protein, tìm ra vật liệu mới mà con người chưa từng biết đến, nhưng vấn đề vẫn còn bỏ ngỏ như quyền tác giả, bảo vệ dữ liệu nghiên cứu, cơ chế chia sẻ dữ liệu nghiên cứu và cơ chế thử nghiệm có kiểm soát (sandbox) đối với các dự án có giá trị khoa học cao, miễn trừ trách nhiệm đối với rủi ro trong quá trình thử nghiệm khi tổ chức, cá nhân đã tuân thủ đúng quy định…

Ngoài ra, AI phát triển sẽ ảnh hưởng mạnh đến cơ hội việc làm của con người, đến quyền riêng tư và nhiều giá trị văn hóa, đạo đức. Do đó, cơ quan thẩm tra cho rằng cần bổ sung quy định về nguyên tắc đối với việc đánh giá tác động xã hội của AI, kèm theo biện pháp để ứng phó với sự thay đổi xã hội do AI mang lại.

Đinh Nhung

Nguồn Mekong Asean: https://mekongasean.vn/can-co-bien-phap-ung-pho-voi-su-thay-doi-xa-hoi-do-ai-mang-lai-48885.html