Vì sao Việt Nam cần một luật riêng về AI?
AI đang len vào mọi lĩnh vực nhưng nhiều rủi ro mới lại vượt ngoài phạm vi các luật hiện hành, tạo ra một 'vùng xám' khó kiểm soát. Luật Trí tuệ nhân tạo sẽ lấp đầy khoảng trống này, mở đường cho phát triển an toàn, minh bạch.

Robot VinMotion và người dùng giao lưu thân thiện tại Lễ trao Giải thưởng Chuyển đổi số Việt Nam 2025.
Bộ Khoa học và Công nghệ vừa trình Quốc hội dự án Luật Trí tuệ nhân tạo (AI) với kỳ vọng tạo hành lang an toàn nhưng vẫn giữ không gian cho đổi mới, sáng tạo. Luật AI được xây dựng trong bối cảnh trí tuệ nhân tạo đã len vào mọi ngóc ngách của đời sống, từ sáng tạo nội dung, giáo dục, y tế, sản xuất đến quản lý đô thị.
Câu hỏi đặt ra là Việt Nam cần làm gì để có hành lang pháp lý đủ mạnh vừa thúc đẩy phát triển AI, vừa bảo vệ người dùng? Các chuyên gia quốc tế và trong nước đã chia sẻ với VietTimes về những rủi ro mới của AI, nhu cầu quản lý chủ động cũng như việc vì sao Việt Nam cần một khuôn khổ pháp lý riêng thay vì dựa vào các luật hiện hành.
AI phát triển quá nhanh, luật cần theo kịp
TS Sreenivas Tirumala, giảng viên cấp cao ngành công nghệ thông tin, Đại học RMIT, nhìn nhận sự phát triển nhanh chóng của nền kinh tế Việt Nam đặt ra yêu cầu cấp thiết về việc tích hợp trí tuệ nhân tạo vào các ngành, từ khu vực nông nghiệp, công nghiệp đến dịch vụ.
Việt Nam đang hướng đến mục tiêu trở thành một trung tâm AI của thế giới vào năm 2030. Vì vậy, luật không chỉ là biện pháp quản lý mà còn phải tạo động lực giúp doanh nghiệp và cơ quan quản lý cùng tiến về phía trước.
“Luật Trí tuệ nhân tạo sẽ cho phép Việt Nam quản lý việc sử dụng AI với mục tiêu bảo vệ người dùng và đảm bảo kiểm soát các mô hình và ứng dụng AI đặt ở nước ngoài", ông Sreenivas Tirumala nhấn mạnh đây là yêu cầu sống còn trong bối cảnh tội phạm mạng sử dụng AI để tấn công ngày càng tinh vi thông qua deepfake, lừa đảo giọng nói hay email độc hại.
Cùng quan điểm, TS Jeff Nijsse, giảng viên cấp cao ngành kỹ thuật phần mềm của Đại học RMIT, đánh giá việc ban hành luật AI là bước đi phù hợp với xu hướng thế giới. Ông cho rằng AI đang tạo ra nhiều loại rủi ro mới mà pháp luật hiện hành chưa đủ bao quát, đặc biệt là deepfake và các dạng thao túng hình ảnh, âm thanh. Việc có luật riêng sẽ giúp nhà nước chủ động kiểm soát, không chạy theo xử lý hậu quả.

TS Jeff Nijsse và TS Sreenivas Tirumala cho rằng AI đang tạo ra nhiều loại rủi ro mới nên việc ban hành Luật Trí tuệ nhân tạo là phù hợp.
Một số ý kiến cho rằng Việt Nam đã có Luật Công nghiệp công nghệ số, Luật An ninh mạng và Luật Bảo vệ dữ liệu cá nhân... thì có cần thêm một đạo luật mới? Các chuyên gia cho rằng AI có những rủi ro mang tính đặc thù nên việc ban hành thêm luật là cần thiết.
TS Sreenivas Tirumala đánh giá Luật Trí tuệ nhân tạo sẽ giúp Việt Nam đi trước các nước khác của ASEAN về mặt pháp lý. Điều này rất quan trọng khi Việt Nam mong muốn thu hút nhà đầu tư nước ngoài. Các quy định hiện nay chưa yêu cầu đăng ký và kiểm soát các hệ thống AI rủi ro cao, cũng chưa có quy chuẩn về minh bạch dữ liệu huấn luyện hay bảo vệ quyền tác giả khi dữ liệu được đưa vào mô hình.
Còn TS Jeff Nijsse nhấn mạnh rằng dự thảo Luật AI sẽ giải bài toán chồng chéo, chứ không phải tạo thêm chồng chéo về quy định pháp lý. Một cơ chế điều phối thống nhất có thể giúp liên kết các luật hiện hành thay vì khiến doanh nghiệp phải chạy vòng giữa nhiều đầu mối quản lý.
Từ góc nhìn trong nước, Phó chủ tịch Hội Truyền thông số Việt Nam Lê Đức Sảo -người đã đại diện Hội có nhiều ý kiến góp ý, đề xuất sửa đổi Dự thảo Luật Trí tuệ nhân tạo - cho rằng Việt Nam đang đối mặt với “vùng xám pháp lý” nếu không có luật riêng về trí tuệ nhân tạo. Nhiều ứng dụng AI xuất hiện mỗi ngày, nhưng không cơ quan nào đủ thẩm quyền đưa ra tiêu chuẩn, yêu cầu kỹ thuật hay trách nhiệm pháp lý. Luật AI sẽ giúp ôm trọn khoảng trống này và tạo nền tảng cho các chính sách tiếp theo.

Ông Lê Đức Sảo, Phó chủ tịch Hội Truyền thông số Việt Nam
Tiền kiểm hay hậu kiểm?
Một trong những nội dung gây tranh luận lớn nhất liên quan dự thảo Luật Trí tuệ nhân tạo là yêu cầu tiền kiểm đối với hệ thống AI rủi ro cao. Điều đó nghĩa là nhà phát triển phải đăng ký, được thẩm định rồi mới được triển khai. Nhiều ý kiến lo ngại điều này có thể khiến doanh nghiệp nhỏ và startup bị chậm lại hoặc bỏ cuộc trước khi kịp thử nghiệm.
Ông Lê Đức Sảo cảnh báo nếu áp dụng cứng nhắc, chúng ta sẽ vô tình dựng rào cản cho hàng nghìn doanh nghiệp nhỏ, startup, viện nghiên cứu, những lực lượng sáng tạo năng động nhất.
“Tôi đề xuất tiền kiểm có chọn lọc, đồng thời bổ sung sandbox AI, khung thử nghiệm trong 24 tháng, cho phép triển khai trong môi trường giới hạn để kiểm chứng an toàn trước khi thương mại hóa. Cách này vừa bảo đảm an toàn, vừa mở không gian đổi mới”, ông Sảo nói.
Còn TS Jeff Nijsse cho rằng phân loại rủi ro trong quản lý AI chỉ thực sự hiệu quả khi đi kèm cơ chế cập nhật linh hoạt. Nếu tiền kiểm quá khắt khe có thể khiến AI chậm phát triển trong tương lai. Khi đứng trước nguy cơ bị xếp hệ thống vào nhóm rủi ro trung bình hoặc cao, các doanh nghiệp dễ e ngại, từ đó làm chậm tốc độ đổi mới và suy giảm sức cạnh tranh của Việt Nam.
Theo các chuyên gia, bài toán ưu tiên ở đây không phải chọn giữa tiền kiểm hay hậu kiểm, mà là tìm cách kết hợp cả hai với mức độ linh hoạt phù hợp từng lĩnh vực.

Ứng dụng AI hỗ trợ lập kế hoạch giải quyết án, tạo lập và quản lý hồ sơ án điện tử.
Ai chịu trách nhiệm khi AI gây thiệt hại?
Trí tuệ nhân tạo đặt ra bài toán pháp lý mới về việc ai chịu trách nhiệm khi AI gây thiệt hại? Nhà phát triển mô hình, bên cung cấp dịch vụ hay người triển khai ứng dụng? Nếu trách nhiệm không được phân tầng rõ ràng, doanh nghiệp sẽ e dè đầu tư.
Từ thực tế đó, ông Lê Đức Sảo đề xuất chia 3 tầng trách nhiệm: Tầng thứ nhất, nhà phát triển mô hình gốc chịu trách nhiệm về an toàn nền tảng. Tầng thứ hai, bên triển khai chịu trách nhiệm về mục đích sử dụng. Tầng thứ ba, bên cung cấp hạ tầng có trách nhiệm cảnh báo rủi ro và đảm bảo điều kiện vận hành.
Ông cũng đề xuất thành lập quỹ bảo hiểm rủi ro AI để xử lý bồi thường nhanh cho người bị thiệt hại, trước khi phân định lỗi giữa các bên.
Một vấn đề quan trọng khác là bí mật thương mại. Dự thảo yêu cầu nhà phát triển khai báo thông tin với Cơ sở dữ liệu quốc gia về AI. Tuy nhiên, nếu khai báo quá sâu vào mã nguồn hay quy trình huấn luyện, doanh nghiệp có thể lo ngại bị lộ “bí mật công nghệ”.
Ông Sảo nói thẳng: “Nếu buộc khai báo quá sâu như mã nguồn, quy trình huấn luyện, thì chẳng khác nào yêu cầu họ mở két sắt”. Do đó, luật cần yêu cầu mức khai báo phù hợp, tập trung vào mô tả chức năng, phạm vi tác động và các biện pháp bảo vệ dữ liệu, đồng thời bảo mật tuyệt đối kho dữ liệu quốc gia.
Trên nguyên tắc AI vận hành bằng dữ liệu, trong bối cảnh dữ liệu lại liên quan trực tiếp đến quyền tác giả và quyền riêng tư, ông Lê Đức Sảo đề xuất mô hình linh hoạt: Cho phép sử dụng dữ liệu có bản quyền cho mục đích nghiên cứu, giảng dạy, phi thương mại, kèm theo yêu cầu ghi nguồn. Còn với mục đích thương mại, doanh nghiệp phải xin phép hoặc trả phí.
Ông cũng cho rằng Việt Nam nên xây dựng Kho dữ liệu mở quốc gia, trong đó dữ liệu được gắn nhãn quyền sử dụng rõ ràng để doanh nghiệp có thể khai thác an toàn.
Nhìn từ các ý kiến, có thể thấy Luật Trí tuệ nhân tạo khi được thông qua sẽ mở ra cơ hội để Việt Nam bước vào kỷ nguyên AI với tư thế chủ động hơn. Việc ban hành một đạo luật riêng không chỉ nhằm lấp đầy khoảng trống pháp lý, mà còn tạo nền tảng để xã hội tận dụng được lợi ích của AI một cách an toàn, có kiểm soát.
Luật AI được kỳ vọng sẽ trở thành công cụ giúp bảo vệ người dân trước những rủi ro mới như deepfake, lừa đảo hay xâm phạm quyền riêng tư, đồng thời tạo khung khổ rõ ràng để doanh nghiệp dám đầu tư, dám thử nghiệm các mô hình mới. Khi cơ chế cập nhật linh hoạt, quy trình kiểm định minh bạch, trách nhiệm pháp lý rõ ràng và hạ tầng dữ liệu được chuẩn hóa, niềm tin thị trường sẽ được củng cố, qua đó mang lại lợi ích trực tiếp cho người dùng, doanh nghiệp và toàn bộ nền kinh tế.
Nguồn VietTimes: https://viettimes.vn/vi-sao-viet-nam-can-mot-luat-rieng-ve-ai-post191405.html













