Dự thảo Luật Trí tuệ nhân tạo: Bệ phóng đổi mới hay hàng rào hành chính?
Bộ Khoa học và Công nghệ đang lấy ý kiến đối với Dự thảo Luật Trí tuệ nhân tạo - đạo luật đầu tiên của Việt Nam về AI. Đây được kỳ vọng sẽ trở thành khung pháp lý cho 'động cơ của kỷ nguyên số'. Tuy nhiên, bài toán đặt ra là làm thế nào để luật vừa quản lý hiệu quả, vừa không hành chính hóa, bó buộc sáng tạo khi đi vào thực thi?
Để làm rõ vấn đề này, PetroTimes đã có cuộc trao đổi với ông Lê Đức Sảo, Phó Chủ tịch Hội Truyền thông số Việt Nam, nhằm lắng nghe góc nhìn cá nhân và một số kiến nghị hoàn thiện dự thảo luật.
PV: Thưa ông, với tư cách người trực tiếp tham gia phản biện dự thảo luật, ông đánh giá tổng thể như thế nào về tầm nhìn và tinh thần của Dự thảo Luật Trí tuệ nhân tạo?
Ông Lê Đức Sảo: Trước hết, phải ghi nhận rằng đây là bước đi đúng đắn và kịp thời. Trong bối cảnh AI đang len vào mọi lĩnh vực, từ y tế, giáo dục, truyền thông đến quản trị nhà nước, việc Việt Nam ban hành một đạo luật riêng là cần thiết để tạo nền tảng pháp lý cho phát triển bền vững.
Tôi đánh giá cao tinh thần “lấy con người làm trung tâm” của dự thảo, hướng tới AI vì lợi ích xã hội, chứ không chỉ vì tăng trưởng kinh tế. Tuy nhiên, cấu trúc và cách tiếp cận hiện nay vẫn nghiêng nhiều về quản lý hành chính, chưa thể hiện rõ tư duy “định hướng, mở đường” cho sáng tạo công nghệ.
Một đạo luật về AI không thể được thiết kế như một bộ luật hành chính. Nó phải là luật khung, có khả năng thích ứng cao, cập nhật liên tục theo nhịp phát triển công nghệ. Nếu cố gắng chi tiết hóa mọi thứ, từ mô hình, dữ liệu đến cấp phép, khai báo, chúng ta dễ biến AI thành lĩnh vực “xin - cho”, trong khi bản chất của nó là tự học và tự phát triển.

Theo ông Lê Đức Sảo, nếu luật chỉ nhằm kiểm soát, chúng ta sẽ tụt lại. Nhưng nếu luật biết khai phóng, Việt Nam hoàn toàn có thể bứt phá.
PV: Một trong những điểm được quan tâm là cơ chế “tiền kiểm, hậu kiểm” với hệ thống AI rủi ro cao. Theo ông, quy định này đã hợp lý chưa?
Ông Lê Đức Sảo: Đây là điểm tôi góp ý kỹ nhất. Dự thảo hiện yêu cầu mọi hệ thống AI “rủi ro cao” phải tiền kiểm, tức được cấp phép trước khi hoạt động. Nghe có vẻ an toàn, nhưng thực tế không phù hợp với tốc độ phát triển và tính linh hoạt của công nghệ.
Các nước phát triển hiện ưu tiên hậu kiểm kết hợp sandbox, cho phép thử nghiệm có kiểm soát. Chỉ những lĩnh vực đặc biệt nhạy cảm như quốc phòng, y tế sinh học, hay tác động trực tiếp đến tính mạng con người mới bị tiền kiểm chặt chẽ.
Nếu Việt Nam áp dụng tiền kiểm đại trà, chúng ta sẽ vô tình dựng rào cản cho hàng nghìn doanh nghiệp nhỏ, startup, viện nghiên cứu, những lực lượng sáng tạo năng động nhất. Một mô hình AI hỗ trợ giảng dạy, nghiên cứu, hay chatbot hành chính đâu cần phải “xin phép vận hành”?
Tôi đề xuất tiền kiểm có chọn lọc, đồng thời bổ sung sandbox AI, khung thử nghiệm trong 24 tháng, cho phép triển khai trong môi trường giới hạn để kiểm chứng an toàn trước khi thương mại hóa. Cách này vừa bảo đảm an toàn, vừa mở không gian đổi mới.
PV: Dự thảo yêu cầu doanh nghiệp khai báo thông tin kỹ thuật vào “Cơ sở dữ liệu quốc gia về AI”. Một số chuyên gia lo ngại điều này có thể xâm phạm bí mật thương mại. Ông có thể nêu quan điểm về vấn đề này không?
Ông Lê Đức Sảo: Lo ngại đó hoàn toàn có cơ sở. Giá trị của một mô hình AI không nằm ở phần mềm, mà ở bộ dữ liệu huấn luyện và cấu trúc thuật toán, đó chính là “két sắt công nghệ” của doanh nghiệp. Nếu buộc khai báo quá sâu như mã nguồn, quy trình huấn luyện, thì chẳng khác nào yêu cầu họ mở két sắt cho cơ quan quản lý xem.

Nếu Việt Nam áp dụng tiền kiểm đại trà, chúng ta sẽ vô tình dựng rào cản cho hàng nghìn doanh nghiệp nhỏ, startup, viện nghiên cứu, những lực lượng sáng tạo năng động nhất.
Tôi hiểu mục đích của nhà làm luật là giám sát, phòng rủi ro, nhưng cần phân biệt giữa quản lý tổng quan và xâm phạm bí mật thương mại. Theo tôi, chỉ nên yêu cầu doanh nghiệp khai báo thông tin tổng quát như: loại mô hình, mục đích sử dụng, phạm vi tác động, biện pháp bảo vệ dữ liệu.
Đồng thời, cơ sở dữ liệu quốc gia phải được bảo mật ở cấp độ an ninh mạng cao nhất, có mã hóa, kiểm toán định kỳ, phân quyền truy cập rõ ràng. Nếu không, chính kho dữ liệu này sẽ trở thành mục tiêu tấn công.
PV: Về pháp lý, dự thảo chưa phân định rõ trách nhiệm giữa nhà phát triển, nhà cung cấp và người triển khai ứng dụng AI. Điều này có nguy hiểm không, thưa ông?
Ông Lê Đức Sảo: Rất nguy hiểm, vì trong hệ sinh thái AI, trách nhiệm không thể quy về một bên. Ví dụ, một startup Việt Nam dùng mô hình ngôn ngữ lớn (LLM) của Mỹ qua API để tạo chatbot chăm sóc khách hàng. Nếu chatbot đó phát ngôn sai hoặc gây tổn hại danh dự người dùng, ai chịu trách nhiệm? Startup Việt Nam hay nhà phát triển Mỹ?
Nếu luật không định rõ, sẽ rơi vào “vùng xám pháp lý”. Do đó, cần phân tầng trách nhiệm rõ ràng. Trong đó, nhà phát triển mô hình gốc cần chịu trách nhiệm về an toàn, độ tin cậy, báo cáo rủi ro. Bên triển khai/tích hợp phải chịu trách nhiệm về mục đích, phạm vi ứng dụng. Bên cung cấp hạ tầng (API, cloud) phải đảm bảo điều khoản sử dụng, cảnh báo rủi ro.
Ngoài ra, nên lập Quỹ bảo hiểm rủi ro AI, tương tự bảo hiểm dân sự trong giao thông. Nếu AI gây thiệt hại nghiêm trọng, nạn nhân được bồi thường nhanh từ quỹ, sau đó các bên liên quan mới phân xử trách nhiệm.
PV: Quyền sử dụng dữ liệu để huấn luyện AI đang là vấn đề rất “nóng”. Theo ông, Luật cần được thiết kế như thế nào để vừa bảo đảm quyền tác giả, quyền sở hữu dữ liệu, vừa không tạo rào cản đối với hoạt động nghiên cứu và phát triển AI?
Ông Lê Đức Sảo: AI học từ dữ liệu, mà dữ liệu phần lớn lại có bản quyền. Nếu cấm tuyệt đối, gần như không ai ở Việt Nam có thể phát triển AI. Ngược lại, nếu cho phép tự do hoàn toàn, sẽ xâm phạm quyền tác giả.
Cách hợp lý là phân tách mục đích sử dụng: Cho phép dùng dữ liệu có bản quyền cho nghiên cứu, giảng dạy, thử nghiệm phi thương mại, với điều kiện ghi nguồn, không phát tán bản sao gốc. Khi chuyển sang thương mại hóa, bắt buộc xin phép chủ sở hữu hoặc trả phí bản quyền. Nhà nước nên xây dựng Kho dữ liệu mở quốc gia về AI, gắn nhãn quyền sử dụng rõ rang như dữ liệu công cộng, học thuật, chia sẻ có điều kiện…
Đó cũng là cách giúp Việt Nam giảm phụ thuộc dữ liệu nước ngoài và khuyến khích cộng đồng mã nguồn mở trong nước.

Nhà nước nên xây dựng Kho dữ liệu mở quốc gia về AI, gắn nhãn quyền sử dụng rõ rang như dữ liệu công cộng, học thuật, chia sẻ có điều kiện…
PV: Có ý kiến cho rằng nên thành lập một cơ quan kiểm định và chứng nhận AI độc lập, tách khỏi hệ thống các bộ, ngành quản lý hành chính để bảo đảm tính khách quan và chuyên môn. Quan điểm của ông về đề xuất này như thế nào?
Ông Lê Đức Sảo: Tôi hoàn toàn đồng tình. AI là lĩnh vực liên ngành, liên nghề, liên lĩnh vực, đòi hỏi chuyên môn sâu và tính khách quan cao. Nếu giao hết cho một bộ, dễ xảy ra chồng chéo, hành chính hóa.
Theo tôi nên thành lập Cơ quan Kiểm định và Chứng nhận AI Quốc gia (NAIC), hoạt động độc lập về chuyên môn, trực thuộc Ủy ban Quốc gia về AI. Cơ quan này có thể phối hợp với viện nghiên cứu, trường đại học, doanh nghiệp lớn để đánh giá, công bố tiêu chuẩn kỹ thuật. AI cần một cơ quan chuyên môn thuần kỹ thuật, không nên để các vụ, cục hành chính vừa làm chính sách vừa kiểm định, như vậy sẽ thiếu khách quan và chậm trễ.
PV: Từ thực tiễn triển khai và ứng dụng AI thời gian qua, theo ông, những nguy cơ xã hội nào là cấp thiết nhất mà Luật cần nhận diện và có cơ chế ứng phó ngay?
Ông Lê Đức Sảo: Có ba nguy cơ lớn. Thứ nhất, sai lệch và thao túng thông tin. Deepfake và mô hình ngôn ngữ có thể tạo tin, hình, video giả gần như thật. Nếu không có quy định về truy xuất nguồn gốc nội dung, “tem xác thực kỹ thuật số”, xã hội sẽ khủng hoảng niềm tin.
Thứ hai, quyền riêng tư và dữ liệu cá nhân. Nhiều ứng dụng AI đang thu thập dữ liệu người dùng mà không có sự đồng thuận. Nếu không gắn Luật AI với Luật Bảo vệ dữ liệu cá nhân, sẽ dễ lạm dụng, buôn bán trái phép.
Thứ ba, tác động đến việc làm và giáo dục. AI có thể thay thế hàng triệu công việc, nhưng cũng tạo nghề mới. Luật cần định hướng chuyển đổi nghề, đào tạo lại kỹ năng số, hỗ trợ doanh nghiệp và người lao động thích ứng.
AI không phải “quái vật”, nó chỉ nguy hiểm khi con người dùng sai. Vì thế, luật cần vừa bảo vệ, vừa khai phóng.
PV: Theo ông, những điều kiện tiên quyết nào cần được đảm bảo để Luật AI khi ban hành có thể nhanh chóng đi vào cuộc sống, phát huy hiệu quả thực thi?
Ông Lê Đức Sảo: Một đạo luật chỉ “sống” khi xã hội hiểu, tin và có khả năng thực thi nó. Theo tôi, cần ba điều kiện tiên quyết:
Thứ nhất, thể chế phải linh hoạt và mở. Luật AI cần được thiết kế với cơ chế rà soát, cập nhật định kỳ (khoảng 2 năm/lần) để theo kịp tốc độ phát triển công nghệ, tránh tình trạng lạc hậu ngay khi triển khai.
Thứ hai, nâng cao năng lực con người và nhận thức xã hội. Nếu người dân, nhà báo, giáo viên không hiểu về AI, họ khó có thể giám sát, ứng xử và sử dụng công nghệ một cách có trách nhiệm. Hội Truyền thông số sẽ phối hợp Bộ Khoa học và Công nghệ cùng các trường đại học triển khai chương trình truyền thông và đào tạo phổ cập AI.
Thứ ba, bảo đảm hạ tầng dữ liệu và thúc đẩy mở trong nghiên cứu - đổi mới sáng tạo. Nhà nước cần đầu tư trung tâm dữ liệu quốc gia, xây dựng kho dữ liệu mở và quỹ hỗ trợ startup AI. Khi đó, Luật AI sẽ trở thành bệ phóng cho sáng tạo và phát triển, chứ không phải rào cản.
PV: Ông kỳ vọng gì khi Luật Trí tuệ nhân tạo được Quốc hội thông qua?
Ông Lê Đức Sảo: Tôi kỳ vọng Luật AI sẽ là một luật khung mang tầm nhìn dài hạn, đặt nền móng để Việt Nam vươn lên trở thành trung tâm AI của Đông Nam Á. Luật không chỉ dừng ở vai trò quản lý - kiểm soát, mà phải truyền cảm hứng đổi mới, khuyến khích nhà khoa học, doanh nghiệp, startup và cộng đồng mã nguồn mở cùng tham gia phát triển hệ sinh thái AI.
Điều quan trọng nhất là mọi quy định phải xoay quanh giá trị cốt lõi: AI vì con người, vì xã hội và vì một Việt Nam hùng cường trong kỷ nguyên số.












