Luật Trí tuệ nhân tạo có hiệu lực từ 1/3/2026: Không để AI đi trước pháp luật
Khi trí tuệ nhân tạo ngày càng can thiệp sâu vào đời sống xã hội, việc ban hành Luật Trí tuệ nhân tạo không chỉ là bước hoàn thiện pháp lý, mà còn là tuyên bố rõ ràng: đổi mới sáng tạo phải đi cùng kiểm soát rủi ro và bảo vệ quyền con người.
Luật Trí tuệ nhân tạo chính thức có hiệu lực từ ngày 1/3/2026, đánh dấu lần đầu tiên Việt Nam thiết lập một khuôn khổ pháp lý chuyên biệt cho công nghệ AI - lĩnh vực vừa là động lực tăng trưởng mới, vừa tiềm ẩn nhiều nguy cơ đối với an toàn xã hội, quyền riêng tư và trật tự pháp lý.
Không dừng ở việc "theo kịp xu hướng", Luật Trí tuệ nhân tạo cho thấy rõ cách tiếp cận chủ động của Nhà nước: không để công nghệ đi trước pháp luật, cũng không để pháp luật trở thành rào cản của đổi mới sáng tạo.

Luật không nhằm "siết cho siết", mà tạo hành lang pháp lý rõ ràng để doanh nghiệp yên tâm đầu tư, triển khai AI một cách minh bạch, an toàn và bền vững.
Quản lý AI bằng tiếp cận rủi ro: Tư duy quản lý hiện đại
Điểm cốt lõi của Luật Trí tuệ nhân tạo là việc áp dụng cách tiếp cận dựa trên phân loại rủi ro, thay vì quản lý đồng loạt mọi hệ thống AI.
Theo đó, các hệ thống AI được phân nhóm theo mức độ tác động và nguy cơ đối với con người và xã hội. Phần lớn các hệ thống AI tạo sinh hiện nay - dù phục vụ sáng tạo nội dung, hỗ trợ công việc hay giải trí - được xếp vào nhóm rủi ro trung bình, do khả năng tạo ra thông tin sai lệch, gây nhầm lẫn hoặc bị lợi dụng cho mục đích xấu.
Cách tiếp cận này phản ánh tư duy quản lý tương đồng với nhiều quốc gia và khu vực tiên tiến, trong đó có Liên minh châu Âu, khi không "siết chặt bằng mệnh lệnh hành chính", mà đặt trọng tâm vào trách nhiệm của nhà cung cấp và bên triển khai.
Từ cảnh báo công nghệ sang chế tài pháp lý: Siết deepfake
Một trong những điểm nhấn chính sách đáng chú ý là quy định nghiêm cấm sử dụng deepfake để lừa đảo hoặc vi phạm pháp luật. Luật không chỉ dừng ở nguyên tắc đạo đức, mà cụ thể hóa bằng các nghĩa vụ kỹ thuật bắt buộc.
Theo đó, nội dung do AI tạo ra hoặc chỉnh sửa phải được dán nhãn thông báo, đồng thời sản phẩm AI phải có watermark hoặc ký hiệu nhận dạng để phục vụ truy vết và xử lý khi có vi phạm.
Đây được xem là bước chuyển quan trọng: từ việc "khuyến cáo người dùng cẩn trọng" sang buộc các chủ thể phát triển AI phải chịu trách nhiệm pháp lý ngay từ khâu thiết kế và vận hành hệ thống.
Trao quyền can thiệp trực tiếp cho cơ quan quản lý
Luật Trí tuệ nhân tạo cũng lần đầu tiên trao cho cơ quan quản lý nhà nước thẩm quyền can thiệp trực tiếp đối với các hệ thống AI có dấu hiệu rủi ro cao.
Bộ Khoa học và Công nghệ là đầu mối quản lý, có quyền yêu cầu tạm dừng hoạt động, thu hồi hoặc đánh giá lại hệ thống AI khi phát hiện nguy cơ gây thiệt hại nghiêm trọng cho xã hội, thay vì chỉ dừng ở việc kiến nghị hoặc hướng dẫn.

Luật Trí tuệ có hiệu lực từ 1/3/2026 đặt nền móng pháp lý cho quản lý rủi ro AI, siết chặt deepfake, đồng thời trao thẩm quyền can thiệp trực tiếp cho cơ quan quản lý nhà nước.
Với các hành vi đặc biệt nghiêm trọng như tạo deepfake khiêu dâm trẻ em, gây rối trật tự xã hội hoặc xâm phạm quyền con người, tổ chức và cá nhân vi phạm không chỉ bị xử phạt hành chính mà còn có thể bị truy cứu trách nhiệm hình sự và bồi thường thiệt hại.
Ông Trần Văn Sơn, Phó viện trưởng Viện Công nghệ số và Chuyển đổi số quốc gia (Bộ KH&CN) cho biết: "Luật Trí tuệ nhân tạo thiết lập một khuôn khổ pháp lý tương đối đầy đủ, từ phân loại rủi ro đến trách nhiệm giải trình. Quan điểm xuyên suốt là khuyến khích đổi mới sáng tạo, nhưng không chấp nhận việc lạm dụng AI gây phương hại đến quyền con người và trật tự xã hội".
Luật sư Nguyễn Văn Tuấn, Giám đốc Công ty Luật TNHH TGS (thuộc Đoàn Luật sư TP Hà Nội), chuyên gia chính sách công nghệ cho rằng: "Việc bắt buộc dán nhãn và watermark đối với nội dung do AI tạo ra là bước tiến rất quan trọng. Điều này không chỉ bảo vệ người dùng, mà còn buộc doanh nghiệp AI phải chuyển từ tư duy làm nhanh - thử nghiệm rộng sang phát triển có trách nhiệm".
Đại diện cơ quan quản lý trực tiếp từ Bộ KH&CN khẳng định: "Luật không nhằm ‘siết cho siết’, mà tạo hành lang pháp lý rõ ràng để doanh nghiệp yên tâm đầu tư, triển khai AI một cách minh bạch, an toàn và bền vững".
Cùng chung quan điểm này chuyên gia công nghệ tại các trung tâm nghiên cứu cho rằng, thách thức lớn nhất trong giai đoạn tới không nằm ở văn bản luật, mà ở năng lực thực thi, đặc biệt là công tác đánh giá rủi ro, giám sát kỹ thuật và phối hợp liên ngành.
Tuy nhiên, với việc Luật Trí tuệ nhân tạo đã đặt ra nguyên tắc rõ ràng và trao thẩm quyền cụ thể cho cơ quan quản lý, Việt Nam đang từng bước xây dựng nền tảng để AI phát triển trong khuôn khổ pháp quyền, thay vì chạy theo công nghệ bằng các giải pháp tình thế.













