VCCI: Quy định trách nhiệm của chủ thể phát triển AI chưa phù hợp
Theo VCCI, việc phát triển một hệ thống trí tuệ nhân tạo (AI) có thể đòi hỏi sự tham gia của nhiều chủ thể khác nhau. Do chỉ đảm nhận một phần của hệ thống AI, các chủ thể này không có khả năng kiểm soát các rủi ro. Vì thế không thể thực hiện các trách nhiệm tại Dự thảo Luật Công nghiệp Công nghệ số.
Ủy ban Khoa học, Công nghệ và Môi trường của Quốc hội đang lấy ý kiến góp ý Dự thảo Luật Công nghiệp Công nghệ số (Dự thảo).
Một trong những nội dung đáng chú ý của dự thảo trách nhiệm của chủ thể phát triển hệ thống trí tuệ nhân tạo (AI). Điều 46.1 Dự thảo đặt ra trách nhiệm cho các chủ thể phát triển hệ thống AI.
Tuy nhiên, trên cơ sở ý kiến của doanh nghiệp, Liên đoàn Thương mại và Công nghiệp Việt Nam (VCCI) cho rằng, quy định này chưa phù hợp vì phạm vi quá rộng, bao hàm nhiều chủ thể khác nhau.
Một hệ thống AI gồm nhiều thành phần khác nhau gồm: mô hình AI, dữ liệu đầu vào, phần cứng (trung tâm dữ liệu, robot), giao diện tương tác với người dùng…
Việc phát triển một hệ thống AI có thể đòi hỏi sự tham gia của nhiều chủ thể khác nhau. Do chỉ đảm nhận một phần của hệ thống AI, các chủ thể này không có khả năng kiểm soát các rủi ro. Vì thế, không thể thực hiện các trách nhiệm tại dự thảo.

Trải nghiệm ứng dụng AI tại Ngày hội Trí tuệ nhân tạo Việt Nam 2023.
Ví dụ, doanh nghiệp cung cấp dịch vụ điện toán đám mây cho hệ thống TTNT không có khả năng đánh giá, giải thích các rủi ro an toàn của hệ thống AI. Tương tự, các nhà cung cấp dịch vụ đầu sau (back-end) như cung cấp quyền truy cập vào mô hình ngôn ngữ lớn (LLM) chỉ cung cấp một thành phần của hệ thống AI và không có quyền kiểm soát với sản phẩm hoàn thiện. Như vậy, quy định này sẽ không khả thi với nhiều chủ thể tham gia vào việc phát triển hệ thống.
Thực tế, chỉ có chủ thể chịu trách nhiệm phát triển mô hình AI mới kiểm soát mô hình này và có khả năng thực hiện các nghĩa vụ này.
Từ phân tích trên, VCCI đề nghị sửa đổi theo hướng chủ thể là “nhà phát triển mô hình AI”.
Điều 46.1.b yêu cầu các nhà phát triển mô hình AI có trách nhiệm bảo đảm quyền riêng tư, thông tin cá nhân, giải quyết kịp thời các yêu cầu của cá nhân theo pháp luật về bảo vệ dữ liệu cá nhân.
Theo VCCI, quy định này không phù hợp với cách thức huấn luyện mô hình AI hiện nay. Một doanh nghiệp phát triển mô hình AI sử dụng dữ liệu công khai trên internet, việc bảo vệ quyền riêng tư và giải quyết các yêu cầu về thông tin cá nhân là không khả thi. Hơn nữa, Luật Bảo vệ dữ liệu cá nhân cũng đang soạn thảo và dự kiến thông qua vào tháng 5/2025.
Vì vậy, để tránh chồng chéo và tính khả thi của quy định, VCCI đề nghị bỏ quy định này.
Về dán nhãn sản phẩm do AI tạo ra, Điều 45 dự thảo yêu cầu sản phẩm do hệ thống AI tạo ra phải có dấu hiệu nhận dạng rõ ràng. Quy định này dường như là chưa phù hợp vì có nguy cơ lỗi thời trước khi kịp ban hành.
Hiện nay, công nghệ dán nhãn sản phẩm do AI tạo ra có những phát triển tiên tiến, trong đó cho phép dán nhãn bằng định dạng máy có thể đọc được mà không cần hiển thị trực tiếp cho con người như SynthID hoặc C2PA.
Để bảo đảm tính khả thi và "sức sống" của quy định, VCCI đề nghị sửa đổi theo hướng việc dán nhãn công nghệ thực hiện bằng định dạng máy có thể đọc được và có thể phát hiện do AI tạo ra hoặc can thiệp.
"Ngành công nghệ số có sự phát triển vô cùng nhanh chóng với thay đổi diễn ra liên tục, đồng thời là ngành có tính chất kỹ thuật phức tạp. Do vậy, các quy định tại dự thảo cần xây dựng linh hoạt, phù hợp với đặc thù và bản chất của các mô hình kinh doanh trong ngành để bảo đảm tính khả thi và không cản trở sự phát triển của doanh nghiệp", VCCI nhấn mạnh.