Hoàn thiện luật AI để bảo vệ người dùng trước tin giả

Đoàn Đại biểu Quốc hội thành phố Hà Nội đã tham gia thảo luận về dự án Luật Trí tuệ nhân tạo (AI) vào sáng 21/11, cho rằng AI vừa mở ra cơ hội lớn cho đổi mới sáng tạo, vừa tiềm ẩn nhiều rủi ro vượt ngoài khả năng kiểm soát nếu thiếu hành lang pháp lý đầy đủ.

Các Đại biểu Hà Nội đánh giá việc ban hành luật là cần thiết nhằm bảo vệ người dùng, bảo đảm an toàn, trách nhiệm và tạo nền tảng thúc đẩy phát triển công nghệ trong quá trình chuyển đổi số quốc gia.

Đại biểu Nguyễn Phương Thủy (Đoàn Hà Nội) cho rằng, mô hình quản lý rủi ro theo bốn cấp độ, tham chiếu kinh nghiệm quốc tế, sẽ giúp tập trung quản lý các hệ thống AI có tác động sâu rộng. Dự thảo đã thể hiện rõ tinh thần minh bạch, trách nhiệm giải trình và lấy con người làm trung tâm. Tuy vậy, đại biểu nhấn mạnh AI có thể xuất hiện các tình huống rủi ro nằm ngoài tầm kiểm soát của cơ quan quản lý cũng như người dân, do đó luật cần sớm hoàn thiện và cụ thể hơn.

Về trách nhiệm bồi thường, đại biểu Thủy nhận định việc yêu cầu bên triển khai hệ thống AI chịu trách nhiệm trước là phù hợp, nhưng dự thảo chưa làm rõ trường hợp hệ thống bị chiếm đoạt hoặc tấn công trái phép, chẳng hạn tin tặc can thiệp vào AI y tế gây sai lệch chẩn đoán. Đại biểu đề nghị “đảo ngược nghĩa vụ chứng minh” – bên bị kiện phải chứng minh mình không có lỗi; đồng thời cần phân biệt rõ cơ chế bồi thường giữa AI số và AI vật lý.

Cũng tại thảo luận, đại biểu Nguyễn Anh Trí (Đoàn Hà Nội) nhấn mạnh an toàn phải là nguyên tắc xuyên suốt của luật. Đại biểu đặc biệt cảnh báo về nguy cơ AI bị lợi dụng để tạo hình ảnh, thông tin giả mạo, bôi nhọ danh dự cá nhân. Các hình ảnh giả lan truyền rất nhanh, phạm vi toàn cầu, gây hậu quả nặng nề và lâu dài. Vì vậy, luật cần có cơ chế xử lý mạnh, không chỉ phạt tiền mà phải có biện pháp công nghệ và chế tài đủ sức răn đe, bởi một khi thông tin giả đã lan truyền thì không thể gỡ bỏ hoàn toàn.

Trần Nam

Nguồn Hà Nội TV: https://hanoionline.vn/hoan-thien-luat-ai-de-bao-ve-nguoi-dung-truoc-tin-gia-371560.htm