Dự án Luật Trí tuệ nhân tạo: Mở rộng trách nhiệm đạo đức sang khu vực tư nhân

Dự thảo Luật Trí tuệ nhân tạo quy định trách nhiệm đạo đức và đánh giá tác động khi ứng dụng trí tuệ nhân tạo trong khu vực nhà nước. Đại biểu đề nghị, cần mở rộng trách nhiệm đạo đức sang khu vực tư nhân.

Quy định nên theo hướng mở

Tiếp tục Kỳ họp thứ Mười, sáng 21/11, Quốc hội thảo luận ở Tổ về Dự án Luật Trí tuệ nhân tạo.

Cho ý kiến tại Tổ 4 (gồm Đoàn ĐBQH các tỉnh: Khánh Hòa, Lai Châu và Lào Cai), các đại biểu cơ bản tán thành với sự cần thiết ban hành Luật.

Các đại biểu tham gia thảo luận ở Tổ 4 sáng 21/11. Ảnh: Hồ Long

Các đại biểu tham gia thảo luận ở Tổ 4 sáng 21/11. Ảnh: Hồ Long

Theo ĐBQH Nguyễn Hữu Toàn (Lai Châu), việc ban hành Luật Trí tuệ nhân tạo (AI) vào thời điểm hiện nay là rất cần thiết. “Chúng ta đã có bước chuẩn bị tương đối tốt để trình ra Quốc hội luật này”.

Còn ĐBQH Nguyễn Thị Lan Anh (Lào Cai) cho biết, hiện nay có rất ít nước ban hành Luật Trí tuệ nhân tạo, bởi thế nên sự tham chiếu trong quá trình ban hành Luật cũng hạn chế. Song, “không vì thế mà chúng ta lại không ban hành”, đại biểu nhấn mạnh.

Dù vậy, đại biểu Nguyễn Thị Lan Anh lưu ý, việc ban hành Luật cần tính toán đến tính “mở”, bởi công nghệ luôn luôn phát triển theo ngày, theo giờ. “Nếu Luật được ban hành đóng khung, không cẩn thận chúng ta sẽ khó phát huy được lĩnh vực công nghệ đổi mới sáng tạo”.

Cân nhắc quy định Nhà nước bảo đảm quyền thụ hưởng lợi ích từ trí tuệ nhân tạo

Góp ý cụ thể, đại biểu Nguyễn Hữu Toàn cho biết, dự thảo Luật quy định đối tượng áp dụng (Điều 2) là: cơ quan, tổ chức, cá nhân Việt Nam và tổ chức, cá nhân nước ngoài có hoạt động phát triển, cung cấp, triển khai, sử dụng hệ thống trí tuệ nhân tạo tại Việt Nam, hoặc có hệ thống trí tuệ nhân tạo tạo ra kết quả được sử dụng tại Việt Nam.

Tuy nhiên, phạm vi điều chỉnh (Khoản 2, Điều 1) lại quy định: Luật này không áp dụng đối với hệ thống trí tuệ nhân tạo được phát triển, cung cấp, triển khai, sử dụng riêng cho mục đích quốc phòng, an ninh, tình báo, cơ yếu.

Theo đại biểu, thực hiện Luật này vẫn phải bảo đảm quốc phòng, an ninh, bởi có những sản phẩm trí tuệ nhân tạo được cung cấp từ bên ngoài biên giới vào Việt Nam.

ĐBQH Nguyễn Hữu Toàn (Lai Châu) phát biểu. Ảnh: Hồ Long

ĐBQH Nguyễn Hữu Toàn (Lai Châu) phát biểu. Ảnh: Hồ Long

Do vậy, dự thảo Luật không nên coi “hệ thống trí tuệ nhân tạo được phát triển, cung cấp, triển khai, sử dụng riêng cho mục đích quốc phòng, an ninh, tình báo, cơ yếu” là điểm loại trừ. Thay vào đó, cần quy định theo hướng: đối với việc nghiên cứu phát triển, cung cấp, triển khai, sử dụng hệ thống trí tuệ nhân tạo cho mục đích quốc phòng, an ninh, tình báo, cơ yếu thì giao cho Bộ Quốc phòng hoặc Bộ Công an hướng dẫn.

Cũng tại Khoản 2, Điều 1 quy định: Luật này không áp dụng đối với hệ thống trí tuệ nhân tạo hoặc mô hình trí tuệ nhân tạo được phát triển, cung cấp, triển khai, sử dụng chỉ trong phạm vi nội bộ cơ sở nghiên cứu, đào tạo, phát triển khoa học và chưa được đưa vào khai thác, cung cấp cho bên thứ ba.

Tán thành hệ thống trí tuệ nhân tạo sử dụng trong phạm vi nội bộ cơ sở nghiên cứu thì không áp dụng Luật, song đại biểu Nguyễn Hữu Toàn lưu ý, nếu hệ thống đó vi phạm pháp luật thì phải bị xử lý.

Thực tế, có những hệ thống trong nội bộ rất nhỏ nhưng cũng có những hệ thống nội bộ rất lớn. “Sử dụng trong nội bộ nhưng phải tuân thủ các điều kiện, quy định” và Luật phải có quy định, đại biểu nhấn mạnh.

Dự thảo Luật quy định cụ thể 8 chính sách của Nhà nước về trí tuệ nhân tạo (Điều 5). Cơ bản tán thành với các chính sách này, song đại biểu Nguyễn Hữu Toàn đề nghị có một số điểm cần làm rõ hơn.

Cụ thể, Khoản 3 Điều 5 quy định: Nhà nước bảo đảm quyền tiếp cận, học tập và thụ hưởng lợi ích từ trí tuệ nhân tạo của tổ chức, cá nhân; thúc đẩy phát triển xã hội số toàn diện, bao trùm.

Theo đại biểu, Nhà nước bảo đảm quyền được tiếp cận trí tuệ nhân tạo là phù hợp. Tuy nhiên, để được thụ hưởng lợi ích từ trí tuệ nhân tạo, người dùng cũng phải tự bỏ chi phí ra để đầu tư, ứng dụng trong môi trường sản xuất, kinh doanh...; Nhà nước không có nghĩa vụ để bảo đảm toàn bộ cho việc này. Do vậy, cần chỉnh sửa lại quy định này cho phù hợp.

Liên quan mức độ rủi ro của hệ thống trí tuệ nhân tạo, Điều 7 dự thảo Luật phân chia làm 4 loại: rủi ro không chấp nhận được; rủi ro cao; rủi ro trung bình; rủi ro thấp.

Đồng tình với phân loại này, song theo đại biểu Nguyễn Hữu Toàn, việc áp dụng vào thực tế với các nhóm đối tượng có sự khác nhau. Chẳng hạn, có loại rủi ro trung bình không tác động đối với người lớn nhưng lại tác động đối với trẻ em.

Do đó, đại biểu đề nghị đối với từng loại rủi ro cần quy định rõ áp dụng cho từng đối tượng và phải có cảnh báo, chẳng hạn có loại dù rủi ro thấp nhưng chỉ cung cấp cho người lớn, không cung cấp cho trẻ em.

Xây dựng hệ thống giám sát, cảnh báo sự cố

Một nội dung rất được đại biểu quan tâm liên quan đến quản lý và xử lý sự cố trí tuệ nhân tạo. Dự thảo Luật định nghĩa: Sự cố nghiêm trọng là sự cố kỹ thuật trong hoạt động trí tuệ nhân tạo gây hậu quả hoặc có nguy cơ gây hậu quả nghiêm trọng đến tính mạng, sức khỏe con người, tài sản, dữ liệu, an ninh hoặc trật tự xã hội.

Đại biểu Nguyễn Thị Lan Anh phân tích, trong lĩnh vực y tế có rất nhiều thang bậc khác nhau, an ninh cũng vậy.

ĐBQH Nguyễn Thị Lan Anh (Lào Cai) phát biểu. Ảnh: Hồ Long

ĐBQH Nguyễn Thị Lan Anh (Lào Cai) phát biểu. Ảnh: Hồ Long

“Vậy quy trình đánh giá sự cố này như thế nào? Bên nào, cơ chế nào thông báo? Bởi vì có những cái khi xảy ra sự cố rồi mới phát hiện thì rất nguy hiểm. Đặc biệt là trong y tế, liên quan trực tiếp đến tính mạng của con người”.

Đặt vấn đề như vậy, đại biểu Nguyễn Thị Lan Anh cho rằng, phải thiết kế hệ thống quy trình. Đầu tiên phải nói đến quy trình xử lý, bên nào xử lý và đến mức nào thì có cảnh báo? Hai là có hệ thống giám sát, cảnh báo sớm. Điều này rất quan trọng và nếu muốn cảnh báo sớm thì phải bảo đảm dữ liệu đầu vào.

Cũng theo đại biểu Nguyễn Thị Lan Anh, vấn đề trách nhiệm phải rất rõ: đó là trách nhiệm của nhà phát triển mô hình, hay cơ quan quản lý, hay người dùng cuối cùng?

Tựu trung, theo đại biểu, cần phân loại định nghĩa cụ thể các dạng sự cố trí tuệ nhân tạo. Xây dựng hệ thống giám sát, cảnh báo sự cố; cụ thể hóa quy trình xử lý theo từng nhóm mức độ rủi ro, tăng cường hỗ trợ kỹ thuật và pháp lý của các bên liên quan; rõ ràng hơn về trách nhiệm pháp lý liên quan cơ chế bồi thường. Như vậy vừa bảo đảm an ninh cũng như an toàn mạng.

Khoản 2, Điều 10 dự thảo Luật quy định: Khi hệ thống trí tuệ nhân tạo xảy ra sự cố nghiêm trọng, nhà phát triển hệ thống, nhà cung cấp, bên triển khai hệ thống trí tuệ nhân tạo có trách nhiệm: a) Nhà phát triển hệ thống, nhà cung cấp phải khẩn trương áp dụng biện pháp kỹ thuật để khắc phục, tạm dừng hoặc thu hồi hệ thống, đồng thời thông báo cho cơ quan có thẩm quyền; b) Bên triển khai và người sử dụng có nghĩa vụ ghi nhận, thông báo kịp thời sự cố và phối hợp trong quá trình khắc phục.

Các đại biểu tham gia phiên thảo luận Tổ sáng 21/11. Ảnh: Hồ Long

Các đại biểu tham gia phiên thảo luận Tổ sáng 21/11. Ảnh: Hồ Long

“Vậy nếu sự cố thấp hơn mức nghiêm trọng thì sao?”. Đặt câu hỏi này, đại biểu Nguyễn Hữu Toàn đề nghị cần có cảnh báo, thay vì đợi đến nghiêm trọng rồi mới xử lý. Bởi trong ứng dụng trí tuệ nhân tạo, nếu xảy ra sự cố ở mức độ nghiêm trọng thì tốc độ lan truyền rất nhanh và rất lớn.

Đại biểu Nguyễn Hữu Toàn đề nghị, ở dưới mức này, cần phải có cảnh báo đối với người dùng, với nhà cung cấp. “Việc giám sát, kiểm tra sử dụng trí tuệ nhân tạo là vô cùng quan trọng trong thời gian tới để bảo đảm an ninh trật tự, an toàn xã hội, cũng như hạnh phúc cho mọi người”, đại biểu nói thêm.

Liên quan vấn đề đạo đức trong trí tuệ nhân tạo, dự thảo Luật quy định rõ về khung đạo đức trí tuệ nhân tạo quốc gia (Điều 27) và trách nhiệm đạo đức và đánh giá tác động khi ứng dụng trí tuệ nhân tạo trong khu vực nhà nước (Điều 28).

“Vậy với khu vực tư nhân hoặc các lĩnh vực khác mà có tác động đến người dân hay các cơ quan, các chính sách khác thì tính như thế nào?”.

Đại biểu Nguyễn Thị Lan Anh đề nghị cần mở rộng trách nhiệm đạo đức sang khu vực tư nhân và yêu cầu các doanh nghiệp xây dựng công khai bộ quy tắc đạo đức nội bộ; phân định rõ ràng nguyên tắc đạo đức và nghĩa vụ pháp lý nhằm bảo đảm tính thống nhất và tính khả thi khi áp dụng.

Đồng thời, dự thảo Luật cần bổ sung các nguyên tắc đạo đức cơ bản như: tôn trọng con người, công bằng, minh bạch và thiết lập các cơ chế đánh giá tác động bắt buộc với các hệ thống trí tuệ nhân tạo rủi ro cao.

Đan Thanh

Nguồn Đại Biểu Nhân Dân: https://daibieunhandan.vn/du-an-luat-tri-tue-nhan-tao-mo-rong-trach-nhiem-dao-duc-sang-khu-vuc-tu-nhan-10396512.html