Đạo luật Trí tuệ nhân tạo của EU
Nghị viện châu Âu (EP) và Hội đồng châu Âu (EUC) đã đạt được thỏa thuận chính trị về các điều khoản của dự luật trí tuệ nhân tạo (AI). Đây được xem là một bước tiến mới trong tiến trình xây dựng quy định pháp lý toàn diện đầu tiên trên thế giới nhằm giúp để AI có thể được sử dụng một cách an toàn, công bằng, bảo đảm các quyền cơ bản của con người, cũng như tạo cơ sở để các doanh nghiệp có thể tiếp tục phát triển dựa trên công nghệ này.
Nhiều quốc gia trên thế giới đang tăng cường kiểm soát AI. Ảnh: IDENIV
Xây dựng cách tiếp cận chung
Theo trang tin tức của EP Europarl.europa.eu, mục tiêu của Liên minh châu Âu (EU) là quản lý AI như một phần trong chiến lược kỹ thuật số của mình để bảo đảm các điều kiện tốt hơn cho việc phát triển và sử dụng công nghệ tiên tiến này. EU đánh giá, AI có thể mang tới nhiều lợi ích cho xã hội như góp phần nâng cao dịch vụ chăm sóc sức khỏe tốt hơn, giúp giao thông an toàn và sạch hơn, sản xuất hiệu quả hơn, tạo ra năng lượng rẻ và bền vững…
Tuy nhiên, cũng theo nhận định của EU, tác động của hệ thống AI đối với các quyền cơ bản được bảo vệ theo Hiến chương về quyền cơ bản của liên minh, cũng như những rủi ro về an toàn cho người dùng khi công nghệ AI được tích hợp vào các sản phẩm, dịch vụ đang gây ra nhiều lo ngại. Đáng chú ý, hệ thống AI có thể gây nguy hiểm cho các quyền cơ bản như quyền không phân biệt đối xử, quyền tự do ngôn luận, bảo vệ nhân phẩm, dữ liệu cá nhân và quyền riêng tư.
Với sự phát triển nhanh chóng của công nghệ, trong những năm gần đây, quy định về AI trở thành một trong những câu hỏi chính sách trọng tâm ở EU. Các nhà hoạch định chính sách cam kết phát triển cách tiếp cận lấy con người làm trung tâm đối với AI, để bảo đảm rằng người dân châu Âu có thể hưởng lợi từ các công nghệ mới được phát triển và hoạt động theo các giá trị và nguyên tắc của EU.
Trong Sách trắng về AI năm 2020, Ủy ban châu Âu (EC) cam kết thúc đẩy việc sử dụng AI và giải quyết các rủi ro liên quan việc sử dụng công nghệ mới này. EC ban đầu áp dụng “luật mềm”, với việc cho ra đời Nguyên tắc đạo đức không ràng buộc đối với AI và Khuyến nghị chính sách và đầu tư năm 2019. Kể từ đó, EU bắt đầu quá trình thay đổi hướng tiếp cận lập pháp liên quan AI, theo hướng kêu gọi các thành viên xây dựng các quy tắc hài hòa để phát triển thị trường này.
EP đã kêu gọi EC đánh giá tác động của AI và đã soạn thảo khuôn khổ pháp lý ban đầu cho AI trong các khuyến nghị rộng rãi năm 2017 về các quy định luật dân sự về robot. Năm 2020 và 2021, EP thông qua một số khuyến nghị phi lập pháp và hai nghị quyết lập pháp kêu gọi thông qua luật của khối trong lĩnh vực AI. Nghị quyết lập pháp đầu tiên yêu cầu EC thiết lập khuôn khổ pháp lý về các nguyên tắc đạo đức để phát triển, triển khai và sử dụng AI, robot và các công nghệ liên quan trong phạm vi EU. Nghị quyết lập pháp thứ hai kêu gọi hài hòa hóa khung pháp lý về trách nhiệm dân sự và trách nhiệm đối với người vận hành hệ thống AI có rủi ro cao. EP cũng đã thông qua một loạt khuyến nghị kêu gọi cách tiếp cận chung của EU đối với AI trong sở hữu trí tuệ, luật hình sự, giáo dục, văn hóa và giải trí và trong các lĩnh vực liên quan việc sử dụng AI dân sự và quân sự.
EP ưu tiên việc bảo đảm để các hệ thống AI được sử dụng ở EU an toàn, minh bạch và có thể truy xuất nguồn gốc, không phân biệt đối xử và thân thiện với môi trường. Để có thể ngăn chặn những tác động tiêu cực, hệ thống AI cần được con người giám sát thay vì tự động hóa. EP cũng mong muốn thiết lập một định nghĩa thống nhất, trung lập về công nghệ cho AI để có thể áp dụng quy định chung cho các hệ thống AI trong tương lai.
Khung pháp lý toàn diện đầu tiên về AI
Vào tháng 4/2021, EC đã đề xuất khung pháp lý đầu tiên của EU đối với AI. Đề xuất này nhằm tập trung vào một số mục tiêu cụ thể như bảo đảm để các hệ thống AI được đưa vào thị trường EU tuân thủ luật pháp hiện hành của khối, bảo đảm sự chắc chắn về mặt pháp lý để tạo điều kiện thuận lợi cho đầu tư và đổi mới AI, tăng cường quản trị và thực thi hiệu quả luật pháp EU về các quyền cơ bản và yêu cầu an toàn cho hệ thống AI, tạo điều kiện phát triển một thị trường chung cho các ứng dụng AI hợp pháp, an toàn và đáng tin cậy cũng như ngăn chặn sự phân mảnh của thị trường.
Theo dự luật, EC đề xuất thiết lập các tiêu chí phân loại các hệ thống AI dựa trên mức độ rủi ro mà chúng có thể gây ra cho người dùng, gồm các cấp độ: Rủi ro không thể chấp nhận được, rủi ro cao, rủi ro hạn chế, rủi ro thấp.
EC cũng đề xuất, hệ thống AI có nguy cơ tạo ra “rủi ro không thể chấp nhận được” sẽ bị cấm đưa vào thị trường hoặc sử dụng tại EU. Các hệ thống AI nằm trong danh sách đề xuất cấm phát triển và sử dụng gồm: Hệ thống có khả năng thao túng hành vi nhận thức của con người hoặc các nhóm dễ bị tổn thương, thí dụ như đồ chơi được kích hoạt bằng giọng nói khuyến khích hành vi nguy hiểm ở trẻ em; hệ thống “chấm điểm”, phân loại con người dựa trên hành vi, tình trạng kinh tế - xã hội hoặc đặc điểm cá nhân; hệ thống nhận dạng sinh trắc học từ xa theo thời gian thực, ngoại trừ trong một số trường hợp hạn chế cụ thể.
Hệ thống AI có “rủi ro cao” sẽ được cấp phép, nhưng phải tuân theo một loạt yêu cầu và nghĩa vụ để có thể tiếp cận thị trường EU. Các hệ thống AI có rủi ro cao là các hệ thống ảnh hưởng tiêu cực đến sự an toàn hoặc các quyền cơ bản, trong đó các hệ thống AI trong 8 lĩnh vực cụ thể sẽ phải đăng ký trong cơ sở dữ liệu của EU gồm: Nhận dạng sinh trắc học; quản lý và vận hành cơ sở hạ tầng quan trọng; giáo dục và đào tạo nghề; việc làm, quản lý người lao động; tiếp cận và sử dụng các dịch vụ tư nhân thiết yếu cũng như các dịch vụ và phúc lợi công cộng; thực thi pháp luật; quản lý di cư, tị nạn và kiểm soát biên giới; hỗ trợ pháp lý và áp dụng luật. Tất cả các hệ thống AI có rủi ro cao sẽ phải được đánh giá trước khi được đưa ra thị trường và tiếp tục được đánh giá trong vòng đời của chúng.
Các hệ thống AI chỉ có “rủi ro hạn chế” phải tuân thủ các yêu cầu về tính minh bạch để người dùng có thể tự đưa ra quyết định xem họ có muốn tiếp tục sử dụng sau khi tương tác với các ứng dụng hay không. Người dùng cần được thông báo khi họ đang tương tác với AI, bao gồm các hệ thống AI tạo ra hoặc xử lý nội dung hình ảnh, âm thanh hoặc video. Những hệ thống AI khác chỉ có “rủi ro thấp” có thể được phát triển và sử dụng ở EU mà không cần tuân thủ bất kỳ nghĩa vụ pháp lý bổ sung nào. Tuy nhiên, dự luật AI cũng sẽ đề xuất các quy tắc ứng xử để khuyến khích các nhà cung cấp hệ thống AI có mức rủi ro thấp tự nguyện áp dụng các yêu cầu giống như đối với các hệ thống AI có rủi ro cao.
Việc không tuân thủ các quy định có thể dẫn đến mức phạt từ 35 triệu euro hoặc 7% doanh thu toàn cầu, tùy thuộc hành vi vi phạm và quy mô của các công ty. EP cũng đã đề xuất thành lập Văn phòng AI, một cơ quan mới của EU để hỗ trợ việc áp dụng hài hòa đạo luật AI, cung cấp hướng dẫn và điều phối các cuộc điều tra chung xuyên biên giới.
EUC nhất trí quan điểm chung của các quốc gia thành viên EU về dự luật AI vào tháng 12/2021, trong khi EP đã bỏ phiếu thông qua quan điểm vào tháng 6/2023. Các nhà lập pháp EU tiếp tục quá trình đàm phán để hoàn thiện luật mới, với những sửa đổi đáng kể so đề xuất của EC, bao gồm việc sửa đổi định nghĩa về hệ thống AI, mở rộng danh sách các hệ thống AI bị cấm và áp đặt nghĩa vụ đối với AI có mục đích chung và các mô hình AI tổng quát như ChatGPT.
Ngày 9/12, các nhà đàm phán của EP và EUC đã đạt được thỏa thuận chính trị tạm thời về dự luật AI. Văn bản đã được thống nhất sẽ phải được cả EP và EUC chính thức thông qua để trở thành luật của EU, song thỏa thuận hôm 9/12 được xem là rào cản cuối cùng trong việc phê chuẩn.