Luật AI: Khi máy móc cũng cần tuân thủ luật

Trí thông minh nhân tạo (AI) đang trở thành một phần không thể thiếu trong cuộc sống ngày nay và mở ra một thời đại mới. Tuy nhiên, sự phát triển mạnh mẽ của AI cũng đặt ra nhiều thách thức pháp lý mới, bao gồm quyền riêng tư, trách nhiệm pháp lý, đạo đức trong sử dụng AI, và nguy cơ lạm dụng công nghệ này.

Bước tiến nhảy vọt

Chỉ trong vòng một thập kỷ, nghiên cứu AI đã đạt được những tiến bộ ấn tượng. Từ việc hướng tới xây dựng công cụ hỗ trợ, AI đã đáp ứng, giải quyết được nhu cầu thực tiễn của đời sống và mở ra kỷ nguyên mới trong nhiều ngành công nghiệp hiện nay. Trong vận hành, AI giúp tự động hóa quy trình, tối ưu chuỗi cung ứng, nâng cao hiệu quả sản xuất. Trong tài chính, AI được sử dụng để phân tích dữ liệu, dự đoán xu hướng thị trường và phát hiện gian lận. Trong quản lý, AI đã thay thế con người trong những công việc “người” nhất như chăm sóc khách hàng, quan hệ công chúng... Nhiều doanh nghiệp đang tận dụng AI để cải thiện dịch vụ thông qua chatbot và hệ thống hỗ trợ thông minh.

AI đang đưa ra nhiều quyết định cho cuộc sống của con người.

AI đang đưa ra nhiều quyết định cho cuộc sống của con người.

Trong lĩnh vực y tế, AI đã cách mạng hóa y học với khả năng chẩn đoán bệnh dựa trên hình ảnh, phân tích dữ liệu di truyền và hỗ trợ bác sĩ trong phẫu thuật. Các thuật toán AI có thể dự đoán sự bùng phát dịch bệnh và đề xuất phác đồ điều trị cá nhân hóa, giúp nâng cao chất lượng chăm sóc sức khỏe. Trong giáo dục, AI hỗ trợ cá nhân hóa việc học tập, giúp giáo viên và học sinh tiếp cận kiến thức hiệu quả hơn. Hệ thống AI có thể đánh giá năng lực của học viên, đề xuất lộ trình học tập phù hợp và tạo ra môi trường học tập tương tác cao.

Trong lĩnh vực an ninh quốc phòng, AI đã phát huy được thế mạnh của mình khi đóng vai trò quan trọng trong giám sát an ninh, nhận diện khuôn mặt, phân tích dữ liệu tình báo và hỗ trợ ra quyết định trong các tình huống khẩn cấp. Các quân đội trên thế giới đang phát triển vũ khí thông minh, hệ thống phòng thủ tự động và chiến lược chiến tranh mạng dựa trên AI.

Trong tương lai gần, với những nghiên cứu hướng tới AI tổng quát (AGI), có khả năng tư duy, học hỏi và thích nghi như con người, những cỗ máy biết suy nghĩ này có thể thay đổi hoàn toàn cách con người làm việc và sinh sống. Sự phát triển nhanh chóng của AI cũng đặt ra nhiều vấn đề về đạo đức và pháp lý, như quyền riêng tư, phân biệt đối xử do AI gây ra, hay rủi ro AI mất kiểm soát. Việc xây dựng các quy định và khuôn khổ pháp lý để kiểm soát AI một cách hiệu quả sẽ là thách thức quan trọng mà ngay từ bây giờ chúng ta phải tính đến.

Khuôn khổ pháp lý

Khi vấn đề được đặt ra, rất nhanh chóng những nhà làm luật đã đưa ra những khuôn khổ cốt yếu. Với việc có thể tự ra quyết định, AI có thể đưa ra quyết định ảnh hưởng đến con người, từ chấm điểm tín dụng, chẩn đoán y tế, đến điều khiển xe tự lái,... Nhưng nếu một hệ thống AI gây ra tổn thất hoặc tai nạn, ai sẽ chịu trách nhiệm? Đây là một câu hỏi quan trọng trong luật AI. Thực tế đã chứng minh, một cỗ máy cũng có tỷ lệ sai số nhất định, chính vì vậy trách nhiệm pháp lý trong các quyết định của AI là yếu tố bắt buộc phải tính đến.

AI có ứng dụng rất rộng, tiềm năng rất lớn, đem lại giá trị rất cao. Nhưng để phát huy vai trò càng lớn, AI càng cần nhiều dữ liệu để hoạt động. Nếu không được quản lý chặt chẽ, dữ liệu có thể bị lạm dụng hoặc vi phạm quyền riêng tư. Điều này đã đặt các nhà làm luật đứng trước lựa chọn khó khăn để cân bằng giữa quyền riêng tư cá nhân và lợi ích của AI.

Trong quá trình ứng dụng, nhiều thuật toán AI bị phát hiện có định kiến dẫn đến phân biệt đối xử trong các quyết định. Điều này sẽ ảnh hưởng đến những lĩnh vực như tuyển dụng, xét duyệt vay vốn, hoặc thậm chí trong hệ thống tư pháp,... Vì vậy luật AI cần đảm bảo tính minh bạch và công bằng, các hệ thống này cần được giám sát và có thể kiểm tra được.

Cũng như những công nghệ khác, AI sẽ bị các đối tượng xấu tận dụng. Luật AI vì thế cần hướng tới ngăn chặn lạm dụng AI, đặc biệt là sử dụng để tạo tin giả (deepfake), tấn công mạng, hoặc phát triển vũ khí tự động hay cả những nguy cơ mà chúng ta chưa biết. Tất cả những vấn đề này cần một khung pháp lý mạnh mẽ, chi tiết mới có thể xử lý được.

Luật hóa AI là cách tốt nhất để đảm bảo vừa phát triển công nghệ nhưng vẫn bảo vệ quyền con người.

Luật hóa AI là cách tốt nhất để đảm bảo vừa phát triển công nghệ nhưng vẫn bảo vệ quyền con người.

Những bộ luật đầu tiên

Trong 5-10 năm qua, nhiều quốc gia và tổ chức quốc tế đã bắt đầu đưa ra luật và quy định về AI, tập trung vào việc đảm bảo AI an toàn, minh bạch và có đạo đức. Năm 2021, EU đề xuất AI Act, bộ luật toàn diện đầu tiên trên thế giới về AI, với cách tiếp cận dựa trên mức độ rủi ro. AI Act phân loại AI thành bốn nhóm:

- Rủi ro không thể chấp nhận thì sẽ bị cấm. Ví dụ như AI giám sát hàng loạt hoặc thao túng hành vi con người.

- Rủi ro cao như AI trong y tế, tuyển dụng, hoặc hệ thống tư pháp, yêu cầu tuân thủ nghiêm ngặt.

- Rủi ro hạn chế như chatbot thì sẽ yêu cầu sự minh bạch.

- Rủi ro thấp bằng các ứng dụng AI thông thường không cần quy định đặc biệt.

Khi phê duyệt bộ luật AI đầu tiên trên thế giới này, bà Roberta Metsola, Chủ tịch Nghị viện Châu Âu, đã kỳ vọng "đạo luật tiên phong này sẽ tạo điều kiện cho đổi mới sáng tạo, đồng thời bảo vệ các giá trị cốt lõi của con người". AI Act được hoàn thiện vào tháng 3/2024 và dự kiến có hiệu lực từ 2026. Tuy nhiên, có khả năng AI Act sẽ được áp dụng từ năm 2025 do đòi hỏi của tình hình thực tế.

Nước Mỹ tuy không có một luật tổng thể nhưng đã ban hành nhiều hướng dẫn và quy định riêng lẻ. Năm 2020, Đạo luật AI Quốc gia được thông qua, thúc đẩy nghiên cứu và phát triển AI. Tháng 10/2023, cựu Tổng thống Joe Biden ban hành Sắc lệnh về AI, yêu cầu các công ty AI đảm bảo an toàn khi phát triển AI tiên tiến và phải công bố kết quả kiểm tra với chính phủ. Tuy nhiên, ngày 20/1/2025, Tổng thống Donald Trump đã thu hồi sắc lệnh này và ký một sắc lệnh mới nhằm tăng cường và duy trì sự thống trị của Mỹ trong lĩnh vực AI.

Trung Quốc cũng đã ban hành nhiều quy định chặt chẽ về AI, đặc biệt trong lĩnh vực deepfake, dữ liệu, và giám sát. Năm 2022, Bắc Kinh yêu cầu các công ty AI phải đăng ký với chính phủ và đảm bảo AI không gây mất ổn định xã hội. Tuy chưa thành bộ luật đầy đủ, nhưng Trung Quốc đã ban hành quy tắc quản lý nội dung AI, cấm tạo nội dung sai lệch bằng deepfake mà không có gắn nhãn và buộc các công ty sử dụng AI chịu trách nhiệm về ứng dụng của mình. Đức, Anh, Canada cũng đều đã đưa ra những quy định về AI của riêng mình. Việt Nam chúng ta cũng đang hướng tới xây dựng những quy định riêng phù hợp với tình hình phát triển.

Trong một diễn biến mới nhất, ngày 28/2/2025, Nhật Bản đã thông qua một dự luật cho phép chính phủ đánh giá các trường hợp sử dụng AI sai mục đích, đồng thời cung cấp tư vấn cho doanh nghiệp trong vấn đề này. Ðây là văn bản pháp lý đầu tiên của Nhật Bản về riêng công nghệ AI. Bộ trưởng phụ trách chính sách AI, ông Minoru Kiuchi nhấn mạnh, AI tuy “mang lại nhiều lợi ích, nhưng cũng tiềm ẩn rủi ro, như lan truyền thông tin sai lệch và hỗ trợ tội phạm tinh vi hơn”. Ông Kiuchi nêu rõ, mục tiêu của luật mới là “cân bằng giữa việc thúc đẩy đổi mới công nghệ và kiểm soát rủi ro tiềm ẩn”.

Thách thức hướng tới tương lai

Việc nở rộ những bộ luật AI từ các quốc gia trong thời gian ngắn cho thấy tầm quan trọng của việc đưa hoạt động nghiên cứu, ứng dụng AI vào tầm kiểm soát. Tuy nhiên, tầm ảnh hưởng rộng lớn của lĩnh vực này đã phát sinh nhiều vấn đề. Thách thức đầu tiên với tất cả các chính phủ khi làm luật đó là tìm cách cân bằng giữa đổi mới và kiểm soát. Việc quản lý quá chặt có thể làm chậm tiến bộ công nghệ, làm lỡ mất cơ hội phát triển của đất nước cũng như doanh nghiệp. Cũng như những “công nghệ thời thượng” khác, tất cả các quốc gia đều muốn mình phải là người dẫn đầu.

Các mô hình AI tiên tiến sử dụng mã nguồn mở thường gây khó khăn cho việc kiểm soát. Thêm vào đó, trong quá trình xây dựng luật luôn có sự vênh giữa các quốc gia gây khó khăn trong hợp tác quốc tế. Trong khi những ứng dụng của AI thường vượt ra khỏi biên giới quốc gia thông thường.

Những khó khăn đã mở ra cơ hội mới cho các quốc gia tăng cường hợp tác. Các tổ chức quốc tế như Liên hợp quốc và Đối tác Toàn cầu về Trí tuệ nhân tạo (GPAI) đang thúc đẩy một bộ quy tắc AI toàn cầu nhằm tạo ra sự nhất quán trong luật pháp giữa các quốc gia. Tương lai, chúng ta có thể chứng kiến sự hình thành của một công ước quốc tế về AI, giống như Công ước Geneva cho luật nhân quyền. Việc hợp tác quốc tế và phát triển luật AI linh hoạt sẽ là chìa khóa để đảm bảo AI phát triển theo hướng có lợi cho toàn xã hội.

Tiểu Phong

Nguồn ANTG: https://antgct.cand.com.vn/khoa-hoc-van-minh/luat-ai-khi-may-moc-cung-can-tuan-thu-luat-i761781/