Cuộc đua quản lý AI trên toàn cầu

Theo giới quan sát, những tiến bộ nhanh chóng trong trí tuệ nhân tạo (AI) thể hiện qua các phần mềm ứng dụng như ChatGPT của OpenAI đang gây khó khăn cho chính phủ các nước khi họ đang nỗ lực thống nhất các luật điều chỉnh việc sử dụng công nghệ này.

Biểu tượng ChatGPT và OpenAI. Ảnh: AFP/TTXVN

Biểu tượng ChatGPT và OpenAI. Ảnh: AFP/TTXVN

Vốn là một chủ đề hầu như không nhận được chú ý của các nhà lập pháp chỉ cách đây một năm, các chính phủ đang tranh luận gay gắt về những ưu và nhược điểm của việc quản lý hoặc thậm chí cấm một số tính năng của AI.

Đối với các nhà lãnh đạo doanh nghiệp, câu hỏi họ nên tập trung vào lúc này không phải là AI sẽ được quản lý như thế nào hoặc khi nào, mà là bởi bên nào, là Mỹ, Trung Quốc, hay châu Âu. Việc bên nào dẫn đầu hoạt động này sẽ tác động không nhỏ tới tốc độ và quỹ đạo chuyển đổi của AI đối với nền kinh tế toàn cầu.

Tại Trung Quốc, chính phủ nước này đã ban hành một loạt biện pháp tạm thời có hiệu lực từ ngày 15/8 để quản lý lĩnh vực AI tạo sinh. Theo đó, Trung Quốc yêu cầu các nhà cung cấp dịch vụ phải gửi đánh giá bảo mật và nhận được giấy phép trước khi phát hành các sản phẩm AI trên thị trường đại chúng. Sau khi được chấp thuận bốn công ty công nghệ Trung Quốc, trong đó có Baidu Inc và SenseTime Group, đã ra mắt chatbot AI vào ngày 31/8.

Cũng tại châu Á, Chính phủ Nhật Bản dự kiến sẽ đưa ra các quy định về AI vào cuối năm 2023. Theo các nguồn thạo tin, quan điểm của Nhật Bản về công nghệ này có vẻ gần với phía Mỹ hơn là các quy định nghiêm ngặt được lên kế hoạch ở Liên minh châu Âu (EU). Lý do là Nhật Bản xem xét tận dụng công nghệ này để thúc đẩy tăng trưởng kinh tế và biến nó thành một cơ hội phát triển kinh tế và đưa Nhật Bản trở thành quốc gia dẫn đầu về sản xuất chip tiên tiến.

Cơ quan giám sát quyền riêng tư của Nhật Bản hồi tháng 6 cũng lên tiếng cảnh báo OpenAI không được thu thập dữ liệu nhạy cảm khi chưa có sự cho phép của người dùng, đồng thời phải giảm thiểu lượng dữ liệu nhạy cảm mà công ty này thu thập được.

Đối với châu Âu, các nhà lập pháp EU hồi tháng 6 đã đồng ý về những thay đổi trong dự thảo Đạo luật AI của khối. Các nhà lập pháp giờ đây sẽ phải thảo luận chi tiết với các nước EU trước khi dự thảo quy định trở thành luật.

Vấn đề lớn nhất dự kiến sẽ là công nghệ nhận dạng khuôn mặt và giám sát sinh trắc học. Một số nhà lập pháp muốn có lệnh cấm hoàn toàn những công nghệ này, trong khi một số khác lại muốn có ngoại lệ dành cho các mục đích an ninh quốc gia, quốc phòng và quân sự.

Cũng tại châu Âu, Cơ quan giám sát quyền riêng tư của Pháp (CNIL) đang điều tra một số khiếu nại về ChatGPT sau khi ứng dụng này tạm thời bị cấm ở Italy hồi đầu năm do nghi ngờ vi phạm các quy tắc quyền riêng tư. Trong khi đó hồi tháng 3, Quốc hội Pháp đã phê chuẩn việc sử dụng công nghệ video giám sát tích hợp AI tại Thế vận hội Paris 2024.

Còn tại Anh, Cơ quan Quản lý Tài chính - một trong một số cơ quan quản lý nhà nước được giao nhiệm vụ xây dựng các hướng dẫn mới về AI - đang tham khảo ý kiến của Viện Alan Turing, các tổ chức pháp lý lẫn học thuật khác để nâng cao hiểu biết về công nghệ mới này. Giới chức giám sát nước này cho biết sẽ bắt đầu kiểm tra tác động của AI đối với người tiêu dùng, doanh nghiệp và nền kinh tế cũng như liệu có cần các biện pháp kiểm soát mới hay không.

Trong khi đó, Quốc hội Mỹ tổ chức ba phiên điều trần về AI vào các ngày 11, 12 và 13/9 để nghiên cứu luật nhằm giảm thiểu mối nguy hiểm của công nghệ mới nổi. Các cuộc thảo luận bao gồm phiên điều trần với Chủ tịch Microsoft Brad Smith và nhà khoa học trưởng của Nvidia William Daly, một diễn đàn AI có sự tham gia của Giám đốc điều hành (CEO) Meta Platforms Mark Zuckerberg và CEO Tesla Elon Musk, cùng các cuộc họp với nhiều tiểu ban khác nhau tại Hạ viện và Thượng viện.

Ủy ban Thương mại Liên bang Mỹ (FTC) cũng đã mở một cuộc điều tra sâu rộng về OpenAI, dựa trên cáo buộc rằng công ty đã vi phạm luật bảo vệ người tiêu dùng bằng cách gây nguy hiểm cho danh tiếng và dữ liệu cá nhân.

Thượng nghị sĩ Michael Bennet cũng kêu gọi các công ty công nghệ hàng đầu thực hiện dán nhãn nội dung do AI tạo ra và hạn chế lan truyền tài liệu có thể đánh lừa người dùng. Ông đã đề xuất một dự luật vào tháng Tư nhằm thành lập một đội đặc nhiệm để xem xét các chính sách của Mỹ về AI.

Trên quy mô rộng hơn, Hội đồng Bảo an Liên hợp quốc (LHQ) hồi tháng 7 cũng đã tổ chức cuộc thảo luận chính thức đầu tiên về AI tại New York. Tổng thư ký LHQ Antonio Guterres cho biết Hội đồng đã đề cập đến các ứng dụng AI trong cả lĩnh vực quân sự và phi quân sự, nhấn mạnh chúng “có thể gây ra những tác động rất nghiêm trọng đối với hòa bình và an ninh toàn cầu”.

Ông Guterres cũng ủng hộ đề xuất của một số quản lý cấp cao trong ngành AI về việc thành lập cơ quan giám sát AI, hoạt đọng tương tự như Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA). Song ông lưu ý rằng "chỉ các quốc gia thành viên mới có thể tạo ra nó, chứ không phải Ban Thư ký LHQ.

Hiện nay các nhà lãnh đạo doanh nghiệp và học giả tìm kiếm những gợi ý từ các chính phủ rồi bắt đầu phát triển quy trình quản lý, kiểm toán và chứng nhận phi chính phủ nhằm làm rõ ứng dụng, dịch vụ AI nào đáng tin cậy cho thị trường cũng như người dùng phổ thông.

H.Thủy/TTXVN (Tổng hợp)

Nguồn Tin Tức TTXVN: https://baotintuc.vn/khoa-hoc-cong-nghe/cuoc-dua-quan-ly-ai-tren-toan-cau-20230912181324689.htm