Cảnh báo từ việc Mỹ hạ thấp rủi ro của trí tuệ nhân tạo
Phó Tổng thống Mỹ JD Vance đã cảnh báo về hệ thống quản lý trí tuệ nhân tạo (AI) và sự can thiệp về mặt ý thức hệ vào hoạt động của AI.

Cảnh báo từ việc Mỹ hạ thấp rủi ro của trí tuệ nhân tạo. Ảnh: TTXVN
Trong những ngày qua, Phó Tổng thống Mỹ JD Vance đã có không chỉ một mà là hai bài phát biểu trong chuyến công du châu Âu của ông.
Bài phát biểu thứ hai của ông JD Vance tại Hội nghị thượng đỉnh về trí tuệ nhân tạo (AI) ở Paris ít được dư luận chú ý đến hơn, nhưng có thể còn đáng ngại hơn những gì mà ông phát biểu tại Hội nghị An ninh Munich xét về dài hạn. Trong bài phát biểu này, Phó Tổng thống Mỹ cảnh báo về hệ thống quản lý AI và sự can thiệp về mặt ý thức hệ vào hoạt động của AI.
Ông JD Vance nói: “Chúng ta cần những khuôn khổ pháp lý hỗ trợ sự phát triển của công nghệ chứ không phải kìm hãm nó”. Cùng với tuyên bố của ông JD Vance, Mỹ đã không tham gia cùng 60 quốc gia - bao gồm Cộng hòa Czech, Đức, Ấn Độ hoặc Trung Quốc - ký vào tuyên bố thiết lập hệ thống AI có đạo đức, an toàn và đáng tin cậy.
Động thái của Phó Tổng thống Mỹ có lẽ xuất phát từ việc Tổng thống Donald Trump và tỷ phú Elon Musk đang muốn mua OpenAI? Ông Trump đã bãi bỏ các quy định về AI được thúc đẩy dưới thời cựu Tổng thống Joe Biden. Và cộng sự của ông là tỷ phú Elon Musk đã cố gắng mua lại OpenAI, công ty đứng sau mô hình trí tuệ nhân tạo ChatGPT, ban đầu được thành lập như một dự án thí nghiệm nghiên cứu phi lợi nhuận với mục tiêu tạo ra nền tảng AI an toàn và có lợi cho nhân loại.
Tại sự kiện nói trên, Tổng thống Cộng hòa Czech Petr Pavel đã gặp một trong những người đứng đầu công ty OpenAI ở Paris và nói rằng, điều quan trọng là các chính phủ và những công ty công nghệ phải hợp tác để đưa AI vào sử dụng một cách an toàn và đúng đắn.

Tổng thống Mỹ Donald Trump phát biểu tại cuộc họp báo ở Nhà Trắng, Washington, D.C. Ảnh: THX/TTXVN
Năm 2020, giáo sư Toby Ord của Đại học Oxford đã đánh giá trong cuốn sách Oversleeping rằng, AI không phù hợp với các giá trị của con người là rủi ro hiện sinh lớn nhất đối với nhân loại. Giáo sư ước tính khả năng mối đe dọa này trở thành sự thật với tỷ lệ là 1/10, trong khi khả năng xảy ra chiến tranh hạt nhân có tỷ lệ là 1/1000 và khả năng biến đổi khí hậu và đại dịch nhân tạo đe dọa loài người có tỷ lệ là 1/30. Đằng sau những ước tính này là quá trình nghiên cứu và tham vấn sâu rộng của nhóm các chuyên gia hàng đầu do giáo sư Ord dẫn đầu.
AI rõ ràng có những điểm yếu. Giáo sư Ord cho biết, đánh giá trung bình của các chuyên gia trong lĩnh vực này là có khoảng 1/2 khả năng rằng trong vòng 100 năm tới, các tác nhân AI sẽ được phát triển có thể thực hiện hầu hết mọi nhiệm vụ tốt hơn con người. Và nếu điều đó xảy ra, sẽ không có gì ngạc nhiên nếu những tác nhân này cũng nắm quyền kiểm soát tương lai của nhân loại.
Nhà phân tích thông tin người Czech đang làm việc tại tờ báo hàng đầu Denik N, Petr Koubský, đang hướng sự chú ý đến nghiên cứu của các nhà khoa học tại Đại học Thượng Hải, những người đã sử dụng hai mô hình ngôn ngữ để tạo ra bản sao có chức năng của chính hai mô hình này. Chuyên gia Koubský cho rằng, AI có thể tự động "sinh sản" mà không cần sự can thiệp của con người.
Ngoài ra, ông Koubský cũng cho biết, các nhà khoa học Trung Quốc đã làm việc với các mô hình ngôn ngữ Llama từ Meta và Qwen từ Alibaba của Trung Quốc. Các hệ thống AI tiên tiến có thể kiểm soát những hệ thống máy tính, tạo ra loại hình sống riêng và tấn công con người. Phát hiện của các nhà khoa học Trung Quốc là lời cảnh báo sớm về những rủi ro của AI. Điều đó kêu gọi sự hợp tác quốc tế trong việc kiểm soát hiệu quả sự phát triển không kiểm soát của các hệ thống AI.
Nguồn Bnews: https://bnews.vn/canh-bao-tu-viec-my-ha-thap-rui-ro-cua-tri-tue-nhan-tao/363644.html