Nguy cơ trí tuệ nhân tạo phát triển quá nhanh mà quy định không theo kịp

Sự ra đời của loạt mô hình trí tuệ nhân tạo (AI) mới mà Công ty OpenAI vừa công bố đánh dấu bước tiến mới trong nỗ lực phát triển AI 'biết suy nghĩ'. Tuy nhiên, bước ngoặt công nghệ này lại đang tạo ra những mối lo ngại về những mặt trái mà nó có thể gây ra.

Khả năng tư duy của AI đã có bước phát triển vượt bậc

Khả năng tư duy của AI đã có bước phát triển vượt bậc

AI có khả năng suy luận như tiến sĩ

Mô hình AI mới mang tên o1 (tên mã Strawberry) là thành tựu mới nhất của Công ty Open AI có trụ sở tại California. Đây là mô hình ngôn ngữ lớn được đào tạo bằng phương pháp học tăng cường để thực hiện các suy luận phức tạp, với khả năng suy nghĩ trước khi trả lời. Hôm 12-9, bản xem trước của 2 trong số các mô hình, được gọi là o1-preview và o1-mini, đã được cho ra mắt với một số người dùng trả phí.

So với các mô hình trí tuệ nhân tạo tạo sinh (GenAI) trước đây, o1 có thể giải quyết các vấn đề khó hơn. Kết quả này có được là nhờ o1 hoạt động “tương tự như cách con người suy nghĩ trong thời gian dài trước khi trả lời một câu hỏi khó”. Với kỹ thuật suy luận “chuỗi suy nghĩ”, mô hình này giải quyết tốt vấn đề bằng cách chia các vấn đề phức tạp thành các bước hợp lý nhỏ hơn và cố gắng nhận diện những bước đúng hoặc sai. OpenAI cho hay: “Chúng tôi đã đào tạo các mô hình này để dành nhiều thời gian hơn suy nghĩ về các vấn đề trước khi trả lời, giống một con người. Thông qua quá trình đào tạo, chúng học cách tinh chỉnh quá trình suy nghĩ của mình, thử các chiến lược khác nhau và nhận ra lỗi lầm”.

Trong các thử nghiệm của OpenAI, o1 đã thể hiện sự xuất sắc trong các lĩnh vực như vật lý, hóa học và sinh học, Ông Noam Brown, nhà nghiên cứu tập trung vào việc cải thiện khả năng suy luận trong các mô hình AI của OpenAI, xác nhận: “Trong các bài kiểm tra của chúng tôi, o1 đạt kết quả tương đương với những nghiên cứu sinh tiến sĩ khi giải quyết các bài toán thách thức trong vật lý, hóa học và sinh học. Chúng tôi cũng nhận thấy rằng nó vượt trội trong toán học và lập trình”.

Trên thực tế, trong một kỳ thi tuyển chọn Olympic toán quốc tế (IMO), trong khi mô hình GPT-4o ra đời trước đây chỉ giải được 13% bài toán, thì o1 có thể đạt tới 83%. Khả năng lập trình của o1 cũng được đánh giá trong các cuộc thi và đạt đến mức 89% ở những cuộc thi Codeforces - nền tảng trực tuyến nổi tiếng, được thiết kế đặc biệt cho các lập trình viên muốn rèn luyện và nâng cao kỹ năng giải quyết vấn đề thông qua việc tham gia các cuộc thi lập trình.

Thành công với o1 có thể giúp OpenAI tăng khả năng trong đàm phán huy động 6,5 tỉ USD từ các nhà đầu tư với mức định giá công ty khởi nghiệp AI này lên đến 150 tỉ USD. Mức định giá mới, không bao gồm cả số tiền đang được huy động, cao hơn đáng kể so với mức định giá 86 tỉ USD từ đề nghị mua lại cổ phần của OpenAI hồi đầu năm nay. Động thái đó củng cố vị thế OpenAI là một trong những công ty khởi nghiệp có giá trị nhất trên thế giới.

Tuy nhiên, sự hứng khởi trước sự ra đời của o1 phần nào bị phủ bóng đen khi OpenAI thừa nhận mô hình o1 vừa ra mắt làm tăng “rõ rệt” rủi ro AI bị lợi dụng để chế tạo vũ khí sinh học. Tài liệu giải thích cách vận hành của o1 mà OpenAI công bố khẳng định mô hình mới có “mức rủi ro trung bình” đối với các vấn đề liên quan đến vũ khí hóa học, sinh học, phóng xạ và hạt nhân. Đây là mức rủi ro cao nhất mà OpenAI từng đặt cho những mô hình AI của mình.

Theo OpenAI, điều này đồng nghĩa o1 có thể “cải thiện rõ rệt” khả năng chế tạo vũ khí sinh học của những chuyên gia muốn lạm dụng chúng. Bà Mira Murati, Giám đốc công nghệ của OpenAI, cho biết dù o1 còn trong giai đoạn dùng thử nhưng năng lực tiên tiến của mô hình này vẫn buộc công ty cực kỳ “cẩn trọng” với lộ trình đưa nó đến công chúng.

Đối phó với sự phát triển “quá nhanh, quá nguy hiểm” của AI

Một lần nữa, những hậu quả kinh tế xã hội tiềm ẩn mà AI có thể gây ra lại khiến người ta lo ngại. Theo một cuộc khảo sát của Trung tâm nghiên cứu Pew (Mỹ), sự phát triển của AI gây ra “rủi ro hiện sinh”, bắt nguồn từ khả năng các hệ thống AI vượt xa sự kiểm soát của con người và gây ra các hậu quả thảm khốc khôn lường cho nhân loại. AI có thể tạo ra nội dung sai sót không thể giải thích được, và có thể bị sử dụng để truyền bá thông tin sai lệch cũng như đánh lừa người dùng.

Việc sử dụng AI để tạo và truyền bá các thông tin sai lệch có thể tác động đến sức khỏe tâm thần ở cấp độ dân số, gây căng thẳng, lo lắng, trầm cảm và bị cô lập. Sự tiến bộ nhanh chóng và áp dụng các công nghệ kỹ thuật số cũng làm dấy lên lo ngại về khả năng giám sát trên diện rộng và “xói mòn” quyền riêng tư, xâm phạm các quyền tự do cá nhân. Con người còn có thể sử dụng AI để khai thác dữ liệu, sử dụng chúng cho mục đích xấu khiến nhiều tài khoản bị hack, bị lợi dụng để vay tiền… Môi trường công nghệ phát triển cũng tạo điều kiện cho sự gia tăng tỷ lệ tội phạm an ninh mạng trên toàn cầu, làm trầm trọng thêm bất bình đẳng.

Việc đảm bảo sử dụng công nghệ AI một cách có trách nhiệm và minh bạch là rất quan trọng để khai thác hết tiềm năng và giải quyết các hậu quả khôn lường trước. Quay trở lại với sự xuất hiện của o1, Giáo sư Yoshua Bengio, chuyên ngành khoa học máy tính tại Đại học Montreal và là một trong những nhà khoa học hàng đầu về AI trên thế giới, cho biết nếu OpenAI hiện đang gây ra “nguy cơ trung bình” về vũ khí hóa học và sinh học, thì “điều này chỉ càng củng cố thêm tầm quan trọng và sự cấp bách” của các luật lệ nhằm quản lý lĩnh vực này.

Lo ngại về việc AI phát triển quá nhanh và vượt xa tốc độ xây dựng và phê duyệt những quy định quản lý chúng đang ngày một phổ biến. Để đối phó, trên quy mô toàn cầu, tháng 3-2024, Đại hội đồng LHQ đã thông qua một nghị quyết hối thúc các nước thành viên, khu vực tư nhân, các tổ chức nghiên cứu và phương tiện truyền thông phát triển và hỗ trợ các phương pháp điều hành và quản trị việc sử dụng AI một cách an toàn, bảo mật và đáng tin cậy.

Ở quy mô khu vực, tháng 5-2024, Hội đồng châu Âu (EC) đã thông qua hiệp ước toàn cầu đầu tiên liên quan các quy định quản lý việc sử dụng AI. Công ước đặt ra khung pháp lý mang tính ràng buộc với tất cả các giai đoạn trong quá trình phát triển và sử dụng các hệ thống AI, đồng thời giải quyết những rủi ro tiềm ẩn của AI và thúc đẩy sự đổi mới công nghệ một cách có trách nhiệm. Công ước yêu cầu các bên bảo đảm rằng hệ thống AI không được sử dụng để làm suy yếu các thể chế. Các yêu cầu về tính minh bạch và giám sát sẽ bao gồm việc xác định nội dung do AI tạo ra cho người dùng.

Với các quốc gia, chính phủ nhiều nước cũng nỗ lực quản lý công nghệ đang phát triển “quá nhanh, quá nguy hiểm” này. Anh cho biết sẽ thành lập Viện an toàn AI đầu tiên trên thế giới, nhằm đánh giá và thử nghiệm các mô hình mới, qua đó xác định tất cả các rủi ro tiềm ẩn từ AI. Mỹ cũng thành lập Viện an toàn AI nhằm đánh giá mức độ an toàn của các hệ thống AI và hướng dẫn quản lý các vấn đề phát sinh liên quan. Trong khi đó, Thụy Sĩ đã yêu cầu cơ quan chức năng đánh giá tổng quan về các phương pháp quản lý khả thi đối với AI, từ đó xác định các phương pháp tiếp cận tiềm năng để điều chỉnh quy định quản lý vào cuối năm 2024.

Hoàng Sơn

Nguồn ANTĐ: https://anninhthudo.vn/nguy-co-tri-tue-nhan-tao-phat-trien-qua-nhanh-ma-quy-dinh-khong-theo-kip-post589581.antd