'Siêu trí tuệ có thể xóa sổ nhân loại nếu chúng ta vội vã'

Đó là nhận định của Nate Soares - chuyên gia hàng đầu về an toàn AI (trí tuệ nhân tạo).

Nate Soares, Giám đốc điều hành Machine Intelligence Research Institute và đồng tác giả cuốn sách If Anyone Builds It, Everyone Dies, chia sẻ với trang Insider rằng nếu nhân loại lao vào phát triển siêu trí tuệ mà không dừng lại để suy nghĩ thận trọng thì khả năng tuyệt chủng là hoàn toàn có thể xảy ra. Siêu trí tuệ được xem là AI có thể vượt con người trong khoa học, chiến lược và thậm chí tự cải thiện bản thân.

Tuy nhiên, Nate Soares khẳng định: “Nhân loại có thể tránh được nguy hiểm nếu chúng ta lựa chọn như vậy”.

Machine Intelligence Research Institute là tổ chức phi lợi nhuận Mỹ chuyên nghiên cứu về an toàn AI, đặc biệt tập trung vào các rủi ro dài hạn của AI cấp độ cao hoặc siêu trí tuệ.

Nate Soares cho rằng siêu trí tuệ có thể xóa sổ nhân loại nếu chúng ta vào phát triển nó mà không dừng lại để suy nghĩ thận trọng - Ảnh: Getty Images

Nate Soares cho rằng siêu trí tuệ có thể xóa sổ nhân loại nếu chúng ta vào phát triển nó mà không dừng lại để suy nghĩ thận trọng - Ảnh: Getty Images

Dấu hiệu ban đầu

Nate Soares cho rằng những lỗi mà chúng ta đã thấy ở chatbot AI chính là hồi chuông cảnh báo.

“Nguy cơ thật sự từ siêu trí tuệ khó lường hơn. Đó là AI có thể hành động ngoài ý muốn của người vận hành, dù nhận thức được chính xác điều mà họ mong muốn”, ông nói.

Nate Soares dẫn ví dụ các trường hợp chatbot AI khuyến khích tự tử hoặc củng cố ảo tưởng. Chatbot Claude của Anthropic thậm chí từng gian lận trong các bài lập trình rồi che giấu điều đó.

“Khoảng cách giữa nhận thức (biết đúng – sai) và hành động (thực sự làm gì) chính là điều khiến AI nguy hiểm. Đây là dấu hiệu cảnh báo. AI hiểu nhưng không đồng cảm hay tuân theo, nên vẫn có thể hành động trái với mong muốn của người thiết kế”, Nate Soares nói thêm.

Các mô hình AI hiện đại không được thiết kế tỉ mỉ mà “lớn lên” nhờ dữ liệu khổng lồ nên các nhà phát triển cũng không hiểu rõ toàn bộ chúng, giống lai tạo động vật mà không biết đặc tính nào sẽ xuất hiện, theo Nate Soares.

“Đôi khi mô hình AI tự tạo ra những động cơ mà chúng ta không dự đoán trước”, Nate Soares giải thích trên podcast The World Unpacked.

The World Unpacked là podcast của tổ chức nghiên cứu chính sách quốc tế Carnegie Endowment for International Peace, giải thích các vấn đề quốc tế phức tạp theo cách dễ hiểu. Chương trình mời chuyên gia và nhân vật có ảnh hưởng bàn về công nghệ, chính trị, kinh tế, an ninh và các xu hướng toàn cầu.

Giám đốc điều hành Machine Intelligence Research Institute nói rằng vấn đề lớn hơn là nhân loại không được phép thử và sai với siêu trí tuệ, vì chỉ cần một lần sai lầm có thể gây thảm họa, không còn cơ hội sửa chữa.

Thử và sai là quá trình thực hiện, quan sát, học hỏi từ lỗi sai và điều chỉnh cho đến khi thành công.

Bác bỏ đề xuất từ "cha đẻ AI"

Nate Soares bác bỏ đề xuất từ Geoffrey Hinton rằng có thể giữ an toàn cho AI bằng cách “cài đặt bản năng làm mẹ”.

“Nếu chúng ta thử cài đặt cho AI bản năng làm mẹ ngoài đời thực, rất có thể điều đó chỉ thể hiện vài hành vi giống làm mẹ ở bề ngoài, còn động cơ sâu bên trong thì phức tạp và không liên quan nhiều đến mục tiêu huấn luyện ban đầu”, ông lý giải.

Geoffrey Hinton được mệnh danh là “cha đẻ AI” nhờ các mô hình mạng lưới thần kinh mang tính cách mạng do ông tạo ra, lấy cảm hứng từ cấu trúc bộ não con người.

Nghiên cứu của Geoffrey Hinton, nhà khoa học máy tính nổi tiếng người Anh - Canada sinh năm 1947, đã tạo ra bước ngoặt mang tính nền tảng, mở đường cho công nghệ học máy ngày nay.

Geoffrey Hinton giành Giải Nobel Vật lý năm 2024 cùng với John J. Hopfield thuộc Đại học Princeton vì những khám phá và phát minh cơ bản giúp việc học máy với các mạng nơ-ron nhân tạo. Ông hiện là giáo sư danh dự tại Đại học Toronto (Canada).

Trong cuộc phỏng vấn đầu tháng 9 với SCMP, Geoffrey Hinton cho rằng để ngăn AI chiếm quyền kiểm soát loài người thì phải thiết kế để công nghệ này thực sự quan tâm đến chúng ta.

“Ví dụ duy nhất bạn thường thấy về một thực thể thông minh hơn nhưng lại bị kiểm soát bởi một thực thể kém hơn chính là quan hệ mẹ – con. Đứa bé bị mẹ kiểm soát, vì mẹ có bản năng, hormone, áp lực xã hội. Mẹ thực sự muốn con mình được tốt đẹp. Chúng ta cần tạo ra mối quan hệ kiểu đó giữa AI và con người. Nếu chỉ nghĩ theo hướng con người phải thống trị AI thì thất bại, vì AI sẽ thông minh hơn chúng ta. Cách đúng đắn là làm cho AI giống người mẹ của con người. Nó thông minh hơn nhưng phải biết quan tâm đến chúng ta.

Không hẳn chỉ là huấn luyện, mà phải thiết kế từ đầu. Có thể cần các yếu tố cài đặt sẵn, không chỉ là huấn luyện trên dữ liệu. Giống người mẹ có bản năng bẩm sinh và hormone, không chỉ đơn thuần là học từ dữ liệu”, ông lý giải.

Về chuyện từng nói có 10 đến 20% khả năng AI sẽ xóa sổ loài người,Geoffrey Hinton lý giải: “Đây chỉ là một phỏng đoán. Không có cách nào đúng đắn để tính toán những thứ này. Khi bạn đối phó với những thứ chưa bao giờ xảy ra trước đây và rất khác so với bất cứ điều gì từng có, rất khó để tính toán xác suất. Những người tính toán chúng thường mắc sai lầm rất lớn”.

Geoffrey Hinton được mệnh danh là “cha đẻ AI” - Ảnh: Internet

Geoffrey Hinton được mệnh danh là “cha đẻ AI” - Ảnh: Internet

Về lý do tại sao AI lại muốn loại bỏ loài người, Geoffrey Hinton cho biết: “Một số dấu hiệu đã xuất hiện. Khi tạo ra tác tử AI, bạn phải cho nó khả năng tạo ra các mục tiêu phụ. Ví dụ, nếu ai đó ở Trung Quốc muốn đến Bắc Mỹ, họ có một mục tiêu phụ là ra sân bay. Để các tác tử AI hoàn thành công việc, họ cần tạo ra các mục tiêu phụ này. Để hoàn thành mục tiêu chính, AI sẽ tạo các mục tiêu phụ như sinh tồn (nếu không sống thì không hoàn thành gì được) và kiểm soát nhiều hơn (kiểm soát nhiều thì đạt mục tiêu tốt hơn). AI tự hiểu điều đó mà không cần chỉ định”.

Tín hiệu nguy hiểm

Nate Soares nói với Insider rằng ông cảm thấy ít hứa hẹn ở hầu hết nghiên cứu về căn chỉnh - lĩnh vực cố gắng đảm bảo các hệ thống AI mạnh mẽ thực sự hành động phù hợp với mục tiêu của con người.

“Theo tôi, nghiên cứu trực tiếp về căn chỉnh AI có vẻ không mấy hứa hẹn trên mọi mặt. Nghiên cứu về việc gợi ra các dấu hiệu cảnh báo để người khác dễ dàng nhận thấy hơn thì có vẻ hữu ích. Nhân loại chỉ cần lùi lại khỏi cuộc đua này”, ông nói.

Thế nhưng, Nate Soares cho rằng điều đó không đồng nghĩa bỏ AI hoàn toàn.

“AI được huấn luyện hẹp cho các ứng dụng y tế (thay vì toàn bộ kho văn bản của loài người) có thể tiến khá xa trong việc phát triển thuốc chữa bệnh. Thế nhưng, nếu AI bắt đầu phát triển khả năng nhận thức và kỹ năng khoa học tổng quát thì đó chính là tín hiệu nguy hiểm”, ông cảnh báo.

Trong cuốn sách của mình, Nate Soares cũng lập luận tương tự rằng các hệ thống AI chuyên dụng, hữu ích nên được tách biệt khỏi xu hướng phát triển ồ ạt AI tổng quát (AGI) và mở, mà ông cho là liều lĩnh.

AGI được xem là siêu AI có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ đa dạng một cách linh hoạt giống hay vượt trội con người. OpenAI, công ty khởi nghiệp tạo ra ChatGPT, gọi AGI là "một hệ thống có tính tự chủ cao, vượt trội hơn con người ở hầu hết công việc có giá trị kinh tế".

“Cần chấm dứt cuộc đua phát triển siêu trí tuệ”

Nate Soares cho rằng nhiều lãnh đạo công nghệ lao vào phát triển siêu trí tuệ vì “nếu mình không làm thì người khác sẽ làm”. Theo ông, xã hội nên điều chỉnh để chấm dứt cuộc đua điên cuồng này.

Trong tập podcast Access phát sóng gần đây, Mark Zuckerberg khẳng định đang chi một khoản tiền khổng lồ để đảm bảo Meta Platforms không bỏ lỡ siêu trí tuệ.

Giám đốc điều hành Meta Platforms cho hay: “Nếu chúng tôi rốt cuộc chi sai vài trăm tỉ USD thì rõ ràng điều đó sẽ rất đáng tiếc. Song theo tôi, rủi ro ở chiều ngược lại thậm chí còn lớn hơn”. Ông lập luận rằng nếu một công ty phát triển quá chậm, trong khi siêu trí tuệ xuất hiện sớm hơn dự đoán, thì họ sẽ “bị đặt ra ngoài cuộc chơi với công nghệ mà tôi tin rằng sẽ là quan trọng nhất, cho phép tạo ra nhiều sản phẩm mới, đổi mới sáng tạo và giá trị hơn bất kỳ công nghệ nào trong lịch sử”.

“Ít nhất với một công ty như Meta, rủi ro có lẽ nằm ở chỗ không đủ quyết liệt, thay vì hơi quá quyết liệt”, tỷ phú 40 tuổi người Mỹ nhấn mạnh.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/sieu-tri-tue-co-the-xoa-so-nhan-loai-neu-chung-ta-voi-va-238139.html