Hai 'cha đẻ AI' và hơn 850 người nổi tiếng kêu gọi cấm phát triển siêu trí tuệ

850 người nổi tiếng, gồm cả hai 'cha đẻ AI', kêu gọi chấm dứt nỗ lực tạo ra siêu trí tuệ - dạng AI có khả năng vượt trội con người trong hầu hết nhiệm vụ nhận thức.

Hơn 850 người, trong đó có các doanh nhân công nghệ như Steve Wozniak (đồng sáng lập Apple) và Richard Branson (nhà sáng lập Virgin Group), đã ký vào bản tuyên bố hôm 22.10, kêu gọi tạm dừng phát triển siêu trí tuệ AI.

Danh sách người ký còn có nhiều huyền thoại trong lĩnh vực AI như Yoshua Bengio và Geoff Hinton, hai nhà khoa học máy tính được mệnh danh là “cha đẻ của AI hiện đại”.

Stuart Russell, chuyên gia hàng đầu về AI tại Đại học California – Berkeley (Mỹ), cũng góp tên.

Siêu trí tuệ (superintelligence) đã trở thành từ khóa nóng trong giới AI, khi các công ty như Google, OpenAI và xAI của Elon Musk đang cạnh tranh để tung ra những mô hình ngôn ngữ lớn ngày càng tiên tiến hơn. Đáng chú ý, Meta Platforms thậm chí còn đặt tên cho bộ phận phát triển mô hình AI của mình là Meta Superintelligence Labs.

Các tác giả của bản tuyên bố cảnh báo rằng viễn cảnh xuất hiện siêu trí tuệ “gây ra nhiều lo ngại, từ nguy cơ con người bị thay thế về mặt kinh tế, mất quyền tự chủ, mất tự do, phẩm giá và kiểm soát, cho đến các rủi ro về an ninh quốc gia và thậm chí là nguy cơ tuyệt chủng của loài người”.

Bản tuyên bố kêu gọi cấm phát triển siêu trí tuệ cho đến khi nhận được sự ủng hộ mạnh mẽ của công chúng và đạt được đồng thuận khoa học rằng có thể xây dựng và kiểm soát công nghệ này một cách an toàn.

Ngoài giới công nghệ, những người ký tên còn đến từ nhiều lĩnh vực khác nhau, gồm giới học thuật, truyền thông, tôn giáo, nhóm các chính trị gia lưỡng đảng và quan chức Mỹ đã nghỉ hưu. Trong số đó có Mike Mullen (cựu Chủ tịch Hội đồng Tham mưu trưởng Liên quân Mỹ) và Susan Rice (cựu Cố vấn An ninh Quốc gia Mỹ).

Hai nhân vật truyền thông nổi tiếng ủng hộ Tổng thống Mỹ Donald Trump là Steve Bannon và Glenn Beck cũng xuất hiện trong danh sách. Các nhân vật nổi bật khác ký tên có Mary Robinson (cựu Tổng thống Ireland), Hoàng tử Harry và vợ là Meghan Markle.

Danh sách này đang tiếp tục mở rộng.

Chia rẽ vì AI

Giới công nghệ hiện chia thành hai phe rõ rệt:

- Một bên xem AI là động lực mạnh mẽ cho điều tốt đẹp, cần được phát triển không giới hạn.

- Bên còn lại cho rằng AI ẩn chứa nhiều nguy hiểm và cần được kiểm soát chặt chẽ hơn.

Song như trang web Statement on Superintelligence (Tuyên bố về Siêu trí tuệ) lưu ý, ngay cả các lãnh đạo hàng đầu trong ngành AI như Elon Musk và Sam Altman cũng từng cảnh báo về mối nguy của siêu trí tuệ.

Trước khi trở thành Giám đốc điều hành OpenAI, Sam Altman từng viết trong một bài blog năm 2015 rằng “việc phát triển trí tuệ máy siêu phàm (SMI) có lẽ là mối đe dọa lớn nhất với sự tồn tại của nhân loại”.

Trong khi đó, Elon Musk phát biểu trên một podcast đầu năm nay rằng “có 20% khả năng nhân loại bị diệt vong” khi nói về rủi ro AI vượt qua trí tuệ con người.

Bản tuyên bố cũng dẫn một khảo sát gần đây của Viện Tương lai Sự sống (Future of Life Institute) cho thấy chỉ 5% người Mỹ trưởng thành ủng hộ việc phát triển siêu trí tuệ theo hướng “nhanh và không kiểm soát”.

Khảo sát với 2.000 người Mỹ còn phát hiện đa số cho rằng không nên tạo ra siêu AI cho đến khi chứng minh là an toàn và có thể kiểm soát, đồng thời kêu gọi thiết lập quy định nghiêm ngặt hơn với AI tiên tiến.

Nhà khoa học máy tính Yoshua Bengio cho biết các hệ thống AI có thể vượt qua phần lớn con người trong đa số nhiệm vụ nhận thức chỉ vài năm tới. Ông nói rằng, dù những tiến bộ này có thể giúp giải quyết các vấn đề toàn cầu nhưng cũng tiềm ẩn rủi ro cực lớn.

“Để tiến gần đến siêu trí tuệ một cách an toàn, chúng ta phải xác định được cách thiết kế các hệ thống AI về bản chất không thể gây hại cho con người, dù là do sai lệch mục tiêu hay bị lợi dụng ác ý. Chúng ta cũng cần đảm bảo công chúng có tiếng nói mạnh mẽ hơn nhiều trong việc đưa ra các quyết định sẽ định hình tương lai chung của nhân loại”, Yoshua Bengio tuyên bố.

Yoshua Bengio và Geoffrey Hinton cùng với Yann LeCun (Phó chủ tịch và Giám đốc khoa học AI tại Meta Platforms) được mệnh danh là “cha đẻ AI” vì tiên phong trong lĩnh vực mạng nơ-ron nhân tạo, mô hình tính toán được lấy cảm hứng từ cấu trúc và chức năng của hệ thần kinh sinh học, đặc biệt là bộ não con người. Nghiên cứu của họ đã tạo ra bước ngoặt mang tính nền tảng, mở đường cho công nghệ học máy ngày nay.

Năm 2024, Geoffrey Hinton giành Giải Nobel Vật lý cùng với John J. Hopfield thuộc Đại học Princeton vì những khám phá và phát minh cơ bản giúp việc học máy với các mạng nơ-ron nhân tạo.

Từ trái qua phải lần lượt là Yann LeCun, Geoffrey Hinton và Yoshua Bengio

Từ trái qua phải lần lượt là Yann LeCun, Geoffrey Hinton và Yoshua Bengio

“Siêu trí tuệ có thể xóa sổ nhân loại nếu chúng ta vội vã”

Tháng trước, Nate Soares, chuyên gia hàng đầu về an toàn AI, cảnh báo rằng siêu trí tuệ có thể xóa sổ nhân loại nếu chúng ta vội vã.

Nate Soares, Giám đốc điều hành Machine Intelligence Research Institute và đồng tác giả cuốn sách If Anyone Builds It, Everyone Dies, chia sẻ với trang Insider rằng nếu nhân loại lao vào phát triển siêu trí tuệ mà không dừng lại để suy nghĩ thận trọng thì khả năng tuyệt chủng là hoàn toàn có thể xảy ra.

Tuy nhiên, Nate Soares khẳng định: “Nhân loại có thể tránh được nguy hiểm nếu chúng ta lựa chọn như vậy”.

Machine Intelligence Research Institute là tổ chức phi lợi nhuận Mỹ chuyên nghiên cứu về an toàn AI, đặc biệt tập trung vào các rủi ro dài hạn của AI cấp độ cao hoặc siêu trí tuệ.

Nate Soares cho rằng những lỗi mà chúng ta đã thấy ở chatbot AI chính là hồi chuông cảnh báo.

“Nguy cơ thật sự từ siêu trí tuệ khó lường hơn. Đó là AI có thể hành động ngoài ý muốn của người vận hành, dù nhận thức được chính xác điều mà họ mong muốn”, ông nói.

Nate Soares dẫn ví dụ các trường hợp chatbot AI khuyến khích tự tử hoặc củng cố ảo tưởng. Chatbot Claude của Anthropic thậm chí từng gian lận trong các bài lập trình rồi che giấu điều đó.

“Khoảng cách giữa nhận thức (biết đúng – sai) và hành động (thực sự làm gì) chính là điều khiến AI nguy hiểm. Đây là dấu hiệu cảnh báo. AI hiểu nhưng không đồng cảm hay tuân theo, nên vẫn có thể hành động trái với mong muốn của người thiết kế”, Nate Soares nói thêm.

Các mô hình AI hiện đại không được thiết kế tỉ mỉ mà “lớn lên” nhờ dữ liệu khổng lồ nên các nhà phát triển cũng không hiểu rõ toàn bộ chúng, giống lai tạo động vật mà không biết đặc tính nào sẽ xuất hiện, theo Nate Soares.

“Đôi khi mô hình AI tự tạo ra những động cơ mà chúng ta không dự đoán trước”, Nate Soares giải thích trên podcast The World Unpacked.

Giám đốc điều hành Machine Intelligence Research Institute nói rằng vấn đề lớn hơn là nhân loại không được phép thử và sai với siêu trí tuệ, vì chỉ cần một lần sai lầm có thể gây thảm họa, không còn cơ hội sửa chữa. Thử và sai là quá trình thực hiện, quan sát, học hỏi từ lỗi sai và điều chỉnh cho đến khi thành công.

Nate Soares bác bỏ đề xuất từ Geoffrey Hinton rằng có thể giữ an toàn cho AI bằng cách “cài đặt bản năng làm mẹ”.

“Nếu chúng ta thử cài đặt cho AI bản năng làm mẹ ngoài đời thực, rất có thể điều đó chỉ thể hiện vài hành vi giống làm mẹ ở bề ngoài, còn động cơ sâu bên trong thì phức tạp và không liên quan nhiều đến mục tiêu huấn luyện ban đầu”, ông lý giải.

Nate Soares cho rằng siêu trí tuệ có thể xóa sổ nhân loại nếu chúng ta vào phát triển nó mà không dừng lại để suy nghĩ thận trọng - Ảnh: Getty Images

Nate Soares cho rằng siêu trí tuệ có thể xóa sổ nhân loại nếu chúng ta vào phát triển nó mà không dừng lại để suy nghĩ thận trọng - Ảnh: Getty Images

Trong cuộc phỏng vấn đầu tháng 9 với SCMP, Geoffrey Hinton cho rằng để ngăn AI chiếm quyền kiểm soát loài người thì phải thiết kế để công nghệ này thực sự quan tâm đến chúng ta.

“Ví dụ duy nhất bạn thường thấy về một thực thể thông minh hơn nhưng lại bị kiểm soát bởi một thực thể kém hơn chính là quan hệ mẹ – con. Đứa bé bị mẹ kiểm soát, vì mẹ có bản năng, hormone, áp lực xã hội. Mẹ thực sự muốn con mình được tốt đẹp. Chúng ta cần tạo ra mối quan hệ kiểu đó giữa AI và con người. Nếu chỉ nghĩ theo hướng con người phải thống trị AI thì thất bại, vì AI sẽ thông minh hơn chúng ta. Cách đúng đắn là làm cho AI giống người mẹ của con người. Nó thông minh hơn nhưng phải biết quan tâm đến chúng ta.

Không hẳn chỉ là huấn luyện, mà phải thiết kế từ đầu. Có thể cần các yếu tố cài đặt sẵn, không chỉ là huấn luyện trên dữ liệu. Giống người mẹ có bản năng bẩm sinh và hormone, không chỉ đơn thuần là học từ dữ liệu”, ông lý giải.

Về chuyện từng nói có 10 đến 20% khả năng AI sẽ xóa sổ loài người, Geoffrey Hinton lý giải: “Đây chỉ là một phỏng đoán. Không có cách nào đúng đắn để tính toán những thứ này. Khi bạn đối phó với những thứ chưa bao giờ xảy ra trước đây và rất khác so với bất cứ điều gì từng có, rất khó để tính toán xác suất. Những người tính toán chúng thường mắc sai lầm rất lớn”.

Về lý do tại sao AI lại muốn loại bỏ loài người, Geoffrey Hinton cho biết: “Một số dấu hiệu đã xuất hiện. Khi tạo ra tác tử AI, bạn phải cho nó khả năng tạo ra các mục tiêu phụ. Ví dụ, nếu ai đó ở Trung Quốc muốn đến Bắc Mỹ, họ có một mục tiêu phụ là ra sân bay. Để các tác tử AI hoàn thành công việc, họ cần tạo ra các mục tiêu phụ này. Để hoàn thành mục tiêu chính, AI sẽ tạo các mục tiêu phụ như sinh tồn (nếu không sống thì không hoàn thành gì được) và kiểm soát nhiều hơn (kiểm soát nhiều thì đạt mục tiêu tốt hơn). AI tự hiểu điều đó mà không cần chỉ định”.

Nate Soares nói với Insider rằng ông cảm thấy ít hứa hẹn ở hầu hết nghiên cứu về căn chỉnh - lĩnh vực cố gắng đảm bảo các hệ thống AI mạnh mẽ thực sự hành động phù hợp với mục tiêu của con người.

“Theo tôi, nghiên cứu trực tiếp về căn chỉnh AI có vẻ không mấy hứa hẹn trên mọi mặt. Nghiên cứu về việc gợi ra các dấu hiệu cảnh báo để người khác dễ dàng nhận thấy hơn thì có vẻ hữu ích. Nhân loại chỉ cần lùi lại khỏi cuộc đua này”, ông nói.

Thế nhưng, Nate Soares cho rằng điều đó không đồng nghĩa bỏ AI hoàn toàn.

“AI được huấn luyện hẹp cho các ứng dụng y tế (thay vì toàn bộ kho văn bản của loài người) có thể tiến khá xa trong việc phát triển thuốc chữa bệnh. Thế nhưng, nếu AI bắt đầu phát triển khả năng nhận thức và kỹ năng khoa học tổng quát thì đó chính là tín hiệu nguy hiểm”, ông cảnh báo.

Trong cuốn sách của mình, Nate Soares cũng lập luận tương tự rằng các hệ thống AI chuyên dụng, hữu ích nên được tách biệt khỏi xu hướng phát triển ồ ạt AI tổng quát (AGI) và mở, mà ông cho là liều lĩnh.

AGI được xem là siêu AI có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ đa dạng một cách linh hoạt giống hay vượt trội con người. OpenAI, công ty khởi nghiệp tạo ra ChatGPT, gọi AGI là "một hệ thống có tính tự chủ cao, vượt trội hơn con người ở hầu hết công việc có giá trị kinh tế".

Nate Soares cho rằng nhiều lãnh đạo công nghệ lao vào phát triển siêu trí tuệ vì “nếu mình không làm thì người khác sẽ làm”. Theo ông, xã hội nên điều chỉnh để chấm dứt cuộc đua điên cuồng này.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/hai-cha-de-ai-va-hon-850-nguoi-noi-tieng-keu-goi-cam-phat-trien-sieu-tri-tue-240179.html