CEO Microsoft AI: Siêu AI không đem đến viễn cảnh tích cực nào, rất khó kiểm soát

Trong khi phần lớn Thung lũng Silicon chạy đua tạo ra AI có năng lực vượt trội con người, Giám đốc điều hành mảng AI của Microsoft đang cố gắng kìm hãm điều này.

Trong podcast Silicon Valley Girl phát sóng mới đây, Mustafa Suleyman (Giám đốc điều hành Microsoft AI) nói ý tưởng về siêu AI không chỉ nên tránh, mà còn phải được xem là mục tiêu ngược, không nên đạt tới.

“Siêu AI - loại AI có khả năng suy luận vượt xa con người - không đem đến viễn cảnh tích cực nào cho tương lai. Rất khó để kiểm soát hay khiến một hệ thống AI như vậy tuân theo các giá trị của chúng ta”, Mustafa Suleyman nhận định.

Mustafa Suleyman, đồng sáng lập DeepMind và Inflection, cho biết đội ngũ của ông đang cố gắng xây dựng một dạng siêu trí tuệ nhân văn, đặt lợi ích của con người lên hàng đầu.

Ông cũng nói rằng việc gán cho AI bất kỳ yếu tố liên quan đến ý thức hay địa vị đạo đức là sai lầm.

“Những hệ thống này không biết đau khổ. Chúng không cảm thấy đau đớn, chỉ mô phỏng các cuộc trò chuyện chất lượng cao mà thôi”, Mustafa Suleyman cho hay.

CEO Microsoft AI Siêu AI không đem đến viễn cảnh tích cực nào, rất khó kiểm soát

CEO Microsoft AI Siêu AI không đem đến viễn cảnh tích cực nào, rất khó kiểm soát

Podcast Silicon Valley Girl là chương trình trò chuyện do Anna Karsten (YouTuber và nhà sáng tạo người Mỹ gốc Ba Lan) thực hiện, tập trung vào các chủ đề như cuộc sống ở Thung lũng Silicon, khởi nghiệp công nghệ, AI, đổi mới, phong cách sống của những người làm việc trong ngành công nghệ; phỏng vấn các doanh nhân, nhà sáng lập và chuyên gia AI.

Tập mà Mustafa Suleyman xuất hiện là một phần trong chuỗi phỏng vấn những nhân vật hàng đầu trong lĩnh vực AI.

Hôm 6.11, Mustafa Suleyman đã ra mắt đội ngũ chuyên về siêu trí tuệ tại Microsoft mang tên MAI Superintelligence.

Ông nói rằng MAI Superintelligence sẽ tập trung xây dựng “năng lực nghiên cứu hàng đầu, đạt chuẩn tiên phong ngay trong nội bộ”.

“Microsoft cần tự chủ trong AI. Để làm được điều đó, chúng tôi phải tự huấn luyện các mô hình tiên tiến ở mọi quy mô với dữ liệu và năng lực điện toán tối tân của chính mình”, Mustafa Suleyman nhấn mạnh.

Đây là một sự thay đổi lớn so với cách tiếp cận của Microsoft những năm gần đây. Trước đó, Microsoft chủ yếu tập trung vào các mô hình AI nhỏ hơn, tinh chỉnh mô hình có sẵn cho mục đích mới và dồn nguồn lực cho OpenAI thay vì tự phát triển mô hình tiên tiến để cạnh tranh với đối tác của mình.

Một lý do lớn khiến Microsoft từng đi theo chiến lược hẹp hơn là thỏa thuận trước đây với OpenAI. Thỏa thuận này cấm Microsoft phát triển AGI riêng cho đến năm 2030, theo một nguồn tin của Insider am hiểu sự việc. Điều này xuất phát từ mong muốn của OpenAI trong việc duy trì quyền kiểm soát phát triển AI tiên tiến, trong khi vẫn dựa vào Microsoft về hạ tầng đám mây và nguồn vốn.

Tuy nhiên, hai công ty đã đàm phán lại quan hệ đối tác hồi cuối tháng 10. Thỏa thuận mới cho phép Microsoft “độc lập hoặc cùng đối tác khác theo đuổi AGI”.

Điều đó đã giải phóng Microsoft để theo đuổi những mục tiêu cao hơn. MAI Superintelligence đã đặt ra tầm nhìn lớn cho những gì AI có thể đạt được trong tương lai. Các ứng dụng tiềm năng liên quan đến lĩnh vực chăm sóc sức khỏe, năng lượng, hệ thống giao thông và giảm “chi phí sinh hoạt cho hàng tỉ người trong 10 năm tới”, theo Mustafa Suleyman.

Nhiệm vụ của MAI Superintelligence là giải quyết các vấn đề nền tảng đang cản trở việc tạo ra những ứng dụng đó, chẳng hạn làm sao để AI chuyển giao kiến thức giữa các mô hình và làm gì cho các mạng nơ-ron có thể học liên tục mà không quên kiến thức cũ.

Mustafa Suleyman tiết lộ Microsoft đang đầu tư mạnh vào năng lực điện toán thông qua hợp tác với Nvidia, đồng thời mở rộng việc tự phát triển chip và xây dựng hạ tầng đám mây tối ưu cho AI để việc huấn luyện mô hình và suy luận diễn ra hiệu quả hơn.

Khi bước vào sân chơi vốn đã đông đúc khi Meta Platforms, Google, Anthropic và xAI của Elon Musk đều có đội ngũ phát triển siêu trí tuệ, Microsoft muốn định vị mình như “người lớn trong phòng”, nhấn mạnh trách nhiệm và sự an toàn.

“Đây không phải là một mục tiêu công nghệ vô định, một thử thách rỗng tuếch hay ngọn núi để chinh phục cho có”, Mustafa Suleyman viết trong bài đăng blog ra mắt đội ngũ MAI Superintelligence.

Theo trang Insider, Mustafa Suleyman từ chối nêu rõ công ty nào mà ông xem là thiếu định hướng, nhưng tin mọi người sẽ ủng hộ việc phát triển AI phù hợp với lợi ích của con người

“Điều này đáng lẽ ai cũng mặc nhiên phải hiểu, nhưng thực tế cần được nhắc đi nhắc lại rằng ưu tiên quan trọng nhất là phát triển AI vì nhân loại. Có nguy cơ các hệ thống này trở nên cực kỳ thông minh và vượt khỏi tầm kiểm soát, nên chúng ta phải thiết kế để điều đó không xảy ra. Điều đó đòi hỏi một tinh thần nhân bản, đặt con người ở vị trí tối cao”, chuyên gia AI người Anh 41 tuổi nhấn mạnh.

Tranh luận về siêu trí tuệ

Bình luận của Mustafa Suleyman được đưa ra trong bối cảnh một số lãnh đạo công nghệ đang công khai nói về việc xây dựng siêu AI, thậm chí cho rằng nó có thể xuất hiện ngay trong thập kỷ này.

Sam Altman, Giám đốc điều hành OpenAI, nhiều lần mô tả AGI, loại AI tổng quát có khả năng suy luận như con người, là sứ mệnh cốt lõi của công ty. Doanh nhân 40 tuổi người Mỹ nói đầu năm nay rằng OpenAI thậm chí đang hướng tới siêu trí tuệ, vượt ra ngoài AGI.

“Các công cụ siêu trí tuệ có thể thúc đẩy mạnh mẽ tốc độ khám phá khoa học và đổi mới, vượt xa những gì con người có thể tự làm, từ đó tạo ra sự dư dả và thịnh vượng lớn hơn”, Sam Altman nói vào tháng 1.

Trong cuộc phỏng vấn hồi tháng 9, Giám đốc điều hành OpenAI cho biết ông sẽ “rất ngạc nhiên nếu siêu trí tuệ không xuất hiện vào năm 2030”.

Demis Hassabis, đồng sáng lập và Giám đốc điều hành Google DeepMind, cũng đưa ra mốc thời gian tương tự. Ông nói vào tháng 4 rằng có thể đạt được AGI “trong 5 đến 10 năm tới”.

“Chúng ta sẽ có một hệ thống thực sự hiểu mọi thứ xung quanh bạn theo cách rất tinh tế, sâu sắc và được tích hợp vào cuộc sống hằng ngày”, Demis Hassabis nhận định.

Demis Hassabis cho rằng sẽ AGI sẽ xuất hiện trong 5 đến 10 năm tới - Ảnh: Getty Images

Demis Hassabis cho rằng sẽ AGI sẽ xuất hiện trong 5 đến 10 năm tới - Ảnh: Getty Images

Tuy nhiên, một số chuyên gia AI khác lại bày tỏ sự hoài nghi. Yann LeCun, nhà khoa học trưởng về AI của Meta Platforms, cho rằng chúng ta có thể còn “hàng thập kỷ” nữa mới đạt được AGI.

“Hầu hết vấn đề thú vị đều có khả năng mở rộng rất tệ. Bạn không thể chỉ đơn giản cho rằng thêm dữ liệu và sức mạnh điện toán thì sẽ tạo ra AI thông minh hơn”, Yann LeCun nói tại Đại học Quốc gia Singapore hồi tháng 4.

Tuần qua, trang FT đưa tin Yann LeCun sắp rời Meta Platforms khi Mark Zuckerberg đang thay đổi chiến lược AI của mình để thách thức OpenAI và Google trong việc phát triển các dạng AI mạnh mẽ hơn.

Tỷ phú 41 tuổi người Mỹ đã chuyển hướng khỏi các nghiên cứu dài hạn tại Phòng Nghiên cứu AI Cơ bản (FAIR) của Meta Platforms, nơi Yann LeCun dẫn đầu từ năm 2013, để tập trung triển khai nhanh hơn các mô hình và sản phẩm AI tiên tiến, sau khi nhận thấy công ty đang tụt hậu so với các đối thủ.

Mark Zuckerberg chuyển hướng sau khi mô hình ngôn ngữ lớn Llama 4 mới nhất của Meta Platforms gây thất vọng, hoạt động kém hơn so với các sản phẩm tiên tiến nhất của Google, OpenAI và Anthropic, trong khi chatbot Meta AI chưa gây tiếng vang như ChatGPT hay Gemini.

Tuy nhiên, Yann LeCun từ lâu đã lập luận rằng các mô hình ngôn ngữ lớn mà Mark Zuckerberg đặt vào trung tâm chiến lược AI sẽ không bao giờ có khả năng suy luận và lập kế hoạch như con người. Quan điểm này của Yann LeCun mâu thuẫn với tầm nhìn về AI của sếp mình.

Hơn 850 người nổi tiếng kêu gọi cấm phát triển siêu AI

Cuối tháng 10, hơn 850 người, trong đó có các doanh nhân công nghệ như Steve Wozniak (đồng sáng lập Apple) và Richard Branson (nhà sáng lập Virgin Group), đã ký vào bản tuyên bố, kêu gọi tạm dừng phát triển siêu trí tuệ.

Danh sách người ký còn có nhiều huyền thoại trong lĩnh vực AI như Yoshua Bengio và Geoff Hinton, hai nhà khoa học máy tính được mệnh danh là “cha đẻ của AI hiện đại”.

Stuart Russell, chuyên gia hàng đầu về AI tại Đại học California – Berkeley (Mỹ), cũng góp tên.

Siêu trí tuệ đã trở thành từ khóa nóng trong giới AI, khi các công ty như Google, OpenAI và xAI của Elon Musk đang cạnh tranh để tung ra những mô hình ngôn ngữ lớn ngày càng tiên tiến hơn. Đáng chú ý, Meta Platforms thậm chí còn đặt tên cho bộ phận phát triển mô hình AI của mình là Meta Superintelligence Labs.

Các tác giả của bản tuyên bố cảnh báo rằng viễn cảnh xuất hiện siêu trí tuệ “gây ra nhiều lo ngại, từ nguy cơ con người bị thay thế về mặt kinh tế, mất quyền tự chủ, mất tự do, phẩm giá và kiểm soát, cho đến các rủi ro về an ninh quốc gia và thậm chí là nguy cơ tuyệt chủng của loài người”.

Bản tuyên bố kêu gọi cấm phát triển siêu trí tuệ cho đến khi nhận được sự ủng hộ mạnh mẽ của công chúng và đạt được đồng thuận khoa học rằng có thể xây dựng và kiểm soát công nghệ này một cách an toàn.

Ngoài giới công nghệ, những người ký tên còn đến từ nhiều lĩnh vực khác nhau, gồm giới học thuật, truyền thông, tôn giáo, nhóm các chính trị gia lưỡng đảng và quan chức Mỹ đã nghỉ hưu. Trong số đó có Mike Mullen (cựu Chủ tịch Hội đồng Tham mưu trưởng Liên quân Mỹ) và Susan Rice (cựu Cố vấn An ninh Quốc gia Mỹ).

Hai nhân vật truyền thông nổi tiếng ủng hộ Tổng thống Mỹ Donald Trump là Steve Bannon và Glenn Beck cũng xuất hiện trong danh sách. Các nhân vật nổi bật khác ký tên có Mary Robinson (cựu Tổng thống Ireland), Hoàng tử Harry và vợ là Meghan Markle.

Giới công nghệ hiện chia thành hai phe rõ rệt:

- Một bên xem AI là động lực mạnh mẽ cho điều tốt đẹp, cần được phát triển không giới hạn.

- Bên còn lại cho rằng AI ẩn chứa nhiều nguy hiểm và cần được kiểm soát chặt chẽ hơn.

Song như trang web Statement on Superintelligence (Tuyên bố về Siêu trí tuệ) lưu ý, ngay cả các lãnh đạo hàng đầu trong ngành AI như Elon Musk và Sam Altman cũng từng cảnh báo về mối nguy của siêu trí tuệ.

Trước khi trở thành Giám đốc điều hành OpenAI, Sam Altman từng viết trong một bài blog năm 2015 rằng “việc phát triển trí tuệ máy siêu phàm (SMI) có lẽ là mối đe dọa lớn nhất với sự tồn tại của nhân loại”.

Trong khi đó, Elon Musk phát biểu trên một podcast đầu năm nay rằng “có 20% khả năng nhân loại bị diệt vong” khi nói về rủi ro AI vượt qua trí tuệ con người.

Bản tuyên bố cũng dẫn một khảo sát gần đây của Viện Tương lai Sự sống (Future of Life Institute) cho thấy chỉ 5% người Mỹ trưởng thành ủng hộ việc phát triển siêu trí tuệ theo hướng “nhanh và không kiểm soát”.

Khảo sát với 2.000 người Mỹ còn phát hiện đa số cho rằng không nên tạo ra siêu AI cho đến khi chứng minh là an toàn và có thể kiểm soát, đồng thời kêu gọi thiết lập quy định nghiêm ngặt hơn với AI tiên tiến.

Nhà khoa học máy tính Yoshua Bengio cho biết các hệ thống AI có thể vượt qua phần lớn con người trong đa số nhiệm vụ nhận thức chỉ vài năm tới. Ông nói rằng, dù những tiến bộ này có thể giúp giải quyết các vấn đề toàn cầu nhưng cũng tiềm ẩn rủi ro cực lớn.

“Để tiến gần đến siêu trí tuệ một cách an toàn, chúng ta phải xác định được cách thiết kế các hệ thống AI về bản chất không thể gây hại cho con người, dù là do sai lệch mục tiêu hay bị lợi dụng ác ý. Chúng ta cũng cần đảm bảo công chúng có tiếng nói mạnh mẽ hơn nhiều trong việc đưa ra các quyết định sẽ định hình tương lai chung của nhân loại”, Yoshua Bengio tuyên bố.

Yoshua Bengio và Geoffrey Hinton cùng với Yann LeCun được mệnh danh là “cha đẻ AI” vì tiên phong trong lĩnh vực mạng nơ-ron nhân tạo, mô hình tính toán được lấy cảm hứng từ cấu trúc và chức năng của hệ thần kinh sinh học, đặc biệt là bộ não con người. Nghiên cứu của họ đã tạo ra bước ngoặt mang tính nền tảng, mở đường cho công nghệ học máy ngày nay.

Năm 2024, Geoffrey Hinton giành Giải Nobel Vật lý cùng với John J. Hopfield thuộc Đại học Princeton vì những khám phá và phát minh cơ bản giúp việc học máy với các mạng nơ-ron nhân tạo.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/ceo-microsoft-ai-sieu-ai-khong-dem-den-vien-canh-tich-cuc-nao-rat-kho-kiem-soat-241157.html