Trí tuệ nhân tạo tổng quát: Gần kề đột phá hay chỉ là ảo tưởng công nghệ?

Tranh luận về trí tuệ nhân tạo tổng quát (AGI) đang chia giới công nghệ thành hai quan điểm đối lập: một bên cho rằng AGI đã ở rất gần, bên còn lại cảnh báo đây vẫn là một giả định chưa đủ vững chắc về bản chất trí tuệ nhân tạo.

Trong nhiều năm qua, quy luật mở rộng quy mô đã trở thành nền tảng cho sự phát triển của AI hiện đại.

Trong nhiều năm qua, quy luật mở rộng quy mô đã trở thành nền tảng cho sự phát triển của AI hiện đại.

Cuộc tranh luận này phản ánh khác biệt sâu sắc trong cách nhìn về tương lai trí tuệ nhân tạo.

AGI đang đến gần?

Ông Greg Brockman, đồng sáng lập kiêm Chủ tịch của OpenAI, là một trong những tiếng nói lạc quan về triển vọng của AGI. Trong một phát biểu, ông cho rằng nhân loại đã đi được khoảng 70-80% chặng đường hướng tới AGI.

Theo ông Brockman, định nghĩa thực tiễn của AGI không nhất thiết phải là một hệ thống có ý thức như con người, mà là trí tuệ nhân tạo (AI) có khả năng thực hiện “hầu hết các nhiệm vụ trí tuệ mà con người sử dụng máy tính”.

Với cách tiếp cận này, các mô hình hiện đại đã đạt được những bước tiến đáng kể: không chỉ viết mã, phân tích dữ liệu, tạo nội dung mà còn bắt đầu hỗ trợ các hoạt động nghiên cứu phức tạp. Ông Greg Brockman dẫn chứng trường hợp một nhà vật lý mất nhiều năm nghiên cứu một bài toán khó, nhưng khi đưa vào mô hình AI mới, chỉ sau 12 giờ đã thu được lời giải.

Dù chưa được kiểm chứng rộng rãi, ví dụ này phần nào phản ánh xu hướng: AI đang dần vượt khỏi vai trò công cụ hỗ trợ để tiến gần hơn tới vị thế một “đối tác trí tuệ”. Chủ tịch của OpenAI cũng nhấn mạnh yếu tố “đột phá phi tuyến” trong tiến trình phát triển AI. Theo đó, tiến bộ không diễn ra theo đường thẳng, mà tích lũy dần trong thời gian dài trước khi xuất hiện những bước nhảy vọt về năng lực.

Cùng quan điểm, ông Jensen Huang, Giám đốc điều hành của NVIDIA, thậm chí cho rằng AGI - theo một số định nghĩa nhất định - đã được hiện thực hóa. Tuy nhiên, cách hiểu của ông mang tính thực dụng hơn, khi xem một tác nhân AI có khả năng tạo ra các ứng dụng lan truyền nhanh, đạt giá trị hàng tỷ USD là một dạng biểu hiện của AGI. Dẫu vậy, Giám đốc điều hành của NVIDIA cũng thừa nhận việc AI có thể tự xây dựng và vận hành một công ty phức tạp như NVIDIA vẫn là điều khó xảy ra trong tương lai gần.

Những quan điểm này phản ánh niềm tin mạnh mẽ vào “quy luật mở rộng quy mô” (scaling laws) - giả thuyết cho rằng việc gia tăng dữ liệu huấn luyện và năng lực tính toán sẽ tiếp tục cải thiện năng lực trí tuệ của mô hình một cách ổn định và có thể dự đoán.

Một nền tảng sai lầm?

Đối lập với quan điểm lạc quan, Gary Marcus - nhà khoa học nhận thức và giáo sư danh dự tại New York University - là một trong những tiếng nói phê bình kiên định đối với các mô hình ngôn ngữ lớn (LLM). Ông cho rằng cách tiếp cận hiện nay đối với AGI có thể đang dựa trên một tiền đề chưa vững chắc.

Theo ông, các mô hình ngôn ngữ lớn không thực sự “hiểu” thế giới, mà chủ yếu hoạt động như các hệ thống dự đoán chuỗi ký tự dựa trên dữ liệu đã được huấn luyện. Thành công của chúng, ở một mức độ nhất định, còn đến từ hiệu ứng tâm lý khi con người có xu hướng gán cho máy móc những đặc tính giống với trí tuệ con người.

Giáo sư danh dự tại New York University cảnh báo rằng xã hội đang đặt một “canh bạc nghìn tỷ USD” vào giả định AGI đang ở rất gần, trong khi nền tảng khoa học của giả định này vẫn còn gây tranh cãi.

Gary Marcus so sánh “quy luật mở rộng quy mô” (scaling laws) với Định luật Moore - một xu hướng từng được xem là gần như bất biến, nhưng đã chậm lại khi chạm tới các giới hạn vật lý. Theo ông, việc chỉ tiếp tục gia tăng dữ liệu và năng lực tính toán khó có thể giải quyết những thách thức cốt lõi của AI, như năng lực suy luận, hiểu ngữ cảnh ở mức sâu hay khả năng thích nghi với các tình huống hoàn toàn mới.

Ông Marcus cũng chỉ ra rằng những hạn chế của các mô hình hiện đại không phải là hiện tượng cá biệt, mà phản ánh vấn đề mang tính cấu trúc. Khi đối mặt với các tình huống nằm ngoài phạm vi dữ liệu huấn luyện, các hệ thống này có thể mắc lỗi nghiêm trọng - từ việc tạo ra thông tin sai lệch đến đề xuất các phương án thiếu an toàn - cho thấy khoảng cách đáng kể giữa năng lực hiện tại và mục tiêu đạt tới trí tuệ nhân tạo tổng quát.

Một số quan điểm cho rằng, nhân loại đã đạt được khoảng 70 - 80% chặng đường hướng tới trí tuệ nhân tạo tổng quát.

Một số quan điểm cho rằng, nhân loại đã đạt được khoảng 70 - 80% chặng đường hướng tới trí tuệ nhân tạo tổng quát.

Nghịch lý của AI hiện đại

Một điểm đáng chú ý là ngay cả những nhà lãnh đạo có quan điểm lạc quan như ông Greg Brockman cũng thừa nhận sự “không đồng đều” trong năng lực của các hệ thống AI hiện nay.

Các mô hình có thể đạt hiệu suất vượt trội trong những nhiệm vụ có tính cấu trúc cao như lập trình, phân tích dữ liệu hay giải toán, nhưng lại bộc lộ hạn chế ở những tác vụ tưởng chừng đơn giản đối với con người. Nghịch lý này đặt ra một câu hỏi trung tâm: liệu cộng đồng công nghệ đang đánh đồng “năng lực chuyên biệt ở mức cao” với “trí tuệ tổng quát” hay không?

Sự thiếu đồng nhất này cũng phản ánh bản chất hoạt động của các mô hình hiện tại: chúng không dựa trên một cơ chế hiểu biết thống nhất, mà chủ yếu vận hành thông qua các mẫu thống kê rút ra từ dữ liệu huấn luyện. Điều này dẫn đến hiện tượng thiếu ổn định khi đối mặt với các tình huống mới hoặc ngoài phân phối, khiến hành vi của hệ thống khó dự đoán trong nhiều bối cảnh thực tế.

Tranh luận lớn nhất hiện nay trong lĩnh vực AI xoay quanh kiến trúc tương lai của AGI. Phía OpenAI và ông Brockman theo đuổi hướng tiếp cận mô hình nền tảng thống nhất (foundation model unified architecture), trong đó một hệ thống duy nhất có thể xử lý đa phương thức dữ liệu như văn bản, hình ảnh và âm thanh.

Theo cách tiếp cận này, các năng lực khác nhau chỉ là những “chế độ vận hành” của cùng một mô hình nền tảng, có thể được mở rộng và tối ưu hóa liên tục, mang lại lợi thế về khả năng tổng quát hóa và hiệu quả triển khai.

Ngược lại, Gary Marcus phản đối quan điểm trên, cho rằng trí tuệ con người mang tính mô-đun, bao gồm nhiều hệ thống chuyên biệt phối hợp với nhau thay vì một cấu trúc đơn nhất. Từ lập luận đó, ông đề xuất hướng tiếp cận lai (hybrid AI), kết hợp giữa học sâu, logic biểu tượng và các mô-đun chuyên dụng.

Một ví dụ thường được ông nhắc tới là AlphaFold 3, một hệ thống không mang tính “tổng quát” nhưng lại đạt hiệu quả vượt trội trong dự đoán cấu trúc protein, qua đó cho thấy giá trị thực tiễn của các hệ thống chuyên biệt trong khoa học và ứng dụng.

Trong nhiều năm qua, quy luật mở rộng quy mô (scaling laws) đã trở thành nền tảng quan trọng của sự phát triển AI hiện đại. Nguyên lý cốt lõi khá đơn giản: càng nhiều dữ liệu và năng lực tính toán, mô hình càng có xu hướng hoạt động tốt hơn.

Thực tế đã củng cố giả định này trong một giai đoạn dài, khi các mô hình ngày càng lớn thường đạt hiệu suất vượt trội, qua đó thúc đẩy làn sóng đầu tư mạnh mẽ vào hạ tầng tính toán, trung tâm dữ liệu và thu thập dữ liệu quy mô lớn.

Tuy nhiên, Gary Marcus cùng một số nhà nghiên cứu khác cho rằng xu hướng này đang dần tiệm cận giới hạn. Theo họ, mức cải thiện từ việc gia tăng quy mô không còn tương xứng với tốc độ tăng chi phí tính toán và năng lượng, cho thấy dấu hiệu của một đường cong lợi ích suy giảm trong phát triển mô hình.

Đáng chú ý, ngay cả một số tiếng nói từng ủng hộ mạnh mẽ hướng tiếp cận này cũng bắt đầu điều chỉnh quan điểm. Ông Richard Sutton - tác giả bài luận nổi tiếng “The Bitter Lesson” - gần đây thừa nhận rằng các mô hình ngôn ngữ lớn có thể không phải là con đường duy nhất, và cũng không chắc là con đường tối ưu để tiến tới trí tuệ nhân tạo tổng quát (AGI).

Trong bối cảnh đó, câu hỏi về bản chất và mục tiêu của AGI ngày càng được đặt ra rõ ràng hơn. Với những người như ông Greg Brockman, AGI là một bước tiến tự nhiên của công nghệ, nơi AI có thể hỗ trợ con người trên phạm vi rộng các lĩnh vực và góp phần giải quyết những thách thức lớn của nhân loại.

Ngược lại, Gary Marcus cho rằng việc tập trung quá mức vào AGI có thể dẫn đến lệch hướng nghiên cứu. Theo ông, thay vì theo đuổi một hệ thống “làm được mọi thứ”, hướng đi hợp lý hơn là phát triển các mô hình AI chuyên biệt, được tối ưu hóa cho từng nhiệm vụ cụ thể.

Quan điểm này không chỉ mang tính lý thuyết mà còn có cơ sở thực tiễn, khi nhiều hệ thống AI hiệu quả nhất hiện nay - từ thị giác máy tính đến dự đoán cấu trúc protein - đều là các giải pháp chuyên dụng, thay vì mang tính tổng quát.

Tương lai nào cho trí tuệ nhân tạo?

Hiện tại, chưa có câu trả lời dứt khoát cho câu hỏi liệu AGI có sớm xuất hiện hay không. Tuy nhiên, giữa các quan điểm đối lập vẫn tồn tại một số điểm đồng thuận quan trọng. Trước hết, AI đã đạt được những bước tiến vượt bậc trong thời gian rất ngắn. Nhiều năng lực từng được xem là “bất khả thi” cách đây một thập kỷ nay đã trở thành hiện thực trong các hệ thống thương mại và nghiên cứu.

Bên cạnh đó, phần lớn ý kiến đều thừa nhận rằng các mô hình hiện tại vẫn tồn tại những giới hạn đáng kể, đặc biệt trong khả năng hiểu ngữ cảnh sâu, suy luận nhân quả và mô hình hóa thế giới thực một cách ổn định. Ngoài ra, ngày càng có nhiều nghi vấn cho rằng con đường tiến tới AGI không đơn thuần là mở rộng quy mô tính toán hay dữ liệu, mà có thể đòi hỏi những đột phá mới về kiến trúc mô hình và phương pháp tiếp cận.

Trong bối cảnh đó, cuộc tranh luận giữa nhóm lạc quan và hoài nghi không chỉ phản ánh sự khác biệt về quan điểm, mà còn trở thành động lực thúc đẩy tiến bộ khoa học. Sự va chạm giữa các hướng tiếp cận giúp lĩnh vực AI tự điều chỉnh, nhận diện sớm các giới hạn và tránh những kỳ vọng sai lệch có thể dẫn đến sai lầm chiến lược.

Cuối cùng, câu hỏi về AGI có thể được hình dung qua một phép ẩn dụ. Những người lạc quan như ông Greg Brockman cho rằng nhân loại đang leo lên một ngọn núi và đã tiến gần đến đỉnh. Trong khi đó, Gary Marcus lại cảnh báo rằng có thể chúng ta đang leo nhầm ngọn núi ngay từ đầu.

Sự thật nhiều khả năng nằm ở khoảng giữa hai cực đó: AGI không còn là một khái niệm xa vời mang tính viễn tưởng, nhưng cũng chưa phải là một đích đến chắc chắn. Điều rõ ràng là hành trình phát triển AI vẫn còn nhiều biến số, và những lựa chọn công nghệ hôm nay sẽ định hình sâu sắc quỹ đạo trí tuệ nhân tạo trong nhiều thập kỷ tới.

Trong những năm gần đây, trí tuệ nhân tạo tổng quát (Artificial General Intelligence - AGI) trở thành một trong những chủ đề gây tranh cãi sôi nổi nhất trong giới công nghệ. Tùy thuộc vào việc bạn hỏi ai - một nhà sáng lập tại Thung lũng Silicon, một CEO công nghệ hàng đầu hay một nhà khoa học nhận thức - câu trả lời về AGI có thể hoàn toàn khác nhau.

Với một số người, AGI gần như đã trong tầm tay; nhưng với những người khác, nó vẫn là một khái niệm bị hiểu sai ngay từ nền tảng. Sự phân hóa quan điểm này không chỉ phản ánh khác biệt trong cách định nghĩa trí tuệ, mà còn cho thấy những bất đồng sâu sắc về hướng đi của toàn bộ ngành AI - một lĩnh vực đang thu hút hàng nghìn tỷ USD đầu tư và có tiềm năng định hình tương lai của lao động, khoa học và xã hội.

Theo Rdworldonline

Sinh Phúc

Nguồn GD&TĐ: https://giaoducthoidai.vn/tri-tue-nhan-tao-tong-quat-gan-ke-dot-pha-hay-chi-la-ao-tuong-cong-nghe-post777661.html