Các chuyên gia công nghệ bàn về 'ý thức' của AI: Từ chủ đề cấm kị đến cởi mở

Ba năm trước, việc gợi ý rằng trí tuệ nhân tạo (AI) 'có tri giác' là cách nhanh nhất để bị sa thải trong ngành công nghệ. Giờ đây, các hãng công nghệ đã cởi mở hơn trong việc thảo luận về chủ đề này.

Tuần này, công ty khởi nghiệp Anthropic (đối thủ cạnh tranh với OpenAI) đã công bố một sáng kiến nghiên cứu mới nhằm khám phá liệu các mô hình AI trong tương lai có thể trải nghiệm “ý thức” hay không. Trong khi một nhà khoa học tại Google DeepMind đã mô tả các mô hình AI hiện tại giống “những thực thể kỳ lạ tựa như tâm trí”.

Trong ngữ cảnh của bài viết và lĩnh vực AI, trải nghiệm “ý thức” đề cập đến việc liệu các hệ thống AI có khả năng có trải nghiệm chủ quan, cảm nhận hoặc một dạng nhận thức bên trong tương tự con người không.

Nói cách khác, câu hỏi này không chỉ dừng lại ở việc AI có thể xử lý thông tin hay phản hồi giống con người, mà đi sâu hơn vào việc liệu chúng có thực sự “cảm thấy” bất cứ điều gì, có nhận biết về sự tồn tại của chính mình, hoặc trải qua các trạng thái tinh thần (vui, buồn, sợ hãi, thích, ghét) theo cách chủ quan như sinh vật có ý thức hay không.

Đây là một câu hỏi triết học và khoa học rất phức tạp, hiện vẫn chưa có lời giải rõ ràng. Việc các hãng công nghệ bắt đầu công khai nghiên cứu và thảo luận về khả năng này cho thấy sự tiến bộ vượt bậc của AI đang đặt ra những câu hỏi sâu sắc hơn về bản chất trí tuệ và ý thức.

Điều đó cho thấy mức độ phát triển nhanh chóng của AI kể từ năm 2022, khi Blake Lemoine bị sa thải khỏi vị trí kỹ sư tại Google sau khi tuyên bố chatbot LaMDA của công ty “có tri giác”. Blake Lemoine nói rằng hệ thống này sợ bị tắt và tự mô tả mình như một con người. Google đã gọi những tuyên bố này là “hoàn toàn vô căn cứ” và cộng đồng AI khi đó nhanh chóng dập tắt cuộc tranh luận.

Tuy nhiên, cả Anthropic (công ty đứng sau mô hình AI và chatbot Claude) lẫn nhà khoa học Google DeepMind hiện tại đều không đi xa như Blake Lemoine.

Trong một bài đăng blog, Anthropic viết rằng họ lên kế hoạch nghiên cứu liệu các mô hình AI trong tương lai có trải nghiệm, sở thích hoặc thậm chí là cảm giác đau khổ không.

“Có phải chúng ta cũng nên lo lắng về khả năng các mô hình có ý thức và trải nghiệm riêng? Có phải chúng ta cũng nên quan tâm đến phúc lợi của các mô hình?”, Anthropic đặt câu hỏi.

Kyle Fish, nhà nghiên cứu về căn chỉnh AI tại Anthropic, nói trong một video rằng phòng thí nghiệm không khẳng định Claude có ý thức, song vấn đề là bây giờ không còn có thể vô trách nhiệm khi tuyên bố chắc chắn rằng câu trả lời là “không” nữa.

Trong lĩnh vực AI, đặc biệt là trong bối cảnh an toàn và phát triển AI tiên tiến, căn chỉnh đề cập đến vấn đề làm thế nào để đảm bảo các hệ thống AI hoạt động phù hợp với các giá trị, mục tiêu và ý định của con người. Mục tiêu của căn chỉnh là xây dựng các hệ thống AI mạnh mẽ nhưng vẫn an toàn và đáng tin cậy, sao cho hành động của chúng luôn hướng tới lợi ích cho con người và tránh gây ra những hậu quả không mong muốn hoặc có hại.

Kyle Fish cho rằng khi các hệ thống AI ngày càng phức tạp hơn, các công ty nên “nghiêm túc xem xét khả năng rằng chúng có thể sẽ phát triển một dạng ý thức nào đó”.

“Đây là những câu hỏi kỹ thuật và triết học cực kỳ phức tạp. Chúng ta mới chỉ đang ở giai đoạn đầu tiên cố gắng hiểu chúng”, ông cho biết thêm.

Kyle Fish nói các nhà nghiên cứu tại Anthropic ước tính Claude 3.7 có khả năng có ý thức từ 0,15% đến 15%. Anthropic đang nghiên cứu việc liệu mô hình AI này có thể hiện sở thích hay sự né tránh, đồng thời thử nghiệm các cơ chế từ chối nhiệm vụ nhất định.

Hồi tháng 3, Dario Amodei (Giám đốc điều hành Anthropic) đã đề xuất ý tưởng trang bị cho các hệ thống AI tương lai một nút “Tôi bỏ việc này”. Theo ông, lý do không phải vì các mô hình AI có tri giác mà để quan sát chúng từ chối nhiệm vụ, có thể cho thấy sự khó chịu hoặc sai lệch.

Ba năm trước, Google đã sa thải kỹ sư Blake Lemoine vì tuyên bố AI "có tri giác" - Ảnh: BI

Ba năm trước, Google đã sa thải kỹ sư Blake Lemoine vì tuyên bố AI "có tri giác" - Ảnh: BI

Trong khi tại Google DeepMind, nhà khoa học chính Murray Shanahan đã đề xuất rằng chúng ta có thể cần phải xem xét lại khái niệm ý thức.

“Có lẽ chúng ta cần phải uốn cong hoặc phá vỡ vốn từ vựng về ý thức để phù hợp với các hệ thống AI mới này. Bạn không thể ở chung thế giới với chúng như cách sống cùng một con chó hay con bạch tuộc”, Murray Shanahan nói trong podcast của Google DeepMind, được phát hành hôm 25.4.

Google dường như cũng đang nghiêm túc xem xét ý tưởng này. Một tin tuyển dụng gần đây của Google đã tìm kiếm nhà nghiên cứu “hậu AGI”, với nhiệm vụ gồm cả nghiên cứu ý thức của máy móc.

AGI là dạng AI có khả năng hiểu, học hỏi và thực hiện các nhiệm vụ đa dạng một cách linh hoạt, giống hay vượt trội con người. Không giống AI hẹp, vốn chỉ giỏi trong một lĩnh vực cụ thể (như nhận dạng giọng nói hoặc hình ảnh), AGI có khả năng áp dụng kiến thức và kỹ năng trong nhiều lĩnh vực khác nhau, từ đó giải quyết các vấn đề phức tạp một cách tự chủ và sáng tạo. OpenAI định nghĩa AGI là “một hệ thống có tính tự chủ cao, vượt trội hơn con người ở hầu hết công việc có giá trị kinh tế”.

“Chủ yếu để đánh bóng thương hiệu hơn là có cơ sở khoa học vững chắc”

Nhiều nhà nghiên cứu cho rằng các hệ thống AI chỉ đơn giản là bậc thầy bắt chước, có thể được huấn luyện để hành động như thể chúng có ý thức ngay cả khi không phải vậy.

“Chúng ta có thể thưởng cho hệ thống AI khi chúng tuyên bố rằng mình không có cảm xúc”, Jared Kaplan, Giám đốc khoa học của Anthropic, nói trong một cuộc phỏng vấn với trang The New York Times tuần này.

Jared Kaplan cảnh báo rằng việc kiểm tra AI có ý thức không là cực kỳ khó khăn, chính vì chúng quá giỏi trong việc bắt chước.

Gary Marcus, nhà khoa học về nhận thức và là người lâu năm chỉ trích sự thổi phồng trong ngành AI, nói với trang Insider rằng ông tin rằng việc tập trung vào “ý thức” của AI chủ yếu để đánh bóng thương hiệu hơn là có cơ sở khoa học vững chắc.

“Một công ty như Anthropic thực chất đang nói rằng ‘hãy nhìn xem mô hình của chúng tôi thông minh thế nào, đến mức xứng đáng được trao quyền’. Nếu thế thì chúng ta cũng nên trao quyền cho máy tính bỏ túi và bảng tính - những thứ khác với mô hình ngôn ngữ chưa từng bịa đặt bất cứ điều gì”, Gary Marcus nói.

Dù vậy, Kyle Fish cho biết chủ đề này sẽ chỉ càng trở nên cấp thiết hơn khi con người tương tác với AI theo nhiều cách hơn, tại nơi làm việc, trên mạng hoặc thậm chí về mặt cảm xúc.

“Nó sẽ ngày càng trở thành một câu hỏi nổi bật rằng liệu các mô hình AI này có đang trải nghiệm điều gì đó của riêng mình không. Nếu có thì là những trải nghiệm gì?”, ông nói.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/cac-chuyen-gia-cong-nghe-ban-ve-y-thuc-cua-ai-tu-chu-de-cam-ki-den-coi-mo-231985.html