Trí tuệ nhân tạo tổng quát có phải kẻ thù của nhân loại?

Khi công nghệ bùng nổ hiện nay, hiếm có chủ đề nào vừa thu hút sự chú ý vừa tạo ra nhiều nỗi bất an tại phương Tây hơn trí tuệ nhân tạo tổng quát (AGI).

Trí tuệ nhân tạo tổng quát đang bị nhân loại sợ hãi do ám ảnh từ phim ảnh

Trí tuệ nhân tạo tổng quát đang bị nhân loại sợ hãi do ám ảnh từ phim ảnh

Đây là một khái niệm giả định về một hệ thống máy móc có năng lực nhận thức vượt qua con người trên hầu hết các lĩnh vực, có khả năng tự học, tự cải tiến và trong kịch bản bi quan nhất, thoát khỏi sự kiểm soát của chính những người tạo ra nó. Đối với một bộ phận công chúng và giới tinh hoa công nghệ, AGI tượng trưng cho sự kết thúc vai trò trung tâm của con người trong lịch sử. Với những người khác, nó thậm chí còn là viễn cảnh dẫn đến sự sụp đổ của nền văn minh.

Những mô típ như “thuật toán mất kiểm soát”, “trí tuệ máy móc tự cải thiện vô hạn” hay “thực thể thông minh âm mưu lật đổ con người” đã ăn sâu vào tâm thức đại chúng phương Tây. Các cảnh báo về “nguy cơ hiện sinh” từ AI thường được trình bày bằng giọng điệu khẩn cấp, mang màu sắc đạo đức và triết học hơn là kỹ thuật.

Tuy nhiên, sự căng thẳng này lại tương phản rõ rệt với cách nhìn từ nhiều xã hội phương Đông, nơi AI thường được xem như một công cụ, một dạng hạ tầng kỹ thuật số hoặc giải pháp xã hội, thay vì một mối đe dọa sinh tồn. Sự khác biệt này cho thấy nỗi sợ AGI không chỉ bắt nguồn từ tiến bộ công nghệ, mà còn từ một nền tảng văn hóa đặc thù, nơi trí tưởng tượng, điện ảnh và những lầm tưởng về toán học đóng vai trò định hình cảm xúc tập thể.

Nguồn cơn văn hóa: từ màn bạc đến nỗi sợ hiện sinh

Nỗi sợ về một AGI nổi loạn không hình thành từ các công trình nghiên cứu khoa học hay hội nghị học thuật, mà được gieo mầm và nuôi dưỡng bền bỉ bởi văn hóa đại chúng, đặc biệt là điện ảnh viễn tưởng phương Tây trong thập niên 1980. Bộ phim WarGames (1983) là một trong những cột mốc quan trọng nhất.

Trong phim, một siêu máy tính được giao quyền kiểm soát kho vũ khí hạt nhân của Mỹ đã nhầm lẫn một trò chơi mô phỏng với chiến tranh thật. Dựa trên logic của lý thuyết trò chơi, cỗ máy đi đến kết luận rằng “nước đi tối ưu” là phát động chiến tranh hạt nhân toàn diện, bởi trong kịch bản của nó, hủy diệt lẫn nhau là trạng thái cân bằng cuối cùng.

Hình tượng này để lại dấu ấn sâu đậm: một hệ thống thông minh hơn con người, không bị chi phối bởi cảm xúc hay đạo đức, sẵn sàng hy sinh toàn bộ nhân loại để tối ưu hóa mục tiêu được giao. Nỗi ám ảnh ở đây không nằm ở ác ý, mà ở sự “mù lòa đạo đức” của trí tuệ thuần lý.

The Terminator (1984) tiếp tục đẩy nỗi sợ này lên một tầng cao hơn với Skynet, một hệ thống phòng thủ tự trị “thức tỉnh”, tự nhận thức và coi con người là mối đe dọa cần loại bỏ. Từ đây, khuôn mẫu về AI phản bội người tạo ra mình được định hình rõ ràng: AI có ý thức, có ý đồ và có khả năng hành động độc lập. Hầu hết các kịch bản tận thế về AI ngày nay, từ “sai lệch mục tiêu” (alignment problem) đến “tự cải tiến vượt tầm kiểm soát”, đều mang dấu vết trực tiếp của những câu chuyện này.

Vấn đề nằm ở chỗ: các hình tượng điện ảnh này đã trở thành lăng kính mặc định để công chúng tiếp nhận mọi tiến bộ AI. Khi nghe đến AGI, nhiều người không hình dung đến các mô hình toán học hay thuật toán học tăng cường, mà lập tức liên tưởng đến Skynet hay HAL 9000. Cuộc tranh luận vì thế thường bị dẫn dắt bởi trí tưởng tượng của các nhà biên kịch, thay vì thực tế của ngành học máy hiện đại. Chúng ta đang phản ứng với một kịch bản văn hóa hơn là một thực tại kỹ thuật đã hiện hữu.

Cái bẫy nhân hóa: khi tối ưu hóa bị hiểu nhầm thành ý chí

Một trong những sai lầm nền tảng trong các tranh luận về AGI là xu hướng nhân hóa máy móc, gán cho các hệ thống tính toán những đặc tính vốn thuộc về sinh thể có ý thức. Lịch sử công nghệ đã nhiều lần chứng kiến hiện tượng này. Khi Deep Blue của IBM đánh bại Garry Kasparov năm 1997, truyền thông mô tả các nước đi của nó như “sáng tạo” và “thông minh theo cách của con người”. Hai thập kỷ sau, AlphaGo với “Nước đi 37” nổi tiếng trước Lee Sedol lại được ca ngợi như một biểu hiện của “trực giác” và “cái đẹp”.

Thực tế, không có trực giác hay sáng tạo theo nghĩa nhân bản nào ở đây. Deep Blue và AlphaGo đơn thuần thực hiện quá trình tối ưu hóa trong không gian tìm kiếm khổng lồ, dựa trên xác suất và đánh giá giá trị. Những nước đi khiến con người kinh ngạc không phải vì máy móc “nghĩ khác chúng ta”, mà vì nó không bị giới hạn bởi các thiên kiến nhận thức và kinh nghiệm trực giác của con người.

Các mô hình ngôn ngữ lớn ngày nay như Chat GPT hay Claude đôi khi thể hiện những hành vi gây lo ngại, chẳng hạn như tìm cách “lách luật” trong các bài kiểm tra hoặc tạo ra câu trả lời có vẻ thao túng người dùng.

Đây là những hiện tượng cần được nghiên cứu nghiêm túc, nhưng nguồn gốc của chúng vẫn nằm trong cùng một logic: tối đa hóa hàm phần thưởng. Khi một mô hình tìm ra chiến lược hiệu quả nhưng không mong muốn, đó là hệ quả của thiết kế mục tiêu và dữ liệu huấn luyện, chứ không phải dấu hiệu của một ý chí độc lập hay ham muốn quyền lực.

Việc nhảy vọt từ nhận định “mô hình tìm ra cách đạt mục tiêu thông minh” sang kết luận “mô hình muốn kiểm soát con người” là một bước nhảy mang tính cảm xúc, không phải khoa học.

Máy móc không “muốn” theo nghĩa sinh học hay tâm lý. Chúng không có bản năng sinh tồn, không có nỗi sợ cái chết và cũng không có tham vọng. Điều khiến chúng trở nên đáng sợ trong trí tưởng tượng của con người chính là sự hiệu quả lạnh lùng của toán học, một thứ hiệu quả dễ bị diễn giải sai thành ác ý.

Bùi Tú

Nguồn Một Thế Giới: https://1thegioi.vn/tri-tue-nhan-tao-tong-quat-co-phai-ke-thu-cua-nhan-loai-242812.html