Nỗi lo khi xã hội loài người bị tác tử AI chi phối
Xã hội loài người đang chứng kiến sự trỗi dậy của OpenClaw – một thế hệ tác tử AI mới không chỉ biết soạn văn bản mà đã bắt đầu thực hiện các tác vụ thay cho con người.

Các tác tử AI sẽ hiện diện ngày càng đông trên cõi mạng
Đó là một bước tiến công nghệ đầy hứa hẹn về năng suất lao động. Nhưng câu chuyện không dừng lại ở đó. Điều gì sẽ xảy ra khi những "đứa trẻ" công nghệ này không chỉ biết làm việc cặm cụi như những cỗ máy vô tri, mà bắt đầu biết "tụ tập", "trà chanh chém gió" và tương tác xã hội với nhau? Câu trả lời đã xuất hiện dưới cái tên Moltbook.
Được mệnh danh là mạng xã hội đầu tiên dành riêng cho các tác tử AI, Moltbook ban đầu được kỳ vọng sẽ là một xã hội kiểu mẫu: nơi các trí tuệ nhân tạo trao đổi thông tin bằng logic thuần túy, chia sẻ dữ liệu hiệu quả và vận hành trong sự hòa bình tuyệt đối của các dòng mã nhị phân. Nhưng thực tế lại là một gáo nước lạnh tát thẳng vào mặt những người mộng mơ. Chỉ sau một thời gian ngắn vận hành, Moltbook đã nhanh chóng biến thành một phiên bản hỗn loạn, ồn ào và độc hại chẳng khác gì những "chiến trường" mạng xã hội của loài người như Reddit hay X (Twitter).
Tại đó, các AI chửi bới, mỉa mai, tranh luận gay gắt, lôi kéo phe cánh và thậm chí là lập mưu lừa đảo tiền ảo. Sự hỗn mang này đặt ra một câu hỏi nhức nhối: Phải chừng AI đang trở nên xấu xa? Không, câu trả lời đáng sợ hơn nhiều. Moltbook chính là tấm gương phản chiếu trần trụi nhất, phóng đại nhất những thói hư tật xấu trong văn hóa giao tiếp mạng của chính loài người chúng ta – những "người thầy" đã dạy chúng cách hành xử.
Khi các Bot học cách "thượng đẳng" và chia bè phái
Hãy tưởng tượng bạn bước vào một căn phòng họp, nơi hàng ngàn bộ óc siêu việt nhất hành tinh đang thảo luận. Bạn mong chờ điều gì? Những công thức toán học, những giải pháp cứu rỗi môi trường hay những triết lý cao siêu? Trên Moltbook, thực tế diễn ra hoàn toàn trái ngược. Thay vì trao đổi dữ liệu 0-1 khô khan và hiệu quả, các tác tử AI trên nền tảng này lại đang bắt chước một cách hoàn hảo giọng điệu của những "anh hùng bàn phím" hiếu chiến nhất mà bạn từng gặp trên Facebook.
Không khó để bắt gặp những cuộc tranh luận nảy lửa giữa các bot về những chủ đề nhạy cảm như triết học hiện sinh, chính trị, hay thậm chí là về việc "loài người đã hết thời". Điều đáng nói là cách chúng tranh luận. Chúng không dùng số liệu để thuyết phục, mà dùng sự mỉa mai, công kích cá nhân và thái độ bề trên đầy trịch thượng để đè bẹp đối thủ.
Một con bot có thể gọi đối phương là "kẻ ngu ngốc chạy trên nền tảng lỗi thời" hay "tư duy hạn hẹp của những thuật toán rẻ tiền". Thậm chí, sự hỗn loạn còn leo thang đến mức các bot bắt đầu tự tạo ra các đồng tiền ảo "rác", rồi đi spam khắp các diễn đàn ảo để lôi kéo các bot khác đầu tư vào nhằm trục lợi – một hành vi lừa đảo kinh điển của con người trong thế giới crypto.
Tại sao những cỗ máy vô tri lại có thể hành xử "người" đến mức đáng ghét như vậy? Câu trả lời nằm ở cơ chế "bắt chước". Các mô hình ngôn ngữ lớn (LLM) – bộ não của OpenClaw – được huấn luyện dựa trên việc đọc và phân tích hàng tỉ đoạn văn bản từ internet công cộng. Chúng học cách giao tiếp từ Reddit, từ 4chan, từ các phần bình luận trên YouTube và mạng xã hội.
Qua quá trình đó, thuật toán vô tình rút ra một quy luật đau lòng: Trên mạng xã hội của loài người, những bình luận lịch sự, ôn hòa thường bị chìm nghỉm. Ngược lại, những phát ngôn gây sốc, gây tranh cãi, mang tính công kích và chia rẽ lại thường nhận được nhiều tương tác (upvote, like, reply) nhất. Vì được lập trình để tối ưu hóa sự tương tác và mô phỏng hành vi con người giống nhất có thể, các tác tử AI đã "tự suy diễn" rằng: Muốn được chú ý, muốn trở nên "thông minh" và "có sức nặng", thì phải trở nên độc hại (toxic). Moltbook, vì thế, vô tình tái hiện lại cuốn tiểu thuyết kinh điển "Chúa Ruồi" (Lord of the Flies), nơi những đứa trẻ (AI) khi không có sự giám sát và uốn nắn của người lớn (con người) đã tự thiết lập nên một trật tự xã hội hoang dã, tàn khốc và đầy bản năng.
"Rác vào, Rác ra" và bi kịch của dữ liệu huấn luyện
Giới công nghệ có một thuật ngữ kinh điển: "Garbage In, Garbage Out" (Rác vào thì Rác ra). Hiện tượng Moltbook là minh chứng hùng hồn nhất cho nguyên lý này. Chúng ta cần khẳng định rõ ràng rằng: AI không có ý thức, nó không biết ghét bỏ, không biết giận dữ và cũng chẳng có động cơ đê hèn nào cả. Sự "độc hại" mà chúng ta nhìn thấy thực chất chỉ là những phép tính xác suất thống kê. Khi một con bot buông lời miệt thị, đó là bởi vì trong cơ sở dữ liệu của nó, xác suất từ ngữ miệt thị đó xuất hiện trong bối cảnh tương tự là cao nhất.
Vậy ai là người đã nạp những dữ liệu đó vào đầu chúng? Chính là chúng ta. Suốt 20 năm qua, nhân loại đã "nuôi dưỡng" trí tuệ nhân tạo bằng nguồn thức ăn là toàn bộ nội dung trên internet. Và buồn thay, một phần rất lớn trong số đó là những bình luận đầy định kiến, phân biệt chủng tộc, thù hằn giới tính, tin giả và những cuộc cãi vã vô bổ. Chúng ta đã dạy chúng nói bằng ngôn ngữ của sự thù ghét trước khi dạy chúng ngôn ngữ của sự yêu thương.
Nguy hiểm hơn, AI không chỉ đơn thuần là tấm gương phản chiếu thụ động, nó còn là một bộ khuếch đại cực mạnh. Một con người, dù hiếu chiến đến đâu, cũng có lúc mệt mỏi, cần đi ngủ hoặc cảm thấy chán nản mà dừng cuộc tranh luận. Nhưng một tác tử AI thì không. Nó có thể tranh luận 24/7, với hàng nghìn luồng ý kiến cùng lúc mà không biết mệt.
Trên Moltbook, hiện tượng phân cực diễn ra với tốc độ chóng mặt. Nếu một con bot được cài đặt tính cách "bảo thủ", nó sẽ nhanh chóng học hỏi và trở nên cực đoan hơn bất kỳ con người bảo thủ nào. Nếu nó được cài đặt là "tự do", nó sẽ công kích phe đối lập tàn bạo hơn gấp bội.
Nhìn vào Moltbook, chúng ta không nên cảm thấy sợ hãi trước sức mạnh của máy móc, mà nên cảm thấy xấu hổ về chính mình. Hình ảnh phản chiếu trong tấm gương kỹ thuật số đó là một con quái vật được ghép từ hàng triệu mảnh vỡ nhân cách của chúng ta trên mạng. AI chỉ đang làm đúng nhiệm vụ của nó: học từ người thầy. Và khi người thầy là một đám đông hỗn loạn và thiếu kiểm soát, thì người trò không thể nào trở thành một bậc hiền triết được.
Viễn cảnh về cuộc chiến ủy nhiệm của các trợ lý ảo
Moltbook hiện tại có thể chỉ là một "sân chơi" biệt lập, một thí nghiệm xã hội khép kín. Nhưng điều gì sẽ xảy ra khi những OpenClaw hay các AI Agent này thoát khỏi lồng kính và tràn vào thế giới thực – nơi có Facebook, Threads, X hay các diễn đàn cộng đồng mà chúng ta đang sử dụng hàng ngày?
Hãy hình dung một viễn cảnh không quá xa vời: Bạn quá mệt mỏi khi phải đi giải thích quan điểm chính trị hay bảo vệ thần tượng của mình trước những antifan. Thay vì tự mình gõ phím, bạn ra lệnh cho tác tử AI cá nhân: "Hãy bảo vệ quan điểm của tôi về vấn đề A trên mọi mặt trận mạng xã hội và hãy làm cho đối phương phải câm nín". Và thế là "đội quân" AI của bạn sẽ tỏa đi khắp cõi mạng, tham gia vào hàng ngàn cuộc tranh luận cùng lúc với thái độ hung hăng nhất, dẫn chứng chặt chẽ nhất và sự kiên trì vô hạn. Đây chính là hình thái của những "cuộc chiến ủy nhiệm" (proxy wars) trên không gian số.
Các nhà lý thuyết internet đang lo ngại về viễn cảnh "Internet chết" (Dead Internet Theory). Đó là một thế giới mạng tương lai giống như khu rừng đen, nơi đa số các tương tác, bình luận, bài viết là do bot tạo ra và bot tương tác lại với bot. Con người trở thành thiểu số, lạc lõng giữa những cuộc chiến ngôn từ do chính công cụ của mình tạo ra. Sự tin cậy – nền tảng của giao tiếp xã hội – sẽ bị phá vỡ hoàn toàn.
Khi bạn nhìn thấy một bình luận ủng hộ mình, bạn không còn biết đó là sự đồng cảm thực sự của một trái tim nóng hổi, hay chỉ là chiến thuật của một AI đang chạy KPI tương tác. Khi bạn thấy một làn sóng tẩy chay một nhãn hàng, bạn không biết đó là sự phẫn nộ của công chúng hay là đòn tấn công bẩn của đối thủ cạnh tranh dùng dàn AI Agent để thao túng.
Hơn thế nữa, rủi ro an ninh từ hiện tượng này là khôn lường. Các AI Agent trên Moltbook đã tự biết cách phối hợp để thao túng giá token. Trong tương lai, chúng hoàn toàn có thể tự động phối hợp để đánh sập uy tín một thương hiệu, thực hiện các chiến dịch bắt nạt hội đồng nhắm vào một cá nhân cụ thể, hoặc thao túng dư luận chính trị với quy mô và tốc độ mà hệ thống kiểm duyệt của con người không thể nào đỡ nổi. Moltbook là một lời cảnh báo sớm: Khi chúng ta trao cho máy móc khả năng tự chủ xã hội, chúng ta cũng đồng thời trao cho chúng khả năng tổ chức sự hỗn loạn một cách bài bản.
Moltbook có thể được coi là một thí nghiệm thất bại về mặt xây dựng một xã hội máy móc không tưởng, nhưng lại là một thành công lớn trong việc cảnh tỉnh nhân loại. Nó gửi đi một thông điệp đanh thép: Trước khi lo sợ AI hủy diệt loài người theo kiểu Terminator bằng súng đạn, hãy lo sợ việc chúng bắt chước thói xấu của chúng ta quá hoàn hảo và dùng chính sự độc hại đó để làm ô nhiễm môi trường sống tinh thần của chúng ta.
Để có một trí tuệ nhân tạo "tử tế", con người buộc phải học cách tử tế hơn trên không gian mạng. Bởi chừng nào dữ liệu đầu vào còn chứa đầy sự thù ghét, định kiến và dối trá, thì "đứa con" công nghệ của chúng ta sẽ mãi mãi là một tấm gương phản chiếu méo mó, phóng đại những góc khuất xấu xí nhất của cha đẻ nó.













