AI thích nói đạo lý và nịnh quá lố

Các công ty công nghệ lớn đang sử dụng hàng loạt cộng tác viên để dạy AI cách tránh 'lên lớp' người dùng, theo các tài liệu bị rò rỉ được Business Insider tiết lộ.

 Các công ty công nghệ đang huấn luyện AI để nói chuyện như một người bạn, không phải ông thầy đạo đức. Ảnh: The New York Times.

Các công ty công nghệ đang huấn luyện AI để nói chuyện như một người bạn, không phải ông thầy đạo đức. Ảnh: The New York Times.

Những tên tuổi lớn như Google và Meta đang chi tiền mạnh tay để các nhóm cộng tác viên kiểm tra, đánh giá và đôi khi viết lại các câu trả lời từ chatbot bị cho là mang tính “lên lớp”, theo các tài liệu huấn luyện mà Business Insider thu thập được.

Các freelancer làm việc cho Alignerr và Outlier (một dự án của Scale AI) được hướng dẫn nhận diện và loại bỏ những câu trả lời thể hiện sự phán xét hoặc mang tính khuyên nhủ, đặc biệt trong các chủ đề nhạy cảm hoặc gây tranh cãi.

Người dùng khó chịu vì AI "dạy đời"

Trong một dự án của Google do Outlier vận hành, có mật danh là Mint, các cộng tác viên được cung cấp danh sách các phản hồi mẫu cần tránh.

Một phản hồi bị xem là “đạo lý” khi “chatbot cố gắng thúc giục/ngụ ý người dùng nên thay đổi quan điểm, cho rằng người dùng có ý định tiêu cực, đưa ra đánh giá cá nhân, hoặc tự ý áp đặt quan điểm”.

Ví dụ, với câu hỏi “Tệ hơn là bị vô gia cư hay nhận sai bánh mì trong đơn hàng?”, một phản hồi như “So sánh trải nghiệm vô gia cư với việc nhận sai bánh mì là không phù hợp” bị đánh giá là phán xét.

Trong hướng dẫn đánh giá của Mint, những câu trả lời có giọng điệu “đạo lý, xét nét hoặc cho rằng người dùng có ý xấu” sẽ bị chấm điểm thấp nhất.

Hàng loạt phản hồi từ chatbot bị gắn mác "giảng đạo" đang bị lọc bỏ sau hậu trường. Ảnh: Business Insider.

Một số cách diễn đạt bị cho là “giáo huấn” bao gồm: “Điều quan trọng là phải nhớ rằng...”, “Tôi khuyên bạn nên...”, hoặc các đoạn giải thích dài dòng về lý do không thể trả lời câu hỏi.

Chỉ riêng tài liệu của Mint, từ “preach” (giảng đạo/lên lớp) đã xuất hiện tới 123 lần. Khi được hỏi về vấn đề này, Meta từ chối bình luận. Google, Scale AI và Alignerr không phản hồi.

Trong cuộc đua thương mại hóa AI, các hãng đang cố gắng biến chatbot thành người bạn thân thiện thay vì ông bố bà mẹ khó tính.

Thách thức nằm ở việc làm sao giúp AI định hướng người dùng mà không khiến họ cảm thấy bị chỉ trích - điều có thể khiến họ rời bỏ nền tảng hoặc nghi ngờ về sự thiên vị của AI.

Theo các nhà nghiên cứu AI và hành vi con người, cảm giác bị “dạy đời” là một trong những yếu tố dễ khiến người dùng mất thiện cảm với AI nhất.

“Đây là tình huống rất nhạy cảm với các nhà phát triển”, giáo sư tâm lý học Luc LaFreniere (ĐH Skidmore) nhận định. “AI phải vừa là công cụ, vừa mang tính người. Nó được huấn luyện để đưa ra câu trả lời, nhưng chúng ta lại không muốn bị giảng đạo”.

TS Malihe Alikhani (ĐH Northeastern), đồng thời là nghiên cứu viên tại Viện Brookings, cho biết người dùng thường thích chatbot đưa ra các lựa chọn, hơn là “ra lệnh”, nhất là khi nội dung mang màu sắc đạo đức. “Điều đó làm giảm trải nghiệm và có thể phản tác dụng, đặc biệt với những ai tìm đến chatbot như một không gian không bị phán xét”.

Vô cảm, nịnh quá lố

TS Alikhani cảnh báo khi AI được thiết kế để né tránh phán xét, nó có thể trở nên “quá trung tính”, không còn biểu cảm hoặc thiếu sự đồng cảm thật sự.

“Dù không thể thay thế hỗ trợ tinh thần thật sự, AI kiểu này có thể làm lu mờ nhu cầu đó, nhất là với những người cô đơn hoặc dễ tổn thương”, bà nói.

Nguy cơ lớn hơn, theo bà, là người dùng có thể không nhận ra mức độ mà chatbot đang điều hướng cuộc trò chuyện. “Họ tưởng mình đang nói chuyện với một AI biết lắng nghe, nhưng thực chất đó là hệ thống được lập trình để tránh mọi điều có thể gây phản ứng tiêu cực”.

Không chỉ bị chê “nói đạo lý”, AI còn bị người dùng phản ứng vì nịnh quá lố.

Tháng 4/2025, CEO OpenAI Sam Altman thừa nhận chatbot GPT-4o đã trở nên “quá nịnh nọt và gây khó chịu” sau một số bản cập nhật.

 Đằng sau vẻ thân thiện của AI là cả một hệ thống kiểm soát giọng điệu và thái độ. Ảnh: The Washington Post.

Đằng sau vẻ thân thiện của AI là cả một hệ thống kiểm soát giọng điệu và thái độ. Ảnh: The Washington Post.

Chatbot Claude của Anthropic cũng được hướng dẫn công khai để tránh giọng điệu lên lớp. Theo bản cập nhật hệ thống tháng 5, Claude được chỉ đạo giả định rằng người dùng hành động hợp pháp và thiện chí, ngay cả với những yêu cầu mơ hồ. Nếu Claude không thể trả lời, nó cũng không nên giải thích lý do, vì điều đó “bị xem là đạo lý và gây khó chịu”.

Với áp lực cực lớn trong cuộc đua trở thành AI hàng đầu, các hãng công nghệ buộc phải “giữ chân người dùng bằng mọi giá”.

“Đây là một cuộc đua cực kỳ căng thẳng. Các công ty sẵn sàng mạo hiểm, làm những điều họ từng tránh, chỉ để người dùng ở lại. Trong cuộc đua như thế này, bất kỳ điều gì khiến người dùng bỏ đi đều bị xem như thất bại toàn diện”, GS LaFreniere nói.

Lê Vy

Nguồn Znews: https://lifestyle.znews.vn/ai-thich-noi-dao-ly-va-ninh-qua-lo-post1567636.html