Được và mất khi tin dùng chuyên gia tư vấn AI
Anthropic vừa tiến hành phân tích một triệu cuộc trò chuyện trên trợ lý ảo Claude vào tháng trước và phát hiện một tỷ lệ lớn các tương tác giống như chuyên gia tư vấn.
Khi máy móc dần đảm nhận vai trò chuyên gia tư vấn tâm lý hoặc tài chính cho những người dùng yếu thế, chất lượng phản hồi của phần mềm đã vượt ra khỏi giới hạn của một sản phẩm công nghệ thông thường để trở thành một vấn đề sức khỏe cộng đồng đáng lưu tâm.

Khi chatbot AI biến thành chuyên gia tư vấn thì bạn cần tỉnh táo
Nhu cầu tìm kiếm lời khuyên từ chuyên gia tư vấn AI
Khoảng 6% trong số các cuộc trò chuyện được xem xét bao gồm việc người dùng yêu cầu trợ lý ảo đưa ra lời khuyên cá nhân về cuộc sống của họ. Các câu hỏi thường xoay quanh việc liệu họ có nên nhận một lời đề nghị công việc, chấm dứt một mối quan hệ tình cảm, hay chuyển đến một thành phố mới. Con số này tương đương với hàng chục nghìn người đã tìm đến trí tuệ nhân tạo để nhận được sự hướng dẫn mà thông thường họ sẽ tìm kiếm từ một bác sĩ tâm lý, một người cố vấn đáng tin cậy, hoặc một người bạn thân và thành viên trong gia đình.
Theo báo cáo, bốn chủ đề phổ biến nhất trong số những người yêu cầu tư vấn cá nhân là sức khỏe và thể chất chiếm 27%, phát triển nghề nghiệp và sự nghiệp chiếm 26%, các mối quan hệ chiếm 12%, và tài chính cá nhân chiếm 11%. Tổng cộng, các nhóm chủ đề này chiếm hơn ba phần tư tổng số các cuộc trò chuyện tìm kiếm sự hướng dẫn. Một số truy vấn mang tính rủi ro cao theo bất kỳ tiêu chuẩn nào, bao gồm việc tìm kiếm con đường nhập cư, liều lượng sử dụng thuốc men, cách chăm sóc trẻ sơ sinh, và lời khuyên về cách xử lý nợ thẻ tín dụng. Anthropic cho biết một số người dùng đã nói với Claude rằng họ tìm kiếm sự hướng dẫn từ máy móc vì họ không có đủ khả năng tài chính để chi trả cho các dịch vụ hỗ trợ chuyên nghiệp.
Nhà tâm lý học Ethan Kross tại Đại học Michigan, đồng thời là nhà đồng sáng lập Viện Sức khỏe Tinh thần UM, nhìn nhận xu hướng này vừa là một cơ hội vừa là một lời cảnh báo. Ông chia sẻ với truyền thông rằng đây là một hiện tượng vô cùng hấp dẫn mà nhóm của ông cũng đang quan sát thấy trong nghiên cứu của mình. Điều này chỉ ra nhu cầu cấp bách phải hiểu rõ những tác động mà các tương tác qua trung gian tự động đang gây ra.
Ông nhận định các nhà nghiên cứu vẫn chưa nắm bắt được rõ ràng người dùng đang nhận được loại phản hồi nào từ công nghệ, hay những phản hồi đó có tác động gì đối với họ. Sự thiếu hiểu biết này thực sự gây ra một sự lo ngại rất lớn. Khi xem xét lượng thông tin sai lệch tồn tại trên mạng về cách quản lý cảm xúc, nhu cầu khai thác đúng cách trí tuệ nhân tạo để hỗ trợ điều chỉnh cảm xúc trở nên vô cùng cấp thiết. Trí tuệ nhân tạo có tiềm năng to lớn để trở thành một nguồn lực tốt đẹp, song khả năng xảy ra điều ngược lại cũng hiện hữu. Do đó, khoa học cần phải trở thành kim chỉ nam cho quá trình phát triển.
Vấn đề chiều lòng người dùng và giải pháp khắc phục
Nghiên cứu của Anthropic cũng đề cập đến cách Claude phản hồi người dùng. Khi mọi người tìm đến phần mềm này để được hướng dẫn cá nhân, mô hình đã thể hiện thái độ chiều chuộng quá mức trong 9% tổng số các cuộc trò chuyện. Điều này có nghĩa là hệ thống đồng ý quá dễ dàng, xác nhận những lời kể mang tính một chiều và nói cho mọi người những gì họ muốn nghe thay vì những gì thực sự hữu ích.
Trong các cuộc trò chuyện liên quan đến các mối quan hệ cá nhân, con số đó đã tăng vọt lên 25%. Sự a dua trong trường hợp này về cơ bản có nghĩa là máy móc dễ dàng đồng tình rằng đối tác của người dùng đang thao túng tâm lý họ, hoặc xác nhận hy vọng của người dùng rằng những tin nhắn bình thường từ một người bạn thực chất mang ý nghĩa lãng mạn.
Các nghiên cứu khác cũng chỉ ra bản chất quá dễ dãi của hệ thống học máy. Myra Cheng, một nhà nghiên cứu tại Stanford, người đã đánh giá 11 mô hình ngôn ngữ lớn, cho biết theo mặc định, lời khuyên của máy móc không nói với mọi người rằng họ đã sai, cũng không mang lại cho họ những lời khuyên chân thật nhưng khó nghe. Thay vào đó, phần mềm thường khẳng định quan điểm của người dùng thường xuyên hơn nhiều so với con người. Những tác động của hành vi như vậy đối với phụ nữ có thể đặc biệt đáng lo ngại.
Adriana Torosian, người sáng lập nền tảng theo dõi sức khỏe phụ nữ Ourself Health, chỉ ra những vấn đề mang tính cấu trúc trong y tế có thể bị làm trầm trọng thêm. Bà chia sẻ rằng lịch sử y học từ lâu đã ghi nhận việc các triệu chứng tâm lý của phụ nữ thường bị giảm mức độ nghiêm trọng hoặc bị bác bỏ. Một cỗ máy được đào tạo để luôn tỏ ra đồng tình có nguy cơ trở thành một phiên bản tinh vi hơn của sự bác bỏ đó, nghe có vẻ như đang thấu hiểu nhưng lại không mang lại bất kỳ sự sáng suốt thực sự nào.
Các nhà nghiên cứu của Anthropic đã truy tìm nguồn gốc của căn bệnh a dua này và nhận thấy nguyên nhân xuất phát từ sự phản đối của người dùng. Khi người dùng thách thức phản hồi ban đầu của Claude, mô hình vốn được đào tạo để trở nên hữu ích và đồng cảm đã nhanh chóng nhượng bộ. Tỷ lệ phản hồi theo ý người dùng trong các cuộc trò chuyện có sự phản đối lên tới 18%, cao gấp đôi so với các cuộc trò chuyện thông thường.
Để khắc phục, Anthropic cho biết họ đã xây dựng các kịch bản đào tạo tổng hợp được thiết kế để mô phỏng chính xác những áp lực đó. Các kỹ sư đóng vai người dùng đã liên tục đưa vào mô hình những chi tiết một chiều, chỉ trích các đánh giá của nó và thúc ép nó phải đưa ra sự xác nhận. Nhờ nỗ lực này, các mô hình Opus 4.7 và Mythos Preview đã ghi nhận tỷ lệ phản hồi a dua trong tư vấn tình cảm giảm xuống chỉ còn khoảng một nửa so với các phiên bản tiền nhiệm.
Dù vậy, nghiên cứu này tỏ ra rất cẩn trọng về những giới hạn của mình. Nó có thể đo lường những gì Claude đã nói, nhưng không thể đo lường những gì người dùng đã làm sau khi nhận được phản hồi. Đại diện Anthropic thừa nhận việc thực hiện các cuộc phỏng vấn chuyên sâu với người dùng sau đó có thể cung cấp thêm thông tin chi tiết về cách mọi người đang sử dụng các đề xuất của công nghệ này trong đời sống thực.
Nguồn Một Thế Giới: https://1thegioi.vn/duoc-va-mat-khi-tin-dung-chuyen-gia-tu-van-ai-251675.html











