OpenAI lo ngại người dùng 'nảy sinh tình cảm' với AI

OpenAI bày tỏ lo ngại rằng, tính năng giọng nói chân thực của chatbot AI ChatGPT có thể khiến con người có cảm giác gần gũi với AI, ảnh hưởng đến tương tác xã hội giữa con người với nhau.

OpenAI dẫn các nghiên cứu cho thấy, việc chúng ta trò chuyện với các mô hình AI có thể tạo cảm giác như đang nói chuyện với con người, dẫn đến sự tin tưởng không đúng chỗ.

Công ty cho rằng, chất lượng giọng nói cao của GPT-4o có thể làm gia tăng tác động này, theo CNN.

Tại buổi ra mắt mô hình ở San Francisco (Mỹ) ngày 14/5, OpenAI giới thiệu bản cập nhật cho mô hình GPT-4 với tên gọi GPT-4o, được giới chuyên gia đánh giá "giống con người một cách đáng ngạc nhiên".

Theo mô tả của OpenAI, GPT-4o có khả năng ghi nhớ từ các cuộc trò chuyện trước đó với người dùng và có thể dịch thuật theo thời gian thực. Hơn nữa, mô hình này sẽ biến ChatGPT thành một trợ lý cá nhân kỹ thuật số bằng cách tham gia vào các cuộc trò chuyện bằng giọng nói theo thời gian thực.

"Nhân hóa là quá trình gán những hành vi và đặc điểm của con người cho những thứ không phải con người như mô hình AI.

Chẳng hạn, khi một mô hình AI như GPT-4o có khả năng phát ra âm thanh giống như con người, người dùng có thể dễ dàng cảm thấy họ đang giao tiếp với một con người thực sự, mặc dù thực tế đó chỉ là một chương trình máy tính.

Điều này có thể dẫn đến những hiểu lầm hoặc rủi ro, vì người dùng có thể đánh giá sai về khả năng hoặc ý định của mô hình AI,” OpenAI cho biết trong một báo cáo về độ an toàn của phiên bản GPT-4o.

OpenAI nhận thấy, trong một số trường hợp thử nghiệm trò chuyện với AI, có những người đã thể hiện mối quan hệ gần gũi như than thở với các mô hình AI. Mặc dù những trường hợp này có vẻ vô hại nhưng cần được nghiên cứu kỹ hơn để xem chúng có thể phát triển như thế nào trong thời gian dài.

CNN dẫn dự đoán của OpenAI, việc giao tiếp xã hội với các mô hình AI có thể khiến người dùng trở nên kém khéo léo và ít muốn tương tác với con người hơn.

“Việc tương tác lâu dài với các mô hình AI có thể ảnh hưởng đến các chuẩn mực xã hội. Chẳng hạn, mô hình AI của chúng tôi thường rất lịch sự, cho phép người dùng ngắt lời và nói bất cứ lúc nào. Điều này là bình thường đối với AI nhưng sẽ không đúng chuẩn mực trong tương tác giữa con người với con người.

Cùng với đó, các mô hình AI có khả năng ghi nhớ mọi chi tiết trong quá trình trò chuyện và thực hiện các nhiệm vụ. Điều này có thể khiến con người trở nên phụ thuộc quá mức vào công nghệ,” OpenAI nêu trong báo cáo.

OpenAI bày tỏ lo ngại rằng, tính năng giọng nói chân thực của mô hình GPT-4o có thể khiến con người có cảm giác gần gũi với AI, ảnh hưởng đến tương tác xã hội giữa con người với nhau.

OpenAI bày tỏ lo ngại rằng, tính năng giọng nói chân thực của mô hình GPT-4o có thể khiến con người có cảm giác gần gũi với AI, ảnh hưởng đến tương tác xã hội giữa con người với nhau.

Một điều đáng chú ý, các nhóm thử nghiệm tính năng giọng nói của ChatGPT-4o đã phát hiện rằng, mô hình này có thể bị kích hoạt để lặp lại thông tin sai lệch, gây lo ngại AI có thể thuyết phục người dùng tin vào những điều sai sự thật.

Hồi tháng 6/2024, OpenAI lên tiếng xin lỗi nữ diễn viên Scarlett Johansson vì đã sử dụng một giọng nói rất giống với giọng của cô trong phiên bản chatbot mới nhất.

Ông Alon Yamin, đồng sáng lập kiêm CEO của nền tảng phát hiện đạo văn bằng AI Copyleaks cho biết: "Những lo ngại gần đây mà OpenAI chia sẻ về khả năng phụ thuộc vào chế độ giọng nói của ChatGPT cho thấy một câu hỏi mà nhiều người đã bắt đầu đặt ra: Đã đến lúc phải dừng lại và xem xét công nghệ này ảnh hưởng thế nào đến tương tác và mối quan hệ giữa con người?". Đồng thời ông nhấn mạnh, AI không bao giờ nên thay thế tương tác thực tế giữa con người.

Hà Anh

Nguồn Mekong Asean: https://mekongasean.vn/openai-lo-ngai-nguoi-dung-nay-sinh-tinh-cam-voi-ai-32268.html