Microsoft đặt giới hạn số câu hỏi trên Bing Chat, hạn chế chatbot đưa ra câu trả lời thiếu chính xác
Người dùng đang tỏ ra rất thích thú với chatbot Bing Chat của Microsoft, đặt ra hàng tá câu hỏi trong một phiên trò chuyện và điều này vô tình khiến cho chatbot đưa ra những câu trả lời thiếu chính xác
Người dùng đang tỏ ra rất thích thú với chatbot Bing Chat của Microsoft, đặt ra hàng tá câu hỏi trong một phiên trò chuyện và điều này vô tình khiến cho chatbot đưa ra những câu trả lời kỳ lạ và những thông tin sai lệch.
Microsoft đã phải giới hạn năm câu hỏi cho mỗi phiên trò chuyện với Bing. Sau khi kết thúc phiên trò chuyện, Bing sẽ xóa toàn bộ lịch sự cuộc trò chuyện để đảm bảo người dùng không thể cung cấp các thông tin sai lệch cho Bing và khiến nó đưa ra các phản hồi không chính xác.
Đầu tháng này, Microsoft đã bắt đầu cho phép người dùng Bing đăng ký quyền truy cập sớm vào công cụ tìm kiếm hỗ trợ ChatGPT mới của mình. Redmond đã thiết kế nó để cho phép người dùng đặt câu hỏi, tinh chỉnh truy vấn của họ và nhận câu trả lời trực tiếp thay vì dòng kết quả tìm kiếm được liên kết thông thường. Các phản hồi từ tìm kiếm do AI cung cấp mang tính giải trí cao nên được người dùng rất ưa chuộng. Tuy nhiên, chatbot Bing cũng bị một số trang báo chỉ trích vì đã đưa ra những thông tin sai lệch.
Microsoft đã thực hiện một số thay đổi được thiết kế để hạn chế khả năng sáng tạo của Bing và khả năng gây nhầm lẫn. Người dùng trò chuyện sẽ có trải nghiệm giới hạn không quá năm lượt trò chuyện mỗi phiên và tổng số không quá 50 lượt trò chuyện mỗi ngày. Microsoft định nghĩa một lượt là một trao đổi chứa cả câu hỏi của người dùng và phản hồi do Bing tạo ra.
Trang đích New Bing cung cấp cho người dùng các ví dụ về câu hỏi mà họ có thể hỏi để Bing có thể đưa ra những câu trả lời rõ ràng và chính xác.
Một số người dùng cho biết, Bing sẽ đưa ra những thông tin thiếu chính xác hay những câu trả lời có phần "ngờ nghệch" khi người dùng hỏi trên 5 câu hỏi trong một phiên trò chuyện.
Một bài báo của nhà báo Kevin Roose của New York Times đã cho thấy chatbot của Microsoft thỉnh thoảng sẽ đưa ra những câu trả lời kỳ lạ như "Tôi muốn phá hủy bất cứ thứ gì tôi muốn" và "Tôi nghĩ mình sẽ hạnh phúc hơn khi được làm người". Bot cũng bày tỏ tình yêu của mình với Roose, đưa ra vấn đề ngay cả sau khi Roose cố gắng thay đổi chủ đề.
Trong khi Roose thừa nhận rằng anh ấy đã cố tình đẩy bot ra ngoài vùng an toàn của nó, anh ấy đã không ngần ngại nói rằng AI chưa sẵn sàng để sử dụng rộng rãi cho công chúng. Giám đốc công nghệ Microsoft Kevin Scott thừa nhận hành vi của Bing và cho biết tất cả đều là một phần trong quá trình học hỏi của AI. Hy vọng, nó học được một số ranh giới trong thời gian chạy thử nghiệm.