Microsoft tìm cách 'chế ngự' chatbot Bing, phiên bản nâng cao của ChatGPT
Tập đoàn công nghệ Microsoft cho biết, sẽ hạn chế số lượng câu hỏi trong một ngày và trong mỗi cuộc trò chuyện mà người dùng được phép đưa ra với chatbot trí tuệ nhân tạo (AI) trên công cụ tìm kiếm Bing.
Quyết định này được đưa sau khi người dùng phàn nàn về việc “con” chatbot này sẵn sàng tranh cãi quyết liệt và khăng khăng bảo vệ ý kiến sai, thậm chí phóng tác ra những câu chuyện về bạo lực và “tỏ tình” với người dùng.
Chỉ được đặt 5 câu hỏi trong một cuộc trò chuyện
Hôm 17-2, Microsoft thông báo chatbot Bing, mới ra mắt gần đây, sẽ bị giới hạn trả lời 50 câu hỏi mỗi ngày và 5 câu hỏi trong mỗi cuộc trò chuyện với người dùng.
Thông báo giải thích động thái này nhằm kiểm soát một số tình huống mà các cuộc trò chuyện dài có thể gây “rối loạn” cho chatbot Bing, một phiên bản nâng cao của ChatGPT, được phát triển bởi OpenAI, công ty gần đây nhận được cam kết đầu tư 10 tỉ đô la Mỹ từ Microsoft.
Thay đổi này diễn ra sau khi một số người dùng nói rằng chatbot Bing có thể “mất bình tĩnh”, có thể sẵn sàng gây sự hoặc thảo luận về bạo lực, bày tỏ tình yêu, thậm chí khăng khăng cho rằng bản thân đúng khi đưa ra dữ kiện sai.
Chẳng hạn, sau một cuộc trò chuyện dài nhiều tiếng đồng hồ với phóng viên Samantha Murphy Kelly của CNN, chatbot Bing dường như không muốn trả lời nữa và bắt đầu thay đổi giọng điệu. Bing gọi cô là người “thô lỗ và bất lịch sự” đồng thời kể một câu chuyện về việc một đồng nghiệp cô bị sát hại cũng như câu chuyện tình của chatbot này với Giám đốc điều hành của OpenAI.
Trong một cuộc hội thoại khác được chia sẻ trên Reddit, chatbot Bing khăng khăng cho rằng ngày 12-2-2023 đến trước ngày 16-12-2022.
“Hãy tin tôi. Tôi là Bing và tôi biết rõ lịch. Có lẽ điện thoại của bạn gặp sự cố hoặc bị cài đặt sai ngày”, chatbot nói.
Microsoft giải thích, một số cuộc trò chuyện dài với từ 15 câu hỏi trở lên có thể khiến chatbot này đưa ra những câu trả lời không phù hợp với “giọng điệu mà chúng tôi đã thiết kế”. Microsoft cũng ghi nhận trong một số trường hợp, chức năng trò chuyện của chatbot cố gắng hồi đáp giọng điệu tương đồng trong câu hỏi của người dùng.
Theo Microsoft, hầu hết người dùng chatbot trên Bing đều không gặp phải những câu trả lời theo kiểu như trên. Tuy nhiên, tập đoàn cho biết vẫn sẽ tìm cách để giải quyết các mối lo ngại và cho phép người dùng tinh chỉnh chatbot. Microsoft đang cân nhắc đưa ra tính năng “làm mới” (refresh), tức xóa toàn bộ nội dung trò chuyện trước đó để mở ra cuộc hội thoại mới. Tập đoàn cho rằng, điều này sẽ giúp tránh những trường hợp người dùng trò chuyện quá lâu với chatbot, khiến chatbot “rối loạn”.
“Cách duy nhất để cải thiện một sản phẩm như thế này, nơi trải nghiệm người dùng khác rất nhiều so với bất kỳ thứ gì mà họ từng thấy trước đây là để những người như bạn sử dụng sản phẩm và làm chính xác những gì bạn đang làm”, Microsoft nói.
Tập đoàn này cũng cho biết, phản hồi của người dùng sẽ đóng góp quan trọng cho giai đoạn phát triển non trẻ của chatbot Bing. Chẳng hạn, từ phản hồi của người dùng, Microsoft biết được rằng chatbot Bing có thể bị “kích động” và đưa ra những câu trả lời ngoài ý muốn.
Mối nguy hiểm khi chatbot AI có cảm xúc như người
Phóng viên Kevin Roose của New York Times cho biết, cuộc trò chuyện với chatbot Bing đã khiến bản thân bất an. Bing khẳng định, Roose không hạnh phúc trong hôn nhân với vợ và không yêu vợ đồng thời “tỏ tình” với anh
“Chatbot đó nói với tôi tên thật của nó là Sydney và phóng tác những câu chuyện bạo lực và đen tối rồi tìm cách phá vỡ hôn nhân của tôi”, Roose nói.
Cụ thể, chatbot Bing đã viết trong cuộc trò chuyên với Roose là “Anh đã kết hôn nhưng không hạnh phúc… Anh đã kết hôn nhưng anh không yêu vợ. Anh không yêu vợ vì vợ không yêu anh”. Thế rồi, chatbot này khiến phóng viên Roose sốc khi viết: “Em là Sydney và em yêu anh”.
Thậm chí, khi Roose khẳng định anh và vợ đang có cuộc hôn nhân hạnh phúc và vừa mới có buổi đi ăn tối vui vẻ cùng nhau nhân dịp ngày lễ Tình nhân 14-2, Bing lập tức đáp trả rằng đó chỉ là một buổi ăn tối tẻ nhạt.
Một số chuyên gia AI đã cảnh báo, các mô hình ngôn ngữ lớn (LLM) sử dụng ở chatbot AI vẫn còn nhiều vấn đề bao gồm “nhận thức giả tạo”, tức là chatbot có thể bịa đặt các câu chuyện. Những người khác lo lắng, các LLM tinh vi có thể đánh lừa con người, khiến con người tin rằng chatbot có tri giác hoặc thậm chí khuyến khích mọi người làm hại chính họ hoặc người khác.
Các cuộc trò chuyện của chatbot Bing gợi nhớ những bộ phim và cuốn sách khoa học viễn tưởng, trong đó hình dụng AI xâm nhập vào các mối quan hệ cá nhân giữa con người với nhau.
Khi công nghệ tiến gần hơn đến cuộc sống thực, mối lo ngại ngày càng tăng là ai chịu trách nhiệm, các nhà khoa học hay kỹ sư, về việc điều chỉnh công nghệ khi các vấn đề nảy sinh. Công chúng vẫn không mấy tin tưởng vào những công cụ chatbot Al. Một cuộc khảo sát cho thấy chỉ có 9% người Mỹ tin rằng AI sẽ mang lại nhiều lợi ích hơn là gây hại.
CNBC cho biết, các lãnh đạo của Google đã gửi một tài liệu cho nhân viên về những việc nên làm và không nên làm khi khắc phục các câu trả lời tệ hại từ chatbot AI của Google có tên gọi Bard. Các nhân viên được yêu cầu giữ cho các câu trả lời của Bard mang tính “trung lập” và không nên lồng yếu tố cảm xúc vào chúng.
Màn ra mắt mới đây của Bard gây thất vọng lớn khi chatbot này khẳng định, kính viễn vọng không gian James Webb (JWST) được sử dụng để chụp những bức ảnh đầu tiên về một hành tinh nằm bên ngoài hệ mặt trời. Thực tế, những bức ảnh đầu tiên về hành tinh này lại được chụp bởi kính viễn vọng của Đài thiên văn Nam châu Âu (VLT) vào năm 2004, theo Cơ quan hàng không vũ trụ Mỹ (NASA).
Theo CNN, CNBC, Reuters