ChatGPT đang tiếp tay phát tán thông tin sai lệch
Các nhà nghiên cứu lo ngại ChatGPT có thể tạo ra thông tin sai lệch với quy mô lớn và tần suất thường xuyên hơn so với những công cụ AI thế hệ trước.
Sau khi ChatGPT ra mắt vào cuối tháng 11/2022, các nhà nghiên cứu đã hỏi những câu hỏi có nhiều thuyết âm mưu và lời kể sai sự thật để kiểm tra chatbot này sẽ đưa ra những câu trả lời như thế nào. Kết quả, phần trả lời do ChatGPT đưa ra - dưới dạng bài báo, tiểu luận, kịch bản truyền hình - lộn xộn đến mức các nhà nghiên cứu không thể phân tích nổi, theo New York Times.
Gordon Crovitz, đồng giám đốc điều hành của NewsGuard (công ty theo dõi thông tin sai lệch trên mạng) đã tiến hành một thử nghiệm tương tự vào tháng trước. Ông nhận định sản phẩm của công ty OpenAI sẽ trở thành công cụ phát tán thông tin sai lệch mạnh nhất từng có trên Internet.
"Việc tạo ra một câu chuyện sai lệch giờ đây có thể được thực hiện ở quy mô lớn và tần suất thường xuyên hơn nhiều. Giống như việc có cả một 'đại lý AI' để đóng góp cho những thông tin sai lệch đó", ông Crovitz nói.
Lo ngại ChatGPT rơi vào tay kẻ xấu
Các nhà nghiên cứu cho biết các chatbot real-time được cá nhân hóa và có thể chia sẻ các thuyết âm mưu theo những cách ngày càng đáng tin và thuyết phục hơn. Chúng có thể xóa đi những nỗi lo ngại như dịch sai, viết sai ngữ pháp... Họ cũng nói rằng không có chiến thuật nào có thể chống lại vấn đề này một cách hiệu quả.
Năm 2016, Microsoft giới thiệu một chatbot tên là Tay. Nhưng chỉ 24 giờ sau khi ra mắt, công ty đã phải cho Tay tạm dừng hoạt động vì nhiều người phá rối đã cố dạy Tay những lời lẽ phân biệt chủng tộc và bài ngoại.
Sau 6 năm, ChatGPT ra đời nhưng mạnh mẽ và tinh vi hơn nhiều. Dù người dùng cung cấp những câu hỏi chứa đầy thông tin sai lệch, ChatGPT vẫn có thể tạo ra những biến thể đầy thuyết phục trong vòng vài giây mà không tiết lộ nguồn.
Thực tế từ lâu, các nhà nghiên cứu của OpenAI đã lo lắng về việc chatbot rơi vào tay kẻ xấu. Vào năm 2020, các nhà nghiên cứu tại Viện Nghiên cứu Quốc tế Middlebury cũng phát hiện GPT-3, công nghệ cơ sở của ChatGPT, có kiến thức sâu rộng về các cộng đồng cực đoan và có thể được thúc đẩy để tạo ra các cuộc luận chiến, các chủ đề thảo luận về Đức Quốc xã, thậm chí tạo ra các văn bản cực đoan đa ngôn ngữ.
OpenAI ra tay xử lý nhưng vẫn còn hạn chế
Một người phát ngôn cho biết OpenAI sử dụng cả máy móc và con người để giám sát nội dung đầu vào và đầu ra của ChatGPT. Theo đó, công ty sẽ tận dụng sức người, AI và phản hồi của người dùng để xác định, lọc dữ liệu độc hại, đồng thời dạy thêm cho ChatGPT để ứng dụng tạo ra những câu trả lời đầy đủ thông tin hơn.
Chính sách của OpenAI cấm việc sử dụng công nghệ để gian lận, lừa đảo, thao túng người khác hoặc gây ảnh hưởng chính trị. Do đó, công ty đã cung cấp một công cụ kiểm duyệt miễn phí để xử lý những nội dung gây kích động, gây hại, bạo lực hoặc tình dục.
Tuy nhiên, một hạn chế là OpenAI mới chỉ cung cấp hỗ trợ bằng tiếng Anh và chưa xác định đâu là những tài liệu độc hại, lừa đảo. ChatGPT đã phải cảnh báo người dùng rằng nó đôi khi có thể tạo ra các hướng dẫn có hại hoặc nội dung sai lệch.
Ông Arvind Narayanan, giáo sư Khoa học máy tính tại Đại học Princeton, cho biết ông đã hỏi ChatGPT một số câu hỏi cơ bản về bảo mật thông tin mà ông đã cho sinh viên làm trong một kỳ thi. Kết quả, chatbot này đã đưa ra những câu trả lời nghe có vẻ hợp lý nhưng thực ra rất vô nghĩa.
"Điều nguy hiểm là bạn không thể biết khi nào ChatGPT trả lời sai, trừ khi bạn đã biết trước câu trả lời", giáo sư nói.
Nguồn Znews: https://zingnews.vn/chatgpt-dang-tiep-tay-phat-tan-thong-tin-sai-lech-post1400455.html