Chatbot AI bị 'thối não' do lạm dụng mạng xã hội

Theo Nature, một nghiên cứu đăng tải trên trang arXiv cho thấy các chatbot trí tuệ nhân tạo (AI) hoạt động kém hiệu quả hơn trong việc truy xuất thông tin chính xác và lập luận logic.

Theo Nature, một nghiên cứu đăng tải trên trang arXiv cho thấy các chatbot trí tuệ nhân tạo (AI) hoạt động kém hiệu quả hơn trong việc truy xuất thông tin chính xác và lập luận logic khi được huấn luyện bằng lượng lớn nội dung kém chất lượng, đặc biệt là những nội dung phổ biến trên mạng xã hội.

Đồng tác giả Zhangyang Wang, nhà nghiên cứu AI tạo sinh tại Đại học Texas ở Austin (Mỹ), cho biết dữ liệu chất lượng cao không chỉ cần đúng ngữ pháp và dễ hiểu, mà còn phải đảm bảo giá trị nội dung. Tuy nhiên, nhiều dữ liệu phổ biến trên mạng xã hội lại mang tính hời hợt, giật gân và ngắn gọn, dẫn đến việc các tiêu chí thông thường không đủ để đánh giá.

Nhóm nghiên cứu đã phân tích tác động của dữ liệu “rác” đối với khả năng suy luận, truy xuất thông tin từ văn bản dài, đạo đức trong phản hồi và đặc điểm “tính cách” của mô hình. Kết quả cho thấy, các mô hình được "cho ăn" dữ liệu kém chất lượng có xu hướng bỏ qua các bước suy luận hoặc không suy luận, dẫn đến câu trả lời sai hoặc thiếu logic. Khi tỷ lệ dữ liệu rác tăng trong tập huấn luyện, khả năng suy luận của mô hình giảm mạnh. Nghiên cứu hiện chưa qua phản biện.

Nhà nghiên cứu Mehwish Nasim thuộc Đại học Tây Australia nhận định kết quả này củng cố nguyên tắc cơ bản trong lĩnh vực AI: “Rác vào thì rác ra”. Bà nói: “Ngay cả trước khi xuất hiện các mô hình ngôn ngữ lớn, chúng tôi đã biết rằng nếu cung cấp dữ liệu tệ, mô hình sẽ cho ra kết quả tệ”.

Giáo sư Stan Karanasios (Đại học Queensland, Australia) cho rằng nghiên cứu này là lời cảnh báo về hiện tượng “thối não” (brain rot) ở AI: “Điều quan trọng nhất là phải giám tuyển dữ liệu kỹ lưỡng, loại bỏ nội dung giật gân, kém chất lượng trước khi đưa vào huấn luyện”.

Thanh Tùng/vnanet.vn

Nguồn Bnews: https://bnews.vn/chatbot-ai-bi-thoi-nao-do-lam-dung-mang-xa-hoi/394204.html