Nghiên cứu mới: Càng 'gán vai chuyên gia' cho AI, kết quả càng kém chính xác
Một nghiên cứu mới từ University of Southern California đang đặt lại vấn đề về cách người dùng tương tác với AI: việc yêu cầu chatbot 'đóng vai chuyên gia lập trình' hay 'chuyên gia phân tích' có thể khiến kết quả trở nên kém hiệu quả hơn, thay vì tốt hơn như nhiều người vẫn nghĩ.
Thời gian qua, không ít người dùng ChatGPT hay các mô hình AI khác thường bắt đầu prompt bằng những câu như “Act as an expert…” (Hãy đóng vai một chuyên gia…). Tuy nhiên, theo các nhà nghiên cứu, cách tiếp cận này có thể vô tình làm lệch hướng xử lý của AI.
Cụ thể, khi được gán một “persona” (vai trò), AI có xu hướng chuyển sang chế độ tuân thủ chỉ dẫn nhiều hơn, thay vì tập trung vào việc truy xuất kiến thức chính xác. Điều này đặc biệt gây bất lợi với các tác vụ yêu cầu độ chính xác cao như lập trình, toán học hoặc phân tích dữ liệu.

Không ít người dùng ChatGPT hay các mô hình AI khác thường bắt đầu prompt bằng những câu như “Act as an expert…” (Hãy đóng vai một chuyên gia…)
Ngược lại, “persona prompting” vẫn có ích trong một số trường hợp như viết nội dung, điều chỉnh giọng văn hoặc định hình phong cách trình bày. Tuy nhiên, nó không giúp cải thiện năng lực xử lý thông tin cốt lõi của mô hình.
Nghiên cứu cũng chỉ ra rằng yếu tố quan trọng nhất của một prompt hiệu quả không phải là “vai diễn”, mà là mức độ đầy đủ của ngữ cảnh. Một prompt tốt cần mô tả rõ nhiệm vụ, cung cấp dữ liệu liên quan và xác định mục tiêu đầu ra cụ thể.
Thậm chí, các chuyên gia còn cảnh báo việc “over-engineering” prompt, tức tối ưu quá mức bằng cách khai thác các “mẹo” hoặc thiên lệch của AI, có thể dẫn đến tác dụng ngược, bao gồm việc làm sai lệch dữ liệu huấn luyện trong dài hạn.
Để giải quyết vấn đề này, nhóm nghiên cứu đề xuất phương pháp PRISM (Persona Routing via Intent-based Self-Modeling). Cách tiếp cận này cho phép AI tự tạo câu trả lời theo hai hướng: có và không có persona, sau đó so sánh để chọn ra phương án tối ưu. Qua thời gian, mô hình sẽ “học” được khi nào nên sử dụng persona và khi nào nên quay về cách xử lý mặc định.
Một điểm đáng chú ý khác là không phải mọi mô hình AI đều phản ứng giống nhau. Các mô hình thiên về suy luận (reasoning models) hưởng lợi nhiều hơn từ việc cung cấp ngữ cảnh dài và chi tiết, trong khi các mô hình được tinh chỉnh theo hướng tuân lệnh (instruction-tuned) lại nhạy cảm hơn với việc gán vai.
Từ những phát hiện này, các chuyên gia đưa ra khuyến nghị rõ ràng: thay vì cố “dạy” AI cách suy nghĩ bằng việc áp đặt vai trò, người dùng nên tập trung mô tả bài toán và cung cấp đủ thông tin cần thiết. Nói cách khác, AI hoạt động tốt nhất khi được giao nhiệm vụ rõ ràng, không phải khi bị “ép” trở thành chuyên gia.













