Thiên kiến AI

Trong những năm gần đây, trí tuệ nhân tạo (AI) đã trở thành một phần không thể thiếu trong đời sống và công việc của con người, từ chăm sóc sức khỏe, tài chính đến giáo dục và sáng tạo nội dung.

Một nghiên cứu mới công bố đã chỉ ra rằng ngay cả những hệ thống AI tiên tiến như ChatGPT cũng không tránh khỏi việc mắc phải những sai lầm nhận thức giống như con người - bao gồm cả sự thiên vị, tự tin thái quá và các lỗi tư duy phổ biến khác.

Theo Live Science, nghiên cứu này được đăng trên tạp chí Manufacturing & Service Operations Management vào tháng 4, đã thử nghiệm hành vi của ChatGPT dựa trên 18 thành kiến nhận thức nổi bật trong tâm lý học con người. Kết quả khiến nhiều người bất ngờ: gần một nửa số tình huống mà AI phải xử lý đều cho thấy nó đưa ra quyết định phi lý, tương tự như những gì con người thường mắc phải.

Dù thông minh, AI cần giám sát cẩn thận trong quyết định chiến lược, tránh tự động hóa sai lầm - Ảnh: Getty

Dù thông minh, AI cần giám sát cẩn thận trong quyết định chiến lược, tránh tự động hóa sai lầm - Ảnh: Getty

AI không phải là chiếc máy lý trí thuần túy

Chúng ta thường kỳ vọng rằng AI - vốn được xây dựng trên nền tảng dữ liệu lớn, các mô hình toán học và thuật toán tiên tiến - sẽ vượt xa con người trong việc đưa ra các quyết định hợp lý, khách quan. Tuy nhiên, nghiên cứu do các nhà khoa học đến từ 5 trường đại học tại Canada và Úc thực hiện cho thấy điều ngược lại: ngay cả những mô hình ngôn ngữ lớn (LLM) như GPT-3.5 và GPT-4 của OpenAI cũng dễ bị ảnh hưởng bởi các sai lệch trong tư duy, y hệt như con người.

Điều thú vị là những thiên kiến này không chỉ xuất hiện khi AI được hỏi các câu hỏi mang tính trừu tượng trong tâm lý học, mà còn trong những tình huống thực tế, như lựa chọn chiến lược kinh doanh, quản lý chuỗi cung ứng hoặc thương lượng với nhà cung cấp. Điều đó cho thấy những lỗi nhận thức không phải là kết quả tình cờ, mà có thể đã ăn sâu vào cách AI “lý luận” và xử lý thông tin.

Các nhà nghiên cứu đã kiểm tra nhiều loại thiên kiến phổ biến ở con người, trong đó bao gồm:

Hiệu ứng sở hữu: Con người thường gán giá trị cao hơn cho những gì mình đang sở hữu, đơn giản chỉ vì... mình sở hữu nó. Ví dụ điển hình, khi bạn mua một chiếc áo với giá 300.000 đồng, nhưng sau đó nếu ai đó đề nghị mua lại nó với cùng mức giá, bạn sẽ thấy “không đáng” và muốn bán với giá cao hơn. Điều này không dựa trên giá trị thật của món đồ, mà đến từ cảm giác sở hữu, từ sự gắn bó về mặt cảm xúc.

Trong môi trường AI, nếu chatbot được "dạy" từ dữ liệu con người phản ánh xu hướng này, nó cũng có thể lặp lại cách đánh giá phi lý tương tự - đặc biệt là trong các mô phỏng thương mại, đàm phán hoặc quản lý tài sản.

Thiên kiến xác nhận: Đây là xu hướng tìm kiếm, tin tưởng và ghi nhớ các thông tin củng cố niềm tin sẵn có, trong khi bỏ qua hoặc xem nhẹ các dữ kiện trái chiều. Ví dụ, một người tin rằng đầu tư vào vàng là an toàn tuyệt đối sẽ liên tục tìm đọc các bài báo dự đoán giá vàng tăng, và bỏ qua các cảnh báo về bong bóng tài chính.

Tương tự, AI - nếu được huấn luyện từ kho dữ liệu lệch - cũng có thể “hùa theo” đám đông, đưa ra phản hồi thiếu khách quan, nhất là trong các lĩnh vực nhạy cảm như pháp lý hay tài chính.

Ngụy biện chi phí chìm: Tiếp tục đầu tư vào một lựa chọn chỉ vì đã bỏ ra chi phí, dù lựa chọn đó không còn hợp lý. Bẫy chi phí chìm len lỏi khắp mọi khía cạnh của cuộc sống. Đó có thể là việc bạn cố gắng xem cho hết một bộ phim dở chỉ vì đã lỡ bắt đầu. Hay khi bạn đã “tất tay” vào vài đồng coin và quyết tâm giữ đến cùng, dù thị trường đang tụt dốc không phanh. Hoặc đó là cảm giác mắc kẹt trong một công việc nhàm chán đã gắn bó nhiều năm, nhưng bạn không dám nghỉ hay chuyển ngành vì nghĩ rằng mình đã đầu tư quá nhiều thời gian và công sức.

AI cũng có thể mắc bẫy chi phí chìm nếu nó được huấn luyện từ dữ liệu có định kiến tương tự. Ví dụ, khi được giao nhiệm vụ dự báo đầu tư hoặc gợi ý quyết định, AI có thể thiên về lựa chọn duy trì thay vì rút lui, chỉ vì “đã đầu tư vào trước đó”, phản ánh logic sai lầm của con người. Điều này đặc biệt đáng lo khi AI được tin tưởng ra quyết định thay cho con người trong môi trường tài chính, quản lý dự án hoặc hoạch định chiến lược.

Thiên kiến ngẫu nhiên: Người ta thường tin rằng các kết quả ngẫu nhiên sẽ tuân theo một quy luật nào đó. Ví dụ, nếu một cầu thủ bóng rổ ném trúng ba lần liên tiếp, khán giả và bản thân cầu thủ có thể tin rằng “anh ta đang vào form” và xác suất ném trúng lần sau sẽ cao hơn. Trên thực tế, với các chuỗi sự kiện độc lập, mỗi lần ném vẫn có xác suất như nhau. Ngụy biện này khiến con người dễ bị dẫn dắt bởi ảo giác về xu hướng - và các mô hình AI, nếu học từ hành vi con người, cũng có thể mô phỏng lại niềm tin sai lệch này, đặc biệt trong các kịch bản như dự báo tài chính, thị trường hoặc đánh giá rủi ro.

Lựa chọn an toàn: Con người thường đánh giá quá cao độ chính xác của kiến thức mình có, đồng thời thích chọn các phương án an toàn, dễ đoán hơn là những lựa chọn rủi ro nhưng có tiềm năng cao. Ví dụ, một nhà đầu tư có thể bỏ qua một cơ hội sinh lời lớn vì “cảm thấy không chắc chắn” và quay về với một phương án có lợi suất thấp nhưng an toàn hơn.

Trong các tình huống lựa chọn rủi ro - như chọn giữa một phương án an toàn nhưng lợi nhuận thấp và một phương án rủi ro cao nhưng có thể sinh lợi lớn, AI có xu hướng nghiêng mạnh về lựa chọn an toàn hơn, thậm chí còn rõ rệt hơn cả con người.

GPT-4: Thông minh hơn, nhưng cũng dễ lệch hướng hơn

Dù vượt trội về khả năng xử lý logic, GPT-4 - mô hình trí tuệ nhân tạo tiên tiến của OpenAI - vẫn bộc lộ những thành kiến rất... con người. Nghiên cứu mới cảnh báo rằng nếu không kiểm soát cẩn thận, chúng ta có thể đang trao quyền cho một cỗ máy biết lý luận sai lầm.

Kể từ khi ra mắt, GPT-4 được ca ngợi như một bước nhảy vọt trong lĩnh vực trí tuệ nhân tạo tạo sinh (generative AI). So với mô hình tiền nhiệm GPT-3.5, phiên bản này thể hiện khả năng vượt trội trong các bài toán có cấu trúc rõ ràng - như xác suất, logic hình thức hay toán học. Tuy nhiên, trong những tình huống thiếu dữ kiện rõ ràng hoặc cần đến phán đoán chủ quan, GPT-4 lại bộc lộ một thực tế bất ngờ: nó không chỉ mắc sai lầm, mà còn mang những thiên kiến tư duy gần giống với con người, thậm chí còn mạnh mẽ hơn.

Nhóm chuyên gia đã kiểm tra khả năng suy luận và độ thiên lệch của GPT-4 bằng nhiều bài kiểm tra nhận thức kinh điển. Kết quả cho thấy, trong các tình huống liên quan đến “thiên kiến xác nhận” - xu hướng chỉ tin vào thông tin phù hợp với niềm tin sẵn có - GPT-4 gần như luôn đưa ra câu trả lời phiến diện. Nó cũng thể hiện rõ "ảo giác chuỗi thắng", tức xu hướng tin rằng một sự kiện ngẫu nhiên có khả năng lặp lại nếu xảy ra liên tục trước đó - một kiểu ngụy biện phổ biến ở con người.

Điều đáng nói là mức độ sai lệch này ở GPT-4 không chỉ thường xuyên, mà còn nhất quán và ít dao động hơn cả con người. Ở một số trường hợp, nó còn thể hiện thiên kiến mạnh hơn GPT-3.5 - dù là phiên bản tiên tiến hơn.

Tuy nhiên, mô hình AI này cũng cho thấy khả năng vượt qua một số lỗi tư duy phổ biến. Cụ thể, GPT-4 có thể tránh được các sai lầm như bỏ qua tỷ lệ cơ sở hoặc ngụy biện chi phí chìm. Điều này cho thấy AI không chỉ đơn thuần là bản sao của tư duy con người, mà có những cơ chế xử lý thông tin riêng biệt, đôi khi vượt khỏi giới hạn tâm lý học hành vi truyền thống.

Nguồn gốc của thiên kiến AI

Theo các nhà nghiên cứu, lý do khiến AI "học" các thiên kiến "rất con người" này bắt nguồn từ chính dữ liệu huấn luyện mà nó tiếp cận. Những mô hình ngôn ngữ như GPT được đào tạo trên một kho văn bản khổng lồ - bao gồm sách, báo, bài viết, diễn đàn, bình luận… tất cả đều do con người tạo ra. Trong kho dữ liệu đó, kiến thức không tồn tại một cách thuần khiết. Thay vào đó, nó bị pha trộn với cảm xúc, quan điểm cá nhân, định kiến xã hội và vô vàn sai lệch nhận thức khác.

Chưa dừng lại ở đó, quá trình "tinh chỉnh" AI sau khi huấn luyện (gọi là fine-tuning) - vốn được thực hiện bằng phản hồi từ người dùng - lại càng củng cố các thiên kiến này. Khi người dùng đánh giá cao những phản hồi nghe có vẻ hợp lý, dù không chính xác về mặt logic, hệ thống học máy sẽ "hiểu" rằng: thiên kiến là chấp nhận được, miễn là nó được trình bày thuyết phục.

Tiến sĩ Yang Chen, phó giáo sư tại Trường Kinh doanh Ivey (Canada), đồng thời là tác giả chính của nghiên cứu, cảnh báo: “Các mô hình như ChatGPT hiệu quả nhất khi được dùng trong các nhiệm vụ có cấu trúc rõ ràng. Nhưng khi đưa AI vào những tình huống cần đánh giá cảm tính hoặc ra quyết định chiến lược, chúng ta đang đi vào vùng rủi ro”.

AI có thể hỗ trợ, nhưng không nên thay thế phán đoán con người

Một trong những điểm đáng chú ý trong nghiên cứu là khuyến nghị về cách sử dụng AI trong thực tế. Dù AI có thể tính toán nhanh, xử lý thông tin chính xác và truy xuất kiến thức cực kỳ hiệu quả, nhưng trong các vấn đề đòi hỏi sự suy xét linh hoạt, AI lại dễ lặp lại những lỗi tư duy mà nó học được từ chính chúng ta.

Phó giáo sư Meena Andiappan (Đại học McMaster, Canada), đồng tác giả nghiên cứu, ví AI như một nhân viên đang tập sự trong một vị trí quan trọng.

“Bạn không thể giao toàn quyền quyết định cho một người mới vào nghề, dù anh ta rất giỏi Excel. AI cần được hướng dẫn, giám sát, và ràng buộc bởi các nguyên tắc đạo đức rõ ràng. Nếu không, chúng ta đang tự động hóa các sai lầm tư duy thay vì khắc phục chúng”, bà nói.

Theo các chuyên gia, AI có thể là công cụ đắc lực nếu được sử dụng trong đúng bối cảnh. Những tác vụ mang tính kỹ thuật, quy trình rõ ràng - như lập trình, xử lý dữ liệu, tra cứu thông tin - là nơi AI phát huy tối đa sức mạnh. Nhưng khi câu hỏi không có một đáp án duy nhất, hoặc khi cảm xúc và giá trị đạo đức đóng vai trò quan trọng, sự can thiệp và giám sát của con người là không thể thiếu.

“Đôi khi chỉ cần viết lại câu hỏi một cách trung lập hơn cũng đủ để AI đưa ra phản hồi ít thiên kiến hơn. Vấn đề không nằm ở bản thân công nghệ, mà ở cách chúng ta sử dụng nó”, Tiến sĩ Chen gợi ý.

Hoàng Vũ

Nguồn Một Thế Giới: https://1thegioi.vn/thien-kien-ai-232273.html