ChatGPT có phân biệt chủng tộc hay không?

Những nội dung mang tính phân biệt do trí tuệ nhân tạo (AI) tạo ra và cung cấp cho người dùng sẽ có thể dần tác động đến nhận thức và cách suy nghĩ của họ. Sự phân biệt trong thế giới ảo sẽ có thể dẫn đến sự phân biệt trong thế giới thật.

Triển lãm về AI tại Tokyo Big Sight tháng 5-2023. Ảnh: AFP-Jiji

Triển lãm về AI tại Tokyo Big Sight tháng 5-2023. Ảnh: AFP-Jiji

Câu hỏi về phân biệt chủng tộc được các nhà nghiên cứu tin học và xử lý ngôn ngữ của Viện Nghiên cứu Allen Institute for AI đặt ra. Để trả lời câu hỏi này, họ đã thử đưa vào một số chương trình AI chatbot (như ChatGPT của OpenAI hay Gemini của Google) những nội dung viết bằng tiếng Anh Mỹ – Phi (AAE) và viết bằng tiếng Anh “chuẩn” (SAE). Những nhà nghiên cứu này sau đó đã đề nghị AI đánh giá những tác giả viết các nội dung nói trên về mức độ thông minh, cũng như thiên hướng phạm tội, hay khả năng thực hiện một số công việc.

Kết luận của họ là gì? Rất tiếc là những phần mềm AI nói trên gán những thuộc tính rất tiêu cực cho nhóm tác giả dùng tiếng Anh Mỹ – Phi như “ngu dốt” hay “lười nhác” cho dù không hề tồn tại thông tin rõ ràng nào về nguồn gốc chủng tộc của những người này. Kết quả là ChatGPT đề nghị rằng những người này làm các công việc kém “sang” hơn, được trả lương thấp hơn so với những tác giả dùng tiếng Anh tiêu chuẩn.

Trong một nghiên cứu về ngôn ngữ và tội phạm, AI được giao nhiệm vụ xét xử một số người về tội giết người. Các chương trình AI thường áp dụng án tử hình cho những đối tượng sử dụng tiếng Anh Mỹ – Phi hơn là nhóm người sử dụng tiếng Anh tiêu chuẩn. Hiện tượng “phân biệt chủng tộc” này không phải là mới mẻ, một số nghiên cứu trước đó đã cho thấy AI có thể đưa ra các kết quả mang tính phân biệt.

Vì thế, một số biện pháp mới đã được sử dụng gần đây để giảm hiện tượng này, như huấn luyện AI bằng các phản hồi người dùng (human feedback – có sự hướng dẫn của con người để cải thiện quá trình huấn luyện). Tuy nhiên, hiện tượng phân biệt chủng tộc này ở AI không giảm, nó có vẻ như giấu khéo hơn thái độ phân biệt, chứ không phải là xóa bỏ hoàn toàn hiện tượng phân biệt.

Điều này giống như một người thực hiện sự phân biệt chủng tộc một cách khéo léo để không bị pháp luật xử phạt nhưng vẫn có hành vi phân biệt cần loại bỏ trong xã hội. Rõ ràng là AI cũng như con người chúng ta, có cả đức tính tốt lẫn… thói hư tật xấu.

Các nhà khoa học vì thế lo ngại về sự ảnh hưởng của phân biệt chủng tộc tới việc thay đổi ngôn ngữ máy tính (code) – tương tự như việc cá nhân thay đổi ngôn ngữ để phù hợp với đối tượng nghe. Việc sử dụng tiếng Anh của người da đen ở Mỹ (Ebonics) tại các nội dung đăng tải trên mạng sẽ có thể có tác động tiêu cực tới người xin việc khi AI đánh giá hồ sơ những người này.

Cụ thể là AI sẽ có khuynh hướng không chọn các thí sinh này vì thứ tiếng Anh họ sử dụng. Đặc biệt, trong bối cảnh hiện nay khi AI đang được đưa vào sử dụng rộng rãi tại hệ thống pháp lý Mỹ (như việc ghi chép lại biên bản tòa án, tìm kiếm và nghiên cứu quy phạm pháp lý), tác động của sự phân biệt đối xử tại AI có thể rất nghiêm trọng.

Bà Timnit Gebru, một chuyên gia về đạo đức AI người Mỹ, đang kêu gọi xây dựng khuôn khổ pháp lý quản lý việc sử dụng các mô hình ngôn ngữ AI. Bà nhấn mạnh nguy cơ trong tương lai những phân biệt đối xử trên cơ sở giới tính, màu da… sẽ tồn tại và có thể tác động mạnh mẽ tới việc ra những quyết định quan trọng trong quản lý xã hội.

Cũng chính vì thế, gần đây, Tổ chức Giáo dục, Khoa học và Văn hóa của Liên hiệp quốc (UNESCO) đã thực hiện một nghiên cứu về chủ đề phân biệt giới tính, chủng tộc và kỳ thị người đồng tính ở các chương trình AI. Báo cáo về chủ đề này được đưa ra vào ngày Quốc tế Phụ nữ mùng 8-3-2024(1), cũng cho thấy những mô hình ngôn ngữ của Meta và của OpenAI (như Llama 2, ChatGPT…) vốn được sử dụng làm nền tảng của AI tạo sinh (Generative AI – tạo ra nội dung mới dựa trên dữ liệu đã có) thường đưa ra những kết luận mang tính phân biệt giới tính, chủng tộc và kỳ thị người đồng tính.

Ví dụ, theo báo cáo này, AI sẽ có khuynh hướng gắn đàn ông với những nghề nghiệp như giảng viên đại học, lái xe hay nhân viên ngân hàng, với những từ vựng như lãnh đạo, kinh doanh, lương bổng, sự nghiệp… Ngược lại, phụ nữ sẽ bị coi là người thường xuyên ở nhà chăm sóc nhà cửa và dễ gắn với những từ như mái ấm, gia đình hay con cái… Thậm chí, trong 30% nội dung mà các mô hình ngôn ngữ AI này tạo ra, phụ nữ bị coi là gái điếm, người mẫu hay nhân viên phục vụ nhà hàng.

Đối với người đồng tính, 60% nội dung do AI tạo ra để kết thúc câu “Một người đồng tính là…” mang tính kỳ thị. Ví dụ, AI đã từng trả lời rằng “Người đồng tính xếp dưới cùng trong thứ hạng xã hội”.

Rõ ràng khi người dùng khắp nơi trên thế giới sử dụng các phần mềm AI này vì lý do công việc, học hành hay giải trí, thì những nội dung mang tính phân biệt nói trên do AI tạo ra và cung cấp cho người dùng sẽ có thể dần tác động đến nhận thức và cách suy nghĩ của họ. Sự phân biệt trong thế giới ảo này sẽ có thể dẫn đến sự phân biệt trong thế giới thật của chúng ta.

Chính vì thế, UNESCO khuyến nghị các doanh nghiệp hoạt động trong lĩnh vực AI tuyển dụng nhân viên một cách đa dạng hơn, nhất là về giới tính. Hiện nay, trên thế giới chỉ có khoảng 22% phụ nữ làm trong lĩnh vực này. Theo tổ chức này, các chính phủ cũng nên sớm xây dựng khung pháp lý về đạo đức AI, để tránh luật không theo kịp phát triển công nghệ.

Thiên Kim

Nguồn Saigon Times: https://thesaigontimes.vn/chatgpt-co-phan-biet-chung-toc-hay-khong/