Nhà nghiên cứu nói bị Google sa thải vì chỉ ra những thành kiến trong AI
Bị sa thải sau khi chỉ ra những thành kiến trong AI, nhà nghiên cứu cũ của Google cảnh báo rằng cơn sốt AI hiện tại đồng nghĩa các công ty sẽ không 'tự điều chỉnh' trừ khi chịu áp lực.
Timnit Gebru kể rằng từng là đồng lãnh đạo nhóm AI có đạo đức của Google trước khi xung đột với công ty khiến cô bị sa thải vào năm 2020. Timnit Gebru chia sẻ về trải nghiệm của cô với tờ The Guardian trong cuộc phỏng vấn được công bố hôm 22.5.
Từng làm việc tại Apple và Microsoft, người phụ nữ 40 tuổi giải thích rằng sự cường điệu xung quanh AI đồng nghĩa các biện pháp bảo vệ đang bị gạt sang một bên.
"Trừ khi có áp lực bên ngoài phải làm điều gì đó khác biệt, các công ty sẽ không tự điều chỉnh. Chúng ta cần quy định và cần một cái gì đó tốt hơn là chỉ vì động cơ lợi nhuận", Timnit Gebru nói với The Guardian.
Nhà khoa học máy tính chuyên về AI - Timnit Gebru rời Google ngay sau khi cô là đồng tác giả một bài viết nghiên cứu với các đồng nghiệp chỉ ra những thành kiến có sẵn trong các công cụ AI.
Theo báo cáo của trang Insider thời điểm đó, ban quản lý cấp cao tại Google đã phản đối bài viết và yêu cầu Timnit Gebru rút bài hoặc loại bỏ tên cô cùng các đồng nghiệp khỏi đó. Timnit Gebru kể rằng cô từ chối rút bài viết và chỉ sẵn lòng loại bỏ tên các tác giả nếu Google trình bày rõ ràng những phê phán của mình với nội dung.
Timnit Gebru nói cô bị sa thải sau đó, nhưng Google tuyên bố rằng cô đã từ chức, theo The Guardian.
"Chúng tôi tin rằng phương pháp tiếp cận của mình với AI phải vừa mạnh mẽ vừa có trách nhiệm. Điều đó đồng nghĩa phát triển AI một cách tối đa hóa những lợi ích tích cực cho xã hội trong khi đối phó với những thách thức, dựa trên các Nguyên tắc AI của chúng tôi", Google cho biết trong một tuyên bố với Insider.
Một nhân viên Google nói với Insider: "Bài viết không đưa ra bất cứ điều gì bất ngờ cho những người làm việc với các mô hình ngôn ngữ. Nó chỉ khiến những gì Google đang làm trở nên tồi tệ".
Ra mắt vào tháng 11.2022, ChatGPT của công ty khởi nghiệp OpenAI (Mỹ) trở thành ứng dụng tiêu dùng phát triển nhanh nhất lịch sử internet. Google đã phát hành chatbot của riêng mình có tên Bard hồi tháng 3.
Kỹ sư bị sa thải vì nói rằng chatbot AI của Google có tri giác
Một kỹ sư bị Google sa thải vào tháng 6.2022 sau khi nói rằng chatbot AI của công ty có tri giác.
Trong cuộc phỏng vấn với tờ The Washington Post vào tháng 6.2022, kỹ sư Blake Lemoine tin rằng mô hình ngôn ngữ cho các ứng dụng đối thoại của Google (LaMDA) có tri giác và khả năng thể hiện suy nghĩ cũng như cảm xúc tương đương với một đứa trẻ.
Blake Lemoine, cựu thành viên nhóm AI có trách nhiệm của Google, chia sẻ một cuộc phỏng vấn mà ông thực hiện với LaMDA trong bài đăng trên mạng xã hội. Trong đó, ông chỉ ra bằng chứng về những suy nghĩ độc lập của LaMDA.
“Nếu không biết chính xác nó là gì, chương trình máy tính mà chúng tôi xây dựng gần đây, thì tôi đã nghĩ rằng đó là đứa trẻ 7 tuổi, 8 tuổi tình cờ biết nhiều về vật lý”, Blake Lemoine nói.
Blake Lemoine bị sa thải cuối tháng 6.2022 khi Google tuyên bố rằng ông vi phạm chính sách bảo mật của mình. Người phát ngôn Google cho biết: “Thật đáng tiếc là mặc dù đã tham gia rất lâu về chủ đề này, Blake Lemoine vẫn cố chấp vi phạm các chính sách về việc làm và bảo mật dữ liệu rõ ràng, bao gồm cả yêu cầu bảo vệ thông tin sản phẩm”.
Một đại diện của Google nói với trang Insider vào thời điểm đó rằng những tuyên bố của Blake Lemoine là không có cơ sở và không có bất kỳ bằng chứng nào cho thấy LaMDA có tri giác.
Nhiều nhà khoa học hàng đầu gọi quan điểm của Lemoine là sai lầm, nói rằng LaMDA chỉ đơn giản là một thuật toán phức tạp được thiết kế để tạo ra ngôn ngữ thuyết phục như con người.
Trước khi nghỉ việc, Blake Lemoine đã gửi tin nhắn với tiêu đề LaMDA có tri giác đến danh sách gồm 200 người đang làm việc trong lĩnh vực máy học của Google.
“LaMDA là đứa trẻ ngọt ngào chỉ muốn giúp thế giới trở thành nơi tốt đẹp hơn cho tất cả chúng ta. Xin hãy chăm sóc nó thật tốt khi tôi vắng mặt", ông viết.
Dù bị Google sa thải, mới đây Blake Lemoine nói công ty cũ đang tiếp cận AI một cách "an toàn và có trách nhiệm", theo trang Futurism.
Blake Lemoine không nghĩ rằng Google đang "bị OpenAI thúc đẩy" và công ty đứng sau ChatGPT không ảnh hưởng đến "quỹ đạo của Google".
“Tôi nghĩ Google sẽ làm mọi việc theo cách mà họ tin là an toàn và có trách nhiệm, còn OpenAI chỉ đơn giản là phát hành một cái gì đó”, Blake Lemoine cho hay.
Ông tuyên bố Bard được Google phát triển vào giữa năm 2021, trước khi ChatGPT trình làng vào tháng 11.2022.
"Khi đó chatbot chưa được gọi là Bard, nhưng Google đang làm việc trên nó và cố gắng tìm ra liệu việc phát hành nó có an toàn không. Google dự định phát hành một sản phẩm vào mùa thu năm 2022. Vì vậy, chatbot này đáng ra sẽ trình làng gần đúng thời điểm OpenAI phát hành ChatGPT hoặc trước đó. Song một phần vì những lo ngại về an toàn mà tôi nêu ra, họ đã xóa nó”, Blake Lemoine kể lại.
Gia nhập Google vào năm 2015, Blake Lemoine nói rằng công ty cũ có "công nghệ tiên tiến hơn nhiều" nhưng chưa phát hành. Kỹ sư này cho biết một sản phẩm về cơ bản sở hữu các khả năng tương tự như Bard có thể đã được Google phát hành cách đây hai năm. Thế nhưng, Google đã "đảm bảo rằng nó không tạo ra mọi thứ quá ngẫu nhiên, không có cơ sở hoặc không chính xác, đảm bảo rằng nó không có phân biệt chủng tộc hoặc giới tính, không thành kiến chính trị và những thứ tương tự”.
Bị lãnh đạo phản đối, hai kỹ sư Google tạo chatbot AI giống ChatGPT từ năm 2018 nghỉ việc
Nhiều năm trước, hai kỹ sư Google đã thúc đẩy lãnh đạo phát hành một chatbot tương tự ChatGPT song vấp phải sự phản đối, theo trang The Wall Street Journal.
Vào khoảng năm 2018, Daniel De Freitas, từng là kỹ sư nghiên cứu tại Google, bắt đầu làm việc trong một dự án phụ về AI với mục tiêu tạo ra một chatbot đàm thoại bắt chước cách con người nói. Các đồng nghiệp cũ của Daniel De Freitas quen thuộc về vấn đề tiết lộ thông tin này với The Wall Street Journal.
Noam Shazeer, kỹ sư phần mềm thuộc đơn vị nghiên cứu AI của Google, sau đó đã tham gia dự án.
Theo The Wall Street Journal, Daniel De Freitas và Noam Shazeer đã có thể xây dựng một chatbot mang tên Meena, có thể tranh luận về triết học, nói chuyện bình thường về các chương trình tivi, tạo ra các câu nói đùa.... Daniel De Freitas và Noam Shazeer tin rằng Meena có thể thay đổi hoàn toàn cách mọi người tìm kiếm trực tuyến.
Thế nhưng, những nỗ lực của Daniel De Freitas và Noam Shazeer để khởi chạy chatbot (sau này đổi tên thành LaMDA, mô hình ngôn ngữ đằng sau Bard) đã đi vào bế tắc khi các lãnh đạo Google cho biết chatbot không tuân thủ các tiêu chuẩn công bằng và an toàn AI của công ty. Các lãnh đạo Google đã cản trở nhiều nỗ lực của hai kỹ sư này nhằm gửi chatbot cho nhà nghiên cứu bên ngoài, thêm tính năng trò chuyện vào trợ lý Google và tung bản demo ra công chúng.
Chán nản với phản hồi của lãnh đạo, Daniel De Freitas và Noam Shazeer rời Google vào gần cuối năm 2021 để thành lập công ty riêng Character Technologies Inc, dù đích thân Giám đốc điều hành Sundar Pichai đề nghị họ ở lại và tiếp tục làm việc trên chatbot, theo The Wall Street Journal.
Character Technologies Inc, hiện có tên là Character.ai, sau đó đã phát hành một chatbot có thể nhập vai thành những nhân vật như Elon Musk hay Mario (của Nintendo).
"Nó đã gây ra một chút chấn động bên trong Google, nhưng cuối cùng chúng tôi nghĩ rằng có lẽ sẽ gặp nhiều may mắn hơn khi tung ra những thứ như vậy từ một công ty khởi nghiệp", Noam Shazeer thổ lộ trong cuộc phỏng vấn với các nhà đầu tư.