Elon Musk: xAI sẽ dùng Grok để viết lại toàn bộ kho tri thức của nhân loại, có quá nhiều rác

Khi là Elon Musk, bạn không cần phải dựa vào hàng thế kỷ tri thức phổ quát của nhân loại và có thể tự tạo ra tri thức của riêng mình?

“Chúng tôi sẽ dùng Grok 3.5 (có lẽ nên gọi là phiên bản 4), với khả năng suy luận nâng cao, để viết lại toàn bộ kho tri thức của nhân loại, thêm vào những thông tin còn thiếu và xóa bỏ các sai sót”, Elon Musk, Giám đốc điều hành công ty khởi nghiệp xAI, viết trên mạng xã hội X hôm 21.6.

Sau đó, tỷ phú giàu nhất thế giới cho biết sẽ huấn luyện lại mô hình mới nhất của Grok dựa trên nền tảng tri thức đã được làm sạch đó để tránh những thứ vô nghĩa. “Có quá nhiều rác trong bất kỳ mô hình nền tảng nào được huấn luyện bằng dữ liệu chưa được chỉnh sửa”, ông cho biết thêm.

Nhiều năm qua, Elon Musk đã nỗ lực tạo ra hoặc thay đổi các sản phẩm, chẳng hạn X (trước đây gọi là Twitter) và Grok, nhằm thoát khỏi những ràng buộc mà ông cho là mang tính kiểm soát và độc hại từ dòng chính thống.

Trang Insider từng đưa tin rằng đội ngũ hàng trăm “gia sư AI” của Grok đang huấn luyện chatbot này về nhiều chủ đề nhạy cảm nhằm cạnh tranh với ChatGPT của OpenAI, vốn bị Elon Musk coi là quá “thức tỉnh”.

"Thức tỉnh" là thuật ngữ dùng để chỉ chatbot có khuynh hướng thiên tả hoặc có xu hướng đưa ra các phản hồi liên quan đến các vấn đề xã hội, chính trị một cách mạnh mẽ, thường thể hiện sự ủng hộ với các nguyên tắc như công bằng xã hội, bình đẳng, chống phân biệt chủng tộc và ủng hộ các nhóm thiểu số.

Hôm 21.6, Elon Musk đã đề nghị người dùng X phản hồi bài viết của ông bằng các ví dụ về “sự thật gây chia rẽ” có thể dùng trong quá trình huấn luyện lại Grok.

Gary Marcus, nhà phê bình sự cường điệu về AI và giáo sư danh dự tại Đại học New York (Mỹ), ví nỗ lực của Elon Musk với một xã hội u ám trong tiểu thuyết 1984 từ nhà văn George Orwell. Đây không phải là lần đầu ông đưa ra sự so sánh như vậy.

“Giống hệt như cuốn 1984. Vì Grok không thể đồng nhất với niềm tin cá nhân ông, nên ông định viết lại lịch sử để nó phù hợp với quan điểm của mình”, Gary Marcus viết trên X để phản hồi Elon Musk.

Tiểu thuyết 1984 mô tả một xã hội độc tài toàn trị, nơi chính quyền kiểm soát hoàn toàn thông tin, suy nghĩ và hành vi của người dân. Khái niệm như Big Brother, tư tưởng tội phạm và việc viết lại lịch sử để phục vụ ý đồ chính trị đều xuất phát từ tiểu thuyết này.

Big Brother đại diện cho sự giám sát toàn diện, nơi mà mọi hành động, lời nói, thậm chí cả suy nghĩ của người dân đều có thể bị theo dõi và trừng phạt.

Một Grok được làm mới có thể tạo ra tác động thực tế.

Vào tháng 5, ngay khi Elon Musk tạm rút khỏi các hoạt động ở chính quyền Trump để tập trung trở lại cho các công ty của mình, đặc biệt là Tesla, Reuters đưa tin Ban Hiệu quả Chính phủ (DOGE) đang lên kế hoạch mở rộng việc sử dụng Grok để phân tích dữ liệu chính phủ.

“Họ đặt câu hỏi, nhờ Grok soạn báo cáo, phân tích dữ liệu”, một nguồn tin nói với Reuters về cách mà chatbot AI này được sử dụng. Hai nguồn tin khác nói rằng các quan chức tại Bộ An ninh Nội địa Mỹ (DHS) đã được khuyến khích sử dụng Grok dù công cụ AI này chưa được phê duyệt. Một đại diện của Bộ nói với tạp chí The New Republic rằng “DOGE không ép buộc bất kỳ nhân viên nào phải sử dụng công cụ hay sản phẩm cụ thể nào”.

Elon Musk: xAI sẽ huấn luyện lại mô hình mới nhất của Grok dựa trên nền tảng tri thức đã được làm sạch để tránh những thứ vô nghĩa - Ảnh: Internet

Elon Musk: xAI sẽ huấn luyện lại mô hình mới nhất của Grok dựa trên nền tảng tri thức đã được làm sạch để tránh những thứ vô nghĩa - Ảnh: Internet

Grok từng gặp các vấn đề về bảo mật. Hồi tháng 5, sau một “sự chỉnh sửa trái phép” ở hệ thống backend, chatbot AI này bắt đầu thường xuyên nhắc đến cụm từ phân biệt chủng tộc. Công ty đã nhanh chóng khắc phục sự cố, cho biết đã “tiến hành điều tra kỹ lưỡng, triển khai các biện pháp để tăng tính minh bạch và độ tin cậy của Grok”.

Hệ thống backend là thuật ngữ dùng để chỉ phần "chìm" của một ứng dụng, website hoặc hệ thống. Không giống phần frontend (giao diện người dùng) mà bạn có thể nhìn thấy và tương tác trực tiếp, backend hoạt động ẩn mình phía sau để xử lý logic, quản lý dữ liệu và đảm bảo mọi thứ vận hành trơn tru. Trong một ứng dụng như chatbot Grok, backend sẽ chịu trách nhiệm xử lý truy vấn, chạy mô hình AI, lưu trữ và lấy dữ liệu, đồng thời phản hồi lại frontend.

xAI dạy mô hình AI nói chuyện như người thật bằng chủ đề về zombie, cuộc sống trên sao Hỏa

Bạn sẽ mang theo những gì từ ngôi nhà của mình nếu có một cuộc tấn công do zombie gây ra? Bạn muốn sống với kiểu người như thế nào trên sao Hỏa? Đây là hai trong nhiều câu hỏi đang được sử dụng để huấn luyện các mô hình giọng nói AI của xAI, bên cạnh những chủ đề đời thường như tự sửa ống nước tại nhà và lập kế hoạch du lịch, theo các tài liệu mà trang Insider có được.

Những người làm việc tự do của công ty gán nhãn dữ liệu Scale AI đang được trả tiền để ghi âm nhiều cuộc trò chuyện với các người làm hợp đồng khác về chủ đề như định cư trên sao Hỏa (mục tiêu của Elon Musk) và siêu anh hùng, nhằm giúp mô hình giọng nói của xAI nghe giống người thật hơn là robot.

Tính đến tháng 4, Scale AI đang triển khai ít nhất 10 dự án AI tạo sinh cho xAI, theo một bảng điều khiển nội bộ mà Insider xem qua. Bảng điều khiển này liệt kê hơn 100 dự án huấn luyện AI cho xAI cùng các khách hàng khác như Apple, Google DeepMind và Meta Platforms.

Công việc của Scale AI diễn ra trong bối cảnh các công ty trong ngành đua nhau phát triển chatbot có khả năng trò chuyện tự nhiên hơn, giống người hơn, nhằm thu hút người dùng trả tiền cho phiên bản cao cấp của họ.

Insider đã có được bốn tài liệu từ Scale AI (hai bộ hướng dẫn dự án, một bộ hướng dẫn dành cho người kiểm duyệt và một bảng gợi ý chủ đề hội thoại) cho thấy cách thức hoạt động của Dự án Xylophone dành cho xAI.

Các tài liệu này không nêu rõ mô hình AI nào của xAI đang được huấn luyện. Cuối tháng 2, Elon Musk đã công bố thử nghiệm phiên bản giọng nói beta của Grok - mô hình AI duy nhất mà công ty công khai.

Bảng điều khiển của Scale AI cho thấy những người tham gia Dự án Xylophone được yêu cầu ghi âm các cuộc hội thoại ngắn, tập trung vào “chất lượng âm thanh và sự lưu loát tự nhiên”. Những người có kinh nghiệm lồng tiếng được đặc biệt khuyến khích tham gia. Mục tiêu của dự án là “kịch bản hấp dẫn, giọng lồng tiếng xuất sắc và âm thanh chất lượng cao”. Bảng điều khiển của Scale AI không hiển thị cho những người làm hợp đồng nên họ có thể không biết khách hàng là ai.

Trong Dự án Xylophone, người làm việc tự do trên khắp thế giới có thể chọn hàng trăm chủ đề trò chuyện về đạo đức, triết học, kinh doanh và du lịch, rồi ghi âm câu trả lời bằng nhiều ngôn ngữ khác nhau, nhận được vài USD cho mỗi nhiệm vụ. Công việc được chia thành hai dự án. Một dự án chỉ dành cho người được mời có tên Conversations, nơi các lao động tự do làm việc theo nhóm ba người. Một dự án khác có tên Grasslands, nơi họ làm việc một mình.

Trong dự án Conversations, các nhóm được yêu cầu tổ chức các cuộc trò chuyện thực tế qua Zoom. Người tham gia thay phiên nhau hỏi các câu từ một bảng gợi ý. Bảng này gồm hơn 700 câu gợi mở thuộc nhiều chủ đề khác nhau, gồm cả chiến lược sinh tồn hậu tận thế, lên kế hoạch du lịch Ấn Độ, cách xử lý lo âu hoặc cơn hoảng loạn.

Một câu hỏi gợi mở có nội dung: “Nếu định hình văn hóa cho khu định cư đầu tiên trên sao Hỏa, bạn sẽ chọn tái tạo truyền thống nào từ Trái đất và muốn bỏ lại điều gì mãi mãi?”.

Một số câu hỏi khác liên quan đến hệ thống chính trị và tư pháp Mỹ, nhưng không đề cập đến các vấn đề chính trị nóng hổi.

Trong dự án Conversations, nêu yêu cầu các cuộc trò chuyện tốt là phải rõ ràng: “Bản ghi âm phải nghe cực kỳ tự nhiên, như thể bạn đang trò chuyện thoải mái với bạn bè. Hãy thể hiện cảm xúc, thay đổi tông giọng và ngắt lời nhau! Tránh nói chuyện kiểu phỏng vấn”.

Trong dự án Grasslands, những người làm việc một mình được yêu cầu ghi âm tự nhiên, không có kịch bản, bằng ngôn ngữ mẹ đẻ. Mỗi người được giao một loại chủ đề và tiểu mục. Họ được khuyến khích để cuộc trò chuyện diễn ra tự do, trong bất kỳ bối cảnh nào, kể cả có tiếng ồn nền. Có hàng tá tiểu mục, đôi khi yêu cầu các giọng điệu, hiệu ứng âm thanh hoặc mẫu ngôn ngữ được sáng tạo khác nhau.

Hàng trăm “gia sư AI” nội bộ

Ba người tham gia làm việc cho Scale AI, yêu cầu giấu tên vì đã ký cam kết bảo mật, cho biết các dự án được giao dựa trên kỹ năng của từng người.

Hai trong số họ cho biết dự án Grasslands, được phân công dựa trên vị trí và chuyên môn ngôn ngữ, ban đầu trả 3 USD cho mỗi nhiệm vụ, nhưng đã bị giảm xuống còn 1 USD sau khoảng một tháng. Nhân viên hợp đồng có 5 phút để hoàn thành một nhiệm vụ. Mỗi nhiệm vụ là một bản ghi âm. Sau khi ghi âm xong, họ tải file âm thanh lên nền tảng của Scale AI và tự chép lại nội dung, gồm cả từ đệm như “ờ”.

“Nếu ai đó tạm dừng một chút, chúng ta nên thêm dấu phẩy, ngay cả khi về mặt ngữ pháp, dấu phẩy đó không chính xác”, một nhân viên hợp đồng chia sẻ với Insider.

Các mô hình ngôn ngữ lớn cần một lượng dữ liệu chất lượng khổng lồ để cải thiện. Việc tái tạo các tình huống đời thực, chẳng hạn cuộc trò chuyện tự nhiên giữa con người, là một cách tạo ra dữ liệu phù hợp để huấn luyện AI.

Ngoài các công việc thuê ngoài, xAI còn có hàng trăm “gia sư AI” nội bộ và có kế hoạch tuyển thêm hàng nghìn người nữa, theo một báo cáo hồi tháng 2, cho thấy quy mô nhân lực khổng lồ cần thiết để huấn luyện AI.

xAI cũng đã tăng cường kiểm soát những phản hồi không thể đoán trước của Grok. Các nhân viên mới đang đánh giá nguy cơ của Grok, kiểm tra sức chịu đựng của nó với các câu trả lời không an toàn hoặc khả năng vi phạm chính sách, đặc biệt là về các chủ đề gây tranh cãi và trong chế độ mất kiểm soát, Insider cho biết vào tháng 4.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/elon-musk-xai-se-dung-grok-de-viet-lai-toan-bo-kho-tri-thuc-cua-nhan-loai-co-qua-nhieu-rac-234007.html