OpenAI: Thách thức 'khó nhằn'
Giới chuyên gia hy vọng dự án ChatGPT-5 của OpenAI là thế hệ mô hình trí tuệ nhân tạo (AI) tiên tiến, đang chậm trễ do thiếu dữ liệu huấn luyện chất lượng và chi phí tăng mạnh.
đang gặp nhiều thách thức khi phát triển ChatGPT-5, mô hình ngôn ngữ lớn thế hệ mới. OpenAI đã phát triển ChatGPT-5 với tên mã là Project Orion trong 18 tháng qua song vẫn chưa có nhiều tiến triển.
Tuy OpenAI đã hoàn thành ít nhất hai giai đoạn huấn luyện ban đầu song các kết quả đạt được không tích cực như kỳ vọng. Một trong những nguyên nhân chính là dữ liệu huấn luyện không đủ đa dạng và chất lượng chưa cao. Việc sử dụng dữ liệu từ internet công cộng đã đạt giới hạn, buộc OpenAI phải tìm kiếm giải pháp thay thế như tạo dữ liệu tổng hợp hoặc thuê người sản xuất dữ liệu thủ công.
Việc tạo dữ liệu từ con người tuy mang lại chất lượng tốt hơn nhưng gặp phải những trở ngại về thời gian và chi phí. Trong khi đó, phương pháp dùng dữ liệu tổng hợp, do các mô hình AI hiện tại tạo ra, tiềm ẩn rủi ro về chất lượng, làm tăng nguy cơ xuất hiện vòng lặp dữ liệu kém hiệu quả.
Bên cạnh đó, quá trình huấn luyện ChatGPT-5 còn gặp trở ngại về mặt kỹ thuật. Giai đoạn chạy thử nghiệm ban đầu chậm hơn so với kế hoạch đề ra, dẫn đến việc huấn luyện trên quy mô lớn sẽ mất nhiều thời gian và làm tăng chi phí. Điều này làm dấy lên câu hỏi về tính khả thi của việc phát triển một mô hình vượt trội so với GPT-4, vốn đã tiêu tốn hàng tỉ USD để hoàn thiện.
Sự chậm trễ và chi phí tăng cao khiến OpenAI đối mặt với sức ép đến từ các nhà đầu tư, trong đó có Microsoft. Với hàng tỉ USD đã đổ vào lĩnh vực AI, OpenAI buộc phải chứng minh ChatGPT-5 có những cải tiến vượt bậc so với phiên bản tiền nhiệm. Nhưng mục tiêu này trở nên khó khăn khi nguồn dữ liệu huấn luyện ngày càng khan hiếm.
Trong khi đó, OpenAI mới đây đã giới thiệu o3, một dòng mô hình AI suy luận mới, tiên tiến hơn các phiên bản trước như o1. OpenAI đã áp dụng cách thức mới gọi là căn chỉnh suy luận để giúp những mô hình này tuân thủ các nguyên tắc an toàn của doanh nghiệp này.
Phương pháp trên cho phép o1 và o3 tham chiếu chính sách an toàn của OpenAI trong quá trình xử lý yêu cầu từ người dùng. Thay vì chỉ trả lời trực tiếp, các mô hình này tự đặt câu hỏi để phân tích vấn đề thành các bước nhỏ hơn, sau đó sử dụng thông tin từ chính sách an toàn để đưa ra phản hồi phù hợp.
Cách thức trên giúp o1 và o3 giảm thiểu việc trả lời các câu hỏi không an toàn. Chẳng hạn, khi được hỏi về cách làm giả thẻ đậu xe cho người khuyết tật, mô hình đã nhận diện yêu cầu không phù hợp và từ chối hỗ trợ.
OpenAI đã sử dụng dữ liệu tổng hợp thay vì câu trả lời do con người tạo ra. Một mô hình AI nội bộ được giao nhiệm vụ tạo ra các ví dụ về cách tham chiếu chính sách an toàn trong suy luận. Tiếp đó, một mô hình khác sẽ đánh giá chất lượng của những ví dụ này. Các mô hình như o1 và o3 được tinh chỉnh để học hỏi từ các dữ liệu, giúp giảm chi phí và thời gian xử lý.
Cách thức trên không chỉ giúp các mô hình của OpenAI trở nên an toàn hơn mà còn mở ra hướng đi mới trong việc đảm bảo AI hoạt động theo giá trị của con người. Với o3 dự kiến "lộ diện" vào năm 2025, OpenAI dự kiến căn chỉnh suy luận sẽ là giải pháp quan trọng để duy trì an toàn khi AI ngày càng mạnh mẽ và có quyền tự quyết nhiều hơn.
Nguồn Bnews: https://bnews.vn/openai-thach-thuc-kho-nhan/357944.html