'Át chủ bài' mới của DeepSeek lộ diện

DeepSeek vừa tung ra phiên bản nâng cấp mới nhất của mô hình ngôn ngữ lớn có tên mã V3-0324 với những cải tiến đáng kể về khả năng lập luận và lập trình.

 AI mới của DeepSeek tiếp tục gây sốt trong giới công nghệ với hiệu năng vượt trội. Ảnh: SCMP.

AI mới của DeepSeek tiếp tục gây sốt trong giới công nghệ với hiệu năng vượt trội. Ảnh: SCMP.

DeepSeek chính thức giới thiệu DeepSeek V3-0324, phiên bản mới nhất trong dòng mô hình ngôn ngữ lớn (LLM) V3.

Cũng giống như các phiên bản trước, mô hình này được phát hành miễn phí mã nguồn mở thông qua nền tảng Hugging Face, với những bước tiến vượt trội so với các phiên bản trước đó, đặc biệt trong lĩnh vực lập luận và lập trình.

Cụ thể, theo OpenRouter, DeepSeek V3-0324 được xây dựng bằng cách sử dụng Mixture of Experts (MoE), một phương pháp học máy rất phổ biến trong một số mô hình AI của Trung Quốc và có 685 tỷ tham số.

Theo các đánh giá ban đầu, mô hình này thể hiện hiệu suất ấn tượng trong nhiều tác vụ khác nhau. Trong khi đó, một bài đăng trên Reddit cho thấy DeepSeek V3-0324 đã bắt kịp mô hình Sonnet 3.7 của Claude trong một bài kiểm tra về khả năng sáng tạo đoạn mã lập trình.

Các nguồn tin cũng chỉ ra rằng DeepSeek V3-0324 có khả năng tạo ra những đoạn code dài mà không gặp lỗi nào. Chuyên trang AI Analytics Vidhya đã thử nghiệm mô hình này và ghi nhận khả năng tạo ra 700 dòng code một cách trơn tru.

Trên X, ứng dụng của DeepSeek V3-0324 cũng tạo ra tiếng vang lớn. Để chứng minh, tài khoản Deepanshu Sharma đã đăng tải một đoạn video cho thấy mô hình AI này có thể tạo ra một trang web hoàn chỉnh với hơn 800 dòng code một cách mượt mà.

DeepSeek trở thành công ty AI Trung Quốc được chú ý nhất vào tháng 12/2024 khi tung ra DeepSeek-V3. Mô hình này đạt hiệu suất ngang ngửa GPT-4o nhưng chỉ dùng một phần nhỏ tài nguyên tính toán.

Không lâu sau, DeepSeek tiếp tục ra mắt mô hình lý luận DeepSeek-R1. Theo TechCrunch, R1 vượt trội o1 của OpenAI trên các tiêu chuẩn đánh giá như AIME, MATH-500 và SWE-bench Verified.

Đồng thời, con số 5,6 triệu USD để huấn luyện giai đoạn cuối của mô hình của DeepSeek cũng gây sốc, so với hàng trăm triệu USD mà các công ty hàng đầu của Mỹ phải chi để huấn luyện các mô hình của mình.

Anh Tuấn

Nguồn Znews: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html