Nhiều ông lớn công nghệ ấp ủ tham vọng với mô hình ngôn ngữ nhỏ
Từng chi hàng tỷ USD để phát triển các mô hình ngôn ngữ lớn, các công ty trí tuệ nhân tạo hiện đang chuyển sang nghiên cứu mô hình ngôn ngữ nhỏ nhằm giúp giảm hao tổn tài nguyên, đồng thời đảm bảo hiệu suất thực hiện công việc.
Apple, Microsoft, Meta và Google gần đây đã phát hành các mô hình AI mới tiêu tốn ít tham số - số lượng biến được sử dụng để huấn luyện hệ thống AI, nhưng vẫn hoạt động hiệu quả.
Động thái này nhằm hỗ trợ các doanh nghiệp sử dụng AI tiết giảm chi phí, trong bối cảnh những lo ngại ngày càng tăng về nguồn vốn khổng lồ và dữ liệu tính toán cần thiết để vận hành các mô hình ngôn ngữ lớn – nền tảng của các chatbot phổ biến hiện nay như: ChatGPT.
Thông thường, số lượng các tham số càng lớn sẽ đảm bảo cho hiệu suất và khả năng mà AI thực hiện các nhiệm vụ phức tạp. Mẫu GPT-4o của OpenAI và Gemini 1.5 Pro của Google được công bố trong tuần này, với số lượng tham số ước tính có thể vượt hơn 1 nghìn tỷ. Trong khi đó, Meta đang phát triển phiên bản 400 tỷ tham số của mô hình Llama.
Tuy nhiên, việc phải đối mặt với các thách thức như: nguồn vốn và dữ liệu khổng lồ để vận hành các sản phẩm AI tổng hợp, hay những vấn đề về pháp lý đã buộc các công ty Meta và Google nghiên cứu các mô hình ngôn ngữ nhỏ chỉ với vài tỷ tham số. Những mô hình này sẽ giúp các công ty giảm thiểu chi phí bỏ ra, tiết kiệm năng lượng, có khả năng tùy chỉnh cũng như hạn chế được các nguồn dữ liệu nhạy cảm.
Eric Boyd, Phó giám đốc phụ trách nền tảng AI Azure của Microsoft, cho biết: “Những mô hình này hoạt động với hiệu suất cao, đảm bảo chất lượng thông tin mà khách hàng muốn tìm kiếm, mà vẫn có thể giúp doanh nghiệp tiết kiệm được chi phí do tốn ít tài nguyên hơn”.
Google, Meta, Microsoft và công ty công nghệ Mistral của Pháp đã phát hành các mô hình ngôn ngữ nhỏ với những bước tiến vượt bậc.
Nick Clegg, giám đốc phụ trách các vấn đề toàn cầu của Meta, cho biết mô hình 8 tỷ tham số của Llama 3 có thể so sánh với GPT-4.
“Dù với bất kỳ phép đo nào, mô hình này đều cho thấy hiệu suất vượt trội” – ông cho biết.
Trong khi đó, Microsoft cho rằng mô hình Phi-3 của mình, với 7 tỷ tham số hoạt động hiệu quả hơn so với GPT-3.5 của OpenAI.
Các mô hình nhỏ có thể xử lý những tác vụ cục bộ ngay trên thiết bị thay vì gửi thông tin lên hệ thống đám mây, điều có thể sẽ thu hút những khách hàng quan tâm đến quyền riêng tư, muốn đảm bảo thông tin luôn được giữ trong mạng nội bộ.
Charlotte Marshall, luật sư tại Addleshaw Goddard, một công ty luật tư vấn cho ngân hàng, cho biết: “Một trong những thách thức mà nhiều khách hàng của chúng tôi luôn gặp phải khi sử dụng các sản phẩm AI là vấn đề tuân thủ yêu cầu pháp lý và truyền dữ liệu. Các mô hình nhỏ sẽ giúp cho doanh nghiệp hạn chế gặp phải những điều này”.
Ngoài ra, các mô hình AI nhỏ này cũng được tích hợp nhiều hơn trên thiết bị di động, chẳng hạn như: mô hình Gemini Nano của Google được thích hợp vào mẫu điện thoại Pixel mới nhất và dòng điện thoại S24 của Samsung.
Apple cũng cho biết đang phát triển các mô hình AI trên dòng iPhone bán chạy nhất. Tháng trước, ông lớn công nghệ này đã giới thiệu mô hình OpenELM, một mô hình có thể thực hiện hiệu quả các tác vụ liên quan đến viết văn bản như email.
Giám đốc OpenAI Sam Altman cho biết công ty đã cung cấp các mô hình AI với quy mô khác nhau cho khách hàng nhằm phục vụ các nhiệm vụ riêng biệt. Vị giám đốc này xác nhận đội ngũ nhân viên của OpenAI sẽ tiếp tục phát triển và cung cấp các mô hình này.
“Có một số chức năng mà các mô hình nhỏ hơn thực hiện thực sự tốt. Tôi rất vui mừng vì điều này” – ông nói thêm.
Tuy nhiên, Altman cho biết OpenAI sẽ vẫn tập trung vào việc xây dựng các mô hình AI lớn với khả năng thực hiện các nhiệm vụ phức tạp hơn, như khả năng suy luận, lập kế hoạch và thực hiện các nhiệm vụ tương tự con người.