Chìa khóa cho vấn đề của AI

Các ông lớn công nghệ và nhiều startup đang thử nghiệm những cách tiếp cận mới để giải quyết một vấn đề nan giải của AI: Năng lượng.

"Tôi không thể hiểu nổi," Andrew Wee, người đã có 30 năm kinh nghiệm trong lĩnh vực trung tâm dữ liệu và phần cứng ở Thung lũng Silicon nói.

Thứ khiến ông bối rối, thậm chí tức giận — là nhu cầu năng lượng dự kiến của các siêu máy tính AI trong tương lai, những cỗ máy được cho là sẽ thúc đẩy bước nhảy vọt vĩ đại của nhân loại.

Wee từng giữ các vị trí cấp cao tại Apple và Meta, và hiện là người đứng đầu bộ phận phần cứng cho nhà cung cấp đám mây Cloudflare. Ông tin rằng mức tăng trưởng hiện tại về năng lượng cần thiết cho AI — mà Diễn đàn Kinh tế Thế giới ước tính sẽ là 50% mỗi năm cho đến năm 2030, là không bền vững.

"Chúng ta cần tìm ra các giải pháp kỹ thuật, giải pháp chính sách và các giải pháp khác để giải quyết vấn đề này một cách tập thể", Wee nói.

Con đường mới cho chip AI

Vì mục đích đó, nhóm của Wee tại Cloudflare đang thử nghiệm một loại vi mạch mới hoàn toàn, từ một startup được thành lập vào năm 2023, có tên là Positron, vừa công bố vòng đầu tư mới 51,6 triệu USD.

Những con chip này có tiềm năng tiết kiệm năng lượng hơn nhiều so với chip của Nvidia, công ty dẫn đầu ngành trong tác vụ suy luận.

Đây là quá trình tạo ra phản hồi AI từ các yêu cầu của người dùng. Mặc dù chip Nvidia sẽ tiếp tục được sử dụng để đào tạo AI trong tương lai gần, nhưng việc suy luận hiệu quả hơn có thể giúp các công ty tiết kiệm hàng chục tỷ USD, và một lượng năng lượng tương ứng.

Theo WSJ, có ít nhất hàng chục startup chip đang cạnh tranh để bán cho các nhà cung cấp điện toán đám mây những con chip suy luận được chế tạo tùy chỉnh trong tương lai.

 Chip Ironwood được Google tự phát triển dành riêng cho tác vụ suy luận. Ảnh: Google.

Chip Ironwood được Google tự phát triển dành riêng cho tác vụ suy luận. Ảnh: Google.

Google, Amazon và Microsoft cũng không đứng ngoài cuộc chơi khi đang xây dựng những con chip tập trung vào suy luận làm nền tảng cho chính các công cụ AI nội bộ của riêng họ, và để bán cho những đối tác thông qua các dịch vụ đám mây.

Để đạt được mục tiêu, các nhà sản xuất chip AI mới lạ đang sử dụng một chiến lược "kinh điển": Thiết kế lại chip từ đầu, dành riêng cho lớp tác vụ mới đột nhiên trở nên quan trọng trong điện toán.

Trong quá khứ, đó chính là công thức làm nên card đồ họa, và đó là cách Nvidia xây dựng thành tựu hiện tại. Phải mất một khoảng thời gian sau khi ra đời, chip đồ họa mới có thể được tái sử dụng cho AI, nhưng thực tế là nó cũng chưa bao giờ là một sự phù hợp hoàn hảo.

"Nút thắt cổ chai"

Jonathan Ross - người từng đứng đầu chương trình phát triển chip AI của Google, cho rằng việc ông thành lập startup có tên Groq vì tin rằng vẫn có một cách thiết kế chip hoàn toàn khác, tối ưu chỉ để chạy các mô hình AI mạnh mẽ.

Groq tuyên bố chip của cũng có thể cung cấp sức mạnh AI nhanh hơn nhiều so với con chip tốt nhất của Nvidia, và đặc biệt là chỉ tốn 1/3 năng lượng tương ứng.

Điều này là do thiết kế độc đáo với bộ nhớ được nhúng vào bên trong, thay vì tách rời. Theo Jordan Nanos, một nhà phân tích tại SemiAnalysis, việc startup này có thể cung cấp tác vụ suy luận với chi phí thấp hơn so với các hệ thống của Nvidia là đáng tin cậy.

Trong khi đó, Positron đang thực hiện một cách tiếp cận khác để cung cấp suy luận nhanh hơn. Startup đang là đối tác của Cloudflare đã tạo ra một con chip đơn giản hóa với phạm vi khả năng hẹp hơn, chỉ nhằm mục đích thực hiện các tác vụ nhanh hơn.

Hệ thống thế hệ tiếp theo của Positron dự kiến sẽ cạnh tranh trực tiếp với thế hệ chip tiếp theo của Nvidia, được gọi là Vera Rubin. Nếu dựa trên lộ trình từ Nvidia, chip của Positron sẽ có hiệu suất tốt hơn từ 2-3 lần, trong khi mỗi đơn vị điện năng được đưa vào tốt hơn 3-6 lần, theo Mitesh Agrawal, CEO của Positron cho biết.

 Con chip thế hệ mới của Positron được đơn giản hóa với phạm vi khả năng hẹp hơn, chỉ nhằm mục đích thực hiện các tác vụ nhanh hơn. Ảnh: Positron.

Con chip thế hệ mới của Positron được đơn giản hóa với phạm vi khả năng hẹp hơn, chỉ nhằm mục đích thực hiện các tác vụ nhanh hơn. Ảnh: Positron.

Một sự thật hiển nhiên trong lịch sử điện toán là bất cứ khi nào các kỹ sư phần cứng tìm ra cách làm điều gì đó nhanh hoặc hiệu quả hơn, các lập trình viên, và người tiêu dùng sẽ tìm ra cách sử dụng tất cả lợi ích hiệu suất mới.

Mark Lohmeyer, phó chủ tịch về AI và cơ sở hạ tầng điện toán của Google Cloud, nhận định việc người tiêu dùng và doanh nghiệp áp dụng các mô hình AI mới, đòi hỏi khắt khe hơn đồng nghĩa với việc dù nhóm của ông có thể cung cấp AI hiệu quả hơn bao nhiêu, thì nhu cầu tăng trưởng cho nó vẫn không có hồi kết.

Giống như hầu hết nhà cung cấp AI lớn khác, Google đang nỗ lực tìm kiếm những cách mới triệt để để sản xuất năng lượng để nuôi dưỡng các hệ thống, bao gồm cả năng lượng hạt nhân và nhiệt hạch.

Trong khi các chip mới có thể giúp những công ty riêng lẻ cung cấp AI hiệu quả hơn, ngành công nghiệp này nói chung vẫn đang trên đà tiêu thụ ngày càng nhiều năng lượng. Như một báo cáo gần đây từ Anthropic lưu ý, điều đó có nghĩa là sản xuất năng lượng, chứ không phải trung tâm dữ liệu và chip, có thể là nút thắt cổ chai thực sự cho sự phát triển AI trong tương lai.

Anh Tuấn

Nguồn Znews: https://znews.vn/chia-khoa-cho-van-de-cua-ai-post1572212.html