Nvidia tìm 'mỏ vàng' AI mới ngoài Thung lũng Silicon, giảm lệ thuộc Google, Microsoft và Amazon

Nvidia thiết lập mối quan hệ với các quốc gia và neocloud nhằm giảm lệ thuộc vào Google, Microsoft và Amazon.

Neocloud là một thuật ngữ dùng để chỉ nhà cung cấp dịch vụ đám mây mới nổi hoặc nhỏ hơn, chuyên biệt hơn, được xem như đối thủ cạnh tranh hoặc giải pháp thay thế cho nhà cung cấp đám mây lớn (hyperscaler) như Amazon Web Services, Microsoft Azure và Google Cloud.

Nvidia đang tìm cách giảm sự phụ thuộc vào những hãng công nghệ lớn bằng cách thiết lập mối quan hệ đối tác mới để bán chip trí tuệ nhân tạo (AI) cho các quốc gia, tập đoàn và đối thủ mới nổi của Microsoft, Amazon, Google.

Hôm 13.5, Nvidia đồng ý bán hàng trăm nghìn chip AI ở Ả Rập Saudi, trong đó phần lớn cung cấp cho Humain - công ty khởi nghiệp AI do quỹ đầu tư quốc gia của nước này thành lập. Đây là dấu hiệu cho thấy nhu cầu với chip AI của Nvidia vẫn đang tăng mạnh.

Ngày 14.5, Mỹ và UAE đã đạt thỏa thuận sơ bộ cho phép quốc gia Trung Đông này nhập khẩu 500.000 chip AI tiên tiến nhất Nvidia mỗi năm, bắt đầu từ năm nay. Thỏa thuận có hiệu lực đến ít nhất năm 2027, không loại trừ khả năng kéo dài đến 2030, góp phần thúc đẩy nỗ lực xây dựng các trung tâm dữ liệu quan trọng để phát triển mô hình AI mà UAE đang theo đuổi.

UAE đã thông báo kế hoạch xây một trong những trung tâm dữ liệu lớn nhất thế giới, phối hợp với chính phủ Mỹ.

Hãng G42 (UAE) dự kiến được nhập 100.000 chip AI Nvidia mỗi năm, số còn lại được chia cho các công ty Mỹ chuẩn bị xây trung tâm dữ liệu tại UAE như Microsoft và Oracle. Theo nguồn tin của Reuters, sự đàm phán chưa kết thúc nên thỏa thuận còn có thể thay đổi.

Các thỏa thuận “AI có chủ quyền” như vậy là một phần cốt lõi trong chiến lược của Nvidia nhằm thu hút khách hàng vượt xa phạm vi Thung lũng Silicon (Mỹ). Hãng chip AI có vốn hóa thị trường 3.300 tỉ USD đang quyết tâm mở rộng kinh doanh ra ngoài nhóm gọi là hyperscalers (các hãng điện toán đám mây lớn chiếm hơn một nửa doanh thu trung tâm dữ liệu của Nvidia), theo những giám đốc, người trong ngành và nhà phân tích.

Nvidia đang tích cực làm việc để hỗ trợ các nhà cung cấp dịch vụ đám mây mới nổi, có thể là đối thủ cạnh tranh tiềm năng với Amazon Web Services, Microsoft Azure và Google Cloud. Cụ thể hơn, gã khổng lồ chip AI Mỹ đưa các neocloud như CoreWeave, Nebius, Crusoe và Lambda vào mạng lưới “Đối tác đám mây Nvidia” đang phát triển của mình.

Những công ty này được ưu tiên tiếp cận nguồn lực nội bộ Nvidia, như các nhóm kỹ sư tư vấn cách thiết kế và tối ưu hóa trung tâm dữ liệu cho phù hợp với thiết bị chuyên dụng của hãng.

Ngoài ra, Nvidia còn giúp các đối tác đám mây dễ dàng hợp tác hơn với những nhà cung cấp có thể tích hợp chip AI của hãng vào máy chủ và thiết bị trung tâm dữ liệu, chẳng hạn đẩy nhanh quy trình mua sắm. Trong một số trường hợp, Nvidia thậm chí đầu tư vào neocloud như CoreWeave và Nebius.

Vào tháng 2, Nvidia tuyên bố rằng CoreWeave là “nhà cung cấp dịch vụ đám mây đầu tiên cung cấp nền tảng Blackwell ra thị trường rộng rãi”. Blackwell là thế hệ bộ xử lý mới nhất của Nvidia cho các trung tâm dữ liệu AI.

Nvidia vươn tầm ngoài Thung lũng Silicon, bắt tay với các chính phủ và neocloud, để giảm lệ thuộc các nhà cung cấp đám mây lớn - Ảnh: Internet

Nvidia vươn tầm ngoài Thung lũng Silicon, bắt tay với các chính phủ và neocloud, để giảm lệ thuộc các nhà cung cấp đám mây lớn - Ảnh: Internet

Những tháng gần đây, Nvidia cũng thiết lập quan hệ đối tác với các nhà cung cấp như Cisco, Dell và HP để hỗ trợ bán hàng cho các khách hàng doanh nghiệp tự quản lý hạ tầng CNTT thay vì thuê dịch vụ đám mây.

“Ngày hôm nay, tôi chắc chắn hơn về cơ hội kinh doanh bên ngoài các nhà cung cấp đám mây lớn so với một năm trước”, ông Jensen Huang, Giám đốc điều hành Nvidia, chia sẻ với trang Financial Times hồi tháng 3.

Tìm "mỏ vàng" AI mới ngoài Thung lũng Silicon

Chuyến công du vùng Vịnh của ông Jensen Huang trong tuần trước cùng Tổng thống Mỹ Donald Trump cho thấy một chiến lược mà Nvidia muốn nhân rộng trên toàn cầu.

Các nhà phân tích ước tính rằng thỏa thuận với Humain (Ả Rập Saudi) và kế hoạch xây trung tâm dữ liệu khổng lồ tại Abu Dhabi (thủ đô UAE) của G42 sẽ mang về thêm hàng tỉ USD doanh thu hàng năm cho Nvidia. Các lãnh đạo Nvidia tiết lộ đã được nhiều chính phủ khác tiếp cận để mua chip phục vụ cho các dự án AI có chủ quyền tương tự.

Ông Jensen Huang, Giám đốc điều hành Nvidia - Ảnh: Reuters

Ông Jensen Huang, Giám đốc điều hành Nvidia - Ảnh: Reuters

Ông Jensen Huang ngày càng công khai hơn về nỗ lực đa dạng hóa hoạt động kinh doanh của Nvidia. Năm 2024, Nvidia ra mắt Blackwell kèm theo trích dẫn phát biểu ủng hộ dòng chip AI này từ tất cả hãng công nghệ lớn. Thế nhưng, khi Giám đốc điều hành Nvidia giới thiệu Rubin (dòng chip AI tiếp theo sau Blackwell) tại hội nghị GTC hồi tháng 3, các hãng công nghệ lớn đó ít xuất hiện hơn trong bài thuyết trình của ông, thay vào đó là những cái tên như CoreWeave và Cisco.

Ông Jensen Huang nói tại hội nghị GTC rằng “mọi ngành công nghiệp sẽ có các nhà máy AI riêng”, tức những cơ sở được xây dựng chuyên biệt để vận hành các chip mạnh mẽ của Nvidia. Điều này mở ra cơ hội kinh doanh lên tới hàng trăm tỉ USD.

Tuy nhiên, thách thức với Nvidia là các hãng công nghệ lớn hiện là “những người có khả năng kiếm tiền bền vững từ AI”, theo lời một giám đốc neocloud có quan hệ gần gũi với Nvidia.

“Thị trường doanh nghiệp có thể là mục tiêu mở rộng tiếp theo, nhưng Nvidia vẫn chưa thật sự chiếm lĩnh được”, giám đốc này nhận xét.

Mối lo các hãng công nghệ lớn phát triển chip AI riêng

Doanh số bán hàng mảng trung tâm dữ liệu doanh nghiệp của Nvidia đã tăng gấp đôi trong quý tài chính gần nhất (kết thúc tháng 1), còn các nhà cung cấp đám mây hoạt động ở quy mô khu vực hoặc quốc gia cũng chiếm tỷ trọng lớn hơn về doanh thu. Tuy nhiên, Nvidia vẫn cảnh báo các nhà đầu tư trong các hồ sơ pháp lý rằng họ vẫn phụ thuộc vào “một số lượng khách hàng hạn chế”, được cho là các hãng công nghệ lớn đang vận hành những dịch vụ điện toán đám mây và internet tiêu dùng lớn nhất thế giới.

Các hãng công nghệ lớn này đang phát triển chip AI riêng và đẩy mạnh cung cấp cho khách hàng của mình như một lựa chọn thay thế sản phẩm Nvidia.

Amazon Web Services, nhà cung cấp đám mây lớn nhất, đang tìm cách giành vị trí trong lĩnh vực huấn luyện AI, nơi Nvidia đã thống trị kể từ khi ChatGPT của OpenAI khởi động làn sóng AI tạo sinh cách đây hai năm rưỡi.

Công ty khởi nghiệp Anthropic, với Amazon là nhà đầu tư lớn, đang sử dụng chip Trainium của Amazon Web Services để huấn luyện và vận hành các mô hình AI mới. Anthropic là đối thủ lớn của OpenAI.

“Hiện có rất nhiều khách hàng đang thử nghiệm Trainium và phát triển các mô hình AI”, ông Dave Brown, Phó chủ tịch phụ trách điện toán và mạng tại Amazon Web Services, nói.

Together AI, neocloud tập trung vào AI mã nguồn mở, trở thành đối tác đám mây của Nvidia vào tháng 3. Ông Vipul Ved Prakash, Giám đốc điều hành Together AI, cho biết danh hiệu này “giúp bạn có quyền tiếp cận rất tốt vào tổ chức của Nvidia”.

“Nếu các hyperscaler sớm muộn gì cũng trở thành đối thủ cạnh tranh và không còn là khách hàng, việc Nvidia xây dựng một hệ sinh thái đám mây riêng là rất quan trọng. Tôi nghĩ đây là một trong những trọng tâm của họ”, Vipul Ved Prakash nhận định.

Lãnh đạo một neocloud khác cho biết Nvidia đang lo ngại về việc các hãng công nghệ lớn chuyển sang sử dụng chip AI tùy chỉnh của riêng mình.

“Đó là lý do vì sao tôi nghĩ Nvidia đang đầu tư vào các neocloud. Một nửa doanh thu của Nvidia đến từ các hyperscaler, nhưng sớm muộn gì họ cũng sẽ mất phần lớn trong số đó”, vị lãnh đạo này bình luận.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/nvidia-tim-mo-vang-ai-moi-ngoai-thung-lung-silicon-giam-le-thuoc-google-microsoft-va-amazon-232761.html