Google dùng sức mạnh tài chính, cố gắng phá thế thống trị chip AI của Nvidia
Khi ngày càng nhiều công ty AI cân nhắc sử dụng TPU, Google muốn tận dụng các thỏa thuận với đối tác bên ngoài để mở rộng thị trường tiềm năng.
Google đang khám phá những cách mới để mở rộng thị trường cho các chip AI (trí tuệ nhân tạo) của mình là TPU. Gã khổng lồ tìm kiếm sử dụng sức mạnh tài chính nhằm xây dựng một hệ sinh thái rộng lớn hơn để cạnh tranh hiệu quả với công ty dẫn đầu thị trường chip AI là Nvidia.
TPU là loại chip do Google phát triển từ năm 2015, được thiết kế chuyên phục vụ các tác vụ liên quan đến AI. Nhờ được tối ưu cho một nhiệm vụ, TPU có thể huấn luyện và vận hành các mô hình AI lớn nhanh hơn, hiệu quả hơn và tiết kiệm điện hơn so với nhiều loại chip truyền thống.
Điểm đáng chú ý là Google không còn giữ TPU cho riêng mình. Thông qua dịch vụ đám mây Google Cloud, gã khổng lồ công nghệ Mỹ cho phép các công ty, tổ chức bên ngoài thuê và sử dụng sức mạnh của TPU để phát triển sản phẩm AI. Chính điều này giúp TPU nhanh chóng trở thành công nghệ lõi của hạ tầng AI thế hệ mới, có thể cạnh tranh với GPU Nvidia trong các trung tâm dữ liệu lớn.
TPU đang được sử dụng rộng rãi hơn trong các tác vụ AI, gồm cả từ công ty khởi nghiệp như Anthropic. Tuy nhiên, Google đang đối mặt với nhiều thách thức khi tìm cách ở rộng và phát triển TPU hơn nữa.
Hai vấn đề chính là tình trạng tắc nghẽn tại đối tác sản xuất TPU và sự quan tâm hạn chế từ các hãng lớn trong lĩnh vực điện toán đám mây, vốn là khách hàng mua chip AI Nvidia lớn nhất, theo những người am hiểu vấn đề.

Google muốn tận dụng các thỏa thuận với đối tác bên ngoài để mở rộng thị trường chip AI tiềm năng - Ảnh: WSJ
Thúc đẩy tiềm năng tăng trưởng của Fluidstack
Để mở rộng thị trường tiềm năng, Google đang tăng cường hỗ trợ tài chính cho một mạng lưới các đối tác trung tâm dữ liệu có thể cung cấp năng lực điện toán cho nhiều khách hàng hơn, theo những người quen thuộc với kế hoạch của công ty.
Google đang đàm phán đầu tư khoảng 100 triệu USD vào công ty khởi nghiệp điện toán đám mây Fluidstack, trong một thỏa thuận định giá hãng này khoảng 7,5 tỉ USD, theo các nguồn tin.
Fluidstack là một trong số ngày càng nhiều công ty thuộc nhóm neocloud - chuyên cung cấp dịch vụ điện toán cho các hãng AI và khách hàng khác. CoreWeave là một trong những nhà vận hành neocloud lớn nhất, cung cấp quyền truy cập các GPU (bộ xử lý đồ họa), chủ yếu từ Nvidia.
Google muốn giúp thúc đẩy tiềm năng tăng trưởng của Fluidstack và khuyến khích nhiều nhà cung cấp năng lực điện toán sử dụng TPU hơn.
Ngoài ra, Google đã thảo luận về việc mở rộng cam kết tài chính của mình với những đối tác trung tâm dữ liệu khác, điều có thể dẫn đến nhu cầu TPU tăng thêm. Google đã bảo lãnh tài chính cho các dự án liên quan đến Hut 8, Cipher Mining và TeraWulf, vốn là các công ty khai thác tiền mã hóa trước đây nhưng đang phát triển trung tâm dữ liệu.
Cipher Mining từ chối bình luận, còn Hut 8 và TeraWulf không phản hồi câu hỏi về chuyện này.
Một số quản lý tại Google Cloud (bộ phận điện toán đám mây của Google) gần đây đã khơi lại cuộc tranh luận nội bộ kéo dài từ lâu về việc tái cấu trúc nhóm TPU thành một đơn vị độc lập. Kế hoạch như vậy có thể giúp Google mở rộng cơ hội đầu tư, gồm cả việc huy động vốn từ bên ngoài.
Thách thức với bất kỳ đơn vị độc lập tiềm năng nào là hoạt động điện toán đám mây của Google hiện phụ thuộc nhiều vào chip AI Nvidia, theo một số nguồn tin.
Đại diện Google cho biết công ty không có kế hoạch tách bộ phận TPU thành một đơn vị riêng. Việc giữ đội ngũ phát triển chip gắn kết chặt chẽ với các bộ phận khác giúp các kỹ sư phát triển mô hình Gemini dễ dàng điều chỉnh và tối ưu thiết kế chip khi cần.
Năm 2018, Google bắt đầu bán quyền truy cập TPU thông qua dịch vụ đám mây của mình. Theo hãng nghiên cứu SemiAnalysis, Google trước đây chủ yếu thu hút người dùng TPU thông qua bộ phận đám mây, nhưng hiện cũng bán trực tiếp chip AI này cho khách hàng bên ngoài.
Các biện pháp này thể hiện nỗ lực mở rộng thị trường tiềm năng cho TPU, vốn được khách hàng AI đánh giá cao về hiệu quả trong việc huấn luyện một số mô hình và thực hiện các tác vụ suy luận. Suy luận là giai đoạn AI sử dụng kiến thức đã học để tạo đầu ra, chẳng hạn câu trả lời của chatbot.
Dấu hiệu cho thấy tầm quan trọng ngày càng tăng của nhóm TPU là việc Amin Vahdat, người dẫn dắt việc phát triển chip và mạng lưới của Google, mới đây đã được thăng chức lên vị trí kỹ sư trưởng về cơ sở hạ tầng AI, báo cáo trực tiếp cho Giám đốc điều hành Sundar Pichai.
Tháng 4.2025, Google đã giới thiệu TPU thế hệ thứ bảy mang tên Ironwood, được thiết kế cho các tác vụ suy luận AI. So với GPU, vốn ban đầu được thiết kế cho game, các kỹ sư cho biết TPU đôi khi phù hợp hơn với khối lượng tính toán AI lớn mà không yêu cầu độ chính xác quá cao.
Alphabet đến nay đã hợp tác với Broadcom trong thiết kế TPU và nhờ TSMC sản xuất chip. TSMC (Đài Loan) là hãng sản xuất chip theo hợp đồng số 1 thế giới.
Khó khăn trong tăng sản lượng TPU
Google có thể phải đối mặt với những trở ngại trong việc tăng sản lượng TPU. TSMC có thể ưu tiên khách hàng lớn nhất là Nvidia hơn Google do năng lực sản xuất chip tiên tiến của nhà máy đang bị quá tải bởi nhu cầu liên quan đến AI tăng vọt.
Google cũng dễ bị ảnh hưởng bởi tình trạng thiếu chip nhớ, thành phần thiết yếu của chip AI.
Trong năm qua, ngày càng nhiều công ty phát triển và vận hành AI quan tâm đến TPU, nhằm tận dụng năng lực tính toán tiết kiệm chi phí hơn và tránh phụ thuộc quá mức vào Nvidia.
Tháng 11.2025, tờ Wall Street Journal đưa tin Meta Platforms đã đàm phán với Google về việc sử dụng TPU. Song trong tuần này, Meta Platforms lại tăng cường quan hệ với Nvidia bằng kế hoạch mua thêm hàng triệu chip AI, gồm cả CPU. trị giá hàng chục tỉ USD.
Nvidia cho biết thỏa thuận này gồm các GPU Blackwell hiện tại cũng như phiên bản Rubin sắp ra mắt. Thỏa thuận cũng gồm cả việc triển khai độc lập các CPU Grace và Vera của Nvidia.
Nvidia đã giới thiệu các CPU này, dựa trên công nghệ từ Arm Holdings, từ năm 2023 như những sản phẩm bổ trợ cho các chip AI của mình. Công ty Mỹ đang hướng tới việc mở rộng các CPU này trong những lĩnh vực mới nổi như vận hành tác tử AI, cũng như thâm nhập vào thị trường bộ xử lý dùng cho tác vụ kỹ thuật hàng ngày như vận hành cơ sở dữ liệu.
Tác tử AI là loại AI không chỉ phản hồi theo yêu cầu đơn thuần mà có khả năng quan sát, phán đoán và tự hành động để hoàn thành mục tiêu thay mặt người dùng.
Hồi tháng 10.2025, một số trang đưa tin công ty khởi nghiệp Anthropic và Google đang đàm phán thỏa thuận nhiều tỉ USD. Theo đó, Google sẽ cung cấp cho Anthropic nhiều tài nguyên điện toán đám mây hơn, cụ thể là TPU. Theo đó, Anthropic có thể được cấp tới 1 triệu TPU từ Google. Thỏa thuận này dự kiến sẽ đem lại công ty phát triển chatbot Claude hơn 1 gigawatt công suất điện toán từ Google Cloud vào khoảng năm 2026.
Tuy vậy, sự quan tâm với TPU từ các nhà cung cấp dịch vụ đám mây lớn vẫn còn hạn chế, một phần vì họ coi Google là đối thủ cạnh tranh. Amazon Web Services, bộ phận điện toán đám mây của Amazon, cũng đã phát triển các chip AI riêng.














