GTC 2026: Nvidia ra mắt hệ thống chip cho trung tâm dữ liệu AI trong không gian

Tại GTC 2026, Nvidia đã ra mắt các nền tảng điện toán dành cho trung tâm dữ liệu đặt trên quỹ đạo, một bước tiến được chờ đợi từ lâu nhằm đưa AI lên không gian.

Tại hội nghị dành cho nhà phát triển GTC của Nvidia, Giám đốc điều hành Jensen Huang cho biết, ông kỳ vọng các đơn đặt hàng liên quan đến hai nền tảng chip Blackwell cùng Vera Rubin sẽ đạt tổng cộng 1.000 tỉ USD vào năm 2027.

Năm ngoái, công ty từng dự báo cơ hội doanh thu khoảng 500 tỉ USD từ hai công nghệ chip này. Sau báo cáo tài chính của Nvidia vào tháng trước, Giám đốc tài chính Colette Kress cho biết công ty kỳ vọng tăng trưởng năm nay sẽ vượt xa mức dự báo trong ước tính trước đó.

Jensen Huang nói nhu cầu chip Nvidia đang bùng nổ từ cả các công ty khởi nghiệp lẫn tập đoàn lớn. Cổ phiếu Nvidia tăng khoảng 2% hôm 16.3.

“Nếu có thêm năng lực điện toán, họ có thể tạo ra nhiều token hơn và doanh thu của họ sẽ tăng”, Giám đốc điều hành Nvidia nói tại hội nghị GTC 2026 ở thành phố San Jose, bang California, Mỹ.

Các GPU (bộ xử lý đồ họa) của Nvidia đã biến thương hiệu này thành cái tên quen thuộc trong mọi gia đình và trở thành công ty đại chúng giá trị nhất thế giới, với vốn hóa khoảng 4.500 tỉ USD.

Khi việc ứng dụng AI trên diện rộng chuyển từ chatbot sang các AI tự chủ (agentic) - có thể tạo ra thêm nhiều tác tử AI khác để thực hiện nhiệm vụ - lượng token được tạo ra đã tăng bùng nổ, kéo theo nhu cầu suy luận với tốc độ cao hơn.

Trong bối cảnh AI, token là đơn vị nhỏ của văn bản mà mô hình AI dùng để xử lý và tạo ra nội dung. Token có thể là một từ, một phần của từ, một ký tự hoặc dấu câu, tùy cách hệ thống tách văn bản.

Jensen Huang, phát biểu trong bài diễn thuyết quan trọng tại hội nghị GTC của Nvidia vào ngày 16.3 năm 2026 - Ảnh: Getty Images

Jensen Huang, phát biểu trong bài diễn thuyết quan trọng tại hội nghị GTC của Nvidia vào ngày 16.3 năm 2026 - Ảnh: Getty Images

Vào tháng 2, Nvidia cho biết rằng doanh thu quý này dự kiến tăng khoảng 77% so với cùng kỳ, đạt khoảng 78 tỉ USD. Công ty đã ghi nhận 11 quý liên tiếp có mức tăng trưởng doanh thu trên 55%.

Nvidia dự kiến ra mắt Vera Rubin vào cuối năm nay. Hệ thống này gồm 1,3 triệu linh kiện và sẽ mang lại hiệu năng trên mỗi watt cao gấp 10 lần so với thế hệ trước là Grace Blackwell. Đây là bước tiến đáng kể trong bối cảnh tiêu thụ điện năng là một trong những vấn đề quan trọng nhất với việc xây dựng hạ tầng AI.

Cũng tại GTC 2026, Jensen Huang công bố Groq 3 Language Processing Unit (LPU) của Nvidia, chip đầu tiên đến từ Groq, sau khi Nvidia chi khoảng 20 tỉ USD để mua tài sản và giấy cấp phép công nghệ của công ty khởi nghiệp này vào tháng 12.2025. Đây là thương vụ lớn nhất trong lịch sử Nvidia.

Groq 3 LPU dự kiến bắt đầu giao hàng trong quý 3/2026.

Groq được thành lập bởi những người tạo ra TPU - chip AI nội bộ của Google, vốn đã nổi lên trong những năm gần đây như một đối thủ của GPU Nvidia. Groq 3 LPU được xây dựng để nâng cao công nghệ này, với một lõi được tối ưu hóa nhằm tăng tốc GPU.

Jensen Huang cũng giới thiệu một rack chuyên dụng để chứa các bộ tăng tốc Groq mới.

Rack Groq 3 LPX sẽ chứa 256 LPU và được thiết kế để đặt cạnh hệ thống rack-scale Vera Rubin, dự kiến bắt đầu giao cho khách hàng vào cuối năm nay. Jensen Huang cho biết rack Groq LPX có thể tăng hiệu năng token trên mỗi watt của các GPU Rubin lên gấp 35 lần.

“Chúng tôi đã hợp nhất hai bộ xử lý rất khác nhau: một dành cho thông lượng cao, một dành cho độ trễ thấp. Thế nhưng, điều đó không thay đổi thực tế là chúng ta cần rất nhiều bộ nhớ. Vì vậy, chúng tôi sẽ bổ sung thêm rất nhiều chip Groq, qua đó mở rộng dung lượng bộ nhớ”, tỷ phú 63 tuổi người Mỹ gốc Đài Loan nói.

Rack là khung tủ tiêu chuẩn dùng để lắp và sắp xếp các thiết bị máy tính như máy chủ, GPU, thiết bị mạng và hệ thống lưu trữ. Nói đơn giản, rack giống chiếc tủ kim loại cao trong đó xếp nhiều máy chủ lên các tầng để tiết kiệm không gian và dễ quản lý.

Jensen Huang cũng trình diễn nguyên mẫu Kyber, bước nhảy vọt tiếp theo trong kiến trúc rack của Nvidia sau Rubin. Thiết kế này sẽ tích hợp 144 GPU trong các khay tính toán đặt theo chiều dọc thay vì chiều ngang, nhằm tăng mật độ và giảm độ trễ. Kiến trúc Kyber sẽ xuất hiện trong hệ thống rack-scale tiếp theo Vera Rubin Ultra, dự kiến ra mắt năm 2027.

Rack-scale là một hệ thống máy tính được thiết kế và tối ưu hóa ở cấp độ toàn bộ rack, thay vì chỉ ở cấp độ từng máy chủ riêng lẻ. Trong kiến trúc rack-scale, toàn bộ rack được xem như một “siêu máy tính thống nhất”, nơi mọi thành phần như GPU, CPU, bộ nhớ, mạng và làm mát được thiết kế để hoạt động cùng nhau như một hệ thống duy nhất.

Nền tảng NemoClaw dành riêng cho OpenClaw

Khoảng hai giờ sau khi bắt đầu bài phát biểu chính, Jensen Huang chuyển sang OpenClaw - tác tử AI đang gây sốt của lập trình viên phần mềm Peter Steinberger (người Áo). OpenClaw nhanh chóng trở nên phổ biến, một phần nhờ sự chú ý trên mạng xã hội, khi người dùng và doanh nghiệp đổ xô vào các sản phẩm có thể tự động hoàn thành nhiệm vụ, đưa ra quyết định và hành động thay cho con người mà không cần hướng dẫn liên tục.

Peter Steinberger đã gia nhập OpenAI vào tháng trước và Sam Altman cho biết OpenClaw sẽ “tồn tại trong một quỹ như dự án mã nguồn mở mà OpenAI sẽ tiếp tục hỗ trợ”.

Jensen Huang đã giới thiệu bộ công cụ mới dành cho nhà phát triển để xây dựng và thử nghiệm những khả năng trong các lĩnh vực AI mới bằng phần cứng Nvidia. Ông công bố nền tảng NemoClaw, dành riêng cho OpenClaw, nhằm giúp tác tử AI này sẵn sàng để triển khai trong môi trường doanh nghiệp.

“NemoClaw sẽ tìm OpenClaw, tải về và tự xây dựng cho bạn một tác tử AI”, ông nói.

Trong lĩnh vực ô tô, Jensen Huang cung cấp thêm chi tiết về quan hệ hợp tác đã công bố trước đó với Uber, cho biết dịch vụ gọi xe này sẽ triển khai đội ô tô sử dụng phần mềm tự lái Nvidia Drive AV tại 28 thành phố ở bốn châu lục vào năm 2028, bắt đầu từ thành phố Los Angeles và San Francisco (Mỹ) vào năm tới.

Jensen Huang cũng cho biết các hãng xe Nissan, BYD, Geely, Isuzu và Hyundai đang phát triển xe tự lái cấp độ 4 dựa trên chương trình Nvidia Drive Hyperion. Isuzu và Tier IV (Trung Quốc) cũng đang phát triển xe buýt tự lái sử dụng nền tảng này, với sự hỗ trợ từ chip hệ thống robot Nvidia AGX Thor.

Hệ thống chip Vera Rubin Space-1 cho các trung tâm dữ liệu AI trong không gian

Trong khuôn khổ GTC 2026, Nvidia đã ra mắt các nền tảng điện toán dành cho trung tâm dữ liệu đặt trên quỹ đạo, một bước tiến được chờ đợi từ lâu nhằm đưa AI lên không gian.

“Điện toán không gian – biên giới cuối cùng – đã đến. Khi chúng ta triển khai các chòm vệ tinh và khám phá sâu hơn vào vũ trụ, trí tuệ phải tồn tại ở bất cứ nơi nào dữ liệu được tạo ra”, Jensen Huang nói.

Trong thông cáo báo chí, Nvidia cho biết Vera Rubin Space‑1 Module, gồm Nvidia IGX Thor và Jetson Orin, sẽ được sử dụng trong các sứ mệnh không gian do nhiều công ty dẫn dắt. Các chip này được thiết kế đặc biệt cho những môi trường bị hạn chế nghiêm ngặt về kích thước, khối lượng và điện năng.

Các đối tác tham gia dự án gồm Axiom Space, Starcloud và Planet Labs.

Jensen Huang cho biết Nvidia đang làm việc với các đối tác để phát triển một loại máy tính mới cho các trung tâm dữ liệu trên quỹ đạo, nhưng vẫn còn nhiều thách thức kỹ thuật cần giải quyết.

“Trong không gian không có đối lưu, chỉ có bức xạ. Vì vậy, Nvidia phải tìm ra cách làm mát các hệ thống này trong môi trường vũ trụ, nhưng chúng tôi có rất nhiều kỹ sư giỏi đang giải quyết vấn đề đó”, Jensen Huang nói trong bài phát biểu tại GTC 2026.

Việc xây dựng hàng loạt trung tâm dữ liệu để đáp ứng nhu cầu AI đang bị cho là một trong những nguyên nhân khiến chi phí điện tăng vọt. Ý tưởng đưa trung tâm dữ liệu lên quỹ đạo được xem là một giải pháp, nhưng chi phí phóng tên lửa cao và khả năng phóng còn hạn chế vẫn là những rào cản lớn.

Dù vậy, các công ty AI đang chạy đua tận dụng nguồn năng lượng mặt trời gần như vô hạn trong không gian. Vào tháng 11.2025, Google đã công bố sáng kiến Project Suncatcher, nhằm nghiên cứu khái niệm điện toán đặt ngoài không gian.

Tháng trước, xAI đã được SpaceX của Elon Musk mua lại trong thương vụ trị giá 1.250 tỉ USD, với mục tiêu xây dựng các trung tâm dữ liệu trong không gian.

Thương vụ diễn ra trước khi SpaceX thực hiện một đợt IPO (chào bán cổ phiếu lần đầu ra công chúng lớn) vào năm nay, có thể định giá công ty ở mức 1.500 tỉ USD. Elon Musk cho biết các trung tâm dữ liệu trên quỹ đạo là một trong những lý do chính cho việc sáp nhập SpaceX và xAI.

“Về lâu dài, AI đặt trong không gian rõ ràng là cách duy nhất để mở rộng quy mô”, Elon Musk viết trong bản ghi nhớ công bố việc SpaceX sẽ mua lại xAI đầu tháng 2.

SpaceX cho biết mục tiêu của họ là phóng một “chòm sao gồm 1 triệu vệ tinh hoạt động như các trung tâm dữ liệu trên quỹ đạo” và đã tuyển dụng nhân sự để biến điều đó thành hiện thực. Theo SpaceX, mỗi vệ tinh sẽ tạo ra khoảng 100 kilowatt công suất tính toán trên mỗi tấn trọng lượng và bổ sung 100 gigawatt công suất tính toán AI mỗi năm.

Giống nhiều ý tưởng tham vọng khác của Elon Musk, kế hoạch này bị một số người nghi ngờ về tính khả thi. Song như thường lệ, Giám đốc điều hành SpaceX không hề nản lòng.

Michael Nicolls, Phó chủ tịch phụ trách kỹ thuật Starlink, đầu tháng 2 viết trên X rằng công ty đang tuyển dụng “nhiều vị trí kỹ sư quan trọng” để phát triển các trung tâm dữ liệu trong không gian. Một trong số đó là vị trí “kỹ sư laser không gian” làm việc tại thành phố Redmond, bang Washington, Mỹ.

Việc đặt trung tâm dữ liệu trong không gian có thể hấp dẫn với các cộng đồng như Bắc Virginia (Mỹ), nơi chi phí điện đang tăng và các dự án nhà ở đang cạnh tranh với trung tâm dữ liệu về đất đai.

SpaceX hiện là một trong những khách hàng lớn nhất của Nvidia.

Tháng 1 vừa qua, SpaceX đã đề nghị Ủy ban Truyền thông Liên bang của Mỹ cấp phép phóng 1 triệu vệ tinh phục vụ các trung tâm dữ liệu AI trong không gian. Kế hoạch này vấp phải sự phản đối của nhiều nhà khoa học vì lo ngại tác động môi trường, gồm ô nhiễm ánh sáng và rác thải quỹ đạo.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/gtc-2026-nvidia-ra-mat-he-thong-chip-cho-trung-tam-du-lieu-ai-trong-khong-gian-248701.html