Trung Quốc phê duyệt vài trăm nghìn chip Nvidia H200 cho 3 gã khổng lồ công nghệ
Trung Quốc đã phê duyệt lô chip Nvidia H200 đầu tiên để nhập khẩu, hai nguồn thạo tin nói với Reuters.
Điều này đánh dấu sự thay đổi lập trường khi cường quốc châu Á tìm cách cân bằng giữa nhu cầu AI (trí tuệ nhân tạo) và mục tiêu thúc đẩy phát triển trong nước.
Theo Reuters, việc phê duyệt lần này gồm vài trăm nghìn chip AI H200, được đưa ra sau chuyến thăm Trung Quốc của Jensen Huang (Giám đốc điều hành Nvidia).
Lần phê duyệt lô Nvidia H200 đầu tiên chủ yếu được phân bổ cho ba gã khổng lồ công nghệ Trung Quốc. Các doanh nghiệp khác hiện phải chờ đợt phê duyệt tiếp theo, một nguồn tin của Reuters tiết lộ. Các nguồn tin của Reuters từ chối nêu tên ba công ty được cấp phép mua lô Nvidia H200 đầu tiên.
Bộ Công nghiệp và Công nghệ Thông tin, Bộ Thương mại Trung Quốc cũng như Nvidia chưa phản hồi về chuyện này.
H200, chip AI mạnh thứ hai của Nvidia hiện tại, đã trở thành điểm nóng trong quan hệ Mỹ - Trung. Dù nhu cầu mua H200 từ các công ty Trung Quốc rất lớn và Mỹ đã chấp thuận xuất khẩu, sự do dự của quốc gia châu Á trong việc cho phép nhập khẩu là rào cản chính với việc giao hàng.
Đầu tháng 1, Mỹ đã chính thức mở đường để Nvidia bán H200 cho Trung Quốc, với điều kiện thu về 25% doanh thu. Tuy nhiên, cơ quan chức năng Trung Quốc có tiếng nói cuối cùng về việc H200 có được chuyển vào nước này hay không.

Một máy chủ được trang bị các chip Nvidia H200 - Ảnh: Shutterstock Images
Trước đây, vẫn chưa rõ Trung Quốc có cấp phép nhập khẩu Nvidia H200 hay không, do chính phủ muốn cân bằng giữa việc đáp ứng nhu cầu tăng vọt với chip AI tiên tiến và việc nuôi dưỡng ngành bán dẫn trong nước.
Hôm 14.1, Reuters đưa tin Tổng cục Hải quan Trung Quốc đã thông báo với nhân viên rằng Nvidia H200 không được phép nhập khẩu. Các hãng công nghệ Trung Quốc đã đặt mua hơn 2 triệu H200 với giá khoảng 27.000 USD mỗi chip, vượt xa lượng tồn kho 700.000 chip của Nvidia.
Hiện vẫn chưa rõ có bao nhiêu công ty Trung Quốc khác sẽ được phê duyệt mua H200 trong các đợt tiếp theo, hoặc nước này đang sử dụng tiêu chí nào để xác định đủ điều kiện.
Jensen Huang đã đến thành phố Thượng Hải hôm 23.1 để tham dự các hoạt động thường niên với nhân viên Nvidia tại Trung Quốc, sau đó ghé thủ đô Bắc Kinh và các thành phố khác.
Cân bằng lợi ích
Việc phê duyệt H200 cho thấy Trung Quốc ưu tiên nhu cầu của các gã khổng lồ công nghệ trong nước, vốn đang chi hàng tỉ USD để xây dựng các trung tâm dữ liệu nhằm phát triển dịch vụ AI và cạnh tranh với các đối thủ Mỹ, gồm cả OpenAI và Google
Huawei và các công ty Trung Quốc khác hiện có chip AI với hiệu năng tương đương H20, nhưng vẫn còn kém xa H200.
H200 có hiệu năng cao gấp khoảng 6 lần so với H20, nên trở thành sản phẩm rất hấp dẫn.
Tuy vậy, Reuters cho biết Trung Quốc đã thảo luận về việc yêu cầu các công ty nước này phải mua một tỷ lệ nhất định chip nội địa như điều kiện để được phê duyệt nhập khẩu sản phẩm nước ngoài.
Năm ngoái, ông Trump từng cấm rồi sau đó cho phép xuất khẩu H20, trước đây là chip mạnh nhất của Nvidia từng được bán cho Trung Quốc. Tuy nhiên, Trung Quốc trên thực tế đã chặn các thương vụ này từ khoảng tháng 8.2025, khiến Jensen Huang từng tuyên bố thị phần chip AI của công ty tại nền kinh tế lớn thứ hai thế giới giảm về con số 0.
Dù các công ty Trung Quốc đã phát triển các chip AI riêng, chẳng hạn Ascend 910C của Huawei, Nvidia H200 vẫn được xem là hiệu quả hơn nhiều cho việc huấn luyện quy mô lớn các mô hình tiên tiến.
Việc quay trở lại thị trường Trung Quốc sẽ mang lại lợi nhuận khổng lồ cho Nvidia và cả chính phủ Mỹ, vốn sẽ thu khoản phí 25% trên các thương vụ bán H200.
David Sacks, quan chức phụ trách AI của Nhà Trắng, lập luận rằng việc xuất khẩu H200 sang Trung Quốc sẽ khiến các đối thủ Trung Quốc nản lòng trong việc dốc toàn lực để bắt kịp những thiết kế chip tiên tiến nhất của Nvidia.
Hiệu năng của H200 so với Blackwell
H200 là chip AI đời cũ của Nvidia, dựa trên kiến trúc Hopper ra mắt năm 2022, trước kiến trúc Blackwell mới nhất được công bố năm ngoái.
Là phiên bản nâng cấp của H100, H200 được thiết kế cho các tác vụ AI tạo sinh, mô hình ngôn ngữ lớn và hệ thống siêu máy tính. So với H100, H200 nổi bật nhờ được trang bị bộ nhớ băng thông cao HBM3e dung lượng lớn hơn, giúp tốc độ xử lý dữ liệu nhanh và hiệu quả hơn.
Nvidia cho biết máy chủ AI mới nhất của hãng, tích hợp 72 chip AI Blackwell vào một máy tính duy nhất với các kết nối tốc độ cao giữa chúng, đã cải thiện hiệu năng mô hình Kimi K2 Thinking lên gấp 10 lần so với thế hệ máy chủ H200 trước đó. Mức tăng hiệu năng này tương đương với kết quả mà Nvidia quan sát được từ các mô hình của DeepSeek (Trung Quốc).
Theo báo cáo của Viện Nghiên cứu Tiến bộ, chip Blackwell (hiện được các công ty AI Mỹ sử dụng) nhanh hơn khoảng 1,5 lần so với H200 trong huấn luyện mô hình AI và nhanh gấp 5 lần khi thực hiện các tác vụ suy luận.
Blackwell là dòng chip AI chủ lực hiện nay của Nvidia và chính quyền Trump đến nay vẫn ngăn chặn việc bán chúng cho Trung Quốc, do lo ngại có thể hỗ trợ quân đội và ngành AI của nước này.
Rubin là thế hệ tiếp theo của Blackwell, được tối ưu hóa để mang lại hiệu suất tính toán cao hơn, khả năng xử lý lớn hơn và tiết kiệm năng lượng hơn, đặc biệt cho các trung tâm dữ liệu và ứng dụng AI cực lớn.
Tại triển lãm điện tử tiêu dùng CES 2026 đầu tháng 1, Jensen Huang cho biết Rubin hiện đã ở trạng thái “sản xuất hàng loạt”. Ông nói Rubin có hiệu năng xử lý AI cao gấp 5 lần so với thế hệ trước, khi vận hành chatbot và các ứng dụng AI khác.












