Cấm bán GPU - đòn hiểm Mỹ giáng vào ngành công nghiệp xe hơi Trung Quốc
Sự kiện thiếu chip vẫn chưa được giải quyết, Mỹ lại ném một quả bom khác vào ngành công nghiệp ô tô Trung Quốc: cấm NVIDIA /AMD bán các GPU cao cấp cho khách hàng Trung Quốc.
Các lý do để cấm vẫn giống như trước: do ẩn giấu các cửa hậu (như lệnh cấm trước đây đối với thiết bị liên lạc của Huawei), có thể được sử dụng cho các mục đích quân sự và gây ra rủi ro an ninh quốc gia cho Mỹ.
Chẳng ai không đoán được nguyên nhân thực sự: Trong những năm gần đây, trình độ công nghệ và kinh tế của Trung Quốc phát triển nhanh chóng, và Mỹ đã cảm thấy chân tường của mình bị khoét sâu, lệnh cấm xuất khẩu công nghệ liên tiếp được ban hành và thực thi.
Lần này, nhân vật chính là GPU trong lĩnh vực tính toán tiên tiến.
GPU là gì?
GPU (Graphics Processing Unit, đơn vị xử lý đồ họa) có một tên gọi chung: card đồ họa và hình ảnh hiển thị trên màn hình không thể tách rời nó.
Một card đồ họa mạnh mẽ có thể cung cấp nhiều hơn những hình ảnh có độ phân giải cao và đẹp mắt mà không bị giật lag. Để chỉnh sửa video độ nét cao, tốc độ chuyển mã của GPU cũng rất nhanh.
Nói một cách chuẩn xác, GPU là trái tim và là thành phần chính của card đồ họa. Trong những năm gần đây, GPU đã phát triển từ phần cứng máy tính trở thành "chuyên gia khai thác", và đằng sau mỗi thành tựu phát triển nổi bật đều không thể thiếu nó.
Tuy nhiên, lệnh cấm lần này của Mỹ không phải là cái gọi là card đồ họa, mà là GPU đa năng (hay GPGPU), vì vậy nó sẽ không làm tổn hại đến niềm vui của các game thủ; mục tiêu nó nhằm vào là siêu máy tính và dịch vụ đám mây .
Siêu máy tính là "vũ khí quan trọng nhất của quốc gia", chẳng hạn như "Sunway Taihu Light" (Thần Uy Thái Hồ), "Tianhe" (Thiên Hà), v.v. của Trung Quốc có sức tính toán rất lớn, được ứng dụng rộng rãi trong hàng chục lĩnh vực như hàng không vũ trụ, khí hậu khí tượng và thăm dò dầu khí. Sau lệnh cấm của Mỹ vào năm 2015, siêu máy tính của Trung Quốc đang dần hiện thực hóa việc thay thế bằng chip trong nước.
Dịch vụ đám mây đề cập đến việc truy cập dữ liệu bản địa thông qua Internet và lấy thông tin khi cần thiết, chẳng hạn như Alibaba Cloud và Tencent Cloud. Đám mây và trung tâm dữ liệu giống như một cặp song sinh dính liền cơ thể. Trung tâm dữ liệu (Internet Data Center) là nơi lưu trữ, quản lý tập trung tất cả các loại dữ liệu cho các hoạt động tính toán tiếp theo trên “đám mây”.
Trong hai lĩnh vực lớn trên, GPU tương tự như "card khai thác", đóng vai trò của "bộ tăng tốc".
Khái niệm “Card tăng tốc” được NVIDIA đề ra vào năm 2007. Do lượng dữ liệu lớn và sự phức tạp của phép tính, năng lực của CPU bị kéo giãn, còn GPU là bậc thầy về tính toán song song (có thể thực hiện nhiều lệnh cùng một lúc). Nó vừa có thể tăng tốc hoạt động của các chương trình đám mây, cũng cho phép một máy chủ trong trung tâm dữ liệu được sử dụng cho nhiều mục đích.
Lần này, các chip A100 và H100 mà NVIDIA đã bị hạn chế xuất khẩu, còn MI100 và MI200 mà AMD bị cấm là các Card tăng tốc cần thiết cho siêu máy tính và trung tâm dữ liệu đám mây.
Chuyện như vậy, tại sao các công ty xe hơi lại hoảng sợ?
Trong hệ thống lái xe tự động, việc huấn luyện mô hình cảm nhận đòi hỏi phải được đào tạo kỹ dựa trên một lượng lớn dữ liệu. Đây cũng là lý do tại sao các công ty xe hơi như Robotaxi và Tesla đang tích lũy hành trình hỗ trợ lái xe.
Trong giai đoạn nghiên cứu và phát triển, nếu 10 xe thử nghiệm được sử dụng 300 ngày một năm, thì mỗi xe một ngày sẽ tạo ra khoảng 10TB dữ liệu và tổng lượng dữ liệu được tạo ra hàng năm là khoảng 30PB.
Trong giai đoạn thương mại, với sự mở rộng liên tục của đội xe, lượng dữ liệu mà các hãng xe phải đối mặt sẽ phát triển theo hướng ZB (1PB =1024TB, 1EB =1024PB, 1ZB =1024EB). Phương pháp truyền thống là thêm máy chủ và mở rộng phòng máy không còn đáp ứng được yêu cầu mở rộng dữ liệu cho sức mạnh tính toán.
Vì vậy, hầu hết các công việc này đều được chuyển lên đám mây.
Có thể hiểu đơn giản là thông tin thu thập được bởi chiếc xe yêu cầu hiệu suất thời gian thực cao sẽ được xử lý tại chỗ trên nền tảng tính toán của xe (NVIDIA Orin, Huawei MDC, Qualcomm Snapdragon Ride, v.v.), tức là điện toán biên và một số thông tin sẽ được xử lý, vứt bỏ những thứ vô dụng trước; phần dữ liệu còn lại sẽ được truyền trực tiếp lên đám mây để đào tạo sâu qua các mô hình thuật toán AI.
Trong kỷ nguyên AI, ranh giới của sức mạnh tính toán gần như quyết định kết quả đào tạo mô hình. Điều này cũng làm cho GPU được yêu cầu trên đám mây thường có sức mạnh tính toán lớn và băng thông cao.
Trên thị trường này, thị phần của Nvidia ổn định ở mức khoảng 80%. Trong quý I năm nay, doanh thu từ mảng kinh doanh trung tâm dữ liệu của Nvidia lần đầu tiên vượt quá doanh thu của mảng kinh doanh trò chơi và A100 đóng góp lớn nhất; phần còn lại của AMD.
Tuy chip H100 vẫn chưa được đưa vào sử dụng thương mại nhưng chip GPU này sử dụng kiến trúc Hopper mới nhất do NVIDIA phát hành, được cho là giúp tăng hiệu suất tính toán AI lên 30 lần so với chip A100.
Lệnh cấm này đặc biệt gây rắc rối cho các nhà sản xuất ô tô nhấn mạnh vào việc nắm chắc dữ liệu của chính họ.
Ví dụ, NIO đang sử dụng A100 của NVIDIA để xây dựng cơ sở hạ tầng trung tâm dữ liệu; XPeng đã xây dựng một trung tâm điện toán thông minh tự lái "Swinging" ở Nội Mông dựa trên Alibaba Cloud.
Alibaba Cloud, Baidu Cloud, Google Cloud, AWS và các nhà cung cấp dịch vụ đám mây quốc tế lớn khác đều là khách hàng lớn của A100. Mặc dù chính phủ Mỹ đã cho NVIDIA thời hạn trì hoãn một năm, nhưng lệnh cấm GPU như gai đâm sau lưng.
Có thể thay thế bằng chip GPU cao cấp trong nước không?
Đúng như những gì Dương Vũ Hân (Yang Yuxin), CMO thông minh của Black Sesame, nói với Daily Telegraph: "Mỹ hạn chế NVIDIA (xuất khẩu công nghệ), các công ty xe hơi rất lo lắng cho dù đó là dòng sản phẩm nào. Đối với tất cả các công ty xe hơi, dù chỉ có 10% cơ hội cũng đều phải chuẩn bị đủ 100%".
Có thể thấy trước rằng quá trình nội địa hóa chip ô tô của Trung Quốc sẽ được gấp rút đẩy nhanh.