Loại chip bị Mỹ tìm đủ cách để ngăn Trung Quốc tiếp cận

Chip nhớ băng thông cao (HBM) là thành phần không thể thiếu để chạy các tác vụ AI tạo sinh, với khả năng lưu trữ nhiều thông tin và truyền dữ liệu nhanh hơn công nghệ cũ.

Đầu tháng này, Mỹ đã tiến hành đợt trấn áp thứ ba trong vòng 3 năm qua đối với ngành công nghiệp bán dẫn của Trung Quốc, áp đặt hạn chế xuất khẩu cùng nhiều biện pháp khác lên 140 công ty bao gồm cả nhà sản xuất thiết bị bán dẫn Naura Technology Group.

Trong số này, CNN nhận định cú đánh vào tham vọng của Trung Quốc nằm ở lệnh hạn chế mới giới hạn lô hàng chip nhớ băng thông cao (HBM) được vận chuyển sang Trung Quốc. Đây là loại chip quan trọng trong các hệ thống AI, đang bùng nổ nhu cầu.

“Nhỏ nhưng có võ”

Chip nhớ băng thông cao (HBM) về cơ bản là một chồng chip nhớ với các thành phần nhỏ lưu trữ dữ liệu. Chúng có thể lưu trữ nhiều thông tin và truyền dữ liệu nhanh hơn công nghệ bộ nhớ truy cập ngẫu nhiên động, hay còn gọi là DRAM.

Với ưu điểm này, chip HBM thường được sử dụng trong card đồ họa, hệ thống máy tính hiệu suất cao, trung tâm dữ liệu và xe tự hành.

Quan trọng nhất, HBM là thành phần không thể thiếu để chạy các ứng dụng trí tuệ nhân tạo ngày càng phổ biến, bao gồm AI tạo sinh với sự hỗ trợ từ bộ xử lý đồ họa (GPU) của Nvidia.

"Bộ xử lý và bộ nhớ là hai thành phần thiết yếu của AI. Nếu không có bộ nhớ, thì cũng giống như có một bộ não có logic nhưng không có bất kỳ khả năng ghi nhớ nào", Dan Hutcheson, phó chủ tịch của TechInsights, một tổ chức nghiên cứu chuyên về chip nói với CNN.

 HBM thế hệ đầu tiên có ít nhất 4 DRAM hoặc chip nhớ, được xếp chồng lên nhau trên một khối logic. Ảnh: CNN.

HBM thế hệ đầu tiên có ít nhất 4 DRAM hoặc chip nhớ, được xếp chồng lên nhau trên một khối logic. Ảnh: CNN.

Điều làm cho chip HBM trở nên mạnh mẽ đến thế chủ yếu là không gian lưu trữ lớn và tốc độ truyền dữ liệu nhanh hơn nhiều so với chip nhớ thông thường.

Trong bối cánh các ứng dụng AI ngày càng đòi hỏi nhiều khả năng tính toán phức tạp, những đặc điểm này của HBM sẽ đảm bảo các ứng dụng này chạy trơn tru, không bị chậm trễ hoặc trục trặc.

Không gian ghi lớn hơn cũng đông nghĩa có thể lưu trữ, truyền tải và xử lý nhiều dữ liệu hơn, giúp nâng cao hiệu suất của các ứng dụng AI do các mô hình ngôn ngữ lớn (LLM) cho phép chúng có nhiều tham số hơn để huấn luyện.

CNN ví tốc độ truyền dữ liệu nhanh hơn, hoặc băng thông cao hơn theo cách nói của ngành chip như một xa lộ. Xa lộ càng có nhiều làn đường thì khả năng tắc nghẽn càng thấp và từ đó có thể cho phép nhiều xe lưu thông hơn.

“Giống như sự khác biệt giữa đường cao tốc hai làn và đường cao tốc 100 làn. Nó giúp bạn sẽ không bao giờ bị kẹt xe,” Hutcheson nói.

Kỳ công sản xuất

Hãy tưởng tượng việc xếp chồng nhiều chip nhớ chuẩn thành nhiều lớp như một chiếc bánh hamburger. Về cơ bản đó chính là cấu trúc của HBM.

Điều này nghe có vẻ khá đơn giản, nhưng thực hiện nó không phải là một việc dễ dàng và điều đó đã phản ánh vào giá cả. Giá bán theo đơn vị của HBM cao hơn nhiều lần so với giá của một chip nhớ thông thường.

Đó là vì chiều cao của HBM chỉ bằng khoảng 6 sợi tóc, đồng nghĩa là mỗi lớp chip nhớ tiêu chuẩn được xếp chồng lên nhau cũng cần phải cực kỳ mỏng, một kỳ tích đòi hỏi trình độ sản xuất hàng đầu với khả năng đóng gói tiên tiến.

“Mỗi chip nhớ đó cần phải được mài mỏng bằng độ dày của nửa sợi tóc trước khi chúng được xếp chồng lên nhau, đây là một việc rất khó thực hiện”, Jeffery Chiu, CEO của Ansforce, một công ty tư vấn mạng lưới chuyên gia về công nghệ cho biết.

Ngoài ra, các lỗ được khoan trên HBM trước khi chúng được gắn chồng lên nhau để dây điện có thể chạy qua, và vị trí cũng như kích thước của các lỗ này cần phải cực kỳ chính xác. Theo Hutcheson, việc tạo ra HBM "gần giống như việc xây dựng một ngôi nhà bằng những lá bài vậy".

 Gian hàng HBM của SK Hynix. Ảnh: Shutterstock.

Gian hàng HBM của SK Hynix. Ảnh: Shutterstock.

Đây cũng là lý do mà hiện nay chỉ có 3 công ty thống trị thị trường HBM toàn cầu. Cụ thể, theo một báo cáo nghiên cứu do công ty nghiên cứu thị trường TrendForce, tính đến năm 2022, Hynix chiếm 50% tổng thị phần HBM, tiếp theo là Samsung với 40% và Micron với 10%.

Với lệnh cấm mới nhất từ Mỹ, các chuyên gia nhận định điều này sẽ làm chậm quá trình phát triển chip AI của Trung Quốc và nghiêm trọng nhất là đình trệ khả năng tiếp cận HBM của nước này.

Mặc dù khả năng sản xuất HBM của Trung Quốc đang tụt hậu so với thế giới, họ đang tập trung phát triển năng lực riêng của mình trong lĩnh vực này.

"Những gì mà các hạn chế xuất khẩu của Mỹ sẽ làm là cắt giảm khả năng tiếp cận HBM chất lượng tốt hơn của Trung Quốc trong ngắn hạn. Tuy nhiên, về lâu dài, Trung Quốc vẫn có thể sản xuất chúng một cách độc lập, mặc dù với công nghệ kém tiên tiến hơn", ông Chiu nhận định.

Tại Trung Quốc, Yangtze Memory Technologies và Changxin Memory Technologies là những nhà sản xuất chip nhớ hàng đầu.

Nguồn tin từ CNN cho biết cả hai công ty này đang tăng cường năng lực để xây dựng các dây chuyền sản xuất HBM nhằm thực hiện mục tiêu chiến lược tự cung tự cấp công nghệ.

Anh Tuấn

Nguồn Znews: https://znews.vn/loai-chip-bi-my-tim-du-cach-de-ngan-trung-quoc-tiep-can-post1516956.html