CEO Nvidia nói về siêu máy tính cho OpenAI, AMD ra mắt chip AI tốt hơn 35 lần trong suy luận

AMD đã tiết lộ các bộ xử lý trí tuệ nhân tạo (AI) mới nhất của mình hôm 3.6 và chi tiết kế hoạch phát triển chip AI trong 2 năm tới nhằm thách thức vị trí dẫn đầu của Nvidia trong ngành.

Tại triển lãm thương mại công nghệ Computex 2024 ở thành phố Đài Bắc (Đài Loan), Giám đốc điều hành AMD - Lisa Su đã giới thiệu chip AI MI325X, dự kiến sẽ được bán ra vào quý 4/2024.

Cuộc đua phát triển các chương trình AI tạo sinh dẫn đến nhu cầu rất lớn về chip tiên tiến được sử dụng trong các trung tâm dữ liệu AI.

AMD (có trụ sở tại thành phố Santa Clara, bang California, Mỹ) đang cạnh tranh với Nvidia, công ty hiện thống trị thị trường béo bở về chip AI và chiếm khoảng 80% thị phần.

AMD còn giới thiệu một dòng chip AI mang tên MI350 dựa trên kiến trúc chip mới, dự kiến sẽ có mặt vào năm 2025. So với dòng chip AI hiện có là MI300, AMD kỳ vọng MI350 sẽ hoạt động tốt hơn 35 lần trong suy luận - quá trình tính toán các phản hồi của AI tạo sinh. Ngoài ra, AMD còn công bố dòng chip AI MI400, sẽ ra mắt vào năm 2026 và dựa trên một kiến trúc mang tên Next.

Bà Lisa Su dự kiến doanh số chip AI của AMD đạt khoảng 4 tỉ USD trong năm 2024 - Ảnh: Internet

Bà Lisa Su dự kiến doanh số chip AI của AMD đạt khoảng 4 tỉ USD trong năm 2024 - Ảnh: Internet

Các nhà đầu tư đã đổ hàng tỉ USD vào giao dịch picks-and-shovels trên Phố Wall đang trông ngóng bản cập nhật dài hạn từ các công ty chip để đánh giá sự bền vững của việc bùng nổ AI tạo sinh, vốn chưa có dấu hiệu chậm lại cho đến nay.

Trong lĩnh vực đầu tư, picks-and-shovels là một chiến lược đầu tư tập trung vào các công ty cung cấp các sản phẩm hoặc dịch vụ thiết yếu cho một ngành công nghiệp đang phát triển nhanh chóng. Chiến lược này dựa trên ý tưởng rằng các công ty này có thể hưởng lợi từ sự tăng trưởng của ngành công nghiệp mà họ phục vụ, ngay cả khi không trực tiếp tham gia vào việc sản xuất sản phẩm hoặc dịch vụ cuối cùng.

Ví dụ, trong thời kỳ bùng nổ khai thác vàng, các công ty bán xẻng và cuốc (picks and shovels) có thể kiếm được nhiều tiền hơn so với những người khai thác vàng trực tiếp, vì nhu cầu về dụng cụ của họ tăng cao do số lượng người tham gia vào hoạt động khai thác vàng tăng lên.

Ngày nay, thuật ngữ picks-and-shovels thường được sử dụng để mô tả các khoản đầu tư vào các công ty cung cấp cơ sở hạ tầng hoặc dịch vụ hỗ trợ cho các ngành công nghệ đang phát triển nhanh chóng, chẳng hạn như AI, điện toán đám mây, ô tô điện và internet vạn vật (IoT).

Một số ví dụ về các công ty picks-and-shovels trong lĩnh vực AI như Nvidia, AMD và Intel (đều cung cấp chip AI); Amazon Web Services, Google Cloud và Microsoft Azure (đều cung cấp dịch vụ điện toán đám mây được sử dụng để đào tạo và triển khai các mô hình AI).

Cổ phiếu AMD đã tăng hơn gấp đôi kể từ đầu năm 2023. Sự tăng vọt này vẫn không thể sánh được với mức tăng hơn 7 lần của cổ phiếu Nvidia trong cùng kỳ.

AMD đang hướng tới chu kỳ sản phẩm chip AI hàng năm. Tương tự, Nvidia cho biết có kế hoạch phát hành dòng chip AI mới hàng năm thay vì 2 năm một lần như trước đây.

Vào tháng 4, Giám đốc điều hành Lisa Su cho biết AMD dự kiến doanh số chip AI đạt khoảng 4 tỉ USD trong năm 2024, tăng 500 triệu USD so với ước tính trước đó.

Tại Computex 2024, AMD cũng thông báo CPU (bộ xử lý trung tâm) thế hệ mới nhất của hãng có khả năng sẽ ra mắt vào nửa cuối năm 2024.

Dù các doanh nghiệp thường ưu tiên chi tiêu cho chip AI trong trung tâm dữ liệu, một số CPU của AMD được sử dụng kết hợp với GPU (bộ xử lý đồ họa), nhưng tỷ lệ này nghiêng về phía GPU.

Ngoài ra, AMD đã nêu chi tiết về kiến trúc cho bộ xử lý thần kinh (NPU) mới của mình, chuyên xử lý các tác vụ AI trên thiết bị trong PC AI.

Các công ty đang đặt cược vào AI để thúc đẩy sự tăng trưởng trên thị trường PC và cố thoát khỏi tình trạng trì trệ kéo dài nhiều năm.

Các nhà cung cấp PC như HP và Lenovo sẽ phát hành các thiết bị chứa chip AI của AMD. AMD cho biết bộ xử lý của họ vượt quá yêu cầu Copilot+ PC từ Microsoft.

Nvidia giới thiệu chip AI mới Rubin, CEO nói về siêu máy tính cho OpenAI, trợ lý cho game thủ và kỷ nguyên nhà máy AI

Hôm 2.6, Giám đốc điều hành Nvidia - Jensen Huang cho biết nền tảng chip AI thế hệ tiếp theo của công ty mang tên Rubin sẽ ra mắt vào năm 2026.

Dòng chip Rubin sẽ bao gồm GPU và CPU mơícũng như cả chip mạng, Jensen Huang nói tại một trường đại học ở Đài Loan như một phần của triển lãm thương mại Computex 2024. Tuy nhiên, tỷ phú 61 tuổi người Mỹ gốc Đài Loan tiết lộ rất ít chi tiết về Rubin.

CPU mới có tên gọi Versa và chip đồ họa mới hỗ trợ các ứng dụng AI sẽ đi kèm với bộ nhớ băng thông cao (HMB) thế hệ tiếp theo được sản xuất bởi SK Hynix, Micron Technology, Samsung.

Jensen Huang cho biết Nvidia hiện có kế hoạch phát hành dòng chip AI mới hàng năm, đẩy nhanh lịch trình phát hành trước đó của họ, vốn khoảng 2 năm một lần.

Nvidia đang ở một vị trí độc đáo với vai trò vừa là nhà hỗ trợ lớn nhất, vừa là người hưởng lợi từ sự phát triển mạnh mẽ của AI.

Trong bài phát biểu quan trọng trước thềm Computex 2024, Jensen Huang đã tiết lộ tầm nhìn về một kỷ nguyên mới của AI tạo sinh và robot cho các ngành công nghiệp, được hỗ trợ bởi chip, phần mềm và những giải pháp tiên tiến khác từ công ty và đối tác công nghệ cao khác nhau của họ.

Ông cho biết máy tính "không còn chỉ là công cụ lưu trữ thông tin hoặc xử lý dữ liệu, mà là nhà máy sản xuất trí thông minh cho mọi ngành".

"Chúng tôi bắt đầu với điện toán tăng tốc và bây giờ là một cuộc cách mạng công nghiệp. Máy tính sẽ không chỉ là một công cụ mà bạn sử dụng. Bây giờ, máy tính sẽ tạo ra kỹ năng. Đây là tương lai gần của chúng ta", Giám đốc điều hành Nvidia nói.

Các sản phẩm của Nvidia như GPU B200 Blackwell và nền tảng phần mềm CUDA sẽ cung cấp thành phần kỹ thuật cho các doanh nghiệp thiết lập trung tâm dữ liệu tiên tiến được gọi là "nhà máy AI" và nhà phát triển tạo các ứng dụng AI hiệu suất cao cho những ngành công nghiệp khác nhau, theo Jensen Huang.

Bài phát biểu quan trọng từ Jensen Huang phản ánh cách Nvidia (hãng chip có giá trị lớn nhất thế giới) đã nổi lên như trung tâm của cuộc cách mạng AI toàn cầu.

Công ty có trụ sở tại thành phố Santa Clara (bang California) đã thiết lập một hệ sinh thái phần cứng và phần mềm tạo thành nền tảng cho các máy tính, máy chủ cùng những sản phẩm mới đang được triển khai bởi các nhà điều hành trung tâm dữ liệu lớn nhất thế giới như Amazon, Microsoft, Google. Trung tâm dữ liệu cung cấp hạ tầng tính toán mà các mô hình ngôn ngữ lớn và dịch vụ AI tạo sinh như ChatGPT cùng chatbot khác đang được phát triển.

Jensen Huang nói: "Hiện tại, chúng tôi có khoảng 5 triệu nhà phát triển cho CUDA trên toàn thế giới. Chúng tôi phục vụ mọi ngành, từ chăm sóc sức khỏe, dịch vụ tài chính, ngành máy tính, ngành ô tô - hầu hết ngành công nghiệp chính trên thế giới và mọi lĩnh vực khoa học".

Gần cuối bài thuyết trình kéo dài 2 giờ của mình, Jensen Huang nhấn mạnh rằng bước tiếp theo của kỷ nguyên mới này với AI là thúc đẩy phát triển robot.

Jensen Huang phác thảo tương lai của AI và robot trong bài phát biểu quan trọng trước thềm Computex 2024 - Ảnh: AFP

Jensen Huang phác thảo tương lai của AI và robot trong bài phát biểu quan trọng trước thềm Computex 2024 - Ảnh: AFP

Theo Jensen Huang, "AI vật lý" là sự phát triển tiếp theo đang diễn ra ở Đài Loan, nơi các đối tác lớn của Nvidia như Foxconn (hãng sản xuất thiết bị điện tử theo hợp đồng lớn nhất thế giới) và TSMC (hãng sản xuất chip theo hợp đồng số 1 thế giới) nằm trong số những cái tên dẫn đầu.

Nvidia đã xây dựng một nền tảng phát triển tiên tiến có tên Omniverse, sẽ được sử dụng để tạo và huấn luyện AI cho các ứng dụng robot khác nhau.

Ngoài ra, Jensen Huang cũng chia sẻ trải nghiệm ban đầu của Nvidia khi giải quyết với nhu cầu siêu máy tính từ OpenAI, trước khi ChatGPT trình làng vào tháng 11.2022 và thúc đẩy cơn sốt AI trên toàn thế giới.

Ông kể: "Sau năm 2012, chúng tôi đã thay đổi kiến trúc GPU của mình để thêm các lõi tensor. Không ai hiểu được điều đó... OpenAI, công ty nhỏ ở San Francisco lúc đó, đã yêu cầu tôi cung cấp một cái cho họ. Tôi đã giao DGX, siêu máy tính AI đầu tiên trên thế giới, cho OpenAI vào năm 2016".

Tại sự kiện hôm 2.6, Jensen Huang còn giới thiệu Projec G-Assist, trợ lý giúp game thủ tối ưu hóa kỹ năng chơi game bằng AI. Project G-Assist là bước đầu tiên của Nvidia hướng tới trợ lý AI có khả năng giúp đỡ người chơi lập chiến lược, khi các game ngày càng khó và tốn thời gian.

Project G-Assist hiện mới chỉ là bản demo nhưng đã cho thấy cách trợ lý AI có thể hướng dẫn người dùng chơi game trên PC và thậm chí cá nhân hóa cài đặt hệ thống để đạt hiệu suất tối ưu, trang The Verge nhận định.

Tính năng nổi bật nhất của Project G-Assist là giúp người chơi vượt qua tình trạng “ép cấp”, tức dừng lại ở một cấp độ nhất định và không thể thăng cấp. AI có thể truy cập câu lệnh khi bạn chơi game, nội dung hiển thị trên màn hình và thậm chí cả dữ liệu từ game.

Từ đó, người chơi có thể nói hoặc nhập văn bản để đặt câu hỏi về game mà không cần tìm kiếm trên Google. Sau khi nhận câu hỏi, Project G-Assist sẽ sử dụng mô hình ngôn ngữ lớn để trả lời, đóng vai trò như AI hướng dẫn game thủ thực thụ.

Trong bản demo, Project G-Assist cho thấy khả năng trả lời các thắc mắc của người chơi về cốt truyện, sinh vật trong game, cách chế tạo vật phẩm, những con boss khó... Cụ thể, một người chơi đã hỏi về “vũ khí khởi đầu tốt nhất là gì và có thể tìm nguyên liệu chế tạo nó ở đâu?” trong tựa game ARK: Survival Ascended.

Ngay lập tức, Project G-Assist đề xuất một cây giáo và cung cấp thông tin chi tiết liên quan đến cách chế tạo vũ khí. Trợ lý này còn liệt kê mức độ sát thương vũ khí có thể gây ra, điểm yếu của nó…

Jensen Huang là một trong số những người đứng đầu các hãng bán dẫn lớn nhất thế giới sẽ có bài thuyết trình tại Computex - triển lãm công nghệ thông tin lớn nhất châu Á.

Ngoài Jensen Huang và Lisa Su, Pat Gelsinger của Intel, Cristiano Amon của Qualcomm, Rene Haas của Arm Holdings là giám đốc điều hành các hãng chip nổi tiếng khác dự kiến sẽ có bài phát biểu ở Computex 2024.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/ceo-nvidia-noi-ve-sieu-may-tinh-cho-openai-amd-ra-mat-chip-ai-tot-hon-35-lan-trong-suy-luan-217958.html