Bùng nổ cuộc đua xây dựng trung tâm dữ liệu AI toàn cầu
Hàng trăm tỷ USD đang được rót vào hạ tầng AI trên khắp thế giới, mở ra cơ hội công nghệ nhưng cũng đặt ra thách thức về chi phí, điện năng và môi trường.
Cuộc chạy đua chinh phục “siêu trí tuệ” đang thúc đẩy làn sóng xây dựng trung tâm dữ liệu trí tuệ nhân tạo (AI) khổng lồ trên khắp thế giới. Hàng trăm tỷ USD được các tập đoàn công nghệ và chính phủ rót vào hạ tầng này, song cùng với đó là những câu hỏi lớn về chi phí, tác động môi trường và hiệu quả thực sự.
Tại vùng bờ biển phía Tây Nam Bồ Đào Nha, những tòa nhà không biển hiệu thực chất là các trung tâm dữ liệu AI quy mô lớn, bên trong chứa hàng chục nghìn bộ xử lý GPU (Graphics Processing Unit - bộ xử lý đồ họa) phục vụ việc huấn luyện các mô hình trí tuệ nhân tạo do OpenAI, Google hay DeepSeek phát triển.
GPU có khả năng xử lý dữ liệu song song nhanh vượt trội so với CPU (Central Processing Unit -bộ xử lý trung tâm) truyền thống, nhưng đổi lại tiêu thụ lượng điện gấp nhiều lần và tỏa nhiệt lớn, làm tăng mạnh chi phí vận hành cũng như yêu cầu về hệ thống làm mát.

Bản vẽ dự án trung tâm dữ liệu của Meta tại Montgomery, bang Alabama, Mỹ. Ảnh: Hensel Phelps.
Các hãng công nghệ và thậm chí cả chính phủ đang đua nhau xây dựng “cụm” trung tâm dữ liệu có quy mô hàng chục hecta. Microsoft, Alphabet, Amazon và Meta dự kiến nâng chi tiêu vốn lên hơn 300 tỷ USD trong năm 2025. McKinsey ước tính, đến năm 2030, thế giới cần tới 5,2 nghìn tỷ USD cho hạ tầng dữ liệu AI.
CEO Meta Mark Zuckerberg vừa tuyên bố sẽ chi hàng trăm tỷ USD để xây các cụm dữ liệu công suất tới vài gigawatt, đặt tên theo các vị thần Titan trong thần thoại Hy Lạp. Trong khi đó, Giám đốc Nvidia Jensen Huang khẳng định: “AI là hạ tầng thiết yếu, không phải tùy chọn.”
Khác với các trung tâm dữ liệu truyền thống, cơ sở AI có mật độ tiêu thụ điện cực cao. Mỗi tủ GPU có thể ngốn điện bằng 10 - 15 tủ máy chủ thông thường. Hệ thống làm mát bằng không khí không còn đủ, buộc phải chuyển sang làm mát bằng chất lỏng hoặc nước biển. Thiết kế mới dành phần lớn diện tích cho thiết bị cấp điện và giải nhiệt thay vì chỉ đặt máy chủ.
Sự thay đổi này khiến nhiều dự án phải thiết kế lại ngay từ đầu. Meta thậm chí đã phá bỏ một trung tâm dữ liệu đang xây dựng để thay thế bằng chip mạnh hơn. Tại Mỹ, các cụm trung tâm dữ liệu lớn chủ yếu tập trung ở Virginia, Texas, Indiana và Arizona nhờ lợi thế giá điện thấp, hạ tầng cáp quang tốt và chính sách ưu đãi thuế. Những dự án tiêu biểu gồm cơ sở 1,2 gigawatt của OpenAI ở Texas, 2 gigawatt của Meta tại Louisiana và 2,2 gigawatt của Amazon ở Indiana.
Tuy nhiên, nguồn điện là thách thức lớn nhất. Cơ quan Năng lượng Quốc tế (IEA) dự báo đến năm 2030, lượng điện mà các trung tâm dữ liệu tiêu thụ có thể tăng gấp hai đến bốn lần, tương đương mức dùng của cả nước Nhật. Một số cơ sở thậm chí phải dùng tua-bin khí tạm thời khi chưa kịp kết nối với lưới điện.
Nhu cầu nước làm mát cũng gây tranh cãi. Năm 2023, các trung tâm dữ liệu tại Mỹ tiêu thụ khoảng 55 tỷ lít nước trực tiếp và 800 tỷ lít gián tiếp từ hoạt động sản xuất điện. Tại các vùng khan hiếm nước như Arizona và Texas, điều này làm dấy lên lo ngại của cộng đồng. Microsoft, Meta và Google thừa nhận một phần đáng kể lượng nước sử dụng đến từ các khu vực có nguy cơ khan hiếm.
Ngoài Mỹ, nhiều khu vực khác cũng tham gia cuộc đua. UAE dự kiến xây cụm dữ liệu 5 GW cho OpenAI. Ả Rập Saudi lên kế hoạch lập “nhà máy AI” với hàng trăm nghìn GPU. EU muốn huy động 200 tỷ euro để xây năm cơ sở AI lớn. Ở châu Á, Trung Quốc mở rộng hạ tầng tới Tân Cương và Nội Mông, trong khi Malaysia nổi lên như điểm đến mới của các nhà phát triển AI Trung Quốc.
Một số chuyên gia cảnh báo ngành đang bị cuốn vào “lối nghĩ chung”, cho rằng cứ xây thêm nhiều trung tâm dữ liệu là tốt mà chưa cân nhắc kỹ lợi ích so với chi phí.
Sasha Luccioni, chuyên gia tại công ty AI nguồn mở Hugging Face, nhận định các phương pháp huấn luyện tiết kiệm hơn như chưng cất mô hình hoặc sử dụng mô hình nhỏ vẫn có thể mang lại hiệu quả tương đương với chi phí thấp hơn nhiều.
Dù vậy, các tập đoàn vẫn tiếp tục tăng tốc. Nvidia cho biết mỗi tuần các hãng lớn bổ sung hàng chục nghìn GPU mới nhất vào hệ thống và tốc độ này dự kiến còn cao hơn khi thế hệ “Blackwell Ultra” được ra mắt.
Sam Altman, Giám đốc điều hành OpenAI, dự đoán các trung tâm dữ liệu trong tương lai có thể đạt công suất vượt xa 10 gigawatt, đòi hỏi công nghệ và hạ tầng hoàn toàn mới.
Các yêu cầu làm mát trung tâm dữ liệu AI ngày càng phức tạp, với khoảng 40% điện năng được dùng để tản nhiệt. Ngoài hệ thống vòng kín với máy làm lạnh, một số cơ sở như Start Campus ở Bồ Đào Nha còn sử dụng nước biển để giảm nhu cầu nước ngọt, đồng thời tuân thủ nghiêm ngặt các tiêu chuẩn môi trường.
Thách thức này buộc các nhà thiết kế liên tục sáng tạo trong bố trí không gian, cung cấp điện và giải nhiệt. Microsoft đã chuyển từ làm mát bằng không khí sang làm mát bằng nước, thậm chí tạm dừng dự án trị giá 3,3 tỷ USD tại Wisconsin để đánh giá lại thiết kế.
Cuộc đua toàn cầu xây dựng hạ tầng AI vẫn chưa có dấu hiệu hạ nhiệt. Với nhiều tập đoàn, đây là thời điểm định hình lại hạ tầng điện toán thế giới. Nhưng với không ít người, đây là một canh bạc khổng lồ về kinh tế và môi trường, nơi cái giá phải trả có thể vượt quá lợi ích nếu không được tính toán kỹ lưỡng.