'Bài toán năng lượng' cho công nghệ AI

Khi Google công bố rằng lượng khí thải góp phần gây biến đổi khí hậu của họ đã tăng 48% kể từ năm 2019, họ đã chỉ đích danh trí tuệ nhân tạo (AI) là yếu tố chính dẫn đến mức nhảy vọt trên.

Công nghệ AI tiêu tốn nhiều năng lượng. Ảnh minh họa: TTXVN

Công nghệ AI tiêu tốn nhiều năng lượng. Ảnh minh họa: TTXVN

Các công ty công nghệ lớn của Mỹ đang xây dựng các mạng lưới trung tâm dữ liệu khổng lồ trên toàn cầu và cho biết AI đang thúc đẩy sự tăng trưởng này. Những phát ngôn đó đã khiến công chúng chú ý vào mức độ tiêu tốn năng lượng và tác động đến môi trường của công nghệ này.

Việc phát triển mô hình ngôn ngữ lớn (LLM) - nền tảng cho các chương trình AI tạo sinh vốn đã cần một lượng điện năng rất lớn để phục vụ hoạt động điện toán và máy học (machine learning). Quy mô một LLM càng lớn, lượng điện năng cần để đào tạo chúng càng nhiều. Các mô hình ngôn ngữ lớn như GPT-3 của OpenAI - nền tảng cho chatbot đình đám ChatGPT tiêu tốn nhiều năng lượng nhất trong giai đoạn đào tạo, khi thuật toán được cung cấp các tập dữ liệu khổng lồ.

Theo các ước tính, GPT-3 đã sử dụng 1.287 MWh điện (1 MWh = 1.000 KWh) trong quá trình đào tạo. Phó giáo sư ngành sư kỹ thuật điện và khoa học máy tính tại Đại học Michigan, ông Mosharaf Chowdhury, cho hay lượng điện trên là đủ để cung cấp điện cho một hộ gia đình trung bình ở Mỹ trong 120 năm.

Sau quá trình đào tạo, hoạt động sử dụng các dịch vụ tích hợp AI cũng tiêu tốn điện năng. Mỗi khi người dùng nhập yêu cầu vào các ứng dụng chatbot, yêu cầu đó sẽ được chuyển đến một trung tâm dữ liệu, khiến máy chủ hoạt động tính toán và qua đó cũng tiêu tốn điện năng.

Việc tiêu thụ điện cũng khiến các máy tính và máy chủ nóng lên, đồng nghĩa cần thêm điện để làm mát chúng.

Cơ quan Năng lượng Quốc tế (IEA) cho biết trong một báo cáo đầu năm nay rằng các trung tâm dữ liệu nói chung sử dụng khoảng 40% điện năng cho hoạt động tính toán và 40% cho việc làm mát.

Cùng với đó, các dịch vụ tích hợp AI lại cần nhiều điện năng hơn so với các dịch vụ không phải AI. Ví dụ, nhiều nghiên cứu đã chỉ ra rằng mỗi yêu cầu gửi đến ChatGPT sử dụng điện năng gấp khoảng 10 lần so với một lần tìm kiếm trên Google. Vì vậy, nếu Google chuyển tất cả các truy vấn tìm kiếm sang AI - khoảng 9 tỷ lượt mỗi năm - thì mức sử dụng điện của công ty có thể tăng vọt.

Trước kỷ nguyên của AI, ước tính chung cho thấy các trung tâm dữ liệu chiếm khoảng 1% nhu cầu điện toàn cầu.

Báo cáo của IEA cho biết các trung tâm dữ liệu, tiền điện tử và AI kết hợp sử dụng 460 TWh (1 TWh = 1 triệu KWh) điện trên toàn thế giới vào năm 2022, chiếm gần 2% tổng nhu cầu điện toàn cầu. IEA ước tính con số này có thể tăng gấp đôi lên 1.000 TWh vào năm 2026 - tương đương với số điện sử dụng trên toàn Nhật Bản.

Ông Alex De Vries, một nhà nghiên cứu điều hành trang web Digiconomist chuyên theo dõi các xu hướng trong thế giới công nghệ, đã lập mô hình điện năng do AI tiêu thụ bằng cách tập trung vào dự báo doanh số từ công ty Nvidia của Mỹ, công ty đã chiếm lĩnh thị trường máy chủ chuyên dụng cho AI.

Trong một báo cáo mới nhất, ông kết luận rằng nếu doanh số dự kiến của Nvidia cho năm 2023 là chính xác và tất cả các máy chủ đó chạy hết công suất, riêng chúng có thể tiêu thụ lượng điện hàng năm từ 85,4 - 134,0 TWh. Con số này này tương đương mức tiêu thụ của Argentina hoặc Thụy Điển.

Ông còn lưu ý rằng những con số trong báo cáo còn khá khiêm tốn vì không thể đưa vào những mục như điện dùng cho nhu cầu làm mát các máy chủ. Đáng chú ý, việc sử dụng máy chủ Nvidia đã vượt xa dự báo của năm ngoái. Vì vậy, con số thực tế chắc chắn sẽ còn cao hơn nữa.

Ông Fabrice Coquio của Digital Realty, một công ty cho thuê trung tâm dữ liệu cho hay rằng AI sẽ biến đổi ngành này tương tự như tác động của công nghệ điện toán đám mây, thậm chí có thể lớn hơn một chút.

Ông Coquio giải thích rằng các yêu cầu điện toán thông thường có thể được xử lý bằng loạt máy chủ đặt trong các phòng có hệ thống điều hòa không khí mạnh. Nhưng máy chủ phục vụ AI sử dụng các thành phần mạnh hơn, nóng hơn nhiều và cần làm mát nhiều hơn.

Hiện có hơn 7.000 trung tâm dữ liệu được xây dựng hoặc đang trong các giai đoạn phát triển khác nhau, tăng từ 3.600 trung tâm hồi năm 2015. Các trung tâm dữ liệu này có khả năng tiêu thụ tổng cộng 508 TWh điện mỗi năm nếu chúng hoạt động liên tục. Đến năm 2034, mức tiêu thụ năng lượng toàn cầu của các trung tâm dữ liệu dự kiến sẽ lên tới 1.580 TWh, tương đương mức tiêu thụ của toàn bộ Ấn Độ.

Những công ty lớn nhất trong lĩnh vực AI và trung tâm dữ liệu - gồm Amazon, Google và Microsoft - đã cố gắng giảm lượng khí thải bằng cách mua một lượng lớn năng lượng tái tạo.

Ông Prasad Kalyanaraman, một quản lý của Amazon cho biết bộ phận trung tâm dữ liệu của công ty - AWS là "bên mua năng lượng tái tạo lớn nhất thế giới hiện nay". AWS cam kết trở thành công ty không phát thải carbon vào năm 2040. Google và Microsoft đã cam kết đạt được mục tiêu đó vào năm 2030.

Nhưng việc xây dựng các trung tâm dữ liệu mới và tăng cường sử dụng các trung tâm hiện có sẽ không giúp ích gì cho mục tiêu năng lượng xanh của các công ty này.

Trong các báo cáo gần đây, Google đã báo cáo lượng khí thải nhà kính tăng 48% so với năm 2019 còn Microsoft tăng 30% so với năm 2020.

Các công ty đều cam kết sẽ sử dụng các công nghệ tiêu tốn ít năng lượng hơn, sản xuất chip và máy chủ có hiệu quả sử dụng điện tốt hơn đồng thời cố gắng giảm nhu cầu làm mát.

Cũng có một số nhà lãnh đạo công nghệ cho rằng chìa khóa để thích ứng với tình hình mới là những đột phá về năng lượng. Ông Sam Altman, CEO của Open AI cho hay cần những đột phá về năng lượng cho công nghệ AI trong tương lai, khi mức độ tiêu thụ điện của công nghệ này vượt xa dự báo.

Hương Thủy (Tổng hợp)

Nguồn Bnews: https://bnews.vn/bai-toan-nang-luong-cho-cong-nghe-ai/340860.html