Cái giá môi trường của các mô hình AI
Việc sử dụng các mô hình AI tiên tiến để trả lời những câu hỏi tư duy như đại số hoặc triết học không chỉ tiêu tốn nhiều tài nguyên tính toán mà còn làm lượng khí thải CO₂ tăng vọt lên tới 50 lần so với các mô hình thông thường.
Theo một nghiên cứu mới công bố trên Frontiers in Communication ngày 19.6, các mô hình như Claude của Anthropic, o3 của OpenAI và R1 của DeepSeek được thiết kế để tư duy chính xác hơn thông qua các kỹ thuật như "chain-of-thought" (mạch tư duy), mô phỏng cách con người phân tích vấn đề theo từng bước. Điều này giúp các mô hình xử lý tốt hơn các truy vấn phức tạp, nhưng đồng thời làm tăng mạnh mức tiêu thụ năng lượng.

Các mô hình AI chuyên về lý luận sử dụng quy trình xử lý phức tạp hơn, khiến chúng thải ra lượng khí CO₂ nhiều hơn đáng kể so với các mô hình thông thường - Ảnh: Getty
“Ảnh hưởng môi trường của việc đặt câu hỏi cho các mô hình ngôn ngữ lớn (LLM) phụ thuộc mạnh vào cách chúng suy nghĩ. Khi mô hình tư duy rõ ràng hơn, mức tiêu thụ năng lượng và phát thải carbon cũng tăng theo”, Maximilian Dauner, nhà nghiên cứu tại Đại học Hochschule Munchen (Đức) và là tác giả chính của nghiên cứu, cho biết.
Cụ thể, nhóm nghiên cứu phát hiện rằng các mô hình hỗ trợ tư duy tạo ra lượng CO₂ cao gấp tới 50 lần so với các mô hình chỉ đưa ra câu trả lời súc tích.
LLM xử lý dữ liệu bằng cách chia nhỏ ngôn ngữ thành các token, đơn vị từ vựng được mã hóa số, sau đó đưa vào mạng nơ ron để tính toán và tạo phản hồi. Các mô hình tư duy như Claude hay Cogito không chỉ trả lời mà còn giải thích từng bước tư duy, điều này khiến chúng phải xử lý nhiều token hơn và tính toán phức tạp hơn.
Để đo mức phát thải, nhóm nghiên cứu đưa 1.000 câu hỏi thuộc nhiều chủ đề cho 14 mô hình AI có kích thước từ 7 đến 72 tỉ tham số. Các mô hình này chạy trên GPU Nvidia A100 và được phân tích qua khung Perun – hệ thống đo hiệu suất và tiêu thụ năng lượng. Mức tiêu thụ điện năng sau đó được chuyển đổi thành lượng CO₂, với giả định 1 kWh điện sinh ra tương đương 480gr CO₂.
Kết quả cho thấy, mô hình tư duy trung bình tạo ra 543,5 token mỗi câu trả lời, trong khi các mô hình trả lời ngắn gọn chỉ dùng khoảng 37,7 token. Việc xử lý nhiều token hơn khiến lượng tính toán tăng lên rõ rệt.
Mô hình Cogito có 72 tỉ tham số, đạt độ chính xác cao nhất trong thí nghiệm, trả lời đúng 84,9% số câu hỏi. Tuy nhiên, nó cũng thải ra lượng CO₂ cao gấp 3 lần so với những mô hình cùng kích cỡ được tối ưu cho phản hồi súc tích.
“Hiện chúng ta đang chứng kiến một sự đánh đổi giữa độ chính xác và tính bền vững, đặc biệt trong lĩnh vực LLM. Không mô hình nào trong thí nghiệm có thể vừa đạt độ chính xác trên 80% vừa giữ mức phát thải CO₂ dưới 500g cho 1.000 câu hỏi”, Dauner nhận định.
Đặc biệt, những câu hỏi thuộc các lĩnh vực đòi hỏi suy luận phức tạp như đại số hay triết học làm lượng khí thải tăng gấp 6 lần so với các câu hỏi đơn giản.
Không phải tất cả các mô hình đều gây ô nhiễm như nhau. Ví dụ: mô hình R1 của DeepSeek (70 tỉ tham số) sẽ thải ra lượng CO₂ tương đương một chuyến bay khứ hồi New York - London nếu trả lời 60.000 câu hỏi. Trong khi đó, mô hình Qwen 2.5 của Alibaba Cloud (72 tỉ tham số), dù có độ chính xác tương đương, chỉ phát thải khoảng một phần ba con số đó.
Sự khác biệt này cho thấy yếu tố thiết kế, tối ưu thuật toán và cơ sở hạ tầng phần cứng đóng vai trò lớn trong hiệu quả năng lượng.
Mặc dù mức phát thải phụ thuộc vào nhiều yếu tố như phần cứng, hiệu suất xử lý và nguồn điện sử dụng (năng lượng sạch hay hóa thạch), nghiên cứu này là một lời nhắc mạnh mẽ: không nên coi AI là “miễn phí” về mặt môi trường.
Dauner cảnh báo: “Nếu người dùng nhận thức rõ chi phí CO₂ cho mỗi lần sử dụng AI, họ sẽ có động lực để sử dụng công nghệ này có chọn lọc và tiết kiệm hơn”.
Nghiên cứu cũng kêu gọi các công ty phát triển AI ưu tiên tối ưu hóa không chỉ về hiệu suất đầu ra mà cả về hiệu quả năng lượng, yếu tố ngày càng trở nên quan trọng trong bối cảnh khủng hoảng khí hậu toàn cầu.
Mô hình ngôn ngữ lớn (LLM) là trí tuệ nhân tạo được huấn luyện trên lượng dữ liệu khổng lồ, như sách, báo, và trang web, để hiểu và tạo ra ngôn ngữ giống con người. LLM học cách đoán từ tiếp theo trong câu bằng cách nhìn toàn bộ ngữ cảnh, tập trung vào những từ quan trọng.
LLM có thể trả lời câu hỏi, dịch ngôn ngữ, viết bài, hoặc thậm chí viết mã lập trình. Qua huấn luyện ban đầu và tinh chỉnh với phản hồi từ con người, LLM trở nên thông minh và đáng tin cậy hơn. Tuy nhiên, đôi khi nó có thể đưa ra thông tin sai, phản ánh định kiến từ dữ liệu, và cần nhiều năng lượng để hoạt động. Dù vậy, LLM đang thay đổi cách chúng ta giao tiếp, học tập, và làm việc trong nhiều lĩnh vực, từ giáo dục đến công nghệ.
Nguồn Một Thế Giới: https://1thegioi.vn/cai-gia-moi-truong-cua-cac-mo-hinh-ai-233948.html