Đăng nhập

Máy chủ AI xài lượng điện bao nhiêu?

VOH - Mọi người đều biết máy chủ AI, đang tiêu tốn lượng điện khổng lồ được tính bằng megawatt mỗi giờ. Nhưng hình như không ai có thể nói chính xác lượng điện phải mất là bao nhiêu?

Các ước tính về lượng điện này vẫn tồn tại, nhưng các chuyên gia cho rằng những con số đó chỉ là một phần và ngẫu nhiên, chỉ cung cấp cái nhìn thoáng qua về tổng mức sử dụng năng lượng của AI.

Điều này là do các mô hình học máy rất đa dạng, có thể được cấu hình theo những cách làm thay đổi đáng kể mức tiêu thụ điện năng của chúng. Hơn nữa, các doanh nghiệp có thể đưa ra tính toán như các công ty như: Meta, Microsoft và OpenAI không chia sẻ thông tin liên quan.

Máy chủ AI xài lượng điện bao nhiêu? 1Xem toàn màn hình
Hình minh họa 

Một yếu tố quan trọng có thể xác định là sự khác biệt giữa đào tạo mô hình lần đầu tiên và triển khai mô hình đó cho người dùng.

Lượng điện dùng cho đào tạo mô hình ngôn ngữ lớn 

Đặc biệt, hoạt động đào tạo cho AI cực kỳ tiêu tốn năng lượng, tiêu thụ nhiều điện năng hơn so với các hoạt động của trung tâm dữ liệu truyền thống. Ví dụ, việc đào tạo một mô hình ngôn ngữ lớn như GPT-3 được ước tính chỉ sử dụng dưới 1.300 megawatt giờ (MWh) điện; lượng điện năng tương đương với mức tiêu thụ hàng năm của 130 ngôi nhà ở Mỹ.

So sánh điều đó với việc phát trực tuyến Netflix trong một giờ cần khoảng 0.8 kWh (0,0008 MWh) điện. Điều đó có nghĩa là bạn phải xem 1.625.000 giờ để tiêu thụ lượng điện năng tương đương với việc huấn luyện con GPT-3.

Nhưng thật khó để nói con số này áp dụng như thế nào cho các hệ thống hiện đại nhất hiện nay. Mức tiêu thụ năng lượng có thể lớn hơn vì các mô hình AI có xu hướng tăng dần về kích thước trong nhiều năm và các mô hình lớn hơn đòi hỏi nhiều năng lượng hơn. Mặt khác, các công ty có thể đang sử dụng một số phương pháp đã được chứng minh để làm cho các hệ thống này tiết kiệm năng lượng hơn.

Sasha Luccioni, nhà nghiên cứu tại công ty AI Hugging Face, cô cho biết thách thức của việc đưa ra các ước tính là các công ty trở nên bí mật hơn khi AI có lãi. Chỉ cách đây vài năm, các công ty như OpenAI công bố chi tiết về chế độ đào tạo của họ, phần cứng nào và trong bao lâu. Nhưng nay thì thông tin tương tự không thể có đối với các mẫu máy mới nhất, như ChatGPT và GPT-4.

Luccioni, tác giả của một số bài báo kiểm tra việc sử dụng năng lượng của AI, cho rằng bí mật này một phần là do sự cạnh tranh giữa các công ty nhưng cũng là một nỗ lực nhằm chuyển hướng chỉ trích.

Tháng 12/2023, Luccioni và các đồng nghiệp  đã  đăng một bài báo trong đó có những ước tính đầu tiên về mức sử dụng năng lượng suy luận của các mô hình AI khác nhau. 

Luccioni và các đồng nghiệp của cô đã chạy thử nghiệm trên 88 mô hình khác nhau, trải rộng trên nhiều trường hợp sử dụng, từ trả lời câu hỏi đến xác định đối tượng và tạo ra hình ảnh.

Trong mỗi trường hợp, họ thực hiện nhiệm vụ này 1.000 lần và ước tính chi phí năng lượng. Hầu hết các tác vụ họ thử nghiệm đều sử dụng một lượng năng lượng nhỏ, chẳng hạn như 0,002 kWh để phân loại mẫu văn bản và 0,047 kWh để tạo văn bản.

Nếu chúng ta sử dụng số giờ phát trực tuyến Netflix để so sánh thì chúng tương đương với năng lượng tiêu thụ khi xem lần lượt là 9 giây hoặc 3,5 phút. (đó là chi phí để thực hiện mỗi nhiệm vụ 1.000 lần.)

Con số này lớn hơn đáng kể đối với các mô hình tạo hình ảnh, sử dụng trung bình 2,907 kWh trên 1.000 lần suy luận. Như bài báo lưu ý, điện thoại thông minh trung bình sử dụng 0,012 kWh để sạc. Do đó, việc tạo một hình ảnh bằng AI có thể sử dụng nhiều năng lượng như sạc điện thoại thông minh của bạn. Tuy nhiên, “có thể” vì những số liệu này không nhất thiết phải khái quát cho tất cả các trường hợp sử dụng.

Luccioni và các đồng nghiệp của cô đã thử nghiệm mười hệ thống khác nhau, từ các mô hình nhỏ tạo ra hình ảnh nhỏ 64 x 64 pixel đến mô hình lớn hơn tạo ra hình ảnh 4K và điều này dẫn đến những giá trị rất lớn.

Các nhà nghiên cứu cũng tiêu chuẩn hóa phần cứng được sử dụng để so sánh tốt hơn các mô hình AI khác nhau. Điều này không nhất thiết phản ánh việc triển khai trong thế giới thực, nơi phần mềm và phần cứng thường được tối ưu hóa để tiết kiệm năng lượng. 

Luccioni nói: “Chắc chắn đây không phải là đại diện cho trường hợp sử dụng của mọi người, nhưng bây giờ ít nhất chúng tôi đã có một số con số”.

Nghiên cứu này cung cấp dữ liệu tương đối hữu ích, mặc dù không phải là số liệu tuyệt đối. Ví dụ, nó cho thấy rằng các mô hình AI cần nhiều năng lượng hơn để tạo ra đầu ra so với khi phân loại đầu vào. Nó cũng cho thấy rằng bất cứ điều gì liên quan đến hình ảnh đều tốn nhiều năng lượng hơn văn bản.

Luccioni nói: “Cuộc cách mạng AI mang tính tổng thể đi kèm với cái giá phải trả trên toàn cầu mà chúng ta hoàn toàn không biết đến và sự lan rộng đối với tôi là đặc biệt rõ ràng”. “Điều quan trọng là chúng tôi không biết.” 

Vì vậy, việc cố gắng giảm thiểu chi phí năng lượng khi dùng AI là điều khó khăn vì có rất nhiều biến số. Nhưng nếu chúng ta muốn hiểu rõ hơn về cái giá phải trả của hành tinh, thì cần phải thực hiện những giải pháp khác. Điều gì sẽ xảy ra nếu thay vì tập trung vào suy luận mô hình, chúng ta thu nhỏ lại? 

Ước tính tổng năng lượng tiêu thụ qua chip GPU Nvidia

Đây là cách tiếp cận của Alex de Vries, một ứng cử viên tiến sĩ tại VU Amsterdam, người đã tính toán chi phí năng lượng của Bitcoin và là người đã sử dụng chip GPU Nvidia, tiêu chuẩn vàng của phần cứng AI, để ước tính năng lượng toàn cầu của ngành sử dụng.

Như Alex de Vries giải thích, Nvidia chiếm khoảng 95% doanh số bán hàng trên thị trường AI. Công ty cũng công bố các thông số năng lượng cho phần cứng và dự đoán doanh số bán hàng của mình. 

Bằng cách kết hợp dữ liệu này, de Vries tính toán rằng đến năm 2027, lĩnh vực AI có thể tiêu thụ từ 85 - 134 terawatt giờ mỗi năm. Con số này gần bằng nhu cầu năng lượng hàng năm của quê hương de Vries, là quốc gia Hà Lan. 

“Bạn đang nói về mức tiêu thụ điện của AI có khả năng chiếm một nửa lượng điện tiêu thụ toàn cầu vào năm 2027,” de Vries nói với The Verge . “Tôi nghĩ đó là một con số khá đáng kể.”

Một báo cáo gần đây của Cơ quan Năng lượng Quốc tế đưa ra ước tính tương tự, cơ quan này cho biết mức sử dụng năng lượng của trung tâm dữ liệu hiện tại ở mức khoảng 460 terawatt giờ vào năm 2022 và có thể tăng lên từ 620 đến 1.050 TWh vào năm 2026 - tương ứng với nhu cầu năng lượng của cả nướoc Thụy Điển hoặc Đức. 

Nhưng de Vries cho rằng việc đưa những số liệu này vào bối cảnh cụ thể là điều quan trọng.

Ông lưu ý rằng từ năm 2010 đến năm 2018, việc sử dụng năng lượng của trung tâm dữ liệu khá ổn định, chiếm khoảng 1 đến 2% mức tiêu thụ toàn cầu. ( “trung tâm dữ liệu” ở đây là mọi thứ tạo nên “Internet”: từ máy chủ nội bộ của các tập đoàn đến tất cả các ứng dụng bạn không thể sử dụng ngoại tuyến trên điện thoại thông minh của mình).

Luccioni nói rằng cô ấy muốn thấy các công ty xếp hạng sao năng lượng cho các mô hình AI, cho phép người tiêu dùng so sánh hiệu quả sử dụng năng lượng giống như cách họ có thể làm đối với các thiết bị khác.

Bình luận