Gemini AI: Ile prądu zużywa sztuczna inteligencja Google?
Gemini AI, sztuczna inteligencja rozwijana przez Google, zużywa niewielką ilość energii przy pojedynczym zapytaniu, ale skala użytkowania sprawia, że jej wpływ na środowisko jest ogromny. Oprócz energii, każde polecenie wymaga chłodzenia i obsługi sprzętu pomocniczego, generując emisję dwutlenku węgla i zużycie wody. Przewiduje się, że rozwój AI doprowadzi do dynamicznego wzrostu zużycia energii w światowych centrach danych, co staje się wyzwaniem dla całego ekosystemu technologicznego.

Google zbadało, jak dużo energii zużywa Gemini AI na każde zapytanie. Okazało się, że są to ogromne ilości, biorąc pod uwagę liczbę osób, które z niego korzystają.
Gemini od Google zużywa niespodziewane ilości energii
Okazało się, że sztuczna inteligencja Gemini zużywa 0,24 watogodziny na medianę, czyli wartość środkową, zapytania. Chociaż wydaje się to niewiele, mniej więcej tyle, ile trwa włączenie mikrofalówki na sekundę, wystarczy pomnożyć tę wartość przez miliardy codziennych interakcji, aby uzyskać ogromną ilość energii wykorzystywanej przez nią każdego dnia.
- Chcieliśmy, aby wszystko, co uwzględniliśmy, było jak najbardziej kompleksowe - powiedział Jeff Dean, główny naukowiec Google.
Ujawniono, że układy sztucznej inteligencji napędzające Gemini odpowiadają zaledwie za 58 proc. całkowitego zapotrzebowania na energię elektryczną. Reszta rozkłada się następująco: 25 proc. jest przeznaczone na sprzęt pomocniczy, m.in. pamięć i procesor, 10 proc. zasila sprzęt zapasowy, który pozostaje bezczynny, lecz jest gotowy do pracy, a 8 proc. zasila systemy chłodzenia i konwersję energii niezbędną do utrzymania sprawności całego systemu. I każde zapytanie do Gemini uruchamia to wszystko.
Dane firmy pokazują, że mediana polecenia Gemini zużyła 33 razy więcej energii w maju 2024 roku niż w maju 2025 roku - firma twierdzi, że poprawa wydajności spowodowała spadek zużycia. Szacuje się, że każde zapytanie sztucznej inteligencji od Google generuje 0,03 grama dwutlenku węgla i zużywa 0,25 ml wody (ok. pięciu kropli).
Sztuczna inteligencja generuje ogromne zapotrzebowanie
Gwałtowny wzrost sztucznej inteligencji powoduje duży skok zapotrzebowania na energię elektryczną i nic nie wskazuje na to, by ten trend miał zwolnić. Międzynarodowa Agencja Energetyczna (IEA) prognozuje, że światowe zapotrzebowanie na energię elektryczną w centrach danych wzrośnie ponad dwukrotnie do 2030 roku, osiągając ponad 1000 terawatogodzin - więcej niż wynosi całkowite roczne zużycie w Japonii. Według IEA w ciągu najbliższych pięciu lat OZE pokryją prawie połowę dodatkowego zapotrzebowania, a energia jądrowa zacznie odgrywać coraz ważniejszą rolę.
- Centra danych AI wymagają stałego zasilania, 24 godziny na dobę, 7 dni w tygodniu, 365 dni w roku - mówi Rahul Mewawalla, dyrektor generalny Mawson Infrastructure Group, firmy budującej i utrzymującej energochłonne centra danych obsługujące AI.
W grudniu OpenAI poinformowało, że ChatGPT otrzymuje 1 miliard wiadomości dziennie. Kiedy w marcu firma uruchomiła nowy generator obrazów, użytkownicy generowali za jego pomocą 78 milionów obrazów dziennie.
Analiza przeprowadzona przez MIT Technology Review na początku tego roku wykazała, że stworzenie każdego pięciosekundowego filmu o rozsądnej rozdzielczości kosztuje około 3,4 miliona dżuli energii, co odpowiada energii potrzebnej do korzystania z kuchenki mikrofalowej przez około godzinę.
Jaka czeka nas przyszłość ze sztuczną inteligencją?
Nie jest wykluczone, że już niedługo AI będzie w stanie wykonywać zadania za nas bez naszego nadzoru. Rozmowy głosowe z modelami i wydawanie im złożonych poleceń, a także spersonalizowane AI pod nas mogą być przyszłością, która będzie nas kosztowała mnóstwo energii.










