Prawdziwa cena sztucznej inteligencji. Będziemy musieli wybierać
Sztuczna inteligencja to technologia skalowalna, której użytkownicy, klienci i twórcy mogą regulować parametry i wybierać modele, które najbardziej odpowiadają ich potrzebom. Rodzą się jednak dylematy. Jak zbalansować zasoby? Czatbot może udzielać dokładnych, rozległych odpowiedzi, ale pracować dłużej i wytrwalej, albo mniej dokładnych, pracując krócej i zużywając mniej zasobów. Wraz z poziomem dokładności - zwłaszcza modeli wnioskujących - rosną także koszty środowiskowe. To może być prawdziwa cena sztucznej inteligencji.

Spis treści:
Sztuczna inteligencja będzie zużywać coraz więcej zasobów
Modele wnioskujące sztucznej inteligencji, takie jak OpenAI o3, znane są z tego, że pracują nad odpowiedzią kilka lub nawet kilkadziesiąt minut (jak w przypadku trybu Deep Research), tworząc dokładne, poparte przypisami raporty. W przeciwieństwie do nich standardowe modele LLM, np. Google Gemini 2.5 Flash lub GPT-4o udzielają normalnie szybkich odpowiedzi w ciągu ułamka lub kilku sekund. Wygenerowana odpowiedź to zwykle parę zdań lub akapitów. Praca wykonana przez AI zużywa więcej zasobów niż jedno wyszukanie w Google (według wcześniejszych szacunków nawet 10 razy więcej), ale o wiele mniej niż praca modelu wnioskującego, który rozumuje o wiele dłużej.
Sztuczna inteligencja jest dziś prawdopodobnie najszybciej rozwijającą się technologią, której spektakularne kamienie milowe mogliśmy obserwować w ciągu ostatniej dekady. Sieci neuronowe poprawiające jakość tłumaczenia maszynowego, ogólna dostępność ChatuGPT, coraz lepsze generatory obrazów czy nawet ostatnio generatory wideo - to wszystko zaliczyło ogromny postęp, a trend wzrostowy prawdopodobnie będzie dalej postępował w taki sam sposób (chyba że przy obecnej architekturze natrafi na ścianę, co już zwiastuje część ekspertów).
AI jest oprogramowaniem wykorzystującym układy obliczeniowe podobne do tych, które znajdują się w naszych komputerach i smartfonach, tyle że odpowiednio zoptymalizowane. Nadal procesują one zera i jedynki - na podstawowym poziomie wszystkie technologie cyfrowe działają tak samo. Te obliczenia są jednak bardzo złożone i jest ich bardzo dużo. Im mądrzejsze algorytmy, tym większe zapotrzebowanie na energię.
Jako że sztuczna inteligencja ma z czasem mądrzeć, a nie głupieć, to szacuje się, że będzie zużywać coraz więcej prądu - o ile nie powstaną jakieś magiczne sposoby optymalizacji, które pozwolą to ograniczyć. Okazuje się jednak, że wcale nie trzeba czekać na nadejście superinteligencji, bowiem już dzisiejsze modele zwyczajnie konsumują za dużo. Skąd o tym wiadomo?
Naukowcy zbadali modele AI. Biorą więcej energii, niż potrzeba
Niemieccy naukowcy zbadali 14 dużych modeli językowych (LLMs) znanych producentów - Llama, Qwen i DeepSeek o różnych liczbach parametrów. Uruchomiono na nich benchmark MMLU, który zadał tym modelom 1000 pytań z różnych dziedzin, w tym 500 pytań otwartych i 500 wielokrotnego wyboru. AI działała na potężnej, prądożernej architekturze NVIDIA A100 GPU, a badacze przy pomocy frameworka Perun precyzyjnie mierzyli, ile energii dany model zużywa na odpowiedź.
Okazało się, że popularne modele AI zużywają o wiele więcej energii, niż potrzebne by to było do odpowiadania na codzienne pytania. Naukowcy przekonwertowali te dane na równoważne emisje dwutlenku węgla (480 g CO2/kWh), co pozwoliło oszacować współczynnik emisji - i wpływ na środowisko - każdego z nich.
"Nasze wyniki ujawniły silne korelacje między rozmiarem LLM, zachowaniem wnioskującym, generowaniem tokenów i emisjami. Podczas gdy większe modele z funkcją wnioskowania osiągały większą dokładność, do 84,9%, wytwarzały one również znacznie wyższe emisje, głównie za sprawą zwiększonej ilości tokenów wyjściowych" - piszą autorzy.
Analizy wykazały, że niektóre domeny abstrakcyjne, takie jak algebra, wymagają większej mocy obliczeniowej, a odpowiedzi cechuje niższa dokładność. Autorzy podkreślają potrzebę zastosowania bardziej wydajnych strategii wnioskowania/rozumowania w dalszym rozwoju LLMs.
Sztuczna inteligencja nie jest ekologiczna. Potrzebne optymalizacje
Nadmierne wykorzystanie sztucznej inteligencji ma miejsce także podczas zwykłego użytkowania. Twórcy aplikacji AI prosili już użytkowników, aby nie dziękowali czatbotowi za odpowiedź, jako że jest to kolejna informacja do przetworzenia i odpowiedź do wygenerowania. Nie poleca się też używania ciężkich, długo rozumujących wariantów modeli do zadawania prostych pytań, na które oczekujemy szybkiej odpowiedzi, a nie referatu na 10 stron A4. "Użytkownicy mogą znacząco ograniczyć emisje, promptując AI, by ta generowała zwięzłe odpowiedzi, albo ograniczając użycie modeli o dużych umiejętnościach do zadań, które rzeczywiście wymagają takiej mocy" - twierdzą autorzy badania.
Pewnym kompromisem są także małe modele językowe (SLMs), które mają mniej parametrów, a niektóre można uruchamiać nawet lokalnie - na komputerach i smartfonach. Niektóre z nich potrzebują dostępu do chmury obliczeniowej, a wszystkie operacje wykonują bezpośrednio na urządzeniu użytkownika. Te lekkie, energooszczędne modele AI nie są jednak tak zdolne jak te duże. Nie muszą one jednak działać w centrach danych, które mocno się grzeją, wymagają chłodzenia i pożerają gigantyczne ilości prądu. Z drugiej strony wiele firm, w tym Microsoft, w coraz większym stopniu stawia na odnawialne źródła energii z farm słonecznych i wiatrakowych.
Pewne rozwiązanie dylematu współczynnika emisji wobec dokładności odpowiedzi zaproponował też OpenAI, który zapowiedział, że jego przyszłe modele będą zawierać w sobie kilka różnych. Będą one dobierane przez algorytm w oparciu o treść i charakter pytania, a także oczekiwania użytkownika. Dzięki temu skalowanie zasobów obliczeniowych będzie się odbywać automatycznie, co pomoże zwiększyć oszczędności i trochę ograniczyć negatywny wpływ na środowisko.
Zobacz również:
- Biblioteki otwierają zasoby dla AI. Co to oznacza dla nauki i twórców?
- Polska chce dołączyć do europejskiego programu Gigafabryk AI
- Google uruchamia AI offline. Nowa aplikacja działa bez internetu
- Zrobią wszystko za ciebie? Nowa AI uczy się, planuje i działa samodzielnie
- Rok 2024 pod tym względem będzie rekordowy. To złe informacje
Źródło: Dauner M., Socher G. (2025), Energy costs of communicating with AI, Sec. Science and Environmental Communication, Volume 10, https://doi.org/10.3389/fcomm.2025.1572947.