Sztuczna inteligencja może stać się 100 razy bardziej energooszczędna
Sztuczna inteligencja zużywa dziś ogromne ilości energii, ale naukowcy proponują rozwiązanie, które może zmienić reguły gry. Nowe systemy mogą działać nawet stukrotnie oszczędniej. I to nie kosztem jakości, wręcz przeciwnie.

Centra danych zużywają dziś ilości energii, które jeszcze dekadę temu wydawały się abstrakcją. Według Międzynarodowej Agencji Energetycznej w 2024 roku systemy AI i data center w USA pochłonęły około 415 terawatogodzin prądu. A żeby sobie lepiej uzmysłowić tę wielkość - to ponad 10 proc. całej produkcji energii w kraju.
I to dopiero początek, bo do 2030 roku zużycie ma się podwoić.Ale badacze z Tufts University mają pewną koncepcję. Sztuczna inteligencja może działać nawet 100 razy oszczędniej.
Czy AI może myśleć bardziej "po ludzku"?
Zespół prof. Matthiasa Scheutza zaproponował podejście nazywane neurosymboliczną sztuczną inteligencją. W uproszczeniu chodzi o połączenie klasycznych sieci neuronowych z rozumowaniem symbolicznym - czyli takim, które przypomina sposób, w jaki człowiek dzieli problem na kroki i kategorie. To właśnie ten element "uczłowieczenia" okazuje się kluczowy.
Badacze nie pracowali na popularnych chatbotach, lecz na modelach sterujących robotami, tzw. VLA. Zamiast zgadywać kolejne działania na podstawie statystyki, system może stosować reguły.
- Podobnie jak modele językowe, systemy VLA opierają się na wynikach statystycznych z dużych zbiorów danych, co może prowadzić do błędów. Neurosymboliczny model może stosować reguły, które ograniczają liczbę prób i błędów w trakcie uczenia i znacznie szybciej prowadzą do rozwiązania. Nie tylko wykonuje zadanie szybciej, ale także znacząco skraca czas potrzebny na trenowanie systemu - jak tłumaczy prof. Scheutz.
Zobacz również:
100 razy mniej energii? Uderzająca zmiana
W testach różnica była uderzająca. Neurosymboliczny system osiągał skuteczność do 95 proc., podczas gdy klasyczne podejścia radziły sobie znacznie gorzej. Jeszcze ważniejsze są liczby dotyczące energii. Trening nowego modelu zużywał zaledwie 1 proc. energii potrzebnej standardowym rozwiązaniom, a podczas działania - około 5 proc
Rosnący popyt na AI napędza wyścig na coraz większe centra danych, których zużycie energii dorównuje małym miastom. Badacze ostrzegają, że obecne podejście może doprowadzić branżę do granicy możliwości infrastruktury.
Neurosymboliczne systemy jawią się więc nie tylko jako ciekawsza technologia, ale jako konieczność.
Źródło: Tufts University
Publikacja: Timothy Duggan et al, The Price Is Not Right: Neuro-Symbolic Methods Outperform VLAs on Structured Long-Horizon Manipulation Tasks with Significantly Lower Energy Consumption, arXiv (2026). DOI: 10.48550/arxiv.2602.19260











