Informatyka Internet Komputery

Zasoby energetyczne konsumowane przez sztuczną inteligencję – jakie jest prawdziwe oblicze problemu?

Internet roi się od doniesień o potencjalnie negatywnym wpływie, jaki na naszą planetę mogą mieć technologie oparte na uczeniu maszynowym – popularnie nazywane sztuczną inteligencją (AI). Na różnych portalach można natknąć się na liczne kalkulacje ilustrujące, ile samochodów produkuje tyle samo emisji CO2, co proces „szkolenia” algorytmu ChatGPT, albo jaka ilość energii potrzebna jest do stworzenia jednej grafiki. Coraz większą uwagę zwraca się również na kwestię konsumpcji wody przez centra danych, które wykorzystują do swojej pracy akceleratory AI. Czy powinniśmy jednak naprawdę obawiać się tego typu zagrożeń? Jak to zwykle bywa, sprawa nie jest prosta.

Narzędzia AI takie jak ChatGPT, Stable Diffusion, Midjourney i wiele innych rzeczywiście pochłaniają olbrzymie ilości energii, aby wygenerować jakiekolwiek wyniki. Modele, które leżą u podstaw tych narzędzi, działają poprzez przetwarzanie gigantycznych zbiorów danych przez tysiące akceleratorów, z których każdy zużywa kilkaset watów mocy. Dodając do tego energię, którą pochłania infrastruktura sieciowa oraz procesy chłodzenia serwerów, dochodzimy do liczby mierzonej w terawatogodzinach. Przy obecnym tempie rozwoju kolejnych narzędzi AI, które ciągle stwarzają nowe kwestie do rozwiązania, łatwo zacząć mnożyć te terawatogodziny i przewidywać nadciągającą katastrofę energetyczną i wodną, spowodowaną przez emisje CO2 generowane przez AI. Tak mogłoby się stać, gdyby ekspansja infrastruktury AI nie napotykała żadnych ograniczeń i trwała w obecnym tempie. Prawda jest jednak bardziej skomplikowana.

Similar Posts