- ChatGPT spotřeboval pro trénink 1287 MWh energie
- AI ve vyhledávání Google by spotřebovala ročně tolik energie jako Irsko
- Pro umělou inteligenci možná budou potřeba nové zdroje energie
Asi nic za poslední rok nezaznamenalo takové rychlé rozšíření jako umělá inteligence. Umí psát, vysvětlovat informace, generovat obrázky či videa a řada profesí kvůli ní pravděpodobně zanikne, nebo se alespoň pořádně otřese v základech.
Pro trénink je potřeba energie nejvíce
Systémy, které umělá inteligence pohání, vyžadují obrovské množství nejen dat pro trénink, ale také elektrické energie. Nedávná studie se zabývala spotřebou elektřiny a uhlíkovou stopou velkých jazykových modelů. Zjistilo se, že jeden z nich, konkrétně ChatGPT, který běží na 10 000 grafických procesorech Nvidia, spotřeboval pro trénink 1287 MWh energie. Takové množství se dá přirovnat k roční spotřebě 121 domácností v USA. Právě trénovací fáze je energeticky nejnáročnější.
„V roce 2021 činila celková spotřeba elektřiny společnosti Google 18,3 TWh, z čehož na umělou inteligenci připadlo 10 až 15 % z celkového množství. Podle nejhoršího scénáře by samotné systémy umělé inteligence Googlu mohly spotřebovat tolik energie jako celé Irsko ročně (29,3 TWh). To je velice výrazný nárůst ve srovnání s historickou spotřebou související s umělou inteligencí,“ uvedl Alex de Vries, autor komentáře publikovaném v časopise Joule.
AI potřebuje špičkové čipy
Velký rozmach umělé inteligence logicky vede k větší poptávce po špičkových čipech. Stále více společností vyvíjí vlastní čipy, aby splnily náročné požadavky, které AI vyžaduje. Google a Amazon již vlastní čipy mají, Microsoft má údajně představit vlastní řešení už příští měsíc.
Blog SemiAnalysis věnovaný polovodičům a AI odhaduje, že pokud bychom chtěli do každého vyhledávání na Googlu zakomponovat chatbota, jako je ChatGPT, vyžadovalo by to 512 820 serverů Nvidia A100 HGX. To je více než 4 miliony GPU. Při spotřebě cca 6,5 kW na server by to znamenalo denní spotřebu elektřiny 80 GWh, za rok by to bylo 29,2 TWh. Takové vyhledávání by bylo desetkrát nákladnější než dnes.
Snahy o zlepšení účinnosti
Podle Vriese je příliš optimistické očekávat, že zlepšení účinnosti hardwaru a sofwaru plně vynahradí dlouhodobé změny ve spotřebě energie související s AI. Neházejme však flintu do žita. Týmu výzkumníků z Massachusettského technologického institutu (MIT) se podařilo snížit spotřebu elektřiny modelu AI o 12 až 15 % omezením spotřeby grafických procesorů, které jej pohánějí.
Je také možné, že společnosti zabývající se umělou inteligenci si budou muset obstarat vlastní zdroj energie. Jako příklad si můžeme vzít Microsoft, který se chystá postavit vlastní jaderné reaktory pro napájení datových center pro AI a cloudové služby.