Boom AI napędza zyski w sektorze energetycznym. To może jednak nie potrwać długo

Rozwój sztucznej inteligencji jest nierozerwalnie połączony z zapotrzebowaniem na półprzewodniki oraz energię elektryczną. Dostawcy chipów, tacy jak Nvidia, bardzo na tym zyskują, ale okazuje się, że równie dobre wyniki odnotowują dostawcy prądu. To jednak może nie trwać zbyt długo.

F19bdbf04f236bbff5098822a8c50d09, Biznes Fakty
Oprogramowanie, data center i chipy AI — wszystko to napędza zapotrzebowanie na prąd | Foto: Jarti / Shutterstock
  • Rozwój sztucznej inteligencji zwiększa zapotrzebowanie na energię elektryczną, co pozytywnie wpływa na wyniki firm energetycznych
  • Akcje takich spółek, napędzane współpracą z gigantami technologicznymi, rosną szybciej niż akcje firm technologicznych — w tym Nvidii
  • Analitycy ostrzegają jednak przed trudnościami związanymi z osiągnięciem celów klimatycznych ze względu na rosnące zużycie energii przez centra danych AI
  • Nowa technika opracowana przez BitEnergy AI może zmniejszyć zużycie energii przez AI nawet o 95 proc. Jej wdrożenie wymaga jednak specjalistycznego sprzętu
  • Więcej informacji o biznesie znajdziesz na stronie Businessinsider.com.pl

Świat ma obecnie obsesję na punkcie sztucznej inteligencji. To napędza ogromne zapotrzebowanie na prąd i zwiększa zyski w sektorze energetycznym. Akcje dużych firm energetycznych odnotowują dobre wyniki od początku roku, natomiast akcje niezależnych dostawców prądu, takich jak Vistra czy Constellation Energy, wystrzeliły w górę. Dla przykładu Constellation Energy poinformowała o nawiązaniu współpracy z Microsoftem — zapewni dostawę energii jądrowej. Taka wiadomość szybko znalazła swoje odzwierciedlenie na giełdzie i akcje Constellation wyraźnie wzrosły, a od początku roku odnotowały zysk na poziomie aż 127 proc.

W przypadku Vistra wyniki na giełdzie są jeszcze lepsze. Spółka od stycznia odnotowała wzrost rzędu 225 proc. To więcej niż Nvidia, której akcje zyskały od stycznia „tylko” 172 proc.

W zeszłym roku czołowe miejsca w rankingu firm giełdowych zajmowały spółki technologiczne oraz producenci chipów i serwerów. Teraz wygląda na to, że bardzo atrakcyjne dla inwestorów są spółki zajmujące się dostawami prądu. Analitycy z Tortoise Capital Advisors tłumaczą, że jest to wynikiem pojawienia się „komponentu wzrostu” dla sektora energetycznego, jakim jest właśnie rozwój sztucznej inteligencji i zapotrzebowanie na prąd.

Czytaj też: Intel i AMD zyskają nowego rywala. Chip AI tej marki może sporo namieszać

W erze AI zarabia się na prądzie

Akcje spółek technologicznych nie rosną w tym roku tak szybko, jak w zeszłym, ponieważ wielu inwestorów nabrało ostrożności. Pojawiły się już pierwsze raporty i analizy, z których wynika, ze wyceny największych firm technologicznych są znacząco zawyżone i wielu ekspertów kwestionuje wydatki na AI, przekonując, że na zwrot z inwestycji przyjdzie nam czekać bardzo długo.

Sceptycyzmu nabierają też inwestorzy skupiający się na akcjach dostawców chipów, takich jak Nvidia. Rywale bowiem pracują nad podobnymi układami, a także pojawiają się stosunkowo nowe spółki, które także chcą oferować półprzewodniki do zadań AI.

O ile jednak akcje takich spółek jak Nvidia obarczone są wysokim ryzykiem, inwestorzy coraz częściej stwierdzają, że w przypadku AI najważniejszy i o wiele bezpieczniejszy jest po prostu prąd. Niezależnie od tego, jakie firmy ostatecznie będą liderami w segmencie chipów czy oprogramowania AI, wszystkie będą potrzebowały energii elektrycznej. To tłumaczy rekordowe poziomy spółek takich jak Vistra i Constellation.

Dodajmy, że nawet po ostatnich wzrostach, firmy energetyczne i tak nie mają tak wysokich wycen, jak big techy. Jeśli spojrzymy na wskaźnik Price-to-Earnings Ratio (cena do zysku), który opiera się na prognozowanych przyszłych zyskach, to wycena Vistra jest ok. 20 razy większa od prognozowanego rocznego zysku na akcję, a w przypadku Constellation ten wskaźnik wynosi ok. 31. Nvidia w tym roku ma natomiast P/E na poziomie ok. 36-krotności przyszłych zysków.

Czytaj też: Pieniądze nie popłyną do Europy. Gigant wybrał lokalizację pod nowe data center

AI może stać się energooszczędna

Zwiększone zapotrzebowanie na energię elektryczną jest dobrą wiadomością dla inwestorów zainteresowanych spółkami energetycznymi. Powoduje jednak, że trudno będzie osiągnąć cele klimatyczne, co zauważył były prezes Google’a, Eric Schmidt. Powiedział jednak, że rynek nie powinien zwalniać tempa budowy kolejnych centrów danych, ponieważ „tych celów klimatycznych i tak nie udałoby się osiągnąć”.

Międzynarodowa Agencja Energetyczna prognozuje, że zużycie energii przez centra danych AI w 2024 r. będzie 10 razy wyższe niż w 2022 r. Jednocześnie jedno zapytanie do ChatGPT zużywa prawie 10 razy więcej energii niż wyszukiwanie w Google. Rene Haas, szef Arm Holdings, ostrzegł na początku tego roku, że centra danych AI mogą wymagać nawet 20 do 25 proc. całej sieci energetycznej USA do 2030 r.

Schmidt powiedział natomiast, że choć nie osiągniemy celów klimatycznych, powinniśmy rozwijać AI, ponieważ to właśnie sztuczna inteligencja może znaleźć rozwiązanie dla problemów klimatycznych — jego zdaniem nie powinniśmy ograniczać jej rozwoju.

Choć niektórzy dążą do coraz większego zużycia energii, a także bagatelizują sytuację, nie przejmując się celami klimatycznymi, są też naukowcy zajmujący się opracowywaniem nowych algorytmów AI.

Badacze z BitEnergy AI opracowali technikę, która może dramatycznie zmniejszyć zużycie energii przez AI — bez poświęcania dużej dokładności i szybkości działania. Twierdzą, że ich metoda może zmniejszyć zużycie energii nawet o 95 proc. Zespół nazywa to przełomem w postaci „Mnożenia o Liniowej Złożoności” (Linear-Complexity Multiplication), w skrócie L-Mul. To proces obliczeniowy, który wykorzystuje dodawanie liczb całkowitych oraz wymaga znacznie mniej energii i mniej kroków niż mnożenie liczb zmiennoprzecinkowych w zadaniach związanych z AI.

Liczby zmiennoprzecinkowe są szeroko stosowane w obliczeniach AI przy obsłudze bardzo dużych lub bardzo małych liczb. Te liczby są jak notacja naukowa w formie binarnej i pozwalają systemom AI na precyzyjne wykonywanie skomplikowanych obliczeń. Jednak precyzja ma swoją cenę. Algorytm L-Mul niejako zastępuje złożone mnożenia zmiennoprzecinkowe prostszym dodawaniem liczb całkowitych. W testach, jak twierdzą naukowcy, modele AI utrzymywały podobną dokładność, jednocześnie zmniejszając zużycie energii nawet o 95 proc.

Testy obejmujące różne zadania AI, w tym przetwarzanie języka naturalnego i wizję maszynową, wykazały jedynie 0,07-proc. spadek wydajności — niewielki kompromis w kontekście oszczędności energii.

Są jednak też złe wiadomości. L-Mul obecnie wymaga specjalistycznego sprzętu. Współczesne przetwarzanie AI nie jest zoptymalizowane do wykorzystania tej techniki. Przeszkodą może być więc to, że niektóre firmy, dostarczające chipy już teraz, mogą zdaniem naukowców utrudniać wysiłki na rzecz przyjęcia L-Mul. Liczą więc głównie na start-upy, które będą chciały wyróżniać się na rynku i postawią na sprzęt zoptymalizowany do obsługi nowej metody.

Autor: Grzegorz Kubera, dziennikarz Business Insider Polska

Nota: Zamieszczone w tekście wyceny mają wyłącznie charakter informacyjny i nie stanowią rekomendacji do zakupu lub sprzedaży produktów finansowych.

Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *