Biznes Fakty
Jak wejść na pokład pociągu AI w 2025 r. i zrobić to w sposób zrównoważony
Pomimo wszystkich wysiłków, jakie można podjąć w centrum danych, jeśli podstawowe źródło energii nie pochodzi ze źródeł odnawialnych, z definicji nie można mówić o zrównoważonym rozwoju.
Musimy być świadomi źródeł energii i elektryczności — tworzyć czystą i zrównoważoną energię. Ten krok, z mojej perspektywy, powinien być podstawową myślą, jeśli chodzi o transformację AI i centrów danych. Poza tym chodzi o ogólną efektywność — dbanie o sprzęt używany w centrum danych oraz sposób i stopień jego wykorzystania czy chłodzenia.
Spójrzmy na wybitny przykład z Finlandii — LUMI, 8. najlepszy superkomputer na świecie i 3. w Europie, którego zużycie energii jest pokrywane w 100 proc. energią z wody. Ciepło odpadowe z LUMI będzie stanowić około 20 proc. ogrzewania miejskiego w okolicznym mieście Kajaani i znacząco zmniejszy roczny ślad węglowy całego miasta: o 12 400 ton. To ilość równa emisji z prawie 4 tys. samochodów osobowych.
Cel AMD
Cel AMD to 30×25. Chodzi o osiągnięcie 30-krotnego wzrostu efektywności energetycznej procesorów i akceleratorów AMD zasilających serwery do HPC i treningu sztucznej inteligencji w latach 2020-2025. Ten cel przekłada się na 97-proc. redukcję zużycia energii na obliczenia. Gdyby wszystkie węzły serwerowe AI i HPC na świecie osiągnęły podobne zyski, w 2025 r. można by zaoszczędzić miliardy kilowatogodzin energii elektrycznej.
Promocja
Nauka inwestowania bez ryzyka utraty środków?
Tak, to możliwe. W drodze po rynkowy sukces warto zadbać o solidny trening. Konto treningowe XTB pozwala na zapoznanie się z wielokrotnie nagradzaną i prostą w użyciu platformą xStation 5 w której, oprócz bogatej biblioteki materiałów edukacyjnych znajdziesz tysiące instrumentów z oferty XTB i dziesiątki narzędzi analitycznych do ich analizy.
Wykorzystaj wirtualne środki i testuj kolejne strategie inwestycyjne bez ryzyka.
Dodając do tego jednak ograniczenia finansowe, otrzymujemy trudne zadanie dla użytkownika końcowego — wszystko zależy od tego, jak dużej wydajności naprawdę potrzebujesz i na ile energii możesz sobie pozwolić zarówno w środowisku centrum danych, jak i ekonomicznie. Zwykle zaleca się modernizację centrum danych w jak największym stopniu, ponieważ wydajność i porównywalna wydajność na jednostkę mocy, jaką można uzyskać z nowych technologii, są znacznie wyższe niż w starszych produktach. Brzmi dość prosto, prawda?
Jednak gdy przyjrzysz się szczegółom potrzebnej wydajności, zobaczysz złożoność i kompromisy. Jeśli zdecydujesz się na wyższą wydajność, to czy pobór mocy wzrośnie i czy masz na to budżet? Jeśli zużycie energii jest takie samo i uzyskujesz większą wydajność, jak w przypadku produktów AMD Zen5, czy jest to ekonomicznie opłacalne dla firmy i czy możesz sobie na to pozwolić? Jeśli nie, jakie są kompromisy między wydajnością a zużyciem energii? Czy wewnętrzni i zewnętrzni użytkownicy aplikacji mogą tolerować taki sam lub nawet dłuższy czas otrzymywania wyników swoich zapytań? Lista pytań nie ma końca.
Czy będą ograniczenia przestrzeni i mocy?
Aby nakreślić sytuację, ważne jest, aby zauważyć, że AI to podróż, która nie ma uniwersalnych rozwiązań, zarówno w sprzęcie, jak i oprogramowaniu. To czyni ją złożoną, ale i ekscytującą. Można wykonywać wnioskowanie LLM lub klasyczne uczenie maszynowe na CPU, GPU i innych akceleratorach. Nie wspominam nawet o talentach i umiejętnościach, specyfice danych, tolerancji ryzyka i innych elementach dyskusji o AI.
Połączenie do tego ogromnego wzrostu generowanych danych i wymagań obliczeniowych do ich przetwarzania ze wszystkimi innymi implikacjami dotyczącymi przestrzeni fizycznej lub wymaganej mocy prowadzi ponownie do tematu modernizacji centrum danych, ponieważ widzimy wielu klientów borykających się z ograniczeniami przestrzeni lub mocy w ich obecnym centrum danych już przy codziennych operacjach IT.
Wspomniałem już o wyjątkowym TCO (Total Cost of Ownership — całkowity koszt posiadania — red.) i wartości, jaką możemy dostarczyć w przestrzeni CPU — możemy dramatycznie zmniejszyć liczbę serwerów wymaganych dla określonego poziomu wydajności, wraz ze zmniejszeniem OPEX i CAPEX, a także zużycia energii dzięki naszym procesorom AMD EPYC. Może to pomóc znacząco zmniejszyć przestrzeń i moc wymaganą do uruchamiania obecnych i przyszłych obciążeń, uwalniając zasoby na instalacje AI i dalsze skalowanie mocy obliczeniowej.
Nasze podejście do tych wyzwań
Staramy się dostarczać najlepszy sprzęt, na którym można uruchamiać obciążenia i współpracować z ekosystemem, aby upewnić się, że używane oprogramowanie jest zoptymalizowane i działa z najlepszą wydajnością. Na poziomie aplikacji i oprogramowania warto zerknąć na nasze biblioteki ZenDNN, które zapewniają możliwości przetwarzania języka naturalnego i rozpoznawania obrazów na procesorach AMD EPYC, lub nasz stos oprogramowania ROCm dla akceleratorów, aby zobaczyć postęp w tej dziedzinie.
Wraz z niedawno wydanym ROCm 6.3, programiści mogą korzystać z wyższej wydajności wnioskowania LLM, umożliwiając organizacjom obsługę aplikacji AI na dużą skalę. Więc stale przesuwamy granice wydajności i optymalizacji, aby dać naszym klientom najlepsze wyniki.
I podczas gdy produkty są ważne, ekosystem jest najważniejszy. Poprzez nasze partnerstwa w ekosystemie AI pomagamy klientom i partnerom przyspieszyć wykorzystanie AI poprzez kompleksowe rozwiązania AI, w tym sprzęt i oprogramowanie. Jesteśmy członkiem-założycielem PyTorch Foundation, ściśle współpracujemy z Hugging Face i ekosystemem programistów AI, w tym z Microsoft, OpenAI, Meta, Cohere i xAI, by wymienić tylko kilka.
AMD dokonało również strategicznych przejęć w tej przestrzeni, takich jak Silo.AI, największe prywatne laboratorium AI w Europie; ZT Systems, dostawca infrastruktury AI dla hiperskalerów; oraz Nod.ai, który dostarcza możliwości oprogramowania AI open-source.
Jeśli chodzi o nasze plany na przyszły rok, będziemy nadal rozwijać nasz ekosystem, wprowadzać nowe technologie i produkty, takie jak akceleratory AMD Instinct MI350, które zaprezentowaliśmy w czerwcu 2024 r., i nadal wspierać naszych partnerów i klientów w ich podróży z HPC i AI. Akceleratory AMD Instinct MI350 mają być dostępne w drugiej połowie 2025 r.
Autor: Alexander Troshin, product marketing manager na region EMEA w AMD
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Źródło