Pomimo wszystkich wysiłków, jakie można podjąć w centrum danych, jeśli podstawowe źródło energii nie pochodzi ze źródeł odnawialnych, z definicji nie można mówić o zrównoważonym rozwoju.
Musimy być świadomi źródeł energii i elektryczności — tworzyć czystą i zrównoważoną energię. Ten krok, z mojej perspektywy, powinien być podstawową myślą, jeśli chodzi o transformację AI i centrów danych. Poza tym chodzi o ogólną efektywność — dbanie o sprzęt używany w centrum danych oraz sposób i stopień jego wykorzystania czy chłodzenia.
Spójrzmy na wybitny przykład z Finlandii — LUMI, 8. najlepszy superkomputer na świecie i 3. w Europie, którego zużycie energii jest pokrywane w 100 proc. energią z wody. Ciepło odpadowe z LUMI będzie stanowić około 20 proc. ogrzewania miejskiego w okolicznym mieście Kajaani i znacząco zmniejszy roczny ślad węglowy całego miasta: o 12 400 ton. To ilość równa emisji z prawie 4 tys. samochodów osobowych.
Cel AMD to 30×25. Chodzi o osiągnięcie 30-krotnego wzrostu efektywności energetycznej procesorów i akceleratorów AMD zasilających serwery do HPC i treningu sztucznej inteligencji w latach 2020-2025. Ten cel przekłada się na 97-proc. redukcję zużycia energii na obliczenia. Gdyby wszystkie węzły serwerowe AI i HPC na świecie osiągnęły podobne zyski, w 2025 r. można by zaoszczędzić miliardy kilowatogodzin energii elektrycznej.
Promocja
Tak, to możliwe. W drodze po rynkowy sukces warto zadbać o solidny trening. Konto treningowe XTB pozwala na zapoznanie się z wielokrotnie nagradzaną i prostą w użyciu platformą xStation 5 w której, oprócz bogatej biblioteki materiałów edukacyjnych znajdziesz tysiące instrumentów z oferty XTB i dziesiątki narzędzi analitycznych do ich analizy.
Wykorzystaj wirtualne środki i testuj kolejne strategie inwestycyjne bez ryzyka.
Dodając do tego jednak ograniczenia finansowe, otrzymujemy trudne zadanie dla użytkownika końcowego — wszystko zależy od tego, jak dużej wydajności naprawdę potrzebujesz i na ile energii możesz sobie pozwolić zarówno w środowisku centrum danych, jak i ekonomicznie. Zwykle zaleca się modernizację centrum danych w jak największym stopniu, ponieważ wydajność i porównywalna wydajność na jednostkę mocy, jaką można uzyskać z nowych technologii, są znacznie wyższe niż w starszych produktach. Brzmi dość prosto, prawda?
Jednak gdy przyjrzysz się szczegółom potrzebnej wydajności, zobaczysz złożoność i kompromisy. Jeśli zdecydujesz się na wyższą wydajność, to czy pobór mocy wzrośnie i czy masz na to budżet? Jeśli zużycie energii jest takie samo i uzyskujesz większą wydajność, jak w przypadku produktów AMD Zen5, czy jest to ekonomicznie opłacalne dla firmy i czy możesz sobie na to pozwolić? Jeśli nie, jakie są kompromisy między wydajnością a zużyciem energii? Czy wewnętrzni i zewnętrzni użytkownicy aplikacji mogą tolerować taki sam lub nawet dłuższy czas otrzymywania wyników swoich zapytań? Lista pytań nie ma końca.
Aby nakreślić sytuację, ważne jest, aby zauważyć, że AI to podróż, która nie ma uniwersalnych rozwiązań, zarówno w sprzęcie, jak i oprogramowaniu. To czyni ją złożoną, ale i ekscytującą. Można wykonywać wnioskowanie LLM lub klasyczne uczenie maszynowe na CPU, GPU i innych akceleratorach. Nie wspominam nawet o talentach i umiejętnościach, specyfice danych, tolerancji ryzyka i innych elementach dyskusji o AI.
Połączenie do tego ogromnego wzrostu generowanych danych i wymagań obliczeniowych do ich przetwarzania ze wszystkimi innymi implikacjami dotyczącymi przestrzeni fizycznej lub wymaganej mocy prowadzi ponownie do tematu modernizacji centrum danych, ponieważ widzimy wielu klientów borykających się z ograniczeniami przestrzeni lub mocy w ich obecnym centrum danych już przy codziennych operacjach IT.
Wspomniałem już o wyjątkowym TCO (Total Cost of Ownership — całkowity koszt posiadania — red.) i wartości, jaką możemy dostarczyć w przestrzeni CPU — możemy dramatycznie zmniejszyć liczbę serwerów wymaganych dla określonego poziomu wydajności, wraz ze zmniejszeniem OPEX i CAPEX, a także zużycia energii dzięki naszym procesorom AMD EPYC. Może to pomóc znacząco zmniejszyć przestrzeń i moc wymaganą do uruchamiania obecnych i przyszłych obciążeń, uwalniając zasoby na instalacje AI i dalsze skalowanie mocy obliczeniowej.
Staramy się dostarczać najlepszy sprzęt, na którym można uruchamiać obciążenia i współpracować z ekosystemem, aby upewnić się, że używane oprogramowanie jest zoptymalizowane i działa z najlepszą wydajnością. Na poziomie aplikacji i oprogramowania warto zerknąć na nasze biblioteki ZenDNN, które zapewniają możliwości przetwarzania języka naturalnego i rozpoznawania obrazów na procesorach AMD EPYC, lub nasz stos oprogramowania ROCm dla akceleratorów, aby zobaczyć postęp w tej dziedzinie.
Wraz z niedawno wydanym ROCm 6.3, programiści mogą korzystać z wyższej wydajności wnioskowania LLM, umożliwiając organizacjom obsługę aplikacji AI na dużą skalę. Więc stale przesuwamy granice wydajności i optymalizacji, aby dać naszym klientom najlepsze wyniki.
I podczas gdy produkty są ważne, ekosystem jest najważniejszy. Poprzez nasze partnerstwa w ekosystemie AI pomagamy klientom i partnerom przyspieszyć wykorzystanie AI poprzez kompleksowe rozwiązania AI, w tym sprzęt i oprogramowanie. Jesteśmy członkiem-założycielem PyTorch Foundation, ściśle współpracujemy z Hugging Face i ekosystemem programistów AI, w tym z Microsoft, OpenAI, Meta, Cohere i xAI, by wymienić tylko kilka.
AMD dokonało również strategicznych przejęć w tej przestrzeni, takich jak Silo.AI, największe prywatne laboratorium AI w Europie; ZT Systems, dostawca infrastruktury AI dla hiperskalerów; oraz Nod.ai, który dostarcza możliwości oprogramowania AI open-source.
Jeśli chodzi o nasze plany na przyszły rok, będziemy nadal rozwijać nasz ekosystem, wprowadzać nowe technologie i produkty, takie jak akceleratory AMD Instinct MI350, które zaprezentowaliśmy w czerwcu 2024 r., i nadal wspierać naszych partnerów i klientów w ich podróży z HPC i AI. Akceleratory AMD Instinct MI350 mają być dostępne w drugiej połowie 2025 r.
Autor: Alexander Troshin, product marketing manager na region EMEA w AMD
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Twój adres e-mail nie zostanie opublikowany.
