Biznes Fakty
AMD kontra Nvidia: ekosystem Helios może zmienić siłę rynkową centrów danych
W czwartek 12 czerwca w San Jose Advanced Micro Devices (AMD) wprowadziło na rynek platformę Instinct MI400 wraz z powiązanym z nią systemem Helios. Oznacza to wprowadzenie pierwszej szafy serwerowej typu „wszystko w jednym”, którą można połączyć kaskadowo, aby działała jako pojedynczy komputer. Dyrektor generalny AMD Lisa Su i dyrektor generalny OpenAI Sam Altman dzielili scenę podczas Advancing AI 2025, co oznacza koniec wcześniejszej dominacji Nvidii na rynku akceleratorów danych.

- W jaki sposób platforma Helios firmy AMD może zagrozić dominacji firmy Nvidia w branży akceleratorów AI
- Dlaczego nowa architektura technologiczna i otwarty standard UALink mogą zmienić sposób budowy centrów danych
- Publikujemy komentarze liderów branży, takich jak Lisa Su z AMD i Sam Altman z OpenAI, na temat przyszłości sztucznej inteligencji
- Wyjaśniamy również, w jaki sposób nowa technologia AMD może obniżyć koszty szkolenia dużych modeli AI i przyspieszyć drogę do AGI.
- Więcej informacji o biznesie znajdziesz na Businessinsider.com.pl
„Po raz pierwszy zaprojektowaliśmy każdą jednostkę rackową jako spójny system” – podkreśliła Su, zauważając, że Helios składa się nie tylko z 72 procesorów graficznych Instinct MI400, ale także procesorów EPYC „Venice” i kart sieciowych Pensando „Vulcano”, połączonych za pomocą otwartej magistrali UALink. Ustanowiło to standard komunikacji, który ułatwia bezproblemową wymianę danych między komponentami sprzętowymi. „Rozważmy Helios jako serwer rackowy funkcjonujący jako jeden ogromny silnik obliczeniowy” – wyjaśniła.
Altman również wyraził swoje podekscytowanie. „Kiedy po raz pierwszy opisałeś mi te specyfikacje, pomyślałem: nie, to brzmi zupełnie niewiarygodnie! To będzie niezwykłe” — powiedział Su. Później podkreślił rosnące zapotrzebowanie OpenAI na zasoby obliczeniowe. „Potrzebujemy znacznej liczby komputerów, dużej pamięci i licznych procesorów” — stwierdził. Altman zauważył, że współpraca z AMD nad nadchodzącymi generacjami (już MI450) przyspieszy ewolucję modeli AI zdolnych do utrzymywania długich kontekstów, co jest kluczowe w drodze do AGI (ogólnej sztucznej inteligencji).
Przeczytaj także: AMD MI325X. Ta niepozorna nazwa ma potencjał, by wywrzeć znaczący wpływ na rynek AI
AMD Helios ma dostarczyć nowy standard
Najważniejszym postępem Helios jest jego architektura w skali rack. Użytkownik postrzega tysiące GPU jako pojedynczy, adresowalny zasób, co upraszcza szkolenie rozległych modeli AI . AMD twierdzi, że MI400 osiągnie dziesięciokrotny wzrost wydajności wnioskowania w porównaniu do MI300X, zużywając przy tym mniej energii. Aby wyjaśnić: wnioskowanie w obliczeniach AI odnosi się do procesu wykorzystywania wyszkolonego modelu do generowania odpowiedzi, przewidywań lub wyników w oparciu o nowe dane wejściowe.
Jednak obecnie toczy się bitwa o standardy. AMD koncentruje się na otwartym rozwiązaniu UALink, podczas gdy Nvidia opowiada się za swoim zastrzeżonym NVLink. Lisa Su przypomniała, że „przyszłość AI nie będzie wynikiem jednej firmy ani zamkniętego ekosystemu. Będzie kształtowana przez otwartą współpracę w całej branży”. To wyraźnie sugeruje, że strategia AMD jest lepsza, ponieważ nie ogranicza firm do jednego dostawcy w takim stopniu, w jakim robi to Nvidia.
Ważne jest, aby zauważyć, że chip MI400 nie wejdzie do produkcji przed 2026 r. AMD najpierw wprowadzi na rynek MI355X. Ten chip oferuje siedmiokrotnie większe możliwości przetwarzania niż jego poprzednik i generuje do 40% więcej tokenów na dolara niż konkurencyjne chipy Nvidia Blackwell B100/B200, dzięki zmniejszonemu zużyciu energii. Oznacza to, że chip może produkować więcej wyników (słów lub segmentów tekstu) w ramach tego samego budżetu, dzięki zwiększonej wydajności i niższemu zużyciu energii.
Andrew Dieckmann, dyrektor generalny działu GPU w AMD, podkreślił czynnik kosztów. „W każdym aspekcie istnieje zauważalna dysproporcja w kosztach nabycia, którą dodatkowo wzmacniamy naszą wyższością wydajności, co prowadzi do znacznych oszczędności” — stwierdził. Przy obecnych cenach sięgających kilkudziesięciu tysięcy dolarów za chip, stanowi to przekonujący argument dla firm budujących centra danych.
Zobacz także: Zakończyliśmy test laptopa nowej generacji. Działa on lokalnie z AI – bez Internetu
AMD nieustannie stara się dogonić Nvidię
AMD informuje, że chipy Instinct są obecnie używane w siedmiu z dziesięciu największych firm AI. Oracle Cloud Infrastructure ogłosiło klaster do 131 072 chipów MI355X, a Meta wykorzystuje MI300X do wnioskowania Llama 3 i 4 — i ogłosiło plany przejścia na MI400. Microsoft zatrudnia je do obsługi usług Copilot, podczas gdy Tesla, xAI i Cohere opracowują swoje modele przy użyciu tych chipów. Dlatego jasne jest, że AMD ma znaczącą obecność w sektorze AI.
W poprzednich latach AMD koncentrowało się na procesorach serwerowych, jednocześnie dążąc do Intela. Obecnie skupia się na całej infrastrukturze AI. W ciągu ostatnich dwunastu miesięcy firma przejęła lub zainwestowała w 25 firm AI — w tym ZT Systems, których wiedza specjalistyczna przyczyniła się do rozwoju Helios, oraz startupy takie jak Untether AI i Lamini. „Systemy AI stają się coraz bardziej złożone, więc kompleksowe rozwiązania są niezbędne” — podsumował Su.