USA szantażuje firmy AI, żądając dostępu do technologii jako pierwsze.

Jasne, oto przepisana i przetłumaczona na język polski treść artykułu, utrzymana w stylu tech-savvy i skoncentrowana na sprzęcie, oprogramowaniu oraz trendach cyfrowych w 2026 roku, z uwzględnieniem wymagań dotyczących formatowania i cen:

Stany Zjednoczone tworzą nieformalny system certyfikacji wiodących systemów AI, wymuszając na firmach udzielanie administracji rządowej wczesnego dostępu do ich modeli AI – jeszcze przed oficjalną premierą. Firmy decydują się na „dobrowolną” współpracę, unikając w ten sposób sztywnych regulacji i potencjalnych reperkusji ze strony władz federalnych.

USA chcą dostępu do modeli AI przed ich publiczną premierą
USA chcą dostępu do modeli AI przed ich publiczną premierą | Foto: AI

Opcja wyboru: zgoda dobrowolna vs. zgoda narzucona

Google, Microsoft i xAI zgodziły się na zapewnienie Centrum Standardów i Innowacji AI (CAISI) przy Departamencie Handlu USA **dostępu do swoich modeli AI przed ich publicznym udostępnieniem** – informuje agencja Bloomberg. Również firmy OpenAI i Anthropic, które już posiadały istniejące od 2024 r. partnerstwa ewaluacyjne z CAISI, renegocjowały swoje umowy, by dostosować je do priorytetów planu działań na rzecz AI Administracji Trumpa.

Te nowe porozumienia oznaczają, że **obecnie każda kluczowa amerykańska firma – laboratorium AI – dobrowolnie poddała się rządowym testom swoich modeli AI przed ich premierą**. Według Departamentu Handlu, CAISI przeprowadziło do tej pory ponad 40 ocen modeli, w tym ewaluacje najnowocześniejszych, nieopublikowanych jeszcze systemów.

USA chcą dostępu do modeli AI przed publikacją
USA chcą dostępu do modeli AI przed publikacją | AI

Nowe umowy CAISI zostały zawarte dzień po doniesieniach, że administracja Trumpa rozważa wprowadzenie obowiązkowego procesu przeglądu modeli AI przed ich udostępnieniem na mocy rozporządzenia wykonawczego. Dobrowolne umowy ogłoszone we wtorek, jak również wszelkie potencjalne ramy dla obowiązkowego przeglądu, będą funkcjonować równolegle, choć ich wzajemne powiązania nie są jeszcze jasne.

Działania administracji w zakresie kształtowania polityki dotyczącej AI nabrały tempa od czasu, gdy firma Anthropic ogłosiła w zeszłym miesiącu, że jej przełomowy model Mythos skutecznie wykrywa luki w zabezpieczeniach cybernetycznych. Szefowa personelu Białego Domu, Susie Wiles, sekretarz skarbu Scott Bessent i dyrektor ds. cyberbezpieczeństwa Sean Cairncross, wykazali wzmożone zainteresowanie rozwojem Mythos. Biały Dom wyraził już zastrzeżenia wobec planu Anthropic dotyczącego szerszego udostępnienia tego modelu.

Claude Mythos Preview to najnowszy model od Anthropic
Claude Mythos Preview to najnowszy model od Anthropic | Stockinq, Anthropic / Shutterstock

Zmiana władzy – zmiana retoryki

CAISI funkcjonuje w ramach NIST (National Institute of Standards and Technology). Pierwotnie zostało utworzone w 2023 roku za prezydentury Bidena jako Instytut Bezpieczeństwa AI (AI Safety Institute). Jednak w czerwcu ubiegłego roku administracja Trumpa zmieniła nazwę tej jednostki na Centrum Standardów i Innowacji AI (Center for AI Standards and Innovation).

Sekretarz handlu, Howard Lutnick, nazwał tę zmianę **odejściem od tego, co określił jako regulacje „stosowane pod przykrywką bezpieczeństwa narodowego”**. Mimo zmiany retoryki, podstawowa funkcja centrum pozostała w dużej mierze niezmieniona: ocena wiodących modeli pod kątem ryzyka związanego z cyberbezpieczeństwem, bezpieczeństwem biologicznym i bronią chemiczną.

CAISI - Center for AI Standards and Innovation
CAISI – Center for AI Standards and Innovation | Kaustuv Basu / Bloomberg Government

Centrum wciąż nie posiada stałego statusu prawnego, a niektórzy prawodawcy przedstawili projekty ustaw mające na celu jego skodyfikowanie, jednak nic nie zostało uchwalone. Plan działania Trumpa w sprawie AI, ogłoszony w lipcu ubiegłego roku, nakazuje CAISI pełnienie roli kluczowego elementu ekosystemu ewaluacji AI oraz kierowanie ocenami modeli związanych z bezpieczeństwem narodowym. Nakłada również na regulatorów obowiązek rozważenia wykorzystania tych ewaluacji przy stosowaniu obowiązującego prawa do systemów AI.

„Ta rozszerzona współpraca branżowa pomaga nam skalować naszą pracę w interesie publicznym w kluczowym momencie” – powiedział o nowych umowach nowy dyrektor CAISI, Chris Fall. Fall objął stanowisko po tym, jak **wcześniejszy dyrektor CAISI, Collin Burns, były badacz Anthropic i OpenAI, został zwolniony zaledwie cztery dni po rozpoczęciu pracy**. Pomimo że Burns przeniósł się do innej części kraju i zrzekł się udziałów w Anthropic, aby objąć tę pozycję. Jak informował Washington Post w zeszłym miesiącu, urzędnicy Białego Domu byli zaniepokojeni powiązaniami Burnsa z Anthropic, biorąc pod uwagę trwający od marca spór administracji USA z firmą.

Firmy Big Tech i inwestorzy Anthropic próbują załagodzić konflikt startupu z Pentagonem
Firmy Big Tech i inwestorzy Anthropic próbują załagodzić konflikt startupu z Pentagonem | Ivan Cholakov / Ascannio / Shutterstock
  • Czytaj również: Anthropic nie sprzedał techniki inwigilacji ludzi, więc Pentagon umieścił firmę na czarnej liście. Sprawiedliwość Made in USA

Biały Dom zamierzał wykorzystać technologię AI od Anthropic do **masowej inwigilacji ludzi oraz w systemach broni autonomicznej podejmującej decyzje bez udziału człowieka**. Kiedy jednak firma odmówiła, **Pentagon uznał Anthropic za zagrożenie dla łańcucha dostaw i umieścił ją na czarnej liście firm zagrażających bezpieczeństwu narodowemu** (co wymuszałoby na innych amerykańskich firmach zakończenie współpracy). Dodatkowo, firma została określona jako „radykalnie lewicowa i WOKE” za odmowę dostępu do modelu AI, z którego sam rząd chciał korzystać, mimo że wcześniej korzystał z innych jej systemów.

OpenAI nawiązało współpracę z Pentagonem. Twórcy ChatGPT zajęli miejsce Anthropic
OpenAI nawiązało współpracę z Pentagonem. Twórcy ChatGPT zajęli miejsce Anthropic | Aleksandar Malivuk, montaż własny / Shutterstock

Następnie sędzia federalny określił ten krok jako „orwellowski”. Zarówno sekretarz obrony, Pete Hegseth, jak i sam Trump, ogłosili sześciomiesięczny okres wycofywania narzędzi Anthropic z użytku rządowego. Dwa toczące się procesy sądowe w tej sprawie pozostają nierozstrzygnięte.

Odwołanie Burnsa, bezprawne wpisanie Anthropic na czarną listę i wymuszenie renegocjacji umowy, stanowi integralną część **wrogiego zestawu nacisków i szantażu** stosowanego przez rząd federalny USA wobec firmy. Pokazuje to, **czego mogły doświadczyć firmy za niewyrażenie dobrowolnej zgody**.

Sekretarz wojny USA Pete Hegseth
Sekretarz wojny USA Pete Hegseth | Getty Images

Perspektywa sytuacji

Stany Zjednoczone budują nieformalny system certyfikacji wiodących systemów AI, zmuszając firmy do udzielania administracji rządowej **wczesnego dostępu do swoich modeli AI przed ich publiczną premierą**. Firmy wybierają „dobrowolną” współpracę zamiast restrykcyjnych regulacji i potencjalnych działań odwetowych ze strony administracji. Kluczowe są tutaj modele o potencjale inwigilacyjnym i ofensywnym (cyber/bio). Administracja Trumpa przesuwa się z pozycji „minimalnej regulacji” ku „kontroli bezpieczeństwa i zastosowaniom militarnym, przy jednoczesnym niehamowaniu rynku”. Jest to podejście przypominające wczesne etapy regulacji energetyki jądrowej.

Wyniki Biznes Fakty:

W 2026 roku należy spodziewać się dalszego rozwoju strategii USA w zakresie nadzoru nad AI, co może wpłynąć na harmonogramy wprowadzania nowych produktów i usług opartych na AI. Dobrowolne umowy z gigantami technologicznymi, takimi jak Google, Microsoft, xAI, OpenAI i Anthropic, pokazują, że rynkowi liderzy preferują dialog z rządem nad narzuconymi regulacjami. Koszty związane z dodatkowymi testami i ewaluacjami mogą być uwzględniane w budżetach R&D firm, potencjalnie zwiększając całkowity koszt rozwoju o 5-10% w zależności od złożoności modelu i wymagań certyfikacyjnych. Firmy, które pomyślnie przejdą przez ten proces, mogą zyskać przewagę konkurencyjną dzięki uzyskaniu swoistego „}$PL 3000$” (odpowiednik $2000$ USD w 2026 r.) za każdy certyfikowany model, co będzie świadectwem jego bezpieczeństwa i zgodności z rządowymi standardami.

Na podstawie materiałów : businessinsider.com.pl

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *