Biznes Fakty
OpenAI wkracza do Pentagonu: koniec zakazu wojskowego i początek ery wojskowej AI
Zaledwie kilka lat temu OpenAI oświadczyło, że powstrzyma się od wykorzystywania swojej technologii do celów wojskowych. Teraz podpisało umowę o wartości 200 milionów dolarów z Pentagonem i opracowuje dedykowaną gamę produktów dla rządu USA. Czy jest to naruszenie pierwotnej misji, konieczność geopolitycznych okoliczności, czy może nieunikniona ewolucja AI? W sytuacji, w której rozróżnienie między technologią a wojskiem staje się coraz bardziej niewyraźne, wybór OpenAI jest czymś więcej niż tylko dochodową umową.

- OpenAI wyrzeka się swoich podstawowych zasad i podejmuje się wyzwań związanych ze sztuczną inteligencją wojskową, podpisując kontrakt z Pentagonem
- Oferujemy spojrzenie z wewnątrz na polityczne i finansowe motywy decyzji, która może ukształtować przyszłość globalnego wyścigu zbrojeń.
- Ramy etyczne i nadzór dotyczące sztucznej inteligencji w kontekście wojskowym również ulegają zmianom.
- Granica między sztuczną inteligencją cywilną i wojskową szybko się zaciera.
- Aby uzyskać dodatkowe informacje na temat biznesu, odwiedź Businessinsider.com.pl
Umowa o wartości 200 milionów dolarów między OpenAI a Departamentem Obrony USA oznacza największy pojedynczy kontrakt na oprogramowanie, jaki Pentagon przyznał podmiotowi spoza konwencjonalnego sektora obronnego. Kontrakt ten obejmuje 12 miesięcy, z opcją przedłużenia, i ma na celu opracowanie zaawansowanych możliwości AI zarówno do celów bojowych, jak i administracyjnych . Większość prac zostanie przeprowadzona w Waszyngtonie.
Ta decyzja oznacza szybką zmianę polityki firmy. Kiedy została założona w 2015 r., jej dokumenty regulujące wyraźnie zabraniały projektów wojskowych , jednak do stycznia 2024 r. klauzule te po cichu zniknęły, zastąpione ogólnym zakazem „wyrządzania szkody”. Niedługo potem OpenAI wprowadziło inicjatywę „OpenAI for Government”, łącząc poprzednie umowy z laboratoriami federalnymi, NASA i NIH w ujednoliconą ofertę obejmującą ChatGPT Gov i „niestandardowe modele dla bezpieczeństwa narodowego”.
Na jednej z konferencji Sam Altman stwierdził, że jego firma „z dumą pragnie zaangażować się w sektory bezpieczeństwa narodowego”, gdyż to właśnie tam wpływ tej technologii będzie najbardziej znaczący.
Oczywiście, istnieje również zachęta finansowa . Jest to oczywiste, chociaż kontrakt stanowi tylko 2% rocznych przychodów, które w czerwcu osiągnęły 10 miliardów dolarów. Większą wartość ma tutaj stały dostęp do funduszy federalnych, zwłaszcza że OpenAI zamierza zainwestować 500 miliardów dolarów w budowę swojej infrastruktury obliczeniowej Stargate i niedawno zabezpieczyło rundę finansowania w wysokości 40 miliardów dolarów przy wycenie 300 miliardów dolarów.
Przeczytaj także: AMD kontra Nvidia. Ekosystem Helios może zmienić równowagę sił w sektorze centrów danych
Rząd zapewni finansowanie
Klient rządowy oferuje więcej niż tylko zasoby finansowe. Ułatwia również współtworzenie standardów. Najnowsze wytyczne OMB z kwietnia upraszczają proces pozyskiwania AI przez agencje federalne, ale zwalniają również systemy obronne z przepisów, co nasila presję na Pentagon, aby stworzył własne standardy bezpieczeństwa.
Dlatego innowatorzy wojskowi inwestują we współpracę z dużymi firmami technologicznymi. Microsoft doprowadził do certyfikacji Azure OpenAI na poziomie danych „Secret”, Anthropic dostarcza modele Claude za pośrednictwem platformy Palantir i AWS IL6, a Anduril, oprócz partnerstwa z OpenAI, zabezpieczył własny kontrakt o wartości 100 milionów dolarów na integrację danych z pola walki.
W rezultacie nikt nie może sobie pozwolić na luksus pozostawania poza ekosystemem obronnym , zwłaszcza że konkurencja z Chinami o dominację na rynku wojskowej sztucznej inteligencji przybiera na sile, co podkreślają kolejne raporty Pentagonu szczegółowo opisujące szybką integrację możliwości sztucznej inteligencji z rozwiązaniami wojskowymi.
Sam Pentagon jasno przedstawia swoje oczekiwania. Obejmują one algorytmy generatywne do wyszukiwania dokumentacji logistycznej, narzędzia planowania dla programu Replicator oraz autonomiczne systemy ochrony cyberprzestrzeni . W ogłoszeniu podkreślono również wsparcie dla rodzin żołnierzy w zarządzaniu świadczeniami zdrowotnymi — zadania, które mogą nie przyciągać uwagi mediów, ale są kosztowne, a sztuczna inteligencja może je znacznie usprawnić.
Jeśli chodzi o standardy etyczne, departament odwołuje się do własnych zasad „Odpowiedzialnej AI” z 2020 r., które stanowią, że każdy system musi być odpowiedzialny, możliwy do monitorowania i całkowicie zarządzalny. OpenAI twierdzi, że wszystkie przypadki użycia muszą być zgodne zarówno z tymi wytycznymi, jak i wewnętrznymi zasadami firmy.
Zobacz także: Sztuczna inteligencja znacznie przewyższa lekarza. Zaskakujące odkrycia z badań w USA
Niektórzy pracownicy mogą zdecydować się na opuszczenie firmy
Historia Google i projektu Maven pokazuje, że zasady nie kończą się na samych oświadczeniach. W 2018 r. wielu pracowników zrezygnowało, a 3000 osób podpisało otwarty list, zmuszając Google do wycofania się z umowy na analizę danych z dronów. Obecnie jest mniej takich protestów i krytyki, ale sceptycy podkreślają, że generatywne modele AI są z natury trudniejsze do audytu niż tradycyjne algorytmy widzenia komputerowego. Mogą również szybciej prowadzić do niezamierzonych konsekwencji.
Możliwe, że niektórzy pracownicy również odejdą z OpenAI, niechętni do angażowania się w sektor wojskowy. Obecnie nie ma żadnych doniesień o
Źródło