OpenAI wkracza do Pentagonu: koniec zakazu wojskowego i początek ery wojskowej AI

Zaledwie kilka lat temu OpenAI oświadczyło, że powstrzyma się od wykorzystywania swojej technologii do celów wojskowych. Teraz podpisało umowę o wartości 200 milionów dolarów z Pentagonem i opracowuje dedykowaną gamę produktów dla rządu USA. Czy jest to naruszenie pierwotnej misji, konieczność geopolitycznych okoliczności, czy może nieunikniona ewolucja AI? W sytuacji, w której rozróżnienie między technologią a wojskiem staje się coraz bardziej niewyraźne, wybór OpenAI jest czymś więcej niż tylko dochodową umową.

Ef5e279cd61957269fdb68c2fd3b446f, Biznes Fakty
Sam Altman, dyrektor generalny OpenAI, wycofał się ze swoich wcześniejszych zobowiązań o powstrzymaniu się od współpracy z sektorem wojskowym | Zdjęcie: BRENDAN SMIALOWSKI/AFP / East News
  • OpenAI wyrzeka się swoich podstawowych zasad i podejmuje się wyzwań związanych ze sztuczną inteligencją wojskową, podpisując kontrakt z Pentagonem
  • Oferujemy spojrzenie z wewnątrz na polityczne i finansowe motywy decyzji, która może ukształtować przyszłość globalnego wyścigu zbrojeń.
  • Ramy etyczne i nadzór dotyczące sztucznej inteligencji w kontekście wojskowym również ulegają zmianom.
  • Granica między sztuczną inteligencją cywilną i wojskową szybko się zaciera.
  • Aby uzyskać dodatkowe informacje na temat biznesu, odwiedź Businessinsider.com.pl

Umowa o wartości 200 milionów dolarów między OpenAI a Departamentem Obrony USA oznacza największy pojedynczy kontrakt na oprogramowanie, jaki Pentagon przyznał podmiotowi spoza konwencjonalnego sektora obronnego. Kontrakt ten obejmuje 12 miesięcy, z opcją przedłużenia, i ma na celu opracowanie zaawansowanych możliwości AI zarówno do celów bojowych, jak i administracyjnych . Większość prac zostanie przeprowadzona w Waszyngtonie.

Ta decyzja oznacza szybką zmianę polityki firmy. Kiedy została założona w 2015 r., jej dokumenty regulujące wyraźnie zabraniały projektów wojskowych , jednak do stycznia 2024 r. klauzule te po cichu zniknęły, zastąpione ogólnym zakazem „wyrządzania szkody”. Niedługo potem OpenAI wprowadziło inicjatywę „OpenAI for Government”, łącząc poprzednie umowy z laboratoriami federalnymi, NASA i NIH w ujednoliconą ofertę obejmującą ChatGPT Gov i „niestandardowe modele dla bezpieczeństwa narodowego”.

Na jednej z konferencji Sam Altman stwierdził, że jego firma „z dumą pragnie zaangażować się w sektory bezpieczeństwa narodowego”, gdyż to właśnie tam wpływ tej technologii będzie najbardziej znaczący.

Oczywiście, istnieje również zachęta finansowa . Jest to oczywiste, chociaż kontrakt stanowi tylko 2% rocznych przychodów, które w czerwcu osiągnęły 10 miliardów dolarów. Większą wartość ma tutaj stały dostęp do funduszy federalnych, zwłaszcza że OpenAI zamierza zainwestować 500 miliardów dolarów w budowę swojej infrastruktury obliczeniowej Stargate i niedawno zabezpieczyło rundę finansowania w wysokości 40 miliardów dolarów przy wycenie 300 miliardów dolarów.

Przeczytaj także: AMD kontra Nvidia. Ekosystem Helios może zmienić równowagę sił w sektorze centrów danych

Rząd zapewni finansowanie

Klient rządowy oferuje więcej niż tylko zasoby finansowe. Ułatwia również współtworzenie standardów. Najnowsze wytyczne OMB z kwietnia upraszczają proces pozyskiwania AI przez agencje federalne, ale zwalniają również systemy obronne z przepisów, co nasila presję na Pentagon, aby stworzył własne standardy bezpieczeństwa.

Dlatego innowatorzy wojskowi inwestują we współpracę z dużymi firmami technologicznymi. Microsoft doprowadził do certyfikacji Azure OpenAI na poziomie danych „Secret”, Anthropic dostarcza modele Claude za pośrednictwem platformy Palantir i AWS IL6, a Anduril, oprócz partnerstwa z OpenAI, zabezpieczył własny kontrakt o wartości 100 milionów dolarów na integrację danych z pola walki.

W rezultacie nikt nie może sobie pozwolić na luksus pozostawania poza ekosystemem obronnym , zwłaszcza że konkurencja z Chinami o dominację na rynku wojskowej sztucznej inteligencji przybiera na sile, co podkreślają kolejne raporty Pentagonu szczegółowo opisujące szybką integrację możliwości sztucznej inteligencji z rozwiązaniami wojskowymi.

Sam Pentagon jasno przedstawia swoje oczekiwania. Obejmują one algorytmy generatywne do wyszukiwania dokumentacji logistycznej, narzędzia planowania dla programu Replicator oraz autonomiczne systemy ochrony cyberprzestrzeni . W ogłoszeniu podkreślono również wsparcie dla rodzin żołnierzy w zarządzaniu świadczeniami zdrowotnymi — zadania, które mogą nie przyciągać uwagi mediów, ale są kosztowne, a sztuczna inteligencja może je znacznie usprawnić.

Jeśli chodzi o standardy etyczne, departament odwołuje się do własnych zasad „Odpowiedzialnej AI” z 2020 r., które stanowią, że każdy system musi być odpowiedzialny, możliwy do monitorowania i całkowicie zarządzalny. OpenAI twierdzi, że wszystkie przypadki użycia muszą być zgodne zarówno z tymi wytycznymi, jak i wewnętrznymi zasadami firmy.

Zobacz także: Sztuczna inteligencja znacznie przewyższa lekarza. Zaskakujące odkrycia z badań w USA

Niektórzy pracownicy mogą zdecydować się na opuszczenie firmy

Historia Google i projektu Maven pokazuje, że zasady nie kończą się na samych oświadczeniach. W 2018 r. wielu pracowników zrezygnowało, a 3000 osób podpisało otwarty list, zmuszając Google do wycofania się z umowy na analizę danych z dronów. Obecnie jest mniej takich protestów i krytyki, ale sceptycy podkreślają, że generatywne modele AI są z natury trudniejsze do audytu niż tradycyjne algorytmy widzenia komputerowego. Mogą również szybciej prowadzić do niezamierzonych konsekwencji.

Możliwe, że niektórzy pracownicy również odejdą z OpenAI, niechętni do angażowania się w sektor wojskowy. Obecnie nie ma żadnych doniesień o

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *