Badania nad sztuczną inteligencją i bezpieczeństwem schodzą na dalszy plan. Big tech to przede wszystkim zysk

Zaledwie pięć lat temu FAIR (Meta) Labs, Google Brain i non-profit OpenAI były wybitnymi postaciami w środowisku akademickim, dzieląc się kodem i dokumentami do otwartej recenzji. Obecnie te same organizacje decydują się oceniać swój sukces za pomocą rankingów użytkowników, a nie metryk cytowań, a modele językowe stają się wszechobecnym towarem — od asystentów smartfonów po oparte na subskrypcji interfejsy API w chmurze. W marcu Morgan Stanley prognozował, że generatywne przychody z AI mogą przekroczyć 1,1 biliona dolarów do 2028 r., co stanowi znaczny wzrost z „zaledwie” 45 miliardów dolarów w 2024 r. Badania nad bezpieczeństwem AI są obecnie postrzegane jako niepotrzebny wydatek — obowiązek, który należy wyeliminować. Ta zmiana może prowadzić do znacznych negatywnych skutków.

Ff431fb1b5f0e91db1ba477ef97c424b, Biznes Fakty
Big Tech skupia się przede wszystkim na zysku. Badania nad sztuczną inteligencją i bezpieczeństwo są mniej ważne | Zdjęcie: charles taylor / Shutterstock
  • Giganci technologiczni porzucają otwartą naukę i bezpieczeństwo sztucznej inteligencji na rzecz szybkich zysków i dominacji na rynku
  • Przyspiesza się procedury testowania modeli, co zwiększa prawdopodobieństwo wystąpienia błędów, niewłaściwego użycia i luk w zabezpieczeniach
  • Mniejsze instytucje badawcze tracą przewagę konkurencyjną, a innowacje spoza głównego nurtu są coraz bardziej marginalizowane
  • Brak skutecznych regulacji i audytów stwarza ryzyko stworzenia nieprzewidywalnych systemów, które mogą mieć poważne konsekwencje społeczne i ekonomiczne.
  • Więcej informacji biznesowych znajdziesz na stronie Businessinsider.com.pl

W Meta zmiana nastąpiła po 21 000 likwidacji miejsc pracy i ogłoszeniu przez Marka Zuckerberga „roku wydajności”. Joelle Pineau, która zrezygnowała ze stanowiska dyrektora generalnego FAIR w kwietniu, stwierdziła, że „w miarę jak wyścig AI przyspiesza, a Meta wkracza w nową fazę, musimy zrobić miejsce dla innych”. Jej odejście oznaczało zakończenie ery, w której FAIR angażowało się w projekty odmienne od interesów komercyjnych — od ulepszania terapii lekowych po samoregulujące się sieci neuronowe.

Warty miliardy dolarów dział GenAI nie tylko wchłonął budżet GPU, ale także personel, skupiając się na wdrażaniu dodatkowych wersji modelu Llama i asystenta Meta AI. Obawy dotyczące bezpieczeństwa, badań naukowych i odkryć zeszły teraz na dalszy plan.

Nawet wybitny Gemini 2.5 został wprowadzony przez Google bez kompletnej „karty modelu”, która służy jako techniczny odpowiednik etykiety żywieniowej. Dopiero miesiąc po premierze firma dodała dokument z wynikami testów jego niebezpiecznych możliwości.

W tym samym czasie Sergey Brin, ponownie angażując się w aktywną rolę w gigancie technologicznym, wysłał notatkę do zespołu Google DeepMind, w której stwierdził: „konkurencja się zaostrzyła, rozpoczął się ostateczny wyścig w kierunku AGI… Nie możemy kontynuować produkcji nadmiernie ostrożnych produktów”. Notatka wyraźnie nakazywała krótsze okresy testowania i 60-godzinny tydzień pracy.

OpenAI, choć formalnie nadal nadzorowane przez fundację, usprawnia również swoje procedury. Partner audytowy Metr przyznał, że przydzielono mu „stosunkowo krótki czas” na ocenę modelu o3. Johannes Heidecke, szef systemów bezpieczeństwa OpenAI, uzasadnił decyzję: „znaleźliśmy satysfakcjonującą równowagę między szybkością a precyzją”. Jednak badacze szybko wskazali, że podczas szkolenia modeli AI konieczne jest zachowanie odpowiedniej staranności, ponieważ później można po prostu „zamaskować objawy”.

Sprawdź także: Każdy z nas będzie szefem pracowników AI. Zmiana porównywalna z nadejściem Internetu

Wielki wyścig do AGI

Najbardziej niepokojącym aspektem jest to, że te przyspieszone procedury skutkują namacalnymi lukami. James White z CalypsoAI podsumowuje swoje odkrycia w sposób jasny. Stwierdza: „Modele się poprawiają, ale stają się również łatwiejsze do wykorzystania”. Oznacza to mniej odrzuceń monitów związanych z syntezą broni biologicznej lub atakami na infrastrukturę.

Szybki proces przekształcania pomysłów w produkty jest napędzany nie tylko przez inwestorów, ale także przez fizyczne ograniczenia infrastruktury. Według analityków z IO Fund , łączne wydatki czterech gigantów na centra danych mają osiągnąć 330 miliardów dolarów do 2025 r., czyli ponad dwukrotnie więcej niż w 2023 r. Każdy miesiąc opóźnienia oznacza setki milionów dolarów zamrożonych w chipach H100.

Tymczasem chiński DeepSeek udowodnił, że może skonstruować model o możliwościach podobnych do o1 OpenAI, trenując go za 5-6 milionów dolarów, ułamek tego, co kosztuje GPT-4. Taka konkurencja dodatkowo wywiera presję na amerykańskie firmy, aby szybko wprowadzały produkty, aby nie stracić pozycji na rzecz bardziej przystępnych cenowo alternatyw.

Gdzie są przepisy i na przykład środki ochrony praw autorskich w tym scenariuszu? Nadal pozostają one w tyle za rzeczywistością, wielokrotnie omawianą, często przez osoby nieposiadające niezbędnej wiedzy i doświadczenia w dziedzinie AI. Początkowe ograniczenia dotyczące „niedopuszczalnych systemów ryzyka” z unijnej ustawy o AI zaczną obowiązywać 2 lutego 2025 r., ale wymogi przejrzystości dotyczące modeli ogólnego przeznaczenia nie zostaną wyegzekwowane do przyszłego roku.

W USA Biały Dom jedynie nakłada na firmy dobrowolne zobowiązania do ujawniania testów bezpieczeństwa. W praktyce oznacza to, że firma może skrócić okres testowania z sześciu miesięcy do tygodnia i nadal przestrzegać luźnych standardów.

Rzeczywiste koszty dla rynku i użytkowników

Obniżenie poprzeczki w celu walidacji dowolnego modelu AI wprowadza wielowarstwowe ryzyko. Po pierwsze, wzrasta podatność na ataki typu prompt-injection — chatboty coraz częściej ujawniają klucze API, informacje o klientach lub dyrektywy, które nigdy nie powinny zostać wydane

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *