Biznes Fakty
Branża AI odwraca się od regulacji, etyka traci na znaczeniu
Zaledwie dwa lata wcześniej dyrektor generalny OpenAI, Sam Altman, namawiał senatorów USA do utworzenia nowej agencji, której zadaniem byłoby licencjonowanie najbardziej zaawansowanych systemów AI, co uznał za swój „najważniejszy priorytet” w celu uniknięcia potencjalnych katastrof wynikających z nieuregulowanych algorytmów. Jednak podczas niedawnego wystąpienia przed komisją senacką w czwartek jego stanowisko uległo drastycznej zmianie.

- Sektor sztucznej inteligencji wycofał się z wcześniejszych apeli o regulację, teraz stawiając na szybki postęp i konkurencyjność w stosunku do Chin
- Sam Altman z OpenAI uważa obecnie regulacje za przeszkodę dla innowacji, mimo że wcześniej je popierał
- Firmy technologiczne odchodzą od ograniczeń etycznych i są bardziej otwarte na partnerstwa wojskowe
- Eksperci ostrzegają, że brak nadzoru może skutkować poważnymi nadużyciami i szkodami społecznymi
- Więcej informacji na temat biznesu znajdziesz na stronie Businessinsider.com.pl
Altman uważa obecnie, że jakiekolwiek zobowiązanie rządu do uzyskania zgody na wdrażanie zaawansowanych technologii sztucznej inteligencji może mieć „katastrofalne” skutki dla utrzymania przewagi Stanów Zjednoczonych w tej dziedzinie.
Uderzające odwrócenie Altmana uosabia szerszą transformację narracji w Dolinie Krzemowej i w salach władzy w Waszyngtonie. Alarmistyczne prognozy egzystencjalnych zagrożeń i żądania natychmiastowych, wyprzedzających regulacji praktycznie zniknęły.
Zamiast nich pojawiło się przekonanie, że Stany Zjednoczone muszą pozwolić firmom przyspieszyć rozwój AI, aby nie stracić przewagi konkurencyjnej nad Chinami i wykorzystać potencjał ekonomiczny tej technologii. „Aby przewodzić w dziedzinie AI, nie możemy pozwolić, aby regulacje — nawet pozornie łagodne — tłumiły innowacyjność” — podkreślił senator Ted Cruz, przewodniczący komisji, na początku czwartkowego przesłuchania.
Sztuczna inteligencja rozwija się szybciej niż w Chinach
Administracja Donalda Trumpa przyłączyła się do tego punktu widzenia, przyjmując od stycznia bardziej pobłażliwą politykę technologiczną.
Pierwszego dnia urzędowania Trump uchylił obszerny dekret wykonawczy swojego poprzednika nakazujący przeprowadzanie ocen bezpieczeństwa najpotężniejszych modeli i raportowanie wyników rządowi. Kilka miesięcy później administracja porzuciła również plan nałożenia ścisłych ograniczeń na eksport układów scalonych, ułatwiając swobodniejszy handel półprzewodnikami.
W wyniku tej zmiany polityki lobbyści i przedsiębiorcy, którzy wcześniej opowiadali się za odpowiednimi regulacjami w administracji Bidena, teraz otwarcie sprzeciwiają się nowym ograniczeniom. Brad Smith z Microsoftu, niegdyś zwolennik federalnej agencji AI, wezwał do „łagodniejszych” regulacji na czwartkowym spotkaniu i wskazał długie czasy oczekiwania na pozwolenia na budowę nowych centrów danych jako główną przeszkodę dla rozwoju.
Google DeepMind zniósł wieloletni zakaz angażowania się w projekty wojskowe, podczas gdy OpenAI, Meta i Anthropic usunęły ze swoich wewnętrznych zasad klauzule zakazujące współpracy wojskowej.
Etyka w AI? Znika z czołówki
Ta znacząca zmiana wywołała krytykę ze strony specjalistów od etyki technologii. Rumman Chowdhury, była specjalna wysłanniczka Departamentu Stanu ds. AI, określa całą strategię jako „przynętę i podmianę”. Twierdzi, że branża odwróciła uwagę polityków w stronę wizji futurystycznej superinteligencji, tylko po to, aby przekonać ich, że największym zagrożeniem jest… pozostawanie w tyle za Chinami.
W praktyce Chowdhury podkreśla, że prawdziwe problemy, takie jak algorytmiczne uprzedzenia rasowe lub powszechne niewłaściwe wykorzystanie generatorów obrazów, nadal pozostają nierozwiązane przez ustawodawców. Jednym z nielicznych wyjątków jest dwupartyjne ustawodawstwo uchwalone w kwietniu, które kryminalizuje dystrybucję niechcianych materiałów erotycznych, w tym generowanych przez sztuczną inteligencję.
Krytycy trendu deregulacyjnego posuwają się dalej. Max Tegmark z MIT zauważa, że „sklep z kanapkami naprzeciwko OpenAI” musi przestrzegać surowych przepisów zdrowotnych, zanim będzie mógł sprzedać swoją pierwszą bagietkę , podczas gdy firmy AI swobodnie wprowadzają do świata narzędzia o potencjale superinteligencji bez względu na prawa autorskie lub względy etyczne. Tegmark, wraz z innymi badaczami, polega na ciężarze dowodów naukowych, aby przekonać decydentów do ustanowienia ram prawnych.
Na razie jednak miliarderzy kształtują rozmowę . Co więcej, atmosfera tegorocznego szczytu AI w Paryżu ostro kontrastowała z tą sprzed półtora roku w Bletchley Park, gdzie nacisk położono na „ochronę ludzkości”, podczas gdy w stolicy Francji uwaga przesunęła się na przyspieszenie rozwoju.
Wiceprezes JD Vance przestrzegł, że nadmierne regulacje mogą stłumić rozwój sektora innowacyjnego w momencie, gdy ten nabiera rozpędu. W związku z tym Unia Europejska osłabiła własną ustawę o sztucznej inteligencji.
Czy ten proekonomiczny entuzjazm przyniesie pozytywne rezultaty w dłuższej perspektywie, czy też brak środków regulacyjnych doprowadzi do dalszych kryzysów, w tym na rynku pracy? Na razie politycy i regulatorzy dystansują się od odpowiedzialności. Jedno jest jasne: branża AI, która kiedyś opowiadała się za ustanowieniem znaków ostrzegawczych, teraz wybiera szybką ścieżkę. I polega na tym, że rząd nie będzie stawiał żadnych przeszkód na jej drodze.
Dziękujemy za przeczytanie naszego artykułu do końca. Bądź na bieżąco! Obserwuj nas w Google News.
Źródło