Biznes Fakty
Tragiczna śmierć byłego badacza OpenAI przywraca dyskusję o zagrożeniach sztucznej inteligencji
Suchir Balaji pomagał OpenAI zbierać dane z internetu w celu szkolenia modeli sztucznej inteligencji. Pod koniec listopada znaleziono go martwego w mieszkaniu w San Francisco. Miesiąc wcześniej opublikował esej, w którym skrytykował sposób, w jaki modele AI wykorzystują dane. Uwagę na ten problem zwraca także Elon Musk.
Po niedawnej śmierci byłego badacza OpenAI Suchira Balajiego na nowo rozgorzała dyskusja na temat sztucznej inteligencji.
Modele sztucznej inteligencji są szkolone na podstawie informacji z internetu. Narzędzia te odpowiadają bezpośrednio na pytania użytkowników, więc mniej osób odwiedza strony internetowe, które stworzyły i zweryfikowały oryginalne dane. To z kolei drenuje zasoby twórców treści, przez co internet może stać się mniej dokładny i uboższy.
Elon Musk nazywa to „śmiercią przez modele językowe”. Stack Overflow, strona z pytaniami i odpowiedziami dotyczącymi kodowania, została już dotknięta tym zjawiskiem. Balaji był tym zaniepokojony.
Pod koniec listopada Balaji został znaleziony martwy. Departament Policji San Francisco stwierdził, że podczas wstępnego dochodzenia nie znalazł żadnych dowodów wskazujących na popełnienie przestępstwa przez osoby trzecie. Główny lekarz sądowy w mieście uznał śmierć za samobójstwo.
Obawy Balajiego
Około miesiąca przed śmiercią Suchir Balaji opublikował na swojej osobistej stronie internetowej esej na temat tego, jak tworzone są modele sztucznej inteligencji i jak może to być szkodliwe dla Internetu.
Zacytował badania, w których przeanalizowano wpływ modeli sztucznej inteligencji wykorzystujących dane online za darmo, aby bezpośrednio odpowiadać na pytania, jednocześnie odsysając ruch z oryginalnych źródeł.
W badaniu przeanalizowano Stack Overflow i stwierdzono, że po wydaniu ChatGPT ruch na tej stronie spadł o ok. 12 proc. Zamiast wchodzić na Stack Overflow, aby zadawać pytania dotyczące kodowania i przeprowadzać poszukiwania, niektórzy programiści po prostu prosili ChatGPT o odpowiedzi.
Oto wnioski z badań, które przytoczył Balaji:
- Po wydaniu ChatGPT nastąpił spadek liczby pytań publikowanych na Stack Overflow.
- Po pojawieniu się ChatGPT wzrósł średni wiek kont osób zadających pytania, co sugeruje, że mniej osób zarejestrowało się na Stack Overflow lub że więcej użytkowników opuściło społeczność online.
Sugeruje to, że modele sztucznej inteligencji mogą zaszkodzić niektórym bodźcom, które przyczyniły się do powstania bogatego w informacje internetu, jaki znamy dzisiaj.
Jeśli ludzie mogą uzyskać odpowiedzi bezpośrednio z modeli AI, nie ma potrzeby odwiedzania oryginalnych źródeł informacji. Gdy ludzie nie będą tak często odwiedzać stron internetowych, przychody z reklam i subskrypcji spadną i będzie mniej pieniędzy na finansowanie tworzenia i weryfikacji wysokiej jakości danych online.
Inni też mają dość
Jeszcze bardziej irytująca jest świadomość, że modele AI mogą to robić częściowo w oparciu o twoją pracę.
Recenzent techniczny Marques Brownlee, znany zawodowo jako MKBHD, doświadczył tego niedawno, kiedy sprawdził model wideo Sora firmy OpenAI i odkrył, że stworzył klip z rośliną, która wyglądała bardzo podobnie do rośliny z jego własnych filmów opublikowanych na YouTube.
— Czy moje filmy są w tym materiale źródłowym? Czy ta roślina jest częścią materiału źródłowego? Czy to tylko zbieg okoliczności? — pytał Brownlee.
Oczywiście chciał również wiedzieć, czy może zapobiec wykorzystywaniu jego filmów do trenowania modeli sztucznej inteligencji. — Nie wiemy, czy nie jest już za późno na rezygnację — powiedział Brownlee.
„To nie jest zrównoważony model”
W wywiadzie dla „The New York Times” opublikowanym w październiku Balaji powiedział, że chatboty AI, takie jak ChatGPT, pozbawiają pracę i usługi ludzi wartości komercyjnej.
Podczas pracy w OpenAI Balaji należał do zespołu, który zbierał dane z internetu w celu szkolenia modeli sztucznej inteligencji. Dołączył do startupu z dużymi nadziejami na to, jak sztuczna inteligencja może pomóc społeczeństwu, ale się rozczarował.
„To nie jest zrównoważony model dla ekosystemu internetowego” — powiedział gazecie.
W oświadczeniu dla „Timesa” na temat komentarzy Balajiego OpenAI stwierdziło, że sposób, w jaki buduje modele sztucznej inteligencji, jest chroniony przez zasady uczciwego korzystania z praw autorskich i wspierany przez precedensy prawne. „Uważamy tę zasadę za sprawiedliwą dla twórców, niezbędną dla innowatorów i kluczową dla konkurencyjności USA” — dodano.
W swoim eseju Balaji zaprotestował.
Jednym z czterech kryteriów naruszenia praw autorskich jest to, czy nowy utwór wpływa na potencjalny rynek lub wartość oryginalnego utworu chronionego prawem autorskim. Jeśli wyrządza tego rodzaju szkodę, to nie jest to „dozwolony użytek” i nie jest dopuszczalny.
Balaji doszedł do wniosku, że ChatGPT i inne modele AI nie kwalifikują się do objęcia tymi przepisami.
„Żaden z czterech czynników nie wydaje się przemawiać za tym, że ChatGPT mieści się w ramach dozwolonego użytku danych” — napisał. „Biorąc to pod uwagę, żadne z argumentów nie są zasadniczo właściwe dla ChatGPT, a podobne argumenty można wysunąć w odniesieniu do wielu generatywnych produktów AI w wielu różnych dziedzinach” — dodał.
Porozmawiajmy o danych
Firmy technologiczne produkujące te potężne modele sztucznej inteligencji nie lubią rozmawiać o wartości danych szkoleniowych. Przestały nawet ujawniać, skąd pozyskują dane, co było powszechną praktyką jeszcze kilka lat temu.
— Zawsze zwracają uwagę na swoje sprytne algorytmy, a nie na podstawowe dane — powiedział BI w zeszłym roku Nick Vincent, badacz sztucznej inteligencji.
Śmierć Balajiego może w końcu skłonić ludzi do poświęcenia tej debacie uwagi, na jaką zasługuje.
— Byliśmy zdruzgotani, gdy dotarła do nas ta niewiarygodnie smutna wiadomość i nasze serca kierujemy do bliskich Suchira w tym trudnym czasie — powiedział niedawno rzecznik OpenAI.
Powyższy tekst jest tłumaczeniem z amerykańskiego wydania Business Insidera
Tłum.: Mateusz Albin
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Źródło