Ostrzegał, że AI może przejąć kontrolę nad światem i teraz dostał Nagrodę Nobla. „Może tym razem uwierzycie”

Geoffrey Hinton nazywany jest „ojcem chrzestnym sztucznej inteligencji”. Teraz, po otrzymaniu Nagrody Nobla, wierzy, że jego twierdzenia na temat zagrożeń związanych z AI nabiorą wiarygodności i ludzie zaczną traktować je poważniej. Przypominamy, przed czym ostrzega.

D2ee4891e0524dc78894c94f393215bc, Biznes Fakty
"Ojciec chrzestny" sztucznej inteligencji Geoffrey Hinton otrzymał Nagrodę Nobla | Foto: Young Chris/CP/ABACA/Abaca / East News
  • Hinton przekonuje, że AI może stanowić duże zagrożenie dla ludzkości, jeśli w porę nie wprowadzimy odpowiednich „bezpieczników”
  • „W najbliższych latach musimy znaleźć sposób na poradzenie sobie z tym zagrożeniem” — mówi laureat tegorocznej Nagrody Nobla
  • Geoffrey Hinton pracował m.in. w Google, ale zrezygnował ze swojego stanowiska
  • Powodem było to, że korporacja nie pozwalała na szczere i głośne wypowiadanie swoich myśli w kontekście tego, jak AI może zaszkodzić ludzkości
  • Więcej informacji o biznesie znajdziesz na stronie Businessinsider.com.pl

Geoffrey Hinton to 76-letni badacz, który pracował m.in. w Google, ale w zeszłym roku zrezygnował ze swojego stanowiska. Chciał mówić częściej o tym, że systemy AI mogą wymknąć się spod kontroli i np. zasilać niebezpieczne roboty czy manipulować wyborami prezydenckimi. Teraz wzywa firmy takie jak Google, OpenAI czy Meta do inwestowania w bezpieczeństwo i odpowiednio zaawansowane systemy IT, które będą w stanie wcisnąć przycisk „stop” na technologii AI.

Odważne teorie

Geoffrey Hinton zapracował na miano „ojca chrzestnego AI” tym, że opracował przełomowe badania w dziedzinie głębokiego uczenia (deep learning) i sieci neuronowych. Jego prace miały duże znaczenie dla rozwoju algorytmów uczenia maszynowego (machine learning) i stanowią dzisiejszy fundament dla rozwoju sztucznej inteligencji. Hinton był jedną z pierwszych osób, które zbadały, jak ludzki mózg przetwarza informacje. Doprowadziło to do stworzenia modeli sieci neuronowych zdolnych do nauki na poziomie porównywalnym z ludzkim.

Hinton wprowadził koncepcję propagacji wstecznej, która umożliwia maszynom efektywne uczenie się na podstawie danych. Jego badania przyczyniły się do znacznego postępu w rozpoznawaniu obrazów, mowy i przetwarzaniu języka naturalnego, a dodatkowo był on mentorem dla wielu czołowych naukowców w dziedzinie AI, inspirując nowe pokolenia badaczy.

W ostatnich latach Hinton zaczął wyrażać obawy dotyczące potencjalnych zagrożeń związanych z rozwojem sztucznej inteligencji. Po odejściu z Google w 2023 r. podkreślił, że AI może stwarzać „egzystencjalne ryzyko dla ludzkości, zwłaszcza w kontekście dezinformacji i autonomicznej broni”. Hinton apeluje o odpowiedzialny rozwój technologii oraz o potrzebę międzynarodowych regulacji, aby zapobiec jej niewłaściwemu wykorzystaniu.

Nagroda Nobla zwiększy wiarygodność

Zdobycie Nagrody Nobla zapewniło mu nową platformę do jego ostrzeżeń. Obecnie uważa i często podkreśla, że zaawansowane systemy AI są zdolne do rozumienia swoich wyników, co jest kontrowersyjnym poglądem w kręgach badawczych.

— Mam nadzieję, że to [Nagroda Nobla — red.] uczyni mnie bardziej wiarygodnym, gdy mówię, że te rzeczy naprawdę rozumieją, co mówią — powiedział Hinton.

Hinton dzieli Nagrodę Nobla w dziedzinie fizyki z Johnem Hopfieldem z Uniwersytetu Princeton za ich pracę od lat 80. nad sieciami neuronowymi. Ta praca jest podstawą wielu technologii AI używanych dzisiaj, od konwersacji z ChatGPT po zdolność Google Photos do rozpoznawania, kto konkretnie jest na zarejestrowanym zdjęciu. Warto dodać, że wyróżnienie dotyczy głównie prac, jakie zaczęły się w 2012 r., kiedy wraz z dwoma doktorantami z Uniwersytetu w Toronto, Alexem Krizhevskym i Ilyą Sutskeverem (ten drugi jest m.in. współzałożycielem OpenAI) rozwijali wspólnie projekt o nazwie AlexNet — sieć neuronową, która miała rozpoznawać obrazy na zdjęciach.

AlexNet wygrał później konkurs na właśnie technologię rozpoznawania obrazów i stojąca za nim technologia okazała się niezbędna w rozwoju obecnego boomu na AI. Hinton otrzymał też Nagrodę Turinga w 2018 r.

Czytaj też: W poprzedniej firmie nie pasowała mu polityka. Teraz współzałożyciel OpenAI rozwija własną superinteligencję

Hinton: katastrofa jest realna

Osiągnięcia Hintona sugerują, że to zdecydowanie jeden z najlepszych ekspertów w sektorze AI i branża powinna liczyć się z jego zdaniem. Ostrzeżenia przed zagładą są jednak nie na rękę największym korporacjom rozwijającym AI i rzadko przenikają do mediów. Tym bardziej że Hinton znany jest tylko w dość wąskim środowisku i jego nazwisko niewiele mówi przeciętnemu internaucie.

„Jesteśmy w sytuacji, której większość ludzi nie jest w stanie sobie wyobrazić, a mianowicie, że te cyfrowe inteligencje będą znacznie mądrzejsze od nas, a jeśli będą chciały coś osiągnąć, będą chciały przejąć też kontrolę” — powiedział Hinton. Jest poważnie zaniepokojony tym, że firmy takie jak OpenAI pracują nad budowaniem AI, czyli tzw. ogólnej sztucznej inteligencji, a same modele AI stają się coraz potężniejsze.

W zeszłym roku „ojciec chrzestny” podpisał się też publicznie pod sugestią, że firmy zajmujące się pracą nad AI powinny przeznaczać co najmniej jedną trzecią swoich zasobów na badania i zapewnienie bezpieczeństwa i etycznego wykorzystania tych systemów. „Jedną z rzeczy, które mogą zrobić rządy, jest zmuszenie dużych firm do wydawania znacznie większej części swoich zasobów na badania nad bezpieczeństwem, aby np. firmy takie jak OpenAI nie mogły po prostu odłożyć badań nad bezpieczeństwem na dalszy plan” — powiedział Hinton w wywiadzie dla Nobla.

Warto w tym miejscu dodać, że Ilya Sutskever już nie pracuje w OpenAI. Odszedł z organizacji, aby skupić się na pracy nad „prawdziwie bezpieczną AI”, natomiast OpenAI przekształca się w firmę nastawioną na zysk i rezygnuje ze swojej działalności non-profit. Podobno nie przeznacza też tyle zasobów na bezpieczeństwo, ile powinna.

Hinton pokreślił też, że jest dumny z tego, że jeden z jego byłych studentów (Sutskever) miał swój udział w krótkotrwałym usunięciu Sama Altmana z OpenAI w listopadzie ub.r. „OpenAI zostało założone z dużym naciskiem na bezpieczeństwo. Jego głównym celem było rozwijanie ogólnej sztucznej inteligencji i zapewnienie, że jest bezpieczna” — powiedział Hinton we wtorek. „Z czasem okazało się, że Sam Altman był znacznie mniej zainteresowany bezpieczeństwem niż zyskami. Uważam, że to niefortunne” — dodał.

Autor: Grzegorz Kubera, dziennikarz Business Insider Polska

Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *