Ojciec chrzestny AI ostrzega. Mówi o „katastrofalnych scenariuszach”

Pionier sztucznej inteligencji Yoshua Bengio ostrzegł przed stosowaniem tzw. agentów AI. Stwierdził, że te rozwiązania w połączeniu z silną sztuczną inteligencją mogą prowadzić do „katastrofalnych scenariuszy”. Zastanawia się przy tym, jak stworzyć systemy nieagentowe, które trzymałyby agentów w ryzach.

Pionier sztucznej inteligencji Yoshua Bengio pojawił się na Światowym Forum Ekonomicznym w Davos, gdzie stwierdził, że stosowanie agentów AI może się źle skończyć.

Temat agentów AI, czyli sztucznej inteligencji, która może działać niezależnie od człowieka, był jednym z najgorętszych na tegorocznym wydarzeniu w Szwajcarii. Spotkanie przyciągnęło grupę pionierów w dziedzinie sztucznej inteligencji, którzy debatowali nad tym, dokąd zmierza AI, jak powinna być zarządzana i kiedy możemy spodziewać się maszyn, które mogą rozumować równie dobrze, jak ludzie. To kamień milowy znany jako silna sztuczna inteligencja (AGI).

Wszystkie katastroficzne scenariusze dotyczące AGI lub superinteligencji wydarzą się, jeśli będziemy mieć agentów — powiedział Bengio w wywiadzie dla BI. Dodał, że wierzy, iż możliwe jest osiągnięcie AGI bez budowania systemów agentowych.

— Cała sztuczna inteligencja dla nauki i medycyny, wszystkie rzeczy, na których ludziom zależy, nie są agentowe — powiedział Bengio. — I możemy nadal budować potężniejsze systemy, które nie są agentowe — podkreślił.

Bengio to kanadyjski naukowiec, którego wczesne badania nad głębokim uczeniem i sieciami neuronowymi położyły podwaliny pod współczesny boom AI. Jest uważany za jednego z „ojców chrzestnych AI” obok Geoffreya Hintona i Yanna LeCuna. Podobnie jak Hinton Bengio ostrzegał przed potencjalnymi szkodami związanymi ze sztuczną inteligencją i wzywał do podjęcia zbiorowych działań w celu ograniczenia ryzyka.

Po dwóch latach testowania sztucznej inteligencji firmy dostrzegają wymierny zwrot z inwestycji, jaki oferują agenty AI, którzy mogą wejść na rynek pracy już w tym roku. OpenAI, która nie była obecna na tegorocznym Davos, pokazała agenta AI, który może surfować po internecie i wykonywać zadania, takie jak rezerwowanie restauracji lub dodawanie artykułów spożywczych do koszyka. Google zaprezentowało podobne narzędzie.

Bengio widzi problem w tym, że ludzie będą tworzyć agentów bez względu na wszystko, zwłaszcza że konkurencyjne firmy i kraje obawiają się, że inni zdobędą agentową sztuczną inteligencję przed nimi.

— Dobrą wiadomością jest to, że jeśli zbudujemy systemy nieagentowe, mogą one zostać wykorzystane do kontrolowania systemów agentowych — powiedział BI.

Jednym ze sposobów byłoby zbudowanie bardziej wyrafinowanych „strażników”, chociaż wymagałoby to znacznych inwestycji.

Bengio zaapelował o wprowadzenie przepisów, które uniemożliwiłyby firmom zajmującym się sztuczną inteligencją tworzenie modeli agentowych bez uprzedniego udowodnienia, że system będzie bezpieczny.

Moglibyśmy rozwinąć naszą naukę o bezpiecznej i wydajnej sztucznej inteligencji, ale musimy uznać ryzyko, zrozumieć naukowo, skąd pochodzi, a następnie dokonać inwestycji technologicznych, aby to się stało, zanim będzie za późno i stworzymy rzeczy, które mogą nas zniszczyć — powiedział Bengio.

Sygnał ostrzegawczy

Przed rozmową z BI Bengio wziął udział w panelu na temat bezpieczeństwa AI z CEO Google DeepMind Demisem Hassabisem.

Chcę podnieść sygnał ostrzegawczy. To najbardziej niebezpieczna ścieżka — powiedział Bengio publiczności, zapytany o agentów AI. Wskazał na sposoby, w jakie sztuczna inteligencja może być wykorzystywana do odkryć naukowych, takich jak przełom DeepMind w składaniu białek, jako przykłady świadczące o tym, że może ona nadal być potężna, nie będąc agentem. Bengio powiedział, że wierzy, iż możliwe jest dotarcie do AGI bez nadawania sztucznej inteligencji funkcji agenta.

— To zakład, zgadzam się, ale myślę, że jest to opłacalny zakład — powiedział.

Hassabis zgodził się z Bengio, że należy podjąć środki w celu ograniczenia ryzyka, takie jak ochrona cyberbezpieczeństwa lub eksperymentowanie z agentami w symulacjach przed ich wypuszczeniem. Dodał, że zadziałałoby to tylko wtedy, gdyby wszyscy zgodzili się tworzyć je w ten sam sposób.

Niestety uważam, że poza nauką i pracownikami istnieje gradient ekonomiczny, gdzie ludzie chcą, aby ich systemy były agentowe — powiedział Hassabis. — Kiedy mówisz „poleć mi restaurację”, dlaczego miałbyś nie chcieć podjąć kolejnego kroku, jakim jest rezerwacja stolika — dodał.

Powyższy tekst jest tłumaczeniem z amerykańskiego wydania Business Insidera

Tłum.: Mateusz Albin

Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *