Biznes Fakty
Ojciec chrzestny AI ostrzega. Mówi o „katastrofalnych scenariuszach”
Pionier sztucznej inteligencji Yoshua Bengio ostrzegł przed stosowaniem tzw. agentów AI. Stwierdził, że te rozwiązania w połączeniu z silną sztuczną inteligencją mogą prowadzić do „katastrofalnych scenariuszy”. Zastanawia się przy tym, jak stworzyć systemy nieagentowe, które trzymałyby agentów w ryzach.
Pionier sztucznej inteligencji Yoshua Bengio pojawił się na Światowym Forum Ekonomicznym w Davos, gdzie stwierdził, że stosowanie agentów AI może się źle skończyć.
Temat agentów AI, czyli sztucznej inteligencji, która może działać niezależnie od człowieka, był jednym z najgorętszych na tegorocznym wydarzeniu w Szwajcarii. Spotkanie przyciągnęło grupę pionierów w dziedzinie sztucznej inteligencji, którzy debatowali nad tym, dokąd zmierza AI, jak powinna być zarządzana i kiedy możemy spodziewać się maszyn, które mogą rozumować równie dobrze, jak ludzie. To kamień milowy znany jako silna sztuczna inteligencja (AGI).
— Wszystkie katastroficzne scenariusze dotyczące AGI lub superinteligencji wydarzą się, jeśli będziemy mieć agentów — powiedział Bengio w wywiadzie dla BI. Dodał, że wierzy, iż możliwe jest osiągnięcie AGI bez budowania systemów agentowych.
— Cała sztuczna inteligencja dla nauki i medycyny, wszystkie rzeczy, na których ludziom zależy, nie są agentowe — powiedział Bengio. — I możemy nadal budować potężniejsze systemy, które nie są agentowe — podkreślił.
Bengio to kanadyjski naukowiec, którego wczesne badania nad głębokim uczeniem i sieciami neuronowymi położyły podwaliny pod współczesny boom AI. Jest uważany za jednego z „ojców chrzestnych AI” obok Geoffreya Hintona i Yanna LeCuna. Podobnie jak Hinton Bengio ostrzegał przed potencjalnymi szkodami związanymi ze sztuczną inteligencją i wzywał do podjęcia zbiorowych działań w celu ograniczenia ryzyka.
Po dwóch latach testowania sztucznej inteligencji firmy dostrzegają wymierny zwrot z inwestycji, jaki oferują agenty AI, którzy mogą wejść na rynek pracy już w tym roku. OpenAI, która nie była obecna na tegorocznym Davos, pokazała agenta AI, który może surfować po internecie i wykonywać zadania, takie jak rezerwowanie restauracji lub dodawanie artykułów spożywczych do koszyka. Google zaprezentowało podobne narzędzie.
Bengio widzi problem w tym, że ludzie będą tworzyć agentów bez względu na wszystko, zwłaszcza że konkurencyjne firmy i kraje obawiają się, że inni zdobędą agentową sztuczną inteligencję przed nimi.
— Dobrą wiadomością jest to, że jeśli zbudujemy systemy nieagentowe, mogą one zostać wykorzystane do kontrolowania systemów agentowych — powiedział BI.
Jednym ze sposobów byłoby zbudowanie bardziej wyrafinowanych „strażników”, chociaż wymagałoby to znacznych inwestycji.
Bengio zaapelował o wprowadzenie przepisów, które uniemożliwiłyby firmom zajmującym się sztuczną inteligencją tworzenie modeli agentowych bez uprzedniego udowodnienia, że system będzie bezpieczny.
— Moglibyśmy rozwinąć naszą naukę o bezpiecznej i wydajnej sztucznej inteligencji, ale musimy uznać ryzyko, zrozumieć naukowo, skąd pochodzi, a następnie dokonać inwestycji technologicznych, aby to się stało, zanim będzie za późno i stworzymy rzeczy, które mogą nas zniszczyć — powiedział Bengio.
Sygnał ostrzegawczy
Przed rozmową z BI Bengio wziął udział w panelu na temat bezpieczeństwa AI z CEO Google DeepMind Demisem Hassabisem.
— Chcę podnieść sygnał ostrzegawczy. To najbardziej niebezpieczna ścieżka — powiedział Bengio publiczności, zapytany o agentów AI. Wskazał na sposoby, w jakie sztuczna inteligencja może być wykorzystywana do odkryć naukowych, takich jak przełom DeepMind w składaniu białek, jako przykłady świadczące o tym, że może ona nadal być potężna, nie będąc agentem. Bengio powiedział, że wierzy, iż możliwe jest dotarcie do AGI bez nadawania sztucznej inteligencji funkcji agenta.
— To zakład, zgadzam się, ale myślę, że jest to opłacalny zakład — powiedział.
Hassabis zgodził się z Bengio, że należy podjąć środki w celu ograniczenia ryzyka, takie jak ochrona cyberbezpieczeństwa lub eksperymentowanie z agentami w symulacjach przed ich wypuszczeniem. Dodał, że zadziałałoby to tylko wtedy, gdyby wszyscy zgodzili się tworzyć je w ten sam sposób.
— Niestety uważam, że poza nauką i pracownikami istnieje gradient ekonomiczny, gdzie ludzie chcą, aby ich systemy były agentowe — powiedział Hassabis. — Kiedy mówisz „poleć mi restaurację”, dlaczego miałbyś nie chcieć podjąć kolejnego kroku, jakim jest rezerwacja stolika — dodał.
Powyższy tekst jest tłumaczeniem z amerykańskiego wydania Business Insidera
Tłum.: Mateusz Albin
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Źródło