Jako ludzkość niedostatecznie zdajemy sobie sprawę, jak skomplikowane jest samo sprecyzowanie „prawdy”. (…) Lubię to ilustrować za pomocą „paradoksu golibrody”. Golibroda strzyże jedynie tych panów, którzy sami się nie strzygą. Czy golibroda zatem strzyże samego siebie? Nie można odpowiedzieć „tak” ani „nie” bez wpadnięcia w konflikt logiczny. Jedynym rozsądnym stwierdzeniem jest: „to pytanie jest źle sformułowane, nie istnieje dobra odpowiedź”. W obszarze złożonych systemów pojawia się wiele podobnych sytuacji — oznajmia w wywiadzie dla Business Insidera dr Byron Cook, naukowiec z University College London oraz zastępca szefa Grupy Automatycznego Rozumowania w Amazon Web Services.

- Paradoks golibrody demonstruje, jak złożone jest zagadnienie prawdy oraz trudności związane z jej określeniem w kontekście formalnego systemu logicznego
- Nadrzędnym problemem AI pozostaje osiągnięcie wysokiego poziomu niezawodności, zwłaszcza w istotnych obszarach, gdzie błędy są niedopuszczalne – utrzymuje badacz
- Co odróżnia Europę? Według naukowca może poszczycić się czymś, czego nie posiadają USA ani Chiny
- Szersze informacje o biznesie znajdziesz na portalu Businessinsider.com.pl
Grzegorz Kowalczyk, redaktor Business Insider Polska: Kiedy, o ile w ogóle, sztuczna inteligencja zyska świadomość?
Dr Byron Cook, badacz University College London i zastępca szefa Grupy Automatycznego Rozumowania w Amazon Web Services: Uważam, że rzetelna odpowiedź brzmi: nie wiemy – a osobiście z pewnością tego nie wiem. Jestem naukowcem, który na co dzień rozważa kwestie w kategoriach bitów, bajtów i logiki, więc mówiąc otwarcie, nie mam nawet klarownego zrozumienia, czym jest świadomość.
Dalszy fragment wywiadu umieszczony jest pod materiałem wideo:
AI pomoże zarządzać ludźmi? Prof. Dobrowolska o roli lidera w dobie rewolucji technologicznej
Jestem skłonny postrzegać świadomość jako wypadkową wielu „elementów składowych” w naszych mózgach – hormonów, emocji, nacisku ewolucyjnego na powielanie i całościowego, skomplikowanego tła biologicznego. Moja intuicja podpowiada mi, że w tym ujęciu jesteśmy jeszcze bardzo, bardzo daleko od wykreowania czegoś zbliżonego w świecie maszyn i że są to faktycznie całkowicie odmienne zjawiska.
Pamiętam z lat szczenięcych lata 70. i moment, kiedy moi rodzice zakupili kalkulator naukowy – był on w pewnym sensie „sprawniejszy ode mnie w matematyce”. Doświadczałem czegoś analogicznego do tego, co ludzie obecnie odczuwają w odniesieniu do dużych modeli językowych. Trend rozwoju narzędzi jest oczywisty: coraz więcej pracy „przekazujemy” maszynom, lecz ludzkie postrzeganie i świadomość podążają swoją, dość niezależną drogą. Nie rozpatruję zatem progresu AI jako prostego pochodu w kierunku świadomości.
Jaki powinien być kolejny etap w ewolucji sztucznej inteligencji?
Według mnie najistotniejsze jest obecnie skoncentrowanie się na wiarygodności. Jeżeli zamierzamy korzystać z AI na szeroką skalę, nie tylko w zabawie lub w zastosowaniach niekrytycznych, musimy być przekonani, że nie generuje ona błędów w zasadniczych aspektach swojego funkcjonowania.
Wyobraźmy sobie system odpowiadający na zapytania dotyczące regulaminu zwrotu biletów: powinien on zawsze udzielać poprawnej odpowiedzi – i powinien umieć wytłumaczyć, dlaczego dana odpowiedź jest prawdziwa. To samo odnosi się do zastosowań „agencyjnych”: czy powinniśmy przelać środki finansowe? Czy możemy wydać lekarstwo? Czy dana czynność jest zgodna z zasadami? W wielu z tych przypadków nie chciałbym opierać się wyłącznie na metodach statystycznych.
Od przeszło dekady rozwijamy w Amazon formalne metody weryfikacji systemów, które stanowią fundament bezpieczeństwa AWS – pomagamy klientom prawidłowo korzystać z reguł, sieci czy konfiguracji. Przez wiele lat była to aktywność kluczowa, lecz mało eksponowana w debacie publicznej. Dopiero pojawienie się „agencyjnej AI” oraz zjawiska halucynacji w systemach pytanie–odpowiedź sprawiło, że temat poprawności i formalnego rozumowania nagle stał się ważny dla każdego, nie tylko dla wąskiego grona inżynierów bezpieczeństwa.
Obserwujemy intensywną rywalizację pomiędzy dużymi firmami technologicznymi w obszarze AI. Co jest decydujące, aby wygrać ten wyścig?
Nie myślę o tym w kategoriach „wyścigu”, przynajmniej nie na co dzień. Model, który znam, wygląda następująco: prowadzimy rozmowy z klientami, usiłujemy „wybiec w przyszłość” – usłyszeć to, czego jeszcze nie artykułują wprost, ale czego rzeczywiście będą potrzebować – a następnie podejmujemy strategiczne decyzje, tworzymy produkty i szybko je udostępniamy. Przyglądamy się, jak są wykorzystywane – nierzadko w sposób, którego byśmy nie przewidzieli – i na tej podstawie kontynuujemy działania. „Wsłuchuj się w klientów, buduj, wdrażaj, ponownie słuchaj” – ten cykl powtarzany wystarczająco długo, przy skutecznych mechanizmach feedbacku, prowadzi do właściwych wyników.
Dalszy fragment artykułu pod wideo:
AI pomoże zarządzać ludźmi? Prof. Dobrowolska o roli lidera w dobie rewolucji technologicznej
Jak w związku z tym stworzyć najlepsze modele do rozwiązywania rzeczywistych problemów klientów?
Istotny jest również aspekt bardziej naukowy. Christopher Strachey, współczesny Alana Turinga, twierdził, że podział na teorię i praktykę w informatyce jest szkodliwy: teoretycy nie wiedzą, nad jakimi problemami warto pracować, a praktycy nie mają dostatecznie solidnego fundamentu, aby zawsze robić „właściwe rzeczy”. W mojej pracy obsesja na punkcie klientów wyprowadza mnie ze strefy komfortu i nakłania do zajmowania się problemami, których sam bym nie wybrał – a właśnie stamtąd często pochodzą najciekawsze rezultaty naukowe i ulepszone produkty.
Co neurosymboliczna sztuczna inteligencja, którą się pan zajmuje, oznacza z punktu widzenia biznesu?
Firmy coraz wyraźniej dostrzegają, że sztuczna inteligencja będzie dysponowała ogromną, potencjalnie niszczycielską i zarazem rewolucyjną siłą. Właśnie dlatego próbują scalić swoje kompetencje w tym zakresie – przesuwają zasoby z innych projektów, tworzą wewnętrzne zespoły AI, inwestują w szkolenia. Powstają liczne eksperymenty i prototypy.
Problem polega na tym, że im bardziej dana organizacja bazuje na zaufaniu, im większymi funduszami dysponuje lub im bardziej wpływa na bezpieczeństwo osób, tym trudniej jest jej wyjść z fazy prototypów. Takie przedsiębiorstwa nie mogą po prostu wdrożyć narzędzia, które czasem się myli lub działa w sposób nieprzewidywalny.
Obietnica neurosymbolicznej AI jest w gruncie rzeczy obietnicą samej sztucznej inteligencji: wyeliminować powolne, mozolne mechanizmy socjotechniczne i zastąpić je systemami komputerowymi, które umożliwiają ludziom szybkie pozyskiwanie informacji, równie szybkie podejmowanie decyzji i podnoszenie poziomu jakości decyzji. Problem polega na tym, że czysto statystyczne modele językowe nie są w stanie w pełni tej obietnicy spełnić – brakuje w nich elementu poprawności i gwarantowanej niezawodności. W tym miejscu wchodzą w grę techniki neurosymboliczne i formalne metody, nad którymi pracuje mój zespół.
Co jest największą przeszkodą w tej przemianie?
Największą przeszkodą jest to, że jako społeczeństwo nie zdajemy sobie sprawy, jak złożone jest samo określenie „prawdy”. Weźmy pozornie prosty przykład: jaka jest polityka urlopowa w mojej firmie? Co się stanie, jeśli spędzę trzy miesiące w Niemczech – czy obowiązuje mnie niemiecka wersja przepisów, czy amerykańska? Jak to wpływa na podatki? Czy muszę płacić w obu państwach? A jeśli przedsiębiorstwo wysyła mnie założyć oddział, czy traktuje mnie jak pracownika amerykańskiego, czy niemieckiego? Dwie kompetentne osoby mogą udzielić kompletnie sprzecznych odpowiedzi – i obie będą pewne, że mają rację.
Takie przykłady ukazują, jak trudno jest formalnie uchwycić „prawdę” nawet w wąskich, korporacyjnych kontekstach. Byliśmy tego świadkami w Amazon choćby podczas próby formalnego opisania sieci EC2 czy systemów tożsamości: zgromadzenie najlepszych inżynierów przy jednym stole nie gwarantuje zgodności poglądów we wszystkich „trudnych przypadkach”. Ostatecznie musieliśmy je usystematyzować – dziś odpowiedzialność za odpowiedź na takie zapytania często spoczywa na specjalistach z naszego świata formalnego rozumowania, ponieważ tylko w ten sposób można zapewnić spójność i bezpieczeństwo.
Analogiczne zjawiska obserwowałem w sektorze lotniczym i kolejowym. Społeczeństwo będzie musiało zrozumieć, że aby naprawdę wykorzystywać AI, należy zaakceptować formalizację wielu zasad i procesów – a większość ludzi na razie nie ma nawet „mentalnych schematów”, aby o tym myśleć.
Drugą zasadniczą przeszkodą jest natura matematyczno-logiczna. W informatyce istnieją problemy formalnie nierozstrzygalne – to znaczy takie, na które nie można udzielić poprawnej odpowiedzi w 100 procentach przypadków. Inny zbiór stanowią problemy, w których czas potrzebny na odnalezienie odpowiedzi rośnie w gwałtownym tempie wraz ze skalą danych. Zautomatyzowane rozumowanie jest w istocie sztuką zmagania się z tymi krzywymi – tworzeniem narzędzi, które wiedzą, kiedy „odpuścić” i potrafią to robić na tyle rzadko, aby były użyteczne.
Trzecią przeszkodą jest przejście od języka naturalnego do precyzyjnej reprezentacji logicznej. Ludzie zadają pytania w sposób niejasny i pełen domysłów, więc często samo zrozumienie, o co naprawdę pytają, jest bardzo skomplikowane. W codziennej komunikacji radzimy sobie z tym, wykorzystując aktywne słuchanie i powtarzane parafrazy. W dziedzinach, w których dokładność ma zasadnicze znaczenie, potrzebne jest coś więcej – pytanie brzmi, czy można utrzymać „cyfrowe bliźniaki”: równoległe reprezentacje logiczne i językowe oraz bezpiecznie przechodzić między nimi. To dla nas jedno z głównych wyzwań.
Czy halucynacje w AI można całkowicie wyeliminować?
Halucynacje są jednym z najbardziej deprymujących aspektów korzystania z modeli językowych – i nie dotyczy to wyłącznie błędów „banalnych”, lecz również głębszych ograniczeń o charakterze logicznym. W pewnym sensie jest to właśnie kwestia nierozstrzygalności.
Lubię to tłumaczyć na przykładzie paradoksu „golibrody”: golibroda strzyże tylko tych mężczyzn, którzy sami się nie strzygą. Czy golibroda zatem strzyże samego siebie? Nie można odpowiedzieć „tak” ani „nie” bez popadnięcia w sprzeczność. Jedyną racjonalną odpowiedzią jest: „to pytanie jest źle zadane, nie ma prawidłowej odpowiedzi”. W obszarze skomplikowanych systemów występuje wiele analogicznych sytuacji.
Innym przykładem jest intuicja NP-zupełności: wyobraźmy sobie 200 czarnych skarpet z dziurami, które należy sparować. Dwie pary to krótka chwila pracy. Dziesięć par – znacznie dłużej. Sto – cały dzień. Tysiąc lub dziesięć tysięcy – całe życie. Dokładne, wyczerpujące rozwiązanie niektórych problemów, np. pełna enumeracja wszystkich możliwych żądań autoryzacji do polityki AWS KMS, zajęłoby więcej czasu niż „życie galaktyki”. Formalnie rzecz biorąc: można znaleźć odpowiedź, ale w praktyce trwałoby to absurdalnie długo.
Z tego powodu uważam, że halucynacje w szerokim rozumieniu – pojmowane jako błędne odpowiedzi lub brak odpowiedzi tam, gdzie formalnie się jej oczekuje – nigdy nie zanikną w 100 procentach. Możemy jednak systematycznie redukować ich liczbę, projektować modele w taki sposób, aby w krytycznych sytuacjach potrafiły powiedzieć „nie wiem” lub „tego nie da się rozstrzygnąć” i coraz lepiej dopasowywać obszary zastosowań, w których ryzyko jest akceptowalne.
Czy powinniśmy zróżnicować zastosowania AI w zależności od dziedziny?
Tak, to naturalny kierunek. Od lat tworzymy bardzo ogólne narzędzia, ale w praktyce wiele z nich „idzie na łatwiznę” – to znaczy w pewnych zadaniach są rewelacyjne, w innych przestają działać w rozsądnym czasie. Klucz polega na tym, aby w specyficznych domenach umieć formułować pytania w taki sposób, aby „zawieszanie się” lub brak odpowiedzi zdarzały się tylko sporadycznie.
Tak postąpiliśmy w AWS w przypadku usług takich jak IAM Access Analyzer czy mechanizmy kontroli publicznego dostępu do S3, oparte na silniku zautomatyzowanego rozumowania Zelkova. Kiedy zaczynaliśmy około 2015–2016 roku, regularnie mieliśmy problemy z przekroczeniem limitu czasu – narzędzie po 30 sekundach informowało, że nie jest w stanie udzielić odpowiedzi na zapytanie klienta. Dopiero po kilku latach intensywnych badań i optymalizacji udało się zredukować liczbę takich sytuacji praktycznie do zera. Taki właśnie będzie świat AI: wyspecjalizowane narzędzia, głęboko dostrojone do określonych klas problemów.
Jak zbudować dobry model kooperacji między uniwersytetami a biznesem?
Z moich doświadczeń wynika, że kluczowe są głębokie, długotrwałe relacje. W Amazon finansujemy wiele projektów akademickich i mamy formalne ścieżki współpracy, takie jak rola Amazon Scholar – dzięki niej można być jednocześnie profesorem na uczelni i pracownikiem Amazona, elastycznie dzieląc czas pomiędzy obie instytucje.
W bieżącym roku mamy około 150 doktorantów-stażystów z różnych uniwersytetów, którzy przyjeżdżają do nas na określony czas, a następnie wracają na uczelnie. Sam jestem profesorem na University College London, co dodatkowo umacnia te powiązania.
Finansujemy też rozwój konkretnych, otwartych narzędzi, takich jak lean theorem prover czy CVC5 – pracują nad nimi studenci i postdoktoranci, a my używamy ich w produkcyjnych systemach. Gdy potrzebujemy nowych funkcji, zwracamy się do profesorów, których zespoły mogą je stworzyć, łącząc potrzeby przemysłu z agendą badawczą. W ten sposób tworzy się obieg zamknięty między nauką a biznesem, korzystny dla obu stron.
Dlaczego Europa wciąż jest mniej innowacyjna niż Stany Zjednoczone?
Nie zgadzam się z takim generalizowaniem – odpowiedź zależy od dziedziny. W mojej dyscyplinie, to jest formalnych metodach i logice w informatyce, Europa jest zdecydowanie silniejsza niż USA.
System grantowy w Stanach Zjednoczonych często sprzyja dużym, kosztownym projektom: wiele środków trafia do relatywnie niewielkiej liczby grup badawczych, które prowadzą prace wymagające obszernej infrastruktury i licznych zespołów. W Europie częściej przyznaje się więcej mniejszych grantów – jeden profesor i dwóch doktorantów może w takim modelu prowadzić bardzo interesującą, wysoce wyspecjalizowaną działalność badawczą.
W logice i formalnych metodach nie potrzeba GPU – wystarczy CPU i dobra matematyka. Europa, zwłaszcza Wschodnia, ma solidną tradycję edukacji matematycznej i „produkuje” wspaniałych specjalistów, którzy następnie trafiają choćby do Wiednia. Nasz zespół zatrudnia wielu badaczy z Europy i przyjmuje tu licznych stażystów. Sam w pewnym momencie przeprowadziłem się do Europy, aby być bliżej tego, co w mojej dziedzinie jest obecnie jednym z najważniejszych ośrodków na świecie.
Skoro Europa ma tak potężne zaplecze naukowe, skąd wrażenie, że ma trudności z innowacyjnymi projektami biznesowymi tworzonymi we współpracy z uniwersytetami?
Wiele zależy od tego, jakie pytanie zadajemy i w jaki sposób je mierzymy. Mówiąc jako Amerykanin, uważam, że ogromne znaczenie ma kultura podejścia do niepowodzenia. W USA porażka – również bankructwo – jest traktowana jako etap nauki i siła napędowa innowacji; system prawny, w tym prawo upadłościowe, od dawna wspiera tę filozofię.
W Europie dostrzegam większą niechęć do ryzyka. Ma to wpływ na sposób finansowania projektów, chęć zakładania firm, tempo iteracji. Nie oznacza to jednak braku innowacji – raczej inne ich rozmieszczenie. Fundamentalne koncepcje bardzo często powstają w Europie, a amerykańska scena venture capital bywa skuteczniejsza w ich szybkim skalowaniu i komercjalizacji.
Mamy wyśmienite przykłady europejskich sukcesów: Spotify jest doskonałym biznesem zbudowanym w Europie, DeepMind wyrósł z brytyjskiego środowiska akademickiego. Równocześnie w USA funkcjonują świetne uniwersytety i firmy. W praktyce innowacje są zjawiskiem globalnym – idee przepływają między Europą, USA, Chinami, Japonią i wieloma innymi krajami.
Jaka jest rola Chin w wyścigu AI?
Chiny są niezwykle mocnym graczem w dziedzinie sztucznej inteligencji i uczenia maszynowego. Wystarczy spojrzeć na najważniejsze konferencje z mojej dyscypliny: chińscy badacze publikują tam doskonałe opracowania, prezentują bardzo solidne wyniki i tworzą silne zespoły.
To efekt długotrwałych inwestycji w edukację i uniwersytety oraz stawiania na nauki ścisłe. W wielu obszarach poziom chińskich zespołów badawczych jest po prostu bardzo wysoki – różnice między regionami świata mają w dużej mierze charakter kulturowy, a nie jakościowy.
Czy istnieją obecnie regiony szczególnie uprzywilejowane w rozwoju AI?
Każda kultura ma własne uprzedzenia i priorytety, które kształtują „profil” jej innowacji. We Francji istnieje silna tradycja matematyczna – współpracujemy z wieloma francuskimi matematykami i są to jedni z najlepszych ekspertów, jakich znam. Nic dziwnego, że Francja jest tak mocna zarówno w uczeniu maszynowym, jak i w formalnych metodach.
Inne państwa wyróżniają się przedsiębiorczością lub kulturą inżynierską. Gdy myślę o stereotypach, Niemcy kojarzą mi się z mistrzostwem w produkcji – mnóstwo mniejszych firm wytwarza tam narzędzia, łożyska lub komponenty, na których opiera się cały świat. Wielka Brytania ma z kolei piękną tradycję „dziwaków” – ekscentrycznych akademików, którzy może nie ugotują sobie obiadu, ale potrafią wymyślić coś absolutnie przełomowego.
W praktyce każde z tych środowisk – francuscy matematycy, niemieccy inżynierowie, brytyjscy „dziwacy”, amerykańscy przedsiębiorcy, chińskie zespoły badawcze – wnosi coś unikalnego do globalnego ekosystemu AI. To różnorodność kulturowa, a nie jedna „najlepsza” kultura, napędza postęp.
Rozmawiał Grzegorz Kowalczyk, redaktor Business Insider Polska
Dziękujemy za przeczytanie naszego artykułu do końca. Bądź na bieżąco! Obserwuj nas w Google.
