Autor cieszącej się ogromną popularnością książki „Sapiens. Od zwierząt do bogów”, Yuval Noah Harari, przepowiada, że inteligencja sztuczna spowoduje dwa poważne problemy w każdym kraju. Pierwszym będzie problem z określeniem własnej tożsamości, drugim — problem z napływem ludności. Myśliciel zwrócił też uwagę, że świat w dużym stopniu myli się w oszacowaniu terminu, w jakim rozwinie się sztuczna inteligencja.
Technologia oparta na sztucznej inteligencji w niedługim czasie zapoczątkuje dwa zasadnicze kryzysy w każdym z państw — orzeka twórca bestsellerowej książki „Sapiens. Od zwierząt do bogów”.
W trakcie przemówienia poświęconego AI i ludzkości na Światowym Forum Ekonomicznym w Davos historyk i filozof Yuval Noah Harari oznajmił, że sztuczna inteligencja wpędzi ludzkość w trudności dotyczące tożsamości, ponieważ zaczęliśmy mierzyć swoją wartość poprzez pryzmat umiejętności myślenia, a AI wkrótce może nas pod tym względem prześcignąć.
Po drugie — jak zaznaczył Harari — każde państwo doświadczy kłopotów związanych z migracją. Zestawił AI z przybyszami, którzy dają krajom pożytek, taki jak fach w medycynie czy edukacji, ale jednocześnie wprowadzają zamęt.
Redaktorzy Business Insidera wybrali kluczowe aspekty jego wystąpienia. W jednym z nich Yuval Harari przestrzegł, że realne niebezpieczeństwo nie polega na tym, jak szybko postępuje rozwój technologii.
Kim są przybysze AI?
— Ci, którzy obawiają się ludzkich emigrantów, zwykle dowodzą, że mogą oni odbierać posady, zmieniać lokalną kulturę lub być politycznie nielojalni. Nie jestem pewien, czy to prawda, gdy mowa o wszystkich ludzkich emigrantach, lecz z pewnością odniesie się to do imigrantów AI — powiedział.
Harari zapytał uczestników debaty, czy byliby skłonni zezwolić na uznanie AI za „podmioty prawne” dysponujące prawami w ich krajach — w tym prawem do zakładania przedsiębiorstw, tworzenia i głoszenia swoich wyznań czy nawiązywania kontaktów z ich dziećmi w mediach społecznościowych.
— Jeśli pragniecie mieć wpływ na to, dokąd zmierza ludzkość, musicie zadecydować już teraz — oznajmił.
Harari jest wybitnym badaczem w Centrum Badań nad Ryzykiem Egzystencjalnym Uniwersytetu Cambridge oraz profesorem historii na Uniwersytecie Hebrajskim w Jerozolimie. Poza „Sapiens”, książką opisującą historię ludzkości na przestrzeni wieków, w 2015 r. wydał również „Homo Deus. Krótką historię jutra”, w której poruszał egzystencjalne zagrożenie, jakie AI stanowi dla ludzkości.
Harari nie jest pierwszą osobą, która posługuje się terminem „imigranci AI”. Na początku bieżącego miesiąca prezes Nvidii, Jensen Huang, również nazwał tak roboty, mówiąc — jak donosi AFP — że „imigranci AI” wspomogą ludzi w pracy, której nie chcą już wykonywać, na przykład w produkcji przemysłowej.
Rzeczywisty okres czasu dla sztucznej inteligencji to 200 lat
Yuval Noah Harari zwrócił też uwagę w Davos, że świat ogromnie błędnie szacuje okres czasu rozwoju sztucznej inteligencji — i że rzeczywiste niebezpieczeństwo nie tkwi w tym, jak szybko technologia się rozwija, lecz w tym, jak bezmyślnie się ją traktuje.
Powiedział, że kiedy mówi o długofalowym wpływie AI, nie ma na myśli lat, a nawet dekad.
— W wielu rozmowach tutaj, w Davos, kiedy mówi się o „długim terminie”, ma się na myśli dwa lata. Kiedy ja mówię o długim terminie, myślę o 200 latach — podkreślił.
Harari zestawił obecną sytuację w AI z początkami rewolucji przemysłowej, zauważając, że ludzkość ma skłonność do błędnego pojmowania przełomowych technologii w trakcie ich rozwoju.
Najgłębsze skutki industrializacji — jak powiedział — w pełni okazywały się dopiero po wielu pokoleniach, nierzadko poprzez społeczne, polityczne i geopolityczne wstrząsy, których nikt nie potrafił wcześniej przewidzieć.
— Można testować wypadki — powiedział. — Lecz nie da się przetestować w laboratorium geopolitycznych ani kulturowych skutków maszyny parowej. Z AI jest tak samo — dodał.
Harari ostrzegł, że nawet jeśli rozwój AI zatrzymałby się dzisiaj, jego długoterminowe konsekwencje nadal byłyby niemożliwe do objęcia umysłem.
— Kamień został wrzucony do basenu, ale dopiero zetknął się z wodą. Nie mamy pojęcia, jakie fale zostały wywołane, nawet przez systemy AI wdrożone rok czy dwa lata temu — zaznaczył.
Najgorsza jest obojętność wobec AI
Harari dołącza do szerokiego grona wiodących badaczy AI i liderów branży technologicznej, którzy manifestują obawy odnośnie do ryzyka związanego ze sztuczną inteligencją — od fali utraty miejsc pracy po niebezpieczeństwo wymarcia ludzkości.
Jednak — jak zaakcentował — najbardziej niepokoi go nie sama niepewność, lecz obojętność. Jego zdaniem wielu najważniejszych decydentów kształtujących rozwój AI skupia się na krótkoterminowych pobudkach zamiast na długofalowych konsekwencjach.
— Najbardziej martwi mnie brak zaniepokojenia wobec faktu, że tworzymy najpotężniejszą technologię w historii ludzkości — powiedział.
— Bardzo bystrzy i wpływowi ludzie przejmują się tym, co powiedzą ich inwestorzy w kolejnym sprawozdaniu kwartalnym. Myślą w perspektywie kilku miesięcy albo roku czy dwóch — dodał.
Społeczne następstwa AI — jak stwierdził — rozegrają się daleko poza tym horyzontem czasowym, niezależnie od tego, czy świat jest na to przygotowany, czy nie.
Powyższy tekst stanowi kompilację dwóch artykułów z amerykańskiej wersji Business Insidera
Dziękujemy za przeczytanie naszego artykułu do końca. Bądź na bieżąco! Obserwuj nas w Google.
