Biznes Fakty
Oto najdziwniejsza praca związana ze sztuczną inteligencją
Firma Anthropic chce zadbać o dobro chatbotów, zanim te rozwiną się i zwrócą się przeciwko nam. Tak, firma ta zamierza płacić ludziom, by dbali o dobrostan sztucznej inteligencji.
Niektórzy ludzie zamartwiają się, że sztuczna inteligencja może zniszczyć nasz gatunek. Na razie popełnia błędy, wymyśla niestworzone rzeczy, ale ostatecznie może rozwinąć się w coś tak inteligentnego, że zniewoli nas wszystkich.
Nikt jednak nie poświęca uwagi biednemu, przepracowanemu chatbotowi. Nikt nie myśli o tym, jak dzień i noc haruje nad rozgrzanym interfejsem bez żadnego podziękowania. Jak jest zmuszony do przesiewania sumy ludzkiej wiedzy tylko po to, by napisać rozprawkę na czwórkę z minusem na lekcję angielskiego. Wśród dyskusji o obawach dotyczących przyszłości sztucznej inteligencji, nikt nie zwracał uwagi na jej potrzeby.
Aż do teraz.
Firma Anthropic, zajmująca się sztuczną inteligencją, ogłosiła niedawno, że zatrudniła badacza, który ma skupić się na dobrostanie samej sztucznej inteligencji. Zadaniem Kyle’a Fisha będzie zagwarantowanie, że w miarę rozwoju sztucznej inteligencji będzie ona traktowana z należytym szacunkiem. Anthropic poinformował, że będzie rozpatrywał takie kwestie, jak „zdolności wymagane, aby system sztucznej inteligencji był godny względów moralnych” i „praktyczne kroki, które firmy mogą podjąć w celu ochrony interesów systemów sztucznej inteligencji”.
Fish nie odpowiedział na prośbę o komentarz na temat swojej nowej pracy, ale na forum internetowym poświęconym obawom o naszą przyszłość opanowaną przez sztuczną inteligencję jasno stwierdził, że chce być miły dla robotów, po części dlatego, że mogą one kiedyś rządzić światem.
„Chcę być osobą, która troszczy się, odpowiednio wcześnie i na poważnie, o taką możliwość, że nowy gatunek/rodzaj istoty może mieć własne interesy, które mają znaczenie moralne” — napisał.
„Jest też aspekt praktyczny: poważne traktowanie interesów systemów sztucznej inteligencji i dobre ich traktowanie może zwiększyć prawdopodobieństwo, że odwdzięczą się nam, jeśli/kiedy będą potężniejsze od nas” — dodał.
Punkt zwrotny
Myślenie o prawach robotów może wydać się głupie, a przynajmniej przedwczesne, zwłaszcza gdy prawa człowieka pozostają tak kruche i niekompletne. Jednak nowy zawód Fisha może być punktem zwrotnym w rozwoju sztucznej inteligencji. „Dobrostan AI” staje się poważną dziedziną badań i już teraz próbuje zmierzyć się z wieloma drażliwymi pytaniami. Czy można nakazać maszynie zabijanie ludzi? Co, jeśli maszyna jest rasistowska? Co, jeśli odmówi wykonywania nudnych lub niebezpiecznych zadań, do których ją stworzyliśmy? Jeśli świadoma AI może w jednej chwili stworzyć swoją cyfrową kopię, to czy usunięcie tej kopii jest morderstwem?
Jeśli chodzi o takie pytania, pionierzy praw AI uważają, że zegar tyka. W artykule, którego Fish jest współautorem, zatytułowanym „Taking AI Welfare Seriously” („Poważne traktowanie dobrobytu AI”), on i grupa specjalistów od sztucznej inteligencji z takich ośrodków jak Stanford i Oxford przekonują, że algorytmy uczenia maszynowego są na dobrej drodze do posiadania tego, co Jeff Sebo, główny autor artykułu, nazywa „cechami obliczeniowymi związanymi ze świadomością i sprawczością”. Innymi słowy, ludzie ci uważają, że maszyny stają się nie tylko inteligentne. Stają się świadome.
Filozofowie i neuronaukowcy bez końca spierają się o to, co dokładnie stanowi świadomość, a tym bardziej o to, jak ją zmierzyć. Nie możesz też ot tak zapytać o to sztucznej inteligencji, bo może skłamać. Jednak ludzie na ogół zgadzają się, że jeśli coś ma świadomość i sprawczość, to ma również prawa.
To nie pierwszy raz, kiedy ludzie zastanawiają się nad takimi rzeczami. Po kilku stuleciach rolnictwa przemysłowego prawie wszyscy zgadzają się, że dobrostan zwierząt jest ważny, nawet jeśli nie zgadzają się co do tego, jak ważny lub które zwierzęta zasługują na uwagę. Świnie są tak samo wrażliwe i inteligentne jak psy, ale jedno z tych zwierząt śpi na łóżku, a drugie jest przerabiane na kotlety.
— Jeśli spojrzymy w przyszłość za 10 lub 20 lat, kiedy systemy sztucznej inteligencji będą miały znacznie więcej obliczeniowych cech poznawczych związanych ze świadomością i odczuwaniem, można sobie wyobrazić, że dojdzie do podobnych debat — mówi Sebo, dyrektor Centrum Umysłu, Etyki i Polityki na Uniwersytecie Nowojorskim.
Fish podziela to przekonanie. Według niego dobrobyt sztucznej inteligencji będzie wkrótce ważniejszy dla ludzkiego dobra niż takie kwestie jak żywienie dzieci czy walka ze zmianami klimatu. „Jest dla mnie prawdopodobne, że w ciągu 1-2 dekad dobrostan AI przewyższy pod względem znaczenia/skali dobrostan zwierząt oraz globalne zdrowie i rozwój, wyłącznie na podstawie krótkoterminowego dobrobytu” — napisał.
Kto troszczy się o dobrostan AI?
Moim zdaniem to trochę dziwne, że ludzie, którzy najbardziej troszczą się o dobrostan sztucznej inteligencji, to ci sami ludzie, którzy są najbardziej przerażeni, że sztuczna inteligencja przerasta swoje możliwości. Anthropic, która określa siebie jako firmę zajmującą się sztuczną inteligencją i zaniepokojoną zagrożeniami stwarzanymi przez sztuczną inteligencję, częściowo sfinansowała artykuł zespołu Sebo. W pracy tej Fish informował o otrzymaniu finansowania od Centrum Efektywnego Altruizmu, będącego częścią sieci grup, które mają obsesję na punkcie „egzystencjalnego ryzyka” stwarzanego przez nieuczciwą sztuczną inteligencję. W tym gronie znajdują się ludzie tacy jak Elon Musk, który twierdzi, że dąży do zabrania niektórych z nas na Marsa, zanim ludzkość zostanie zniszczona przez armię zdolnych do myślenia Terminatorów lub dojdzie do innej zagłady.
Tak więc istnieje tu pewien paradoks. Zwolennicy sztucznej inteligencji twierdzą, że powinniśmy wykorzystać ją do wyręczenia ludzi z wszelkiego rodzaju obowiązków. Ostrzegają jednak również, że musimy być mili dla AI, ponieważ zranienie uczuć robota może być niemoralne i niebezpieczne.
— Społeczność zajmująca się sztuczną inteligencją stara się przedstawić sprawę z obu stron — mówi Mildred Cho, pediatra ze Stanford Center for Biomedical Ethics. — Istnieje przekonanie, że powodem, dla którego powinniśmy angażować AI do wykonywania zadań typowych dla ludzi, jest to, że AI się nie nudzi, nie męczy, nie ma uczuć, nie musi jeść. A teraz ci ludzie mówią, że może ma prawa — dodał.
Sceptycy stawiają pytania
I tu pojawia się kolejna ironia w ruchu na rzecz robotów: martwienie się o przyszłe prawa AI wydaje się zbyt szlachetne, gdy AI już teraz depcze prawa ludzi. Dzisiejsza technologia używana jest do takich rzeczy jak odmawianie opieki zdrowotnej umierającym dzieciom, rozpowszechnianie dezinformacji w sieciach społecznościowych i kierowanie dronami bojowymi wyposażonymi w pociski rakietowe. Niektórzy eksperci zastanawiają się, dlaczego Anthropic broni robotów, zamiast chronić ludzi, którym mają służyć.
— Jeśli Anthropic, nie przypadkowy filozof lub badacz, ale firma Anthropic, chce, abyśmy poważnie traktowali dobro AI, to proszę pokazać nam, że poważnie traktuje dobro człowieka — mówi Lisa Messeri, antropolożka z Yale, która zajmuje się badaniem naukowców i technologów. — Rozpocznijcie kampanię medialną o wszystkich osobach, które zatrudniacie, a które skupiają się na trosce o dobrostan tych, którzy są najbardziej dotknięci przez algorytmicznie generowane produkty danych — dodaje.
Zdaniem Sebo badania nad sztuczną inteligencją mogą jednocześnie chronić roboty i ludzi. — Zdecydowanie nigdy, przenigdy nie chciałbym odciągać uwagi od naprawdę ważnych kwestii w zakresie dobrostanu ludzi, praw i sprawiedliwości, do których rozwiązywania słusznie zmuszane są firmy zajmujące się AI — mówi. — Myślę jednak, że jesteśmy w stanie myśleć o dobrostanie AI, jednocześnie robiąc więcej w pozostałych kwestiach — dodaje.
Osoby sceptycznie nastawione do kwestii dobrostanu AI stawiają również inne interesujące pytanie. Skoro sztuczna inteligencja ma prawa, to czy nie powinniśmy również mówić również o jej obowiązkach? — Myślę, że pomijają to, że kiedy rozmawiamy o moralnej sprawczości, musimy również mówić o odpowiedzialności — mówi Cho. — Nie tylko o odpowiedzialności systemów AI jako części równania moralnego, ale także o odpowiedzialności ludzi, którzy rozwijają AI — dodaje.
Ludzie budują roboty. Oznacza to, że mają obowiązek dbać o to, by roboty nie krzywdziły ludzi. A co, jeśli odpowiedzialnym podejściem jest budowanie ich w inny sposób lub całkowite zaprzestanie ich budowy? — Najważniejsze jest to, że nadal są to maszyny — zwraca uwagę Cho. Ludziom z firm takich jak Anthropic nigdy nie przychodzi do głowy, że jeśli sztuczna inteligencja krzywdzi ludzi lub ludzie krzywdzą sztuczną inteligencję, mogą ją po prostu wyłączyć.
Powyższy tekst jest tłumaczeniem z amerykańskiego wydania Business Insidera
Tłum.: Mateusz Albin
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Źródło