Miles Brundage, poprzedni szef gotowości AGI w OpenAI, zauważył, że „do końca 2027 r. niemal każde ekonomicznie wartościowe zadanie, które może wykonać komputer, będzie wykonywane szybciej i przy niższych kosztach przez maszyny”. Nie miał na myśli chwytliwego sloganu, ale raczej zwięzły przegląd trendów, które są już dziś widoczne. Dla kontekstu AGI odnosi się do sztucznej inteligencji ogólnej, tematu, który konsekwentnie omawiamy w Business Insider od 2023 r.
Zakres automatyzacji rozszerza się w przyspieszonym tempie. Światowe Forum Ekonomiczne informuje, że 40% firm zamierza zmniejszyć liczbę pracowników w obszarach, w których zadania mogą być automatyzowane do 2030 r., jednocześnie generując 170 milionów nowych ról w technologiach cyfrowych.
Dario Amodei, CEO Anthropic, firmy stojącej za konkurentem ChatGPT Claude, ostrzega, że jeśli organizacje nie przygotują się z wyprzedzeniem, bezrobocie w krajach rozwiniętych może wzrosnąć do 20 procent. Jakie kroki możesz podjąć, aby uniknąć utraty pracy na rzecz AI?
Przeczytaj także: ChatGPT jest już historią. AGI, czyli sztuczna inteligencja ogólna, zbliża się. Czy powinniśmy się martwić?
Obawy pracowników są uzasadnione. Jeśli oprogramowanie może odtworzyć moją pracę, i zrobić to znacznie taniej i szybciej, dlaczego firma miałaby zachować moje stanowisko? Firmy nieustannie dążą do zwiększenia produktywności i obniżenia kosztów. Tak więc, jeśli firma może drastycznie obniżyć wydatki, utrzymując lub nawet zwiększając produktywność, dlaczego nie miałaby wybrać tej drogi?
W związku z tym pracownicy obawiają się potencjalnej utraty pracy, szczególnie na stanowiskach analitycznych, administracyjnych i kreatywnych . Raport McKinsey szacuje, że generatywna sztuczna inteligencja może odpowiadać za 60–70% czasu pracy na stanowiskach skupionych głównie na przetwarzaniu informacji. Nikt jednak nie twierdzi, że osoby delegujące swoje zadania algorytmom stracą pracę. Powszechnym argumentem jest to, że zostaną przeniesieni do „bardziej wymagających” obowiązków, ale pewien stopień sceptycyzmu jest uzasadniony, co prowadzi do wniosku, że są to raczej aspiracje niż pewniki.
Ryzyko również nie jest równo dzielone. Osoby pozbawione umiejętności cyfrowych, z niższym wykształceniem lub pracujące w mniej zaawansowanych cyfrowo obszarach są narażone na jeszcze większe ryzyko. Istnieje również ciągła presja na ciągłe uczenie się, niepewność otaczająca model pracy z udziałem człowieka w pętli oraz dylematy etyczne — kto ponosi odpowiedzialność za błędy algorytmiczne i dane, na których był szkolony.
Tymczasem firmy, zwłaszcza MŚP, zmagają się z dwoma równoczesnymi kryzysami: brakiem talentów do rozwijania i zarządzania systemami AI oraz rosnącym ryzykiem regulacyjnym. Ustawa UE o AI weszła w życie w sierpniu 2024 r., a wymagania dotyczące systemów ogólnego przeznaczenia zaczną obowiązywać w 2025 r., a systemy wysokiego ryzyka w 2027 r.
Firmy, które zaniedbają wdrożenie protokołów oceny ryzyka i przejrzystości, będą musiały się liczyć z karami opartymi na procencie ich globalnych obrotów. Jednocześnie na rynek wchodzą bardziej przystępne cenowo modele AI, kusząc firmy do pochopnego wdrażania rozwiązań bez strategii podnoszenia kwalifikacji pracowników i przemyślanego zarządzania danymi.
Sprawdź także: Dyrektor generalny OpenAI: GPT-4 jest „całkiem kiepski” w porównaniu do GPT-5, najnowszej sztucznej inteligencji wprowadzonej na rynek w tym roku
Zdolność do integrowania narzędzi AI z wrodzonymi umiejętnościami ludzkimi stanie się niezbędna. WEF podkreśla, że obok umiejętności technicznych, gwałtownie rośnie zapotrzebowanie na elastyczne myślenie, kreatywność, inteligencję emocjonalną i zdolność do pracy w zespołach wielokulturowych. Dlatego:
Wszystkie te sugestie mogą również oznaczać, że w przyszłości — w ciągu kilku lat — możesz zachować swoją pracę, jeśli będziesz w stanie zarabiać tyle samo, ile zarabiasz w tym samym czasie.
Twój adres e-mail nie zostanie opublikowany.