Biznes Fakty
Samotność pracowników: gdy liderzy zawodzą, eksperci zwracają się o wsparcie do sztucznej inteligencji
Menedżerowie często podkreślają znaczenie kultury otwartych drzwi, sugerując, że pracownicy powinni zwracać się do nich z wszelkimi problemami. Jednak jeśli brakuje im autentycznej troski o dobro zespołu, pracownicy mogą wahać się przed wyrażaniem swoich problemów, czując, że brakuje im odpowiednich relacji i zaufania ze swoim liderem. Podobnie mogą powstrzymywać się od omawiania problemów ze współpracownikami, obawiając się, że takie działania mogą być postrzegane jako oznaka słabości. W związku z tym wielu zwraca się do chatbotów, takich jak ChatGPT lub Claude, w celu komunikacji.

- Pracownicy coraz częściej dzielą się swoimi obawami z chatbotami, zamiast z menedżerami
- Istnieje niepokojąca rozbieżność między deklarowaną empatią liderów a ich rzeczywistym zachowaniem w miejscu pracy
- Najnowsze badania wskazują, że sztuczna inteligencja stanowi prawdziwe źródło wsparcia emocjonalnego dla pracowników
- Niemniej jednak nadmierne korzystanie z chatbotów wiąże się z ryzykiem, zwłaszcza w kontekście zdrowia psychicznego.
- Dodatkowe informacje na temat biznesu znajdziesz na Businessinsider.com.pl
Globalne dane Gallupa przedstawiają surową rzeczywistość dla liderów. Ujawniają, że obecnie tylko 25% menedżerów jest w pełni zaangażowanych, a zaangażowanie pracowników spadnie do 21% w 2024 r. — najniższego poziomu od dziesięciu lat.
Badanie Calm Health dostarcza jeszcze silniejszego wskazania. Ujawnia, że 65% respondentów uważa, że ich bezpośredni przełożony znacząco wpływa na ich dobre samopoczucie psychiczne, ale tylko 38% dostrzega autentyczną troskę o równowagę między życiem zawodowym a prywatnym. Tak więc, gdy liderzy deklarują empatię, a pracownicy jej nie odczuwają, ta luka musi zostać wypełniona czymś. Najczęściej jest to sztuczna inteligencja.
Dodatkowo zastanów się: Czy nadal warto studiować? Sztuczna inteligencja i przyszłość pracy intelektualnej
Rozmowę telefoniczną z szefem zastąpiono teraz rozmową z botem
Paradoksalnie, praca zdalna zwiększa poziom zaangażowania. Choć może się wydawać, że praca zdalna powinna sprzyjać poczuciu izolacji — i rzeczywiście, niektórzy lepiej radzą sobie w biurze — raport Gallupa wskazuje, że pracownicy całkowicie zdalni są najbardziej zaangażowaną grupą (31%) , mimo że teoretycznie są najbardziej podatni na samotność, frustrację i smutek.
Niestety, liderzy często mają trudności z wyrażaniem wsparcia nawet poprzez nieformalne kanały, takie jak #random na Slacku lub Teams. Pracownicy pragną szybkiej, bezstronnej pomocy i odkrywają ją w interakcjach z modelami językowymi . Modele te reagują natychmiastowo i nigdy nie okazują niecierpliwości.
Ale czy to wsparcie algorytmiczne jest naprawdę skuteczne? Najwyraźniej tak, ponieważ niedawny raport „Top-100 Gen AI Use Case Report” Harvard Business Review klasyfikuje „terapię emocjonalną i towarzyszenie” jako wiodące zastosowanie generatywnej AI. Przejście od zastosowań wyłącznie technicznych do wsparcia psychospołecznego jest również odpowiedzią na bezprecedensowy stres zawodowy.
Mówiąc praktycznie, oznacza to, że ChatGPT, Character.ai i Replika stały się cyfrowymi odpowiednikami Twojego współpracownika na miejscu lub osoby przy sąsiednim biurku. Kluczową różnicą jest to, że wykazują nieskończoną cierpliwość.
Seria sześciu badań przeprowadzonych przez naukowców z Harvard Business School ujawnia, że interakcja z empatycznym chatbotem może złagodzić samotność podobnie jak interakcja z żywą osobą. Kluczowym czynnikiem jest poczucie bycia wysłuchanym.
Co ciekawe, efekt ten utrzymuje się przez co najmniej tydzień, a użytkownicy często niedoceniają jego wpływu. Pomaga to wyjaśnić, dlaczego towarzysze AI stają się codzienną praktyką nie tylko w życiu osobistym, ale także w miejscu pracy. Pojedyncza karta przeglądarki umożliwia natychmiastową, niehierarchiczną odpowiedź.
Cień Drugiej Strony: Zależność i Pogłębianie Się Osamotnienia
Ten różowy obraz staje się bardziej złożony, gdy przyjrzymy się osobom najbardziej zaangażowanym w te interakcje. Badanie przeprowadzone przez MIT Media Lab i OpenAI wskazuje, że najczęściej korzystający z ChatGPT użytkownicy, którzy prowadzą osobiste, emocjonalne dialogi z AI, zgłaszają wyższy poziom samotności i mniej relacji offline w porównaniu z populacją ogólną.
Podobny wniosek wyłania się z chińskiego badania z udziałem 428 użytkowników Replika. Im większe emocjonalne przywiązanie do chatbota, tym wyraźniejsza redukcja interakcji w świecie rzeczywistym. Innymi słowy: należy uważać, aby nie przesadzić z interakcjami AI.
Brytyjscy eksperci przestrzegają również, że algorytmom brakuje niuansów i mogą one udzielać szkodliwych porad, które w ekstremalnych okolicznościach mogą okazać się niebezpieczne.
Z punktu widzenia korporacji wzrost liczby terapeutów AI stanowi potencjalny sygnał ostrzegawczy. Po pierwsze, podważa pogląd, że cotygodniowe spotkania na Teams lub Google Meet są równoznaczne z poczuciem wsparcia . Po drugie, przenosi rozmowę o samopoczuciu z samych korzyści (karnety na siłownię, ubezpieczenie) na jakość relacji menedżerskich. Po trzecie, wprowadza nowe ryzyko etyczne, ponieważ organizacje, które nie ustanowią wytycznych dotyczących korzystania z trenerów AI, mogą przeoczyć sytuacje, w których pracownik z myślami samobójczymi „rozmawia” z modelem, który nie stosuje odpowiednich środków bezpieczeństwa.
W środowiskach pracy o wysokim ciśnieniu AI może zapewnić pomoc, ale nie powinna być jedynym zasobem. Oprócz interakcji z chatbotami liderzy potrzebują szkolenia w zakresie aktywnego słuchania, rozpoznawania oznak wypalenia i kierowania jednostek do profesjonalnej pomocy.
Technologia udowodniła swoją zdolność do symulowania empatii na skalę
Źródło