AI twoim wrogiem? Poznaj, jak sztuczna inteligencja podkopuje kreatywność i różnorodność języka

Chatboty oparte na sztucznej inteligencji (SI) mogą standaryzować sposób, w jaki ludzie piszą, mówią i myślą. Naukowcy ostrzegają, że w rezultacie spada różnorodność poznawcza, a wraz z nią zbiorowa mądrość i zdolność społeczeństw do adaptacji.

AI twoim wrogiem? Poznaj, jak sztuczna inteligencja podkopuje kreatywność i różnorodność języka 2

  • Naukowcy wskazują, że miliardy osób korzystających z tych samych chatbotów SI mogą nieświadomie zmniejszać różnorodność poznawczą w społeczeństwach.
  • Według autorów, duże modele językowe (LLM) ujednolicają styl językowy i strategie rozumowania, wpływając tym samym na to, co jest postrzegane jako wiarygodna wypowiedź i „dobre” myślenie.
  • Badacze apelują do twórców modeli SI o celowe wprowadzanie rzeczywistej różnorodności językowej i perspektyw w celu lepszego wsparcia inteligencji zbiorowej.

Zdaniem autorów nowej publikacji w piśmie „Trends in Cognitive Sciences”, różnorodność poznawcza w grupach i społeczeństwach na całym świecie zaczyna maleć, ponieważ miliardy ludzi coraz częściej korzystają z tej samej, ograniczonej liczby chatbotów SI do wykonywania coraz szerszego zakresu zadań.

Na przykład, gdy ludzie używają chatbotów do doskonalenia swoich tekstów, tracą one swoją indywidualność stylistyczną, a autorzy mogą odczuwać mniejsze poczucie twórczości.

– Ludzie różnią się sposobem pisania, rozumowania i postrzegania świata. Kiedy jednak te różnice są niwelowane przez te same duże modele językowe (LLM), odmienny styl językowy, perspektywy i strategie rozumowania ulegają ujednoliceniu, prowadząc do standaryzacji sposobów wyrażania się i myślenia u użytkowników – mówi **Zhivar Sourati** z University of Southern California.

Jak chatboty SI wpływają na język i różnorodność poznawczą?

Badacze podkreślają, że różnorodność poznawcza w grupach i społeczeństwach wzmacnia kreatywność oraz zdolność rozwiązywania problemów.

– Obawa nie dotyczy tylko wpływu LLM na sposób, w jaki ludzie piszą lub mówią, ale także tego, że subtelnie redefiniują one to, co jest uznawane za wiarygodną wypowiedź, właściwą perspektywę, a nawet dobre rozumowanie – ostrzega specjalista.

Naukowcy przywołują liczne badania wskazujące, że wyniki pracy LLM są znacznie mniej zróżnicowane niż ludzka twórczość. Jednocześnie odzwierciedlają język, wartości i style rozumowania społeczeństw zachodnich, wykształconych, uprzemysłowionych, zamożnych i demokratycznych (WEIRD). Na przykład, opinie ludzi stają się zbliżone do tych wyrażanych przez SI, a ich myślenie staje się bardziej liniowe, mniej intuicyjne i mniej abstrakcyjne.

Systemy SI często wpływają również na oczekiwania ludzi, co może zmieniać kierunek ich pracy.

Dlaczego modele językowe mogą ujednolicać perspektywy i opinie?

– Ponieważ duże modele językowe (LLM) są trenowane w celu wychwytywania i odtwarzania statystycznych prawidłowości w danych treningowych, które często nadmiernie reprezentują dominujące języki i ideologie, ich odpowiedzi często odzwierciedlają wąski i zniekształcony wycinek ludzkiego doświadczenia – mówi **Zhivar Sourati**.

Naukowcy dodają, że skutki ponoszą wszyscy, nie tylko użytkownicy wspomnianych systemów.

– Jeśli wiele osób wokół mnie myśli i mówi w określony sposób, a ja robię to inaczej, będę odczuwać presję, by się do nich dostosować, ponieważ będzie to wyglądać na bardziej wiarygodny lub społecznie akceptowany sposób wyrażania moich idei – wyjaśnia badacz.

Musimy chronić potencjał twórczy. Co proponują naukowcy?

Według naukowców, twórcy systemów SI powinni świadomie wprowadzać do swoich modeli różnorodność języka, perspektyw i sposobów rozumowania.

Zaznaczają przy tym, że powinna ona opierać się na rzeczywistej różnorodności istniejącej wśród ludzi na całym świecie, a nie na losowo wprowadzanych wariacjach.

– Gdyby duże modele językowe miały bardziej zróżnicowane podejście do idei i problemów, lepiej wspierałyby inteligencję zbiorową oraz zdolności naszych społeczeństw do rozwiązywania problemów – twierdzi **Zhivar Sourati**.

– Musimy zwiększać różnorodność samych modeli SI, a także zmieniać sposób, w jaki z nimi współpracujemy, zwłaszcza biorąc pod uwagę ich powszechne zastosowanie w wielu zadaniach i kontekstach, aby chronić różnorodność poznawczą i potencjał twórczy przyszłych pokoleń – podsumowuje.

Wyniki Biznes Fakty:

Badania wskazują na potencjalny negatywny wpływ wszechobecnych chatbotów SI na różnorodność poznawczą i językową społeczeństw. Ujednolicenie stylu wypowiedzi i sposobów myślenia, wynikające z korzystania z tych samych modeli, może osłabiać zbiorową inteligencję i zdolność innowacyjną. W kontekście rynku pracy w Polsce, firmy i rekruterzy powinni być świadomi tego zjawiska. Zbyt duże poleganie na narzędziach SI do generowania treści, komunikacji czy nawet analizy kandydatów może prowadzić do utraty unikalnych perspektyw i kreatywności, co w dłuższej perspektywie może negatywnie wpłynąć na konkurencyjność organizacji. Zaleca się, aby pracodawcy promowali różnorodność myślenia i zachęcali pracowników do rozwijania własnych, unikalnych stylów, zamiast ślepo podążać za sugestiami SI. W procesach rekrutacyjnych może to oznaczać potrzebę weryfikacji umiejętności kandydata wykraczających poza standardowe odpowiedzi generowane przez AI oraz docenianie oryginalności i krytycznego myślenia.

Na podstawie materiałów : www.pulshr.pl

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *