Biznes Fakty
Internet coraz groźniejszy dla nastolatków. AI i deep fake często wprowadzają w błąd
W Stanach Zjednoczonych o wiele więcej osób korzysta już ze sztucznej inteligencji i tam wyraźnie widać narastające zagrożenie online, jakim jest coraz częstsze wprowadzanie w błąd — zwłaszcza młodych internautów. Fałszywe treści online generowane są w ogromnej ilości. W najlepszym wypadku powodują zamieszanie, w najgorszym stanowią poważne niebezpieczeństwo dla zdrowia i życia.
- Sztuczna inteligencja i deepfake coraz częściej wprowadzają nastolatków w błąd, utrudniając im weryfikację informacji online
- Badanie Common Sense Media wykazało, że 35 proc. amerykańskich nastolatków padło ofiarą fałszywych treści, a 22 proc. udostępniło nieprawdziwe informacje znajomym
- Rośnie brak zaufania młodych internautów do big techów, które według nich nie podejmują odpowiedzialnych decyzji dotyczących wykorzystania AI
- W USA powstają też regulacje mające chronić dzieci przed negatywnym wpływem chatbotów AI, które mogą prowadzić do uzależnienia i pogorszenia zdrowia psychicznego
- Więcej informacji o biznesie znajdziesz na stronie Businessinsider.com.pl
Ponieważ sztuczna inteligencja znacznie ułatwiła tworzenie fałszywych treści — nie tylko tekstów, ale też wideo i audio — rosnąca liczba amerykańskich nastolatków twierdzi, że są wprowadzani w błąd przez treści generowane przez AI w internecie.
Badanie opublikowane przez organizację non-profit Common Sense Media, zawiera odpowiedzi 1000 nastolatków w wieku od 13 do 18 lat. Jak czytamy w raporcie podsumowującym, ok. 35 proc. uczestników badania zgłosiło, że zostało oszukanych przez fałszywe treści online. Dodatkowo 22 proc. stwierdziło, że udostępniło znajomym informacje, które później okazały się fałszywe. Wiadomo też, że 7 na 10 osób w tym wieku przynajmniej raz próbowało używać narzędzi AI.
Nastolatki przyznają też, że fałszywe treści online pogarszają sam proces weryfikowania informacji w internecie. Coraz trudniej jest określić, co jest prawdziwe, a co nie jest, a późniejsza weryfikacja zajmuje nierzadko dużo czasu, a na koniec i tak nie mamy zupełnej pewności, że dana treść przypadkiem nie została sfabrykowana.
Sprawdź też: Zbadali 9000 postów na Facebooku. Firma wykrywająca AI alarmuje
Młodzi internauci nie ufają big techom
W badaniu zapytano również nastolatków o ich opinie na temat głównych korporacji technologicznych, w tym Google, Apple, Meta, TikTok i Microsoft. Prawie połowa uczestników twierdzi, że nie ufa big techom w podejmowaniu odpowiedzialnych decyzji dotyczących tego, jak używać AI.
„Łatwość i szybkość, z jaką generatywna AI pozwala codziennym użytkownikom rozpowszechniać niewiarygodne twierdzenia i nieautentyczne media, mogą pogłębić istniejący niski poziom zaufania nastolatków do instytucji takich jak media i rząd” — stwierdzono w badaniu.
Brak zaufania nastolatków do technologicznych korporacji odzwierciedla też rosnące niezadowolenie z głównych firm w Stanach Zjednoczonych. Dorośli Amerykanie również muszą zmagać się ze wzrostem wprowadzających w błąd lub całkowicie fałszywych treści. To prowadzi do mniejszego zaufania do informacji z sieci, zwiększa polaryzację, powoduje też liczne konflikty.
Co więcej, wydaje się, że big tech nieszczególnie przejmuje się tymi problemami. Elon Musk, kiedy przejmował Twittera w 2022 r. i przemianował go na X, zredukował zespoły do moderowania treści, jak również pozwolił na rozprzestrzenianie się dezinformacji i mowy nienawiści. Przywrócił też konta wcześniej zbanowanych autorów teorii spiskowych. Niedawno z kolei Meta zdecydowała się zastąpić zewnętrznych weryfikatorów faktów tzw. notatkami od społeczności, co — jak przekonywał Mark Zuckerberg — ma prowadzić do mniejszej cenzury i niepotrzebnego blokowania wielu treści i opinii.
Media społecznościowe takie jak Facebook, Instagram czy X stają się coraz bardziej wypełnione niebezpiecznymi treściami, a dodatkowo sporo ruchu generują tam boty, publikujące treści w wyznaczonych wcześniej narracjach. Jeśli dalej tak pójdzie, spędzanie czasu w tych miejscach będzie mogło wiązać się z poważnym ryzykiem. Zaczniemy bowiem przyswajać informacje nieprawdziwe, pozwalać się oszukiwać, a także będziemy wchodzić w konwersacje z wirtualnymi bytami, które nie istnieją, natomiast będą nas przekonywać do konkretnych pomysłów i zachowań.
Czytaj też: Obce siły wpłyną na wybory? YouTube zabiera głos: „Musimy to założyć”
Popularne zagrożenia w sieci
Na co młodsi internauci powinni zwracać uwagę? W sieci można spotkać się z różnymi rodzajami fałszywych treści, w tym z fake newsami, propagandą i teoriami spiskowymi. Oto kilka popularnych form:
Fake newsy — celowo tworzone i rozpowszechniane fałszywe informacje, które udają autentyczne wiadomości. Często mają sensacyjny charakter, aby przyciągnąć uwagę i zwiększyć liczbę kliknięć. Fake newsy mogą być wykorzystywane do manipulacji opinią publiczną, szkodzenia reputacji osób lub organizacji, a nawet wpływania na wyniki wyborów. Mogą przybierać formę artykułów, postów w mediach społecznościowych, a nawet filmów.
Propaganda — systematyczne rozpowszechnianie informacji, idei lub doktryn w celu wpływania na opinię publiczną i zachęcania do określonych działań. Propaganda może być wykorzystywana przez rządy, partie polityczne, korporacje i inne organizacje. Często opiera się na emocjach, uproszczeniach i manipulacji faktami.
Teorie spiskowe — wyjaśnienia wydarzeń, które odrzucają powszechnie akceptowane fakty i przypisują je tajnym spiskom i działaniom potężnych grup. Teorie spiskowe często opierają się na braku dowodów, spekulacjach i myśleniu życzeniowym. Mogą prowadzić do braku zaufania do instytucji, nauki i mediów.
Manipulacje zdjęciami i filmami — obejmują zmiany w obrazach i nagraniach wideo, aby przedstawić fałszywy obraz rzeczywistości. Mogą to być proste zmiany, takie jak retuszowanie zdjęć, lub bardziej zaawansowane techniki, takie jak montaż wideo lub tworzenie fałszywych kontekstów.
Deepfake — zaawansowana forma manipulacji wideo, która wykorzystuje sztuczną inteligencję do tworzenia realistycznie wyglądających fałszywych nagrań, na których osoby publiczne robią lub mówią rzeczy, których nigdy nie zrobiły ani nie powiedziały. Deepfake stanowią poważne zagrożenie dla reputacji osób i mogą być wykorzystywane do celów politycznych lub komercyjnych.
Boty — automatyczne programy komputerowe, które udają prawdziwych użytkowników w mediach społecznościowych. Boty społecznościowe mogą być wykorzystywane do rozpowszechniania fałszywych informacji, promowania propagandy, atakowania osób lub organizacji, a także do zwiększania popularności kont i treści.
To pewnie nie są wszystkie zagrożenia, z jakimi spotykamy się w social mediach, ale już ta lista pokazuje, jak niebezpieczne stają się te platformy online w obecnych czasach.
Sprawdź też: Spam dzwoni do ludzi. Oszustwa głosowe z użyciem AI coraz popularniejsze
Chatbot to nie człowiek
Kolejne, stosunkowo nowe zagrożenie, które dotyczy zwłaszcza najmłodszych internautów, to wchodzenie w interakcje z chatbotami AI i wirtualnymi postaciami. W Kalifornii powstał już projekt ustawy, który nakazuje firmom AI, by te przypominały dzieciom, że chatboty nie są ludźmi.
Ustawa ma na celu ochronę dzieci przed „uzależniającymi, izolującymi i wpływowymi aspektami” sztucznej inteligencji. Projekt ustawy zaproponowany w Kalifornii wymagałby od firm AI okresowego przypominania dzieciom, że chatbot to AI, a nie człowiek.
Ustawa wymagałaby też od firm AI dostarczania corocznych raportów do Departamentu Usług Opieki Zdrowotnej stanu Kalifornia, w których byłoby określone, ile razy wykryto myśli samobójcze u dzieci korzystających z platform online, a także ile razy chatbot poruszał ten temat w rozmowie z najmłodszymi. Ustawa nakazywałaby również firmom takim jak OpenAI czy Anthropic informowanie użytkowników, że ich chatboty mogą nie być odpowiednie dla niektórych dzieci.
W zeszłym roku, jak zauważa serwis The Verge, pewien rodzic złożył pozew o bezprawną śmierć przeciwko firmie Character.AI, twierdząc, że jej niestandardowe chatboty AI są „nierozsądnie niebezpieczne”. Co dokładnie się stało? Nastolatek, który ciągle rozmawiał z botami, popełnił samobójstwo. Inny pozew oskarżył zaś firmę o wysyłanie szkodliwych materiałów do nastolatków, m.in. pobudzających do agresji czy przemocy. Character.AI później ogłosiło, że pracuje nad kontrolą rodzicielską i opracowało nowy model AI dla użytkowników nastoletnich, który zablokuje „wrażliwe lub sugestywne” treści.
„Nasze dzieci nie są szczurami laboratoryjnymi, na których firmy technologiczne mogą eksperymentować kosztem ich zdrowia psychicznego” — powiedział senator Steve Padilla, autor projektu ustawy. „Potrzebujemy zdroworozsądkowych zabezpieczeń dla użytkowników chatbotów, aby zapobiec stosowaniu przez developerów strategii, które są uzależniające i drapieżne” — dodał. Niezależnie od tego, co dzieje się w USA, warto zwracać uwagę na podobne zagrożenia także w Polsce.
Autor: Grzegorz Kubera, dziennikarz Business Insider Polska
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Źródło