Biznes Fakty
Świat wyśmiał oszustwo na Brada Pitta. Kryją się za tym ogromne tragedie
Światowe media obiegła historia Francuzki, która dała się nabrać na historię z chorym Bradem Pittem. Cała sytuacja stała się obiektem żartów i memów za sprawą niedoskonałych przeróbek zdjęć i filmów. Ale te będą coraz doskonalsze. Fałszywe nagrania z celebrytami w roli głównej już są normą w sieci. Nabranie emeryta staje się dla przestępców błahostką, skoro udało im się wymusić przelew na 25 mln dol. w dużej firmie. A ty? Na pewno nie dasz się oszukać?
Deepfake’i stają się internetową codziennością. W przytoczonej historii z Bradem Pittem oszuści nie musieli nawet wznosić się na wyżyny umiejętności technologicznych. To jednak nie powód, by nabijać się z ofiar. Coraz trudniej odróżnić prawdę od fikcji. — Osobiście poznałem bardzo wykształconą osobę z ogromnym doświadczeniem życiowym i biznesowym w Polsce i za granicą — mówi o jednej z oszukanych ekspert Adam Łabęcki.
Z Adamem Łabęckim, ekspertem ds. cyberbezpieczeństwa i współzałożycielem firmy IDENTT, rozmawia Marta Roels
Marta Roels, Business Insider: Dlaczego deepfake’i, które kiedyś były jedynie ciekawostką technologiczną, stały się tak groźnym narzędziem w życiu codziennym? Czym jest deepfake i dlaczego stwarza zagrożenie, które dotyczy każdego z nas?
Adam Łabęcki, ekspert ds. cyberbezpieczeństwa i współzałożyciel firmy IDENTT: Deepfake jest technologią opartą na sztucznej inteligencji, która pozwala na tworzenie realistycznych, ale fałszywych obrazów, dźwięków albo wideo. Wykorzystuje algorytmy głębokiego uczenia (ang. deep learning), a do manipulacji używa też istniejących materiałów multimedialnych, zmieniając twarze, naśladując głos lub generując całkowicie nowe sceny, które nie miały nigdy miejsca. Najczęściej może być to wykorzystywanie znanej osoby do przekazania jakiejś informacji, której ta osoba nigdy by nie powiedziała, ale to też problem dotyczący zwykłych osób, bo dziś wiemy, że można podszyć się pod każdego. Stworzenie cudzej tożsamości jest dziś banalnie proste – istnieją do tego ogólnodostępne aplikacje i nie trzeba korzystać ze specjalistycznych rozwiązań.
Geneza deepfake’ów miała cel rozrywkowy – pokazanie śmiesznych rzeczy albo też materiałów edukacyjnych, bo możemy je wykorzystać do tego, żeby posłuchać np. Henryka Sienkiewicz czytającego „Potop”. Inny przykład to wywiad dziennikarki stworzonej przez sztuczną inteligencję, która rozmawia z nieżyjącą już Wisławą Szymborską. To może być bardzo interesujące dla odbiorców, ponieważ pozwala zgłębić aspekty literatury poprzez to, jak jej autor o tym opowiada.
Z kolei innym, tym razem negatywnym przykładem, może być prawdopodobne wpłynięcie na wybory na Słowacji w 2023 r., kiedy publikowano na Facebooku informacje głosowe, w których osoby biorące udział w wyborach przekonywały innych, żeby przekupili określone grupy społeczne, by na nich głosować. Okazało się później, że to kłamstwo, ale już po fakcie. To jest aspekt dezinformacyjny.
Kolejnym może być dyskredytacyjny, czyli osłabienie pozycji danej osoby, grupy społecznej czy marki. Można wpływać na innych poprzez pewne masowe przekazywanie szkodliwych albo nieprawdziwych informacji.
Czy mamy na to przykłady z życia?
Jest ich mnóstwo. Ostatnio wykorzystano miłość pewnej Francuzki do Brata Pitta. Ta kobieta „rozmawiała” najpierw z matką aktora, a później z nim samym i przelała mu ogromne pieniądze, bo myślała, że jest ciężko chory i nie ma pieniędzy na leczenie. To nieracjonalne, bo akurat gwiazda Hollywood do biednych nie należy i dlaczego miałby prosić o pomoc akurat swoją fankę we Francji? Problem polega na tym, że to były bardzo proste filmy deepfake’owe, ale tak realistyczne, że ta osoba w nie uwierzyła.
x.com
Inna osoba z kolei przelała ogromne pieniądze oszustom, ponieważ uwierzyła, że finansuje powrót z misji wojskowej amerykańskiego żołnierza i zapłaci mu za bilet. To są skrajnie nieracjonalne przypadki, ale coraz częściej deepfake jest używany w bardzo realistycznych sytuacjach.
Jakie są to sytuacje i jaki wpływ mogą one mieć na życie przeciętnego człowieka – od relacji rodzinnych po finanse?
Wykorzystanie deepfake’a w złym celu może mieć ogromny negatywny wpływ społeczny. Wyobraźmy sobie sytuację, że ktoś usłyszy nagranie, w którym dobry kolega wypowiadał się bardzo źle o swoim przyjacielu. Nieważne, że to nieprawda, bo ta osoba widziała i słyszała „prawdziwą osobę”, więc relacje przyjacielskie mogą zostać zachwiane.
To dość lekki przykład, ale wyobraźmy sobie, że młodzież, która korzysta bardzo dużo z internetu, zobaczy spreparowany film ze swoją koleżanką albo kolegą w roli głównej. Oczywiście to nieprawda, ale osoba poszkodowana może się czuć tak upokorzona, że zrobi sobie krzywdę – zwłaszcza w wieku, gdy jest się bardziej wrażliwym na to, co mówią o nas inni. W końcu wszyscy ją „widzieli” i mogą wytykać ją palcami.
Przyjmijmy teraz scenariusz, że taka sytuacja zdarzyła się u osób starszych – żona otrzymuje taki spreparowany film, jak mąż ją zdradza. To ma wpływ na ich małżeństwo i może być źródłem ogromnej tragedii.
Prostsze mogą być też wyłudzenia „na wnuczka”, ponieważ ktoś dzwoni albo wysyła film do osoby bliskiej i prosi o pomoc, bo jest „w kłopotach”. W takich chwilach działają emocje i bardzo łatwo jest kogoś oszukać, gdyż każda babcia zapewne chciałaby pomóc swojemu wnukowi.
Jaka była najbardziej tragiczna historia takiego oszustwa?
Osobiście poznałem bardzo wykształconą osobę z ogromnym doświadczeniem życiowym i biznesowym w Polsce i za granicą. Zobaczyła ona, że znana postać zachęca do pewnego rodzaju inwestycji w różnego rodzaju instrumenty finansowe. Kobieta w zeszłym roku przeszła na emeryturę i, jak nietrudno się domyślić, dostawała znacznie mniej od swoich poprzednich dochodów. Dlatego chciała dorobić sobie do emerytury. Pomyślała, że skoro ktoś sławny to poleca, to może jest to warte inwestycji. Niedługo później została przejęta przez grupę przestępczą, która wysłała jej pewien link.
Prawdopodobnie cała akcja była wymierzona w tę panią, bo później ktoś skontaktował się z nią, opowiadał o tym, jak zawodowi i doświadczeni maklerzy giełdowi prowadzą inwestycje, i pomogą jej zarobić. Na początku oszuści mówili o małych kwotach – po zainwestowaniu 1000 zł zarabiała 300 zł i rzeczywiście te pieniądze wpływały na jej konto. W międzyczasie otrzymywała też pełno profesjonalnie spreparowanych informacji – artykułów z różnych portali informacyjnych, nie tylko ze zdjęciami i wypowiedziami znanych osób, lecz także z komentarzami „normalnych” ludzi, którzy byli zachwyceni taką metodą łatwego inwestowania i dużym pasywnym dochodem.
Ta pani zobaczyła także film (deepfake), w którym kolejne znane osoby mówiły o nowej metodzie inwestycji, a potem zaczęli się z nią spotykać różni ludzie, którzy mieli być „zawodowymi maklerami”. Wtedy usłyszała propozycje, żeby zainwestować więcej pieniędzy – może 100 tys. zł, to zarobek wyniesie 30 tys. zł? W dzisiejszych czasach są to oczywiście nierealne stopy zwrotu, ale powtarzano jej, że to są zainwestowane pieniądze, a ona musi zapłacić prowizję od zarobionych pieniędzy za zarządzanie swoim portfelem.
Ta pani widziała cały czas duży zysk i dlatego zainwestowała bardzo znaczne środki finansowe i wszystko straciła. Nie mogę opowiedzieć całej historii, ale była to osoba, która gromadziła pieniądze na swoją emeryturę, by potem spokojnie cieszyć się życiem i mieć spokojną starość. Jednak straciła wszystko, na co pracowała całe życie. Obecnie jest nie tylko w ciężkiej sytuacji finansowej, lecz także w głębokiej depresji, bo w jednej chwili straciła dorobek życia. Takich sytuacji jest dużo, a firmy, które dopuściły się podobnych czynów, nagle znikają. Czy ktoś z tego powodu targnął się na własne życie? Tego nie wiem, natomiast są to ogromne ludzkie tragedie.
Jaka była największa suma, którą ukradziono z użyciem deepfake’ów?
Znany jest przypadek Arup – ogromnej firmy, która m.in. zaprojektowała operę w Sydney. Pracownik tej firmy spotkał się jednego dnia zdalnie ze swoim przełożonym i z innymi współpracownikami, gdzie omawiano kwestie finansowe. Po rozmowie online ze swoim dyrektorem finansowym, którego widział, przelał w sumie 25 mln dol. na różne konta, o co zresztą prosił go szef. Dodajmy tylko, że nie widział i nie słyszał go na żywo, ale wszystko brzmiało i wyglądało naturalnie. W taki właśnie sposób firma zanotowała 25 mln dol. straty.
Takie zjawiska będą coraz częstsze. Technologia, o której mówimy, jest na etapie ChataGPT, ale niedawno opublikowano wyniki chińskiej firmy DeepSeek, która pokazała, że sztuczna inteligencja nie musi być tak droga, jak inwestycje amerykańskiej OpenAI – Chińczycy potrzebowali na to 5 proc. środków, które zainwestowali Amerykanie.
Jak zwykli ludzie mogą bronić się przed tym zjawiskiem? Na co powinni zwracać uwagę?
Elementarną zasadą cyberbezpieczeństwa jest nieklikanie w nieznane linki, niepodawanie dalej łańcuszków itd. Najważniejsza jest zasada ograniczonego zaufania. Jeśli dzwoni do mnie ktoś z rodziny i prosi o rzeczy, o które jeszcze nigdy w życiu nie prosił, to spróbujmy rozłączyć się i oddzwonić do takiej osoby. Nie wierzmy we wszystko, co zobaczymy i usłyszymy. Dobrą metodą jest, aby zapytać o informację, którą znamy tylko my – np. jaki jest jej ulubiony owoc. Pamiętajmy o tym, że dostajemy czasami maile z banku albo łudząco podobne linki do oryginalnej strony. Teraz już nie jest wyznacznikiem, czy jest to https, bo to też jest już fałszowane. Czasami przecinek, a czasami jedna litera wygląda inaczej. Pamiętajmy również, że z banku nie wysyłają nam linków i nie każą robić przelewów po kliknięciu.
Nie wierzmy także we wszelkiego rodzaju super promocje. Sam miałem taką sytuację, że koleżanka sprzedawała na mediach społecznościowych urządzenia normalnie kosztujące kilka tysięcy złotych. Zaoferowała ich kilka za 10 proc. normalnej ceny tego produktu. Na pierwszy rzut oka wyglądało to dobrze i zgłosiło się do niej wiele osób, które przelały kwotę na podane konto, żeby zarezerwować ten sprzęt. Ja w tej sytuacji zadzwoniłem do niej i tylko dlatego dowiedziała się, że właśnie skradziono jej konto, żeby okraść wiele osób. Często oszuści wykorzystują także presję czasu – coś musi się odbyć teraz, jak najszybciej, bo inaczej… tu pada groźba. Często są oni psychologicznie przeszkoleni.
Czy sztuczna inteligencja, która stworzyła problem deepfake’ów, może jednocześnie być kluczem do ich zwalczania?
Musimy mieć na uwadze to, że sztuczna inteligencja to miecz obusieczny, bo może być wykorzystywana pozytywnie i negatywnie. Nie da się wykrywać deepfake’ów bez zastosowania technologii. Rzeczywiście, ludzkie oko i ucho nie są w stanie wyłapać tych rzeczy.
Czy możemy sobie wyobrazić świat, w którym już nie wierzymy w żadne nagrania wideo czy audio? Jak wpłynie to na społeczeństwo i zaufanie międzyludzkie?
Pamiętajmy, że nie można popadać w paranoję. Musimy znaleźć złoty środek. Musimy nauczyć się żyć ze sztuczną inteligencją. Pamiętajmy, że ta sztuczna inteligencja, która dziś zabiera setki miejsc pracy, daje również setki nowych. Tak działa postęp. Pewne zawody zniknęły i pojawiły się nowe. To samo ze sztuczną inteligencją. Ona pojawiała się, a my musimy nauczyć się z nią żyć. Nie było w historii ludzkości okresu, gdy wszyscy na świecie byli szczęśliwi, zadowoleni i świat rozwijał się tylko w pozytywnym kierunku – konflikty i niebezpieczeństwa będą istniały zawsze.
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Źródło