Odkryj mroczną stronę aplikacji: manipulacja zdjęciami bez Twojej zgody

Repetytoria dedykowane najpopularniejszym smartfonom pękają w szwach od aplikacji, które w mgnieniu oka potrafią przekształcić dowolne zdjęcie osoby w jego nagą wersję. Niestety, dotyczy to również nieletnich.

Odkryj mroczną stronę aplikacji: manipulacja zdjęciami bez Twojej zgody 2

Najnowsza analiza przeprowadzona przez Tech Transparency Project (TTP) ujawnia, że w obu wiodących sklepach z aplikacjami mobilnymi – App Store od Apple i Google Play od Google – bez większego wysiłku można znaleźć narzędzia przeznaczone do generowania niekonsensualnych, seksualizowanych przeróbek zdjęć. Wystarczy wpisać w wyszukiwarkę hasła takie jak „nudify” lub „undress”, aby natknąć się na aplikacje, które według oficjalnych zasad platform nie powinny przejść nawet wstępnego etapu weryfikacji.

Jak donosi Bloomberg, sytuacja jest alarmująca: wspomniane aplikacje nie tylko są łatwo dostępne, ale wręcz promowane za pomocą reklam wyświetlanych w wynikach wyszukiwania. Oznacza to, że twórcy tych narzędzi aktywnie płacą Apple i Google za zwiększenie widoczności swoich produktów, a platformy – mimo obowiązujących zakazów – chętnie przyjmują te środki finansowe.

Skala zjawiska jest szokująca. Mowa o setkach milionów pobrań i przychodach przekraczających 120 mln USD.

Według danych TTP, istnieje ponad sto tego typu aplikacji, rozłożonych mniej więcej po równo między oba sklepy. Łącznie zanotowały one ponad 700 milionów pobrań – liczba ta sama w sobie brzmi absurdalnie. Jednak dane finansowe są jeszcze bardziej imponujące: przychody z tych aplikacji przekroczyły 120 milionów dolarów, głównie dzięki modelom subskrypcyjnym i mikropłatnościom, które użytkownicy dokonują w celu „odblokowania” bardziej zaawansowanych funkcji. Warto podkreślić, że w 2026 roku 120 milionów dolarów to równowartość około 480 milionów złotych, biorąc pod uwagę prognozowany kurs wymiany.

Jak to w ogóle możliwe, skoro regulaminy platform są jednoznaczne? Zarówno Apple, jak i Google od lat deklarują, że nie zezwalają na publikowanie aplikacji umożliwiających tworzenie treści seksualnych bez zgody osób na nich przedstawionych. W praktyce jednak okazuje się, że wystarczy odpowiednio zneutralizowany opis, zastosowanie kilku eufemizmów i ukrycie kontrowersyjnych funkcji za paywallem, aby aplikacja przeszła proces weryfikacji.

Twórcy takich aplikacji doskonale rozumieją mechanizmy działania moderacji. Swoje najbardziej kontrowersyjne funkcjonalności ukrywają w płatnych modułach, stosują niewinne nazwy i ikony, a w opisach chwalą się „zabawnymi filtrami” czy „kreatywnymi przeróbkami zdjęć”. Dopiero po zainstalowaniu aplikacji użytkownik odkrywa, że jej głównym celem jest generowanie realistycznych, seksualizowanych obrazów osób, które nigdy nie wyraziły na to przyzwolenia.

TTP bez ogródek: to narzędzia stworzone do nadużyć

Organizacja jednoznacznie określa te aplikacje jako „zaprojektowane do nadużyć” (designed for abuse). Trudno z tym stwierdzeniem się nie zgodzić. Ich funkcjonalność nie ma żadnego racjonalnego zastosowania poza tworzeniem materiałów, które mogą być wykorzystane do nękania, szantażu, kompromitacji osób prywatnych lub rozpowszechniania fałszywych treści o celebrytach.

Co gorsza, wiele z tych aplikacji działa w modelu „upload and forget”. Użytkownik przesyła zdjęcie, a dalsze przetwarzanie odbywa się w chmurze, często na serwerach o niejasnej lokalizacji i nieznanych zasadach przechowywania danych. To otwiera kolejny front ryzyka: prywatne fotografie mogą trafić do baz danych, nad którymi nikt nie sprawuje kontroli.

Po publikacji raportu TTP, obie firmy rozpoczęły proces usuwania wskazanych aplikacji. Apple poinformował o usunięciu 28 pozycji, choć TTP zidentyfikowało ich więcej. Google usuwał aplikacje etapami, co może sugerować, że część z nich była wykrywana dopiero po nagłośnieniu sprawy.

Jednakże, działania te nie rozwiązują problemu systemowo. Wyszukiwarki sklepów nadal potrafią wyświetlać podobne narzędzia, a twórcy takich aplikacji wykazują się mistrzowskim kunsztem w tworzeniu klonów i powracaniu pod nowymi nazwami. Jedna aplikacja zostaje usunięta, a na jej miejsce pojawiają się dwie kolejne.

Procesy weryfikacji ewidentnie nie są przygotowane na obsługę narzędzi opartych na sztucznej inteligencji. Twórcy takich aplikacji stają się coraz sprytniejsi, a sklepy mobilne – mimo posiadania budżetów liczonych w miliardach – nie potrafią skutecznie blokować oprogramowania, które z definicji jest przeznaczone do nadużyć. I chociaż obie firmy podjęły kroki w celu usunięcia wskazanych aplikacji, nie zmienia to faktu, że przez lata pozwalały im na rozwój, generowanie zysków i zdobywanie setek milionów użytkowników. To już nie jest drobna rysa na wizerunku, lecz poważny sygnał, że „bezpieczne ekosystemy” wymagają gruntownej modernizacji.

Wyniki Biznes Fakty:

  • Rynek Aplikacji Generujących Dezinformację: Analiza TTP wykazała istnienie ponad 100 aplikacji w App Store i Google Play, które służą do tworzenia niekonsensualnych, seksualizowanych przeróbek zdjęć.
  • Ogromne Zasięgi i Przychody: Aplikacje te zanotowały ponad 700 milionów pobrań, generując przychody przekraczające 120 milionów USD (ok. 480 milionów PLN w 2026 r.) głównie z subskrypcji i mikropłatności.
  • Nieskuteczność Systemów Weryfikacji: Pomimo oficjalnych zasad zakazujących takich treści, aplikacje łatwo przechodzą weryfikację dzięki neutralnym opisom, eufemizmom i ukrywaniu kontrowersyjnych funkcji w płatnych modułach.
  • Model Biznesowy oparty na Nadużyciach: Narzędzia te są określane jako „zaprojektowane do nadużyć”, służąc do nękania, szantażu i tworzenia fałszywych treści.
  • Ryzyko Danych Użytkowników: Przetwarzanie zdjęć w chmurze, często na serwerach o nieznanej lokalizacji, stwarza ryzyko wycieku i niekontrolowanego przechowywania wrażliwych danych.
  • Reakcja Platform: Apple i Google rozpoczęły usuwanie podejrzanych aplikacji po publikacji raportu, jednak problem powraca ze względu na ciągłe tworzenie nowych wersji i klonów.
  • Niedostosowanie do AI: Obecne procesy weryfikacji są niewystarczające wobec rozwoju aplikacji opartych na sztucznej inteligencji, co podważa bezpieczeństwo „ekosystemów” mobilnych.

Informacje przygotowane na podstawie materiałów : spidersweb.pl

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *