Biznes Fakty
Aplikacje AI do rozbierania kobiet na zdjęciach: rosnąca popularność i groźby prawne
Coraz więcej aplikacji AI ma na celu „rozbieranie” kobiet na zdjęciach. Aplikacje te generują zwodnicze obrazy, które mimo to przyciągają znaczną uwagę wielu użytkowników. Wygląda na to, że napotykamy niepokojące aspekty AI, których rozwiązanie może być trudne.

- Aplikacje AI zaprojektowane do „rozbierania” kobiet na zdjęciach zyskują coraz większą popularność
- Tworzą fałszywe, ale przekonujące zdjęcia nagości
- Badania przeprowadzone przez Graphikę wskazują, że platformy oferujące takie usługi odnotowały wzrost zainteresowania – w samym wrześniu ich liczba wizyt wyniosła 24 miliony.
- Większość tych aplikacji i usług skupia się wyłącznie na wizerunkach kobiet, a ich promocja jest coraz bardziej powszechna, zwłaszcza na X i Reddicie
- FBI wydało ostrzeżenie dotyczące eskalacji manipulacji zdjęciami w celu „wyłudzenia seksualnego”, w którym sztuczna inteligencja jest wykorzystywana do rozbierania nieletnich, co budzi poważne wątpliwości natury etycznej i prawnej
- Więcej informacji o biznesie znajdziesz na Businessinsider.com.pl

Graphika, firma badająca ruch i trendy na platformach mediów społecznościowych, przeprowadziła analizę, która ujawniła, że strony internetowe i aplikacje oferujące możliwość „rozebrania kobiety” cieszą się coraz większym zainteresowaniem wśród użytkowników sieci.
Oczywiście, takie usługi są nieetyczne, ale obecnie nie ma odpowiednich ram prawnych, które wyraźnie zakazują takich praktyk. Ustawodawstwo nie rozwijało się wraz ze sztuczną inteligencją i powiązanymi z nią aplikacjami. Tylko we wrześniu tego roku, według Graphiki, 24 miliony użytkowników Internetu na całym świecie odwiedziło takie strony.
Aplikacje „rozbierania”. Jak działają?
Aplikacje w kategorii „nudify” modyfikują obrazy i czasami filmy osób ubranych, aby tworzyć fałszywe nagie przedstawienia . Wyniki są często dość realistyczne, ale zawsze są to sfabrykowane treści. Większość aplikacji i usług mających na celu ten cel koncentruje się przede wszystkim na fotografiach kobiet.
Graphika zbadała ponad 30 stron internetowych, które oferują takie usługi. Badacze ustalili, że liczba linków promujących ich oferty wzrosła o 2400 procent od początku roku, szczególnie na Reddicie i X (dawniej Twitter) . Linki te można znaleźć również w wielu innych miejscach, chociaż istnieje większe prawdopodobieństwo, że zostaną wykryte i usunięte przez moderatorów lub odpowiednie algorytmy.
Oprócz stron internetowych, istnieje również wiele grup Telegram, które udzielają dostępu do narzędzi do rozbierania . Graphika podaje, że 53 z tych grup ma co najmniej milion członków.
Wykorzystywanie sztucznej inteligencji do tworzenia nagich obrazów lub pornografii bez zgody to alarmujący trend, który nasilił się wraz z rozwojem sztucznej inteligencji. W ostatnich latach zdarzały się już przypadki deepfake'ów przedstawiających gwiazdy w nagich scenariuszach, ale teraz to zagrożenie staje się znacznie bardziej powszechne. Problem jest tak poważny, że dotyczy nie tylko gwiazd . W listopadzie pojawiły się doniesienia, że niektórzy uczniowie szkół średnich w New Jersey musieli wyjaśnić istnienie nagich obrazów, które zostały w rzeczywistości sfabrykowane.
FBI ostrzega przed manipulacją zdjęciami
W czerwcu FBI wydało ostrzeżenie dotyczące wzrostu liczby manipulacji zdjęciami w celach sextortion. „Złośliwi aktorzy wykorzystują technologie i usługi manipulacji treścią, aby wykorzystywać zdjęcia i filmy — zazwyczaj pochodzące z kont w mediach społecznościowych danej osoby, otwartego Internetu lub uzyskane od ofiary — aby przekształcić je w obrazy o charakterze seksualnym, które bardzo przypominają ofiarę, a następnie rozpowszechniać je w mediach społecznościowych, na forach publicznych lub stronach pornograficznych”, podaje strona internetowa FBI. Obrazy są czasami wykorzystywane w działaniach sextortion w celu wyłudzenia pieniędzy od przedstawionych osób.
Niestety, aplikacje AI są również wykorzystywane do rozbierania nieletnich. We wrześniu w Hiszpanii znaleziono sztucznie stworzone nagie zdjęcia ponad 20 młodych dziewcząt . Wiele z tych zdjęć zostało wygenerowanych przy użyciu zdjęć w pełni ubranych pochodzących z kont osób na Instagramie. Po modyfikacji przy użyciu aplikacji opartej na technologii „ClothOff”, nagie zdjęcia zostały rozpowszechnione w grupach WhatsApp.
Możliwość tworzenia nagich zdjęć celebrytów, kolegów z klasy, nieznajomych w transporcie publicznym, przełożonych, współpracowników i dzieci jest zaledwie kilka kliknięć dalej. Obecnie nie ma prawa zakazującego tworzenia takich zdjęć, chociaż są one nielegalne, gdy dotyczą nieletnich.
Jeśli chodzi o treści dla dorosłych, wydaje się, że te aplikacje i obrazy, które trafiają na rynek, pozostają zgodne z prawem. Według Time , TikTok i Meta zablokowały termin „nagość”, próbując ograniczyć dostęp do programów AI tego typu . Google usunął również niektóre reklamy aplikacji i witryn z nagością.
Ciemna strona sztucznej inteligencji
Psychoterapeutka Lisa Sanfilippo, specjalizująca się w terapii seksualnej
Źródło