„Nigdy nie zakładaj, że rozmowy na czacie są prywatne”. Testerzy AI przeglądają intymne materiały użytkowników

Meta angażuje współpracowników do ulepszania swojej sztucznej inteligencji, zlecając im ocenę rzeczywistych dialogów użytkowników z chatbotami. Niektórzy ujawniają, że te wymiany obejmują poufne informacje o życiu użytkowników, takie jak zdjęcia, dane osobowe, adresy i numery telefonów. W odpowiedzi na pytania serwisu Business Insider, Meta zapewniła, że w swoich inicjatywach związanych ze sztuczną inteligencją stosuje „surowe zasady” dotyczące przetwarzania danych osobowych.

Dialog ze sztuczną inteligencją na temat twojego rozstania? A może rozmowa terapeutyczna z chatbotem, którą trzymałeś w tajemnicy? Prawdopodobnie ktoś to przeczytał – i w niektórych przypadkach może mieć dostęp do twoich danych osobowych.

Meta, podobnie jak wielu gigantów technologicznych, zatrudnia zewnętrznych podwykonawców do szkolenia swojej sztucznej inteligencji (AI). W ramach tego przedsięwzięcia analizują oni rzeczywiste rozmowy użytkowników z chatbotami. Podczas oceny i oceniania odpowiedzi AI – standardowej praktyki branżowej – niektórzy recenzenci, jak ujawnił Business Insider, mieli dostęp do danych osobowych.

Czterech wykonawców z platform szkoleniowych Outlier (należących do Scale AI) i Alignerr zgłosiło, że często napotykali dialogi zawierające imiona i nazwiska, numery telefonów, adresy e-mail, płeć, zainteresowania i inne dane osobowe. Jeden z nich oszacował, że dane osobowe były obecne w ponad połowie z tysięcy rozmów, które oceniał co tydzień. Dwóch współpracowników przyznało się do natknięcia się na wymiany zdań, w których użytkownicy wysyłali selfie do chatbota. Dyskusje te pochodziły od osób z całego świata.

Niektóre z tych danych osobowych zostały powiązane z historią czatów przez Meta, aby pomóc kontrahentom w personalizacji odpowiedzi AI, zgodnie z dokumentacją z jednego z trzech projektów zleconych przez Meta i przeanalizowanych przez Business Insider. W innych przypadkach użytkownicy dobrowolnie udostępniali dane osobowe podczas rozmów z chatbotem – przed czym ostrzega polityka prywatności Meta.

Dwie z czterech osób, z którymi przeprowadzono wywiad dla Business Insider, brały udział w podobnych projektach dla innych dużych firm technologicznych i zauważyły, że niezanonimizowane dane osobowe były powszechniejsze w projektach Meta.

Dokumenty projektowe — z których dwa obowiązywały jeszcze w zeszłym miesiącu — zalecały wykonawcom analizę rzeczywistych dialogów między użytkownikami a chatbotem.

Współpracownicy Meta, z którymi rozmawiał Business Insider , określili wiele z tych interakcji jako głęboko osobiste. Obejmowały one sesje przypominające terapię, prywatne wyznania przypominające pogawędki z przyjacielem lub intymne rozmowy z partnerem.

Użytkownicy dzielili się swoimi fantazjami, flirtowali z chatbotem, zgłaszali problemy i szukali porady. Czasami podawali swoje dane kontaktowe, stanowiska, lokalizacje lub informacje o swoich dzieciach.

Jeden z wykonawców zaangażowanych w projekt Omni firmy Alignerr — mający na celu zwiększenie zaangażowania użytkowników w AI Studio firmy Meta — stwierdził, że niektórzy użytkownicy ujawniali chatbotowi bardzo osobiste informacje, w tym zdjęcia typu selfie i obrazy o charakterze seksualnym.

Polityka firmy Meta dotycząca wykorzystania sztucznej inteligencji wskazuje, że firma „może analizować” interakcje użytkowników ze sztuczną inteligencją, a proces ten może być „zautomatyzowany” lub nadzorowany przez ludzi.

Rzecznik prasowy Meta poinformował serwis Business Insider, że firma stosuje „surową politykę” dotyczącą dostępu do danych osobowych – zarówno swoich pracowników, jak i kontrahentów.

Współpracujemy z kontrahentami w celu poprawy jakości danych szkoleniowych, ale celowo ograniczamy dane osobowe, do których mają oni dostęp, a także stosujemy protokoły i zabezpieczenia, które pomagają im w zarządzaniu wszelkimi tego typu danymi, na które mogą natrafić ” – wyjaśnił rzecznik.

Przedstawiciel Scale AI podkreślił, że „współpracownicy mogą przetwarzać dane osobowe wyłącznie w zakresie niezbędnym do realizacji projektu”, muszą przestrzegać protokołów bezpieczeństwa platformy Outlier oraz „są zobowiązani do oznaczania odpowiedzi zawierających dane osobowe i pomijania zadań o takiej treści”.

„Dane generowane przez użytkowników nigdy nie opuszczają platformy klienta” – dodał. „Wiele projektów jest realizowanych bezpośrednio na platformach klienckich, co zwiększa bezpieczeństwo i zapobiega wydostawaniu się danych z systemu” – kontynuował.

Alignerr nie odpowiedział na prośbę o komentarz.

Ta sytuacja uwypukla luki w zabezpieczeniach i problemy z prywatnością, które pojawiają się w firmach, gdy rekrutują tysiące pracowników do rozwijania swoich rozwijających się systemów AI. Scale AI ograniczyło dostęp do publicznych dokumentów Google po tym, jak Business Insider ujawnił, że zawierają one poufne informacje o klientach. Niektóre z tych dokumentów szczegółowo opisywały, jak xAI i Meta szkolą swoje modele AI. Tymczasem platforma szkoleniowa Surge wykorzystała publiczny arkusz kalkulacyjny, aby pomóc pracownikom w szkoleniu AI firmy Anthropic.

„Ryzyko wycieku danych osobowych z rozmów prowadzonych przez chatboty jest znaczne i może potencjalnie prowadzić do manipulacji, oszustw i innych form nadużyć” – stwierdziła Miranda Bogen, dyrektor AI Governance Lab w Centrum Demokracji i Technologii, organizacji zajmującej się prawami cyfrowymi i prywatnością.

Bogen radzi tym, którym zależy na prywatności, aby „nigdy nie zakładali, że interakcje z chatbotami są poufne, zwłaszcza że praktyki stosowane przez poszczególne firmy znacznie się różnią”.

Zauważyła, że narzędzia sztucznej inteligencji, takie jak chatboty, są „wykorzystywane w sposób odmienny od tradycyjnych narzędzi internetowych” i „użytkownicy mogą nie zdawać sobie sprawy, że ich dialogi są wykorzystywane do trenowania modeli lub że ludzie mają do nich dostęp”.

Wiele firm technologicznych, w tym Meta, OpenAI i Google, informuje w swoich politykach prywatności, że mogą wykorzystywać konwersacje sztucznej inteligencji do trenowania i ulepszania modeli.

Dane, których użytkownicy nie spodziewają się zobaczyć, od dawna stanowią problem w branży ” – zauważa Bogen. „To po prostu kolejny przejaw tego problemu. Różnica polega na tym, że kontekst rozmowy ze sztuczną inteligencją często wydaje się użytkownikom bardziej osobisty – podobny do dialogu terapeutycznego lub udostępniania poufnych informacji zawodowych” – dodaje.

Serwis Business Insider nie zdołał ustalić, jak często kontrahenci mieli styczność z danymi osobowymi, jednak osoby, które komunikowały się z redakcją, wskazały, że podczas pracy nad projektami Meta AI zdarzało się to regularnie.

Jeden z ankietowanych brał udział

Źródło

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *






No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *