Biznes Fakty
„Nigdy nie zakładaj, że rozmowy na czacie są prywatne”. Testerzy AI przeglądają intymne materiały użytkowników
Meta angażuje współpracowników do ulepszania swojej sztucznej inteligencji, zlecając im ocenę rzeczywistych dialogów użytkowników z chatbotami. Niektórzy ujawniają, że te wymiany obejmują poufne informacje o życiu użytkowników, takie jak zdjęcia, dane osobowe, adresy i numery telefonów. W odpowiedzi na pytania serwisu Business Insider, Meta zapewniła, że w swoich inicjatywach związanych ze sztuczną inteligencją stosuje „surowe zasady” dotyczące przetwarzania danych osobowych.
Dialog ze sztuczną inteligencją na temat twojego rozstania? A może rozmowa terapeutyczna z chatbotem, którą trzymałeś w tajemnicy? Prawdopodobnie ktoś to przeczytał – i w niektórych przypadkach może mieć dostęp do twoich danych osobowych.
Meta, podobnie jak wielu gigantów technologicznych, zatrudnia zewnętrznych podwykonawców do szkolenia swojej sztucznej inteligencji (AI). W ramach tego przedsięwzięcia analizują oni rzeczywiste rozmowy użytkowników z chatbotami. Podczas oceny i oceniania odpowiedzi AI – standardowej praktyki branżowej – niektórzy recenzenci, jak ujawnił Business Insider, mieli dostęp do danych osobowych.
Czterech wykonawców z platform szkoleniowych Outlier (należących do Scale AI) i Alignerr zgłosiło, że często napotykali dialogi zawierające imiona i nazwiska, numery telefonów, adresy e-mail, płeć, zainteresowania i inne dane osobowe. Jeden z nich oszacował, że dane osobowe były obecne w ponad połowie z tysięcy rozmów, które oceniał co tydzień. Dwóch współpracowników przyznało się do natknięcia się na wymiany zdań, w których użytkownicy wysyłali selfie do chatbota. Dyskusje te pochodziły od osób z całego świata.
Niektóre z tych danych osobowych zostały powiązane z historią czatów przez Meta, aby pomóc kontrahentom w personalizacji odpowiedzi AI, zgodnie z dokumentacją z jednego z trzech projektów zleconych przez Meta i przeanalizowanych przez Business Insider. W innych przypadkach użytkownicy dobrowolnie udostępniali dane osobowe podczas rozmów z chatbotem – przed czym ostrzega polityka prywatności Meta.
Dwie z czterech osób, z którymi przeprowadzono wywiad dla Business Insider, brały udział w podobnych projektach dla innych dużych firm technologicznych i zauważyły, że niezanonimizowane dane osobowe były powszechniejsze w projektach Meta.
Intymne rozmowy i zdjęcia użytkowników
Dokumenty projektowe — z których dwa obowiązywały jeszcze w zeszłym miesiącu — zalecały wykonawcom analizę rzeczywistych dialogów między użytkownikami a chatbotem.
Współpracownicy Meta, z którymi rozmawiał Business Insider , określili wiele z tych interakcji jako głęboko osobiste. Obejmowały one sesje przypominające terapię, prywatne wyznania przypominające pogawędki z przyjacielem lub intymne rozmowy z partnerem.
Użytkownicy dzielili się swoimi fantazjami, flirtowali z chatbotem, zgłaszali problemy i szukali porady. Czasami podawali swoje dane kontaktowe, stanowiska, lokalizacje lub informacje o swoich dzieciach.
Jeden z wykonawców zaangażowanych w projekt Omni firmy Alignerr — mający na celu zwiększenie zaangażowania użytkowników w AI Studio firmy Meta — stwierdził, że niektórzy użytkownicy ujawniali chatbotowi bardzo osobiste informacje, w tym zdjęcia typu selfie i obrazy o charakterze seksualnym.
Polityka firmy Meta dotycząca wykorzystania sztucznej inteligencji wskazuje, że firma „może analizować” interakcje użytkowników ze sztuczną inteligencją, a proces ten może być „zautomatyzowany” lub nadzorowany przez ludzi.
Co Meta na to mówi?
Rzecznik prasowy Meta poinformował serwis Business Insider, że firma stosuje „surową politykę” dotyczącą dostępu do danych osobowych – zarówno swoich pracowników, jak i kontrahentów.
„ Współpracujemy z kontrahentami w celu poprawy jakości danych szkoleniowych, ale celowo ograniczamy dane osobowe, do których mają oni dostęp, a także stosujemy protokoły i zabezpieczenia, które pomagają im w zarządzaniu wszelkimi tego typu danymi, na które mogą natrafić ” – wyjaśnił rzecznik.
Przedstawiciel Scale AI podkreślił, że „współpracownicy mogą przetwarzać dane osobowe wyłącznie w zakresie niezbędnym do realizacji projektu”, muszą przestrzegać protokołów bezpieczeństwa platformy Outlier oraz „są zobowiązani do oznaczania odpowiedzi zawierających dane osobowe i pomijania zadań o takiej treści”.
„Dane generowane przez użytkowników nigdy nie opuszczają platformy klienta” – dodał. „Wiele projektów jest realizowanych bezpośrednio na platformach klienckich, co zwiększa bezpieczeństwo i zapobiega wydostawaniu się danych z systemu” – kontynuował.
Alignerr nie odpowiedział na prośbę o komentarz.
Ta sytuacja uwypukla luki w zabezpieczeniach i problemy z prywatnością, które pojawiają się w firmach, gdy rekrutują tysiące pracowników do rozwijania swoich rozwijających się systemów AI. Scale AI ograniczyło dostęp do publicznych dokumentów Google po tym, jak Business Insider ujawnił, że zawierają one poufne informacje o klientach. Niektóre z tych dokumentów szczegółowo opisywały, jak xAI i Meta szkolą swoje modele AI. Tymczasem platforma szkoleniowa Surge wykorzystała publiczny arkusz kalkulacyjny, aby pomóc pracownikom w szkoleniu AI firmy Anthropic.
„Nigdy nie zakładaj, że chatboty są z natury prywatne”
„Ryzyko wycieku danych osobowych z rozmów prowadzonych przez chatboty jest znaczne i może potencjalnie prowadzić do manipulacji, oszustw i innych form nadużyć” – stwierdziła Miranda Bogen, dyrektor AI Governance Lab w Centrum Demokracji i Technologii, organizacji zajmującej się prawami cyfrowymi i prywatnością.
Bogen radzi tym, którym zależy na prywatności, aby „nigdy nie zakładali, że interakcje z chatbotami są poufne, zwłaszcza że praktyki stosowane przez poszczególne firmy znacznie się różnią”.
Zauważyła, że narzędzia sztucznej inteligencji, takie jak chatboty, są „wykorzystywane w sposób odmienny od tradycyjnych narzędzi internetowych” i „użytkownicy mogą nie zdawać sobie sprawy, że ich dialogi są wykorzystywane do trenowania modeli lub że ludzie mają do nich dostęp”.
Wiele firm technologicznych, w tym Meta, OpenAI i Google, informuje w swoich politykach prywatności, że mogą wykorzystywać konwersacje sztucznej inteligencji do trenowania i ulepszania modeli.
„ Dane, których użytkownicy nie spodziewają się zobaczyć, od dawna stanowią problem w branży ” – zauważa Bogen. „To po prostu kolejny przejaw tego problemu. Różnica polega na tym, że kontekst rozmowy ze sztuczną inteligencją często wydaje się użytkownikom bardziej osobisty – podobny do dialogu terapeutycznego lub udostępniania poufnych informacji zawodowych” – dodaje.
Informacje umożliwiające identyfikację osoby
Serwis Business Insider nie zdołał ustalić, jak często kontrahenci mieli styczność z danymi osobowymi, jednak osoby, które komunikowały się z redakcją, wskazały, że podczas pracy nad projektami Meta AI zdarzało się to regularnie.
Jeden z ankietowanych brał udział
Źródło