Czego unikać w AI? Specjalista Google ujawnia 4 reguły ochrony.

Harsh Varshney posiada wiedzę z zakresu ochrony danych oraz bezpieczeństwa SI w Chrome w Google. Jest rozważny w kwestii tego, co udostępnia sztucznej inteligencji. Zaleca używanie renomowanych narzędzi SI i postrzeganie chatbotów jako „publiczną kartkę pocztową”. Sugeruje także, aby na początku dezaktywować jedną z możliwości.

Ten artykuł w formie relacji z pierwszej ręki oparty jest na rozmowie z 31-letnim Harshem Varshneyem, który pracuje w Google i mieszka w Nowym Jorku. Tekst został opracowany pod kątem zwięzłości i klarowności.

Moja praca sprawia, że jestem mocno wyczulony na kwestie dotyczące ochrony prywatności związane z używaniem SI. Pracuję w Google od 2023 roku i spędziłem dwa lata jako inżynier oprogramowania w zespole ds. prywatności, tworząc infrastrukturę zabezpieczającą dane użytkowników.

Następnie przeszedłem do zespołu bezpieczeństwa SI w Chrome, gdzie pomagam chronić Google Chrome przed niebezpiecznymi zagrożeniami, takimi jak hakerzy i osoby wykorzystujące agentów SI do prowadzenia ataków phishingowych.

Modele SI wykorzystują dane do generowania użytecznych odpowiedzi, a my – użytkownicy – musimy strzec naszych poufnych informacji, aby cyberprzestępcy lub handlarze danymi nie uzyskali do nich dostępu.

Oto cztery przyzwyczajenia, które rozwinąłem i które uważam za kluczowe podczas korzystania z SI.

Traktuj SI jako publiczną kartkę pocztową

Czasami złudne poczucie intymności z SI może popychać ludzi do ujawniania w internecie informacji, których inaczej nigdy by nie zdradzili.

Firmy tworzące SI mogą mieć osoby zajmujące się poprawą kwestii prywatności ich modeli, ale nie jest rozsądne udostępnianie chatbotom SI danych kart kredytowych, numerów identyfikacyjnych, adresu zamieszkania, osobistych danych medycznych ani innych informacji pozwalających na identyfikację osoby.

Zależnie od używanej wersji informacje udostępniane publicznym chatbotom SI mogą być wykorzystywane do uczenia przyszłych modeli i tworzenia bardziej precyzyjnych odpowiedzi.

Może to doprowadzić do tzw. wycieku danych uczących, gdy model zapamiętuje dane osobowe jednego użytkownika, a następnie odtwarza je w odpowiedziach dla kogoś innego. Dodatkowo występuje ryzyko naruszeń bezpieczeństwa danych, które mogłyby ujawnić to, co udostępniłeś chatbotowi.

Traktuję chatboty SI jak publiczną kartkę pocztową. Jeśli nie napisałbym danej informacji na kartce pocztowej, którą każdy mógłby przeczytać, nie udostępniam jej publicznemu narzędziu SI. Nie mam pewności, w jaki sposób moje dane mogłyby być wykorzystane do przyszłego szkolenia modeli.

Zorientuj się, w jakim „pomieszczeniu” się znajdujesz

Kluczowe jest, aby określić, czy korzystasz z bardziej ogólnodostępnego narzędzia SI, czy narzędzia klasy korporacyjnej.

Choć nie jest w pełni jasne, w jaki sposób rozmowy są używane do uczenia publicznych modeli SI, firmy mogą płacić za modele klasy enterprise. W ich przypadku modele zazwyczaj nie są przeznaczone do trenowania na konwersacjach użytkowników, więc pracownikom bezpieczniej jest rozmawiać o swojej pracy i projektach firmowych.

Można to porównać do rozmowy w głośnej kawiarni, gdzie ktoś może cię usłyszeć, kontra poufne spotkanie w biurze, które pozostaje w zamknięciu.

Raportowano przypadki, w których pracownicy omyłkowo ujawnili dane firmowe w ChatGPT. Jeśli pracujesz nad nieopublikowanymi projektami firmy lub ubiegasz się o patent, prawdopodobnie nie chcesz omawiać swoich planów z chatbotem, który nie jest klasy enterprise, z uwagi na ryzyko przecieku.

Nie omawiam projektów, nad którymi pracuję w Google, z publicznymi chatbotami. Zamiast tego używam modelu firmowego — nawet przy tak prostych zadaniach jak redagowanie służbowego maila. Czuję się znacznie bardziej komfortowo, dzieląc się informacjami, ponieważ moje rozmowy nie są wykorzystywane do szkolenia, choć nadal ograniczam ilość udostępnianych danych osobowych.

Regularnie kasuj historię

Chatboty SI zazwyczaj przechowują historię twoich konwersacji, ale polecam regularne jej usuwanie zarówno w modelach korporacyjnych, jak i publicznych, aby w dłuższej perspektywie chronić prywatność użytkownika. Z uwagi na ryzyko przejęcia konta jest to dobra praktyka zapobiegawcza, nawet jeśli masz pewność, że nie wprowadzasz do narzędzi poufnych danych.

Kiedyś byłem zdziwiony, że chatbot Gemini w wersji firmowej potrafił podać mój dokładny adres, mimo że nie pamiętałem, bym go udostępniał. Okazało się, że wcześniej poprosiłem go o pomoc w dopracowaniu e-maila, który zawierał mój adres. Ponieważ narzędzie ma funkcje pamięci długoterminowej, umożliwiające zapamiętywanie informacji z wcześniejszych konwersacji, potrafiło rozpoznać mój adres i go zachować.

Czasami, jeśli wyszukuję rzeczy, których nie chcę, by chatbot zapamiętał, używam specjalnego trybu — zbliżonego do trybu incognito — w którym boty nie zapisują historii ani nie wykorzystują informacji do uczenia modeli. ChatGPT i Gemini nazywają to funkcją „czatu tymczasowego”.

Korzystaj z renomowanych narzędzi SI

Lepiej używać narzędzi SI, które są powszechnie znane i z większym prawdopodobieństwem mają jasno sprecyzowane zasady prywatności oraz inne zabezpieczenia.

Poza produktami Google lubię używać ChatGPT od OpenAI oraz Claude od Anthropic.

Warto także zapoznać się z politykami prywatności używanych narzędzi. Czasami wyjaśniają one szczegółowo, w jaki sposób dane są wykorzystywane do trenowania modelu. W ustawieniach prywatności można też znaleźć sekcję z opcją „ulepszania modelu dla wszystkich”. Upewniając się, że to ustawienie jest wyłączone, uniemożliwiasz wykorzystywanie twoich rozmów do uczenia.

Technologia SI jest niezwykle potężna, ale musimy zachować ostrożność, aby nasze dane i tożsamość były bezpieczne podczas jej używania.

Powyższy tekst jest tłumaczeniem z amerykańskiego wydania Business Insidera

Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Google.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *