Używasz Slacka? AI narzędzia mogła zyskać dostęp do twoich prywatnych wiadomości

Według najnowszego raportu sztuczna inteligencja wbudowana w aplikacji Slack zostawia cyberprzestępcom otwarte drzwi — mogą relatywnie łatwo złamać zabezpieczenia i uzyskać dostęp np. do prywatnych wiadomości użytkownika. Zdecydowanie warto uważać na to, co i do kogo wysyłamy na komunikatorze.

8a1b1782fe8a4c4ff4e6632504d7f387, Biznes Fakty
AI Slacka nie jest do końca bezpieczna | Foto: T. Schneider / Shutterstock
  • Sztuczna inteligencja trafia do coraz większej liczby aplikacji
  • Ma poprawiać produktywność czy ułatwiać wykonywanie niektórych zadań
  • Zdarza się jednak, że stanowi zagrożenie i obniża zabezpieczenia
  • Slack jest przykładem aplikacji, w której AI może ułatwić cyberprzestępcom uzyskiwanie dostępu do prywatnych danych i wiadomości
  • Więcej informacji o biznesie znajdziesz na stronie Businessinsider.com.pl

Z aplikacji Slack korzysta każdego dnia ok. 32 mln użytkowników, a ponad 750 tys. organizacji używa jej do codziennej komunikacji. Slack pozwala nie tylko na prowadzenie konwersacji, dodawanie zabawnych GIF-ów czy dzielenie się plikami. Aplikacja, podobnie jak wiele innych w ostatnim roku, dodała również funkcje wykorzystujące generatywną sztuczną inteligencję.

Slack używa dużych modeli językowych (ang. LLM — large language models). Mają one dostęp do wiadomości i danych znajdujących się w naszej przestrzeni roboczej na Slacku, aby — jak przekonuje firma — zapewniać dostęp do „funkcji zwiększających produktywność, dostosowanych do ciebie”.

W praktyce użytkownik może prosić AI np. o podsumowanie danego wątku czy przygotowanie odpowiedzi na pytanie. Slack wykorzystuje wówczas sztuczną inteligencję do odnalezienia i posortowania najbardziej odpowiednich informacji, a następnie trafiają one do LLM-a. Firma przekonuje, że domyślnie LLM jest hostowany lokalnie, co oznacza, że nasze dane nie opuszczają Slacka.

I tak LLM generuje odpowiedź, a Slack zwraca ją użytkownikowi. Później dane mają znikać z LLM-a i nie są przechowywane w archiwum, a sama sztuczna inteligencja nie była i nie jest trenowana na danych klientów Slacka.

Czytaj też: Oto tajemnicza firma z wyceną na 5,5 miliarda dolarów. „Poufne umowy z korporacjami”

Slack twierdzi, że dane są prywatne

Czy jest możliwe, aby prywatne wiadomości były wykorzystane przez sztuczną inteligencję Slacka? Firma przekonuje, że AI używa tylko danych, do których użytkownicy mają dostęp w momencie zapytania i nigdy nie wyświetli informacji z prywatnych wiadomości lub kanałów osobom, które nie miały wcześniej dostępu do tych miejsc. Jeśli więc skorzystamy z wyszukiwarki Slacka, aplikacja nigdy nie pokaże wyników zawierających nasze zapytanie, jeśli te będą pochodzić z kanałów lub wiadomości prywatnych, do których nie mamy dostępu. Zobaczymy tylko te wiadomości, jakie mogliśmy wcześniej przeczytać w innym miejscu.

Wiadomości generowane przez Slack AI są też efemeryczne — po czasie, jak tłumaczy spółka, znikają i nie są przechowywane na urządzeniach ani serwerach. A jak długo AI przechowuje te dane? Odpowiedzi znikają, gdy tylko opuścimy daną stronę.

To tyle, jeśli chodzi o teorię. A jak jest w praktyce?

Sprawdź też: Telewizory plazmowe tej marki były marzeniem entuzjastów. Teraz firma jest w kryzysie, a prezes chce zwalniać menedżerów

AI nie jest tak bezpieczna, jak twierdzi Slack

Firma PromptArmor, która zajmuje się cyberbezpieczeństwem, zwłaszcza w segmencie AI i generatywnej sztucznej inteligencji, uważa, że Slack jest pełen luk.

AI zintegrowana na Slacku ma pomagać m.in. w tworzeniu szybkich podsumowań dla konkretnych dyskusji. Ma dostęp do prywatnych wiadomości i nie powinna wyświetlać danych, do których inni nie mają wglądu, ale PromptArmor zauważa, że można ją oszukać. Rozwiązanie, z jakiego korzysta Slack, jest podatne na atak typu prompt injection, który zapewnia dostęp do danych z prywatnych kanałów.

Na czym polega taki atak? Modele AI akceptują zapytania użytkowników — tekstowe pytania lub polecenia — jako dane wejściowe, a następnie generują przewidywaną odpowiedź, opierając się na ustalonych granicach systemowych. Prompt injection to technika, która pozwala modyfikować systemowe polecenia, które definiują podstawowe zasady działania modelu AI, w taki sposób, że działa on niewłaściwie lub że kolejne interakcje nie są ograniczone wytycznymi dotyczącymi bezpieczeństwa (czyli możemy uzyskać odpowiedź, jakiej wstępnie nie akceptował model i usługodawca w zasadach działania).

Problem zidentyfikowany przez PromptArmor polega na tym, że Slack pozwala na wyszukiwanie danych zarówno z kanałów publicznych, jak i prywatnych, w tym takich, do których użytkownik nie dołączył lub nie został zaproszony. Eksperci z PromptArmor byli w stanie tak zmanipulować LLM-a stosowanego przez Slacka, że atakujący, korzystając ze złośliwego polecenia, mógł zyskiwać dostęp m.in. do prywatnych wiadomości innych osób czy też plików, jakimi dzielą się użytkownicy w poszczególnych przestrzeniach roboczych.

Firma zabezpieczająca zaleciła, aby administratorzy ograniczyli dostęp do AI Slacka, dopóki problem nie zostanie rozwiązany.

Czytaj też: Bracia Collisonowie zarządzają firmą droższą niż BMW. Ułatwiają innym prowadzenie biznesu

Slack zdążył zareagować

PromptArmor poinformowała Slacka o swoich ustaleniach. Stwierdziła, że otrzymała odpowiedź, z której wynikało, że Slack tak naprawdę nie rozumie ryzyka związanego z prompt injection.

Dopiero później Salesforce, właściciel Slacka, wystosował odpowiedni komunikat: „Rozpoczęliśmy dochodzenie w sprawie opisanego scenariusza”. Gigant dodał, że szybko wdrożył poprawkę, aby rozwiązać problem, i że nie ma dowodów na to, aby wcześniej doszło do nieautoryzowanego dostępu do danych klientów.

W przypadku aplikacji takich jak Slack, zwłaszcza jeśli korzystamy z nich na służbowym komputerze, jedno zalecenie ciągle obowiązuje i jest najlepsze: zwracaj uwagę na to, co wysyłasz i piszesz — i do kogo.

Nie ma sensu narażać się na ewentualny stres, jeśli okazałoby się, że ktoś może podglądać twoje wiadomości lub doszłoby do wycieku danych. Przezorny zawsze ubezpieczony.

Autor: Grzegorz Kubera, dziennikarz Business Insider Polska

Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *