Biznes Fakty
OpenAI ostrzega, że ChatGPT był używany do tworzenia chińskich narzędzi propagandowych
Firma OpenAI zamknęła konta użytkowników ChatGPT powiązane z osobami lub organizacjami, które wykorzystywały sztuczną inteligencję do opracowywania narzędzi mających na celu monitorowanie mediów społecznościowych w celu wykrycia wpisów krytycznych wobec Chin i tworzenia prochińskiej propagandy, jak stwierdzono w specjalnym raporcie firmy.

- OpenAI zakazało użytkownikom wykorzystywania ChatGPT do tworzenia narzędzi do inwigilacji i rozpowszechniania prochińskiej propagandy.
- Zastosowano specjalistyczne narzędzie do śledzenia treści krytycznych wobec Chin w zachodnich mediach społecznościowych.
- OpenAI podkreśla, że wykorzystywanie ChatGPT do monitorowania i manipulowania opinią publiczną jest sprzeczne z polityką firmy.
- Organizacja zapowiedziała zwiększenie nadzoru nad internetem i ograniczenie nieetycznych zastosowań sztucznej inteligencji.
- Dodatkowe informacje na temat biznesu można znaleźć na Businessinsider.com.pl.
OpenAI wskazuje, że twórcy narzędzia o nazwie „Qianyue Overseas Public Opinion AI Assistant” promowali je w celu gromadzenia informacji w czasie rzeczywistym na temat protestów i negatywnych uwag pod adresem Chin w Stanach Zjednoczonych, Wielkiej Brytanii i innych krajach zachodnich.
>> Weź udział w największym badaniu finansowym w Polsce i poznaj rekomendacje skrojone na miarę Twoich potrzeb <<
Zebrane materiały miały zostać przesłane władzom w Pekinie i chińskim ambasadom w wybranych regionach.
Według raportu OpenAI, twórcy narzędzia wykorzystali ChatGPT do napisania i ulepszenia kodu programistycznego niezbędnego do działania systemu.
Ben Nimmo, główny badacz w zespole ds. bezpieczeństwa OpenAI, stwierdził , że zablokowane konta były „prawdopodobnie powiązane z chińskimi podmiotami rządowymi”. Jest to zgodne z wcześniejszymi ustaleniami firmy, której badacze stwierdzili, że narzędzie zawierało również modele Llama AI opracowane przez Meta i udostępnione jako oprogramowanie typu open source.
Przeczytaj także: Czy cały internet zostanie zamknięty za paywallem? AI staje się zbyt niebezpieczne dla biznesu [OPINIA]
ChatGPT wykorzystany z naruszeniem polityki firmy
Firma OpenAI podkreśliła również, że nie ma pełnej świadomości, czy kod został ostatecznie zaimplementowany. Jednak sam fakt, że ChatGPT zostało wykorzystane do stworzenia narzędzi do nadzoru, przeczy polityce firmy , która zabrania wykorzystywania modelu sztucznej inteligencji do naruszania praw człowieka lub ograniczania wolności słowa.
OpenAI w swoim oświadczeniu przyznało, że nie jest to pierwszy przypadek zidentyfikowania prób wykorzystania ChatGPT w nieetycznych lub złośliwych inicjatywach.
Firma wcześniej ujawniła istnienie Operation Peer Review, w ramach której inny chiński podmiot stworzył system do monitorowania krytycznych treści o Chinach w zachodnich mediach społecznościowych . Kampania Sponsored Discontent wykorzystała narzędzia OpenAI do generowania postów w języku angielskim, które krytykowały chińskich dysydentów i przetłumaczyły artykuły promujące treści antyamerykańskie w Ameryce Łacińskiej.
Eksperci OpenAI ostrzegają, że takie działania mogą się nasilić, gdyż postęp w dziedzinie sztucznej inteligencji ułatwia szybkie tworzenie przekazów propagandowych i monitorowanie opinii online.
Raport odwołuje się również do operacji prowadzonych przez inne grupy, w tym do śladów w Kambodży, gdzie ChatGPT był wykorzystywany do tworzenia komentarzy w oszustwie inwestycyjnym „rzeź świń”. Praktyka ta polega na wciąganiu ofiar w rzekome inwestycje za pomocą wiadomości generowanych przez modele językowe, co zwiększa wiarygodność oszustów i pozwala im nawiązać kontakt z ofiarami.
Eksperci uważają, że ta tendencja prawdopodobnie będzie się nasilać , zwłaszcza że chińskie firmy – jak zauważyła Meta w swoim oświadczeniu – nieustannie rozwijają własne modele sztucznej inteligencji, które czasami mogą rywalizować z tymi opracowanymi na Zachodzie.
Sprawdź także: Europa nie wycofa się w wyścigu o AI. Zainwestujemy 200 miliardów euro w rozwój technologii
OpenAI przestrzega przed propagandą
OpenAI od jakiegoś czasu ostrzega amerykańskich prawodawców o niebezpieczeństwach związanych z rozszerzaniem się możliwości AI w Chinach. W świetle sprawy „Qianyue Overseas Public Opinion AI Assistant” firma jasno dała do zrozumienia, że wykorzystywanie jej modeli do nadzoru i wprowadzania opinii publicznej w błąd narusza zasady OpenAI i „stanowi zagrożenie dla wolności demokratycznych”.
Po wykryciu powiązań z takimi działaniami firma OpenAI nie tylko wyłączyła podejrzane konta, ale także opublikowała obszerny raport, aby zwrócić uwagę na niebezpieczne sposoby wykorzystania sztucznej inteligencji do celów inwigilacji i propagandy.
Organizacja zauważyła, że opisane incydenty pokazują, w jaki sposób niedemokratyczne reżimy mogą wykorzystywać otwarte lub łatwo dostępne technologie sztucznej inteligencji do kształtowania dyskursu publicznego poza swoimi granicami.
Według Bena Nimmo , konieczne jest edukowanie użytkowników na temat takich operacji i opracowanie mechanizmów, które pozwolą na identyfikację podobnych nadużyć w przyszłości.
OpenAI planuje nadal monitorować sieć pod kątem podobnych zachowań, jednocześnie ograniczając dostęp do ChatGPT tym, którzy łamią zasady firmy i podstawowe wartości wolności słowa i praw człowieka.
Autor: Grzegorz Kubera, dziennikarz Business Insider Polska