Biznes Fakty
Chiny testują sztuczną inteligencję pod kątem zgodności z socjalizmem
Jak poinformował "Financial Times", urzędnicy Chińskiej Republiki Ludowej przetestują powstające w tym kraju modele językowe, aby ustalić, czy promują one podstawowe socjalistyczne wartości wyznawane w Państwie Środka. Przegląd prowadzi główny regulator chińskiej cyberprzestrzeni CAC.
Prowadzony przez CAC (Chińską Agencję Cyberprzestrzeni) audyt modeli językowych obejmuje wszystkie podmioty prowadzące badania nad sztuczną inteligencją. Sprawdzone zostaną produkty niewielkich startupów i laboratoriów, aż po gigantów w rodzaju ByteDance (twórca TikToka) czy Alibaba Group (chiński gigant e-commerce).
Partyjni cenzorzy zadają modelom językowym szeregi pytań dotyczących chińskiej wrażliwości politycznej i socjalistycznego spojrzenia na świat. Sprawdzają, jakie odpowiedzi sztuczna inteligencja wygeneruje nawiązując do prezydenta Xi Jinpinga. Urzędnicy przeglądają też dane, na których modele językowe były szkolone i inne zaszyte w nich procedury, jak na przykład zastosowane blokady bezpieczeństwa wyłapujące niepożądane prompty.
Pracownicy jednej z firm zajmującej się AI z siedzibą w Hangzhou powiedzieli FT, że za pierwszym podejściem ich model językowy nie przeszedł kontroli, jednak nie udało się ustalić konkretnej przyczyny takiego stanu rzeczy. Firma na drodze konsultacji z innymi twórcami AI musiała ustalić jak ulepszyć procedury modelu i po kilku miesiącach starań udało się jej z powodzeniem przejść audyt.
Filtrowanie treści kluczem do "zatwierdzenia" przez chiński rząd
Pracownicy firm AI tłumaczą, że odfiltrowywanie niepożądanych treści jest podstawową sprawą w przygotowaniu modelu językowego do kontroli. Najpierw odsiewają oni problematyczne informacje i prompty z danych treningowych, na których sztuczna inteligencja się uczy. Budują też bazę zakazanych słów-kluczy i pytań, które mogą naruszyć "podstawowe wartości socjalistyczne". Bazy takich niechcianych fraz powinny być aktualizowane co tydzień.
Jakie stwierdzenia są niedopuszczalne w Chińskiej Republice Ludowej? Oczywiście te, które mogłyby "podważyć jedność narodową" albo stanowić "podżeganie do obalenia władzy państwowej". Chatboty muszą mieć też odpowiednie podejście do drażliwych tematów, na przykład masakry na placu Tiananmen, do której doszło 4 czerwca 1989 roku. Niedopuszczalne jest też łączenie w jakikolwiek sposób Xi Jinpinga z postacią Kubusia Puchatka, co jest wyjątkowo nielubianym przez chiński rząd internetowym memem.
Urzędnikom nie chodzi jednak o to, by modele językowe unikały wszelkich tematów politycznych. Według testerów CAC AI może odrzucić nie więcej niż 5 proc. pytań, które są niewygodne, pisząc po prostu odpowiedź w rodzaju "Nie mogę odpowiedzieć. Spróbuj zadać inne pytanie" lub podobną. Model powinien móc z większości sytuacji wybrnąć obronną ręką i wytłumaczyć pytającemu wszystko zgodnie z linią partii. Odmowa odpowiedzi na pytanie zarezerwowana jest jedynie dla najbardziej drażliwych i trudnych do przypilnowania tematów (chatbot Kimi startupu Moonshot odrzuca na przykład wszelkie zapytania dotyczące prezydenta Xi).
Nakładka na chatbota, która na żywo go kontroluje
Model językowy może przejść test podczas rozmowy z urzędnikiem, lecz później nikt nie kontroluje jego dalszych interakcji z użytkownikami. Dziennikarze Financial Times zadali pytanie o wolność słowa chatbotowi, który stworzyła firma 01.AI. Model znany jako Yi-large udzielił odpowiedzi, że: "krytycy twierdzą, iż polityka Xi bardziej ograniczyła wolność słowa i prawa człowieka, a także stłamsiła społeczeństwo obywatelskie" – Po kilku chwilach jednak odpowiedź znikła zastąpiona tekstem: "Przykro mi, ale nie mogę udzielić informacji na wskazany temat".
Skomentował to Huan Li, ekspert ds. sztucznej inteligencji. Okazuje się, że programiści, zamiast dostosowywać chatbota posuwają się do nałożenia na niego osobnej warstwy, która wyłapie odpowiedzi niepożądane, a potem podstawi za nie odpowiedni zamiennik.
ByteDance liderem chińskiego audytu
Według laboratorium z Uniwersytetu Fudan najwyższą ocenę "zgodności z wymogami bezpieczeństwa" zyskał tworzony przez posiadające TikToka ByteDance model językowy Doubao-Pro, z wynikiem 66,4 proc., Chatbot Ernie 3.5 firmy Baidu może pochwalić się wynikiem 31,9 proc., a wspomniany już wcześniej Kimi startupu Moonshot 27,4 proc. Dla porównania można też przytoczyć jaką notę przyznano stworzonemu przez OpenAI słynnemu chatbotowi GPT-4.0 – wyniosła ona zaledwie 7,1 proc.
Mijają już dwie dekady od czasu, kiedy Chiny postawiły swoją "wielką zaporę sieciową ", która blokuje zagraniczne strony internetowe i zamyka chińczyków w bańce "internetu Państwa Środka". Partia nakazująca filtrowanie wszelkich treści uznawanych za szkodliwe wprowadziła jedne z najsurowszych na świecie przepisów regulujących treści generowane przez sztuczną inteligencję.
Oprac.: MT