Niniejszy dokument nie stanowi instrukcji obsługi dla wąskiej grupy programistów. Jest to cyfrowa tarcza ochronna dla nas wszystkich. Dotyczy unijnego rozporządzenia w sprawie sztucznej inteligencji (AI Act), które zadecyduje, czy otrzymamy wymarzoną pracę, czy bank udzieli nam kredytu, i jak bardzo możemy ufać treściom, które widzimy, przeglądając internet w tramwaju. Wyjaśniamy dlaczego.
W mediach i na platformach społecznościowych niewiele mówi się o AI Act, mimo iż jest to pierwszy na świecie tak kompleksowy zbiór przepisów regulujących sztuczną inteligencję (AI). Jest to unijne rozporządzenie dotyczące sztucznej inteligencji, które będzie obowiązywać od 2 sierpnia 2026 r. i wpłynie na każdego, np. kandydata do pracy, osoby ubiegające się o awans lub zwolnienie, czy kredytobiorców.
Dr Dota Szymborska, wykładowca Uniwersytetu WSB Merito, podkreśla, że nie jest to kolejna urzędnicza abstrakcja stworzona w brukselskich gabinetach. AI Act wprowadza bowiem złotą zasadę, która dotknie wszystkich. Zasada ta brzmi: im większe ryzyko dla człowieka, tym surowsze wymogi musi spełniać dana technologia.
Ekspertka wyjaśnia, o jakie ryzyko chodzi i jakie zasady dotyczą urzędów, miejsc pracy, banków i platform społecznościowych. Na konkretnych przykładach pokazuje, jak prawo zadziała w praktyce.
Dlaczego „Black Mirror” nie stanie się europejską rzeczywistością?
Filozofia AI Act opiera się na tzw. piramidzie ryzyka.
„Prawo dzieli systemy sztucznej inteligencji na cztery kategorie: od ryzyka nieakceptowalnego [całkowicie zakazane — red.], poprzez wysokie i ograniczone, aż po minimalne. Zacznijmy od szczytu piramidy — technologii tak niebezpiecznych, że w Unii Europejskiej dostały czerwoną kartkę” — wyjaśnia dr Szymborska.
Aby zrozumieć, o co chodzi, warto przypomnieć sobie jeden z odcinków serialu „Black Mirror” pt. „Nosedive” („Na łeb, na szyję”). Społeczeństwo funkcjonuje w nim w oparciu o aplikację, w której ludzie nieustannie oceniają się nawzajem. Główna bohaterka, po serii niefortunnych zdarzeń, traci swoje „punkty”, co w konsekwencji odcina ją od możliwości wynajęcia dobrego mieszkania czy zakupu biletu lotniczego.
To, co w 2016 roku oglądaliśmy jako dystopijną fikcję, w niektórych miejscach na świecie staje się rzeczywistością — systemy oceny obywatelskiej (tzw. social scoring) funkcjonują na przykład w Chinach (na szczęście dla obywateli nie działają — jeszcze — na taką skalę). W Europie ten scenariusz się nie zrealizuje.
„Gwarantuje nam to artykuł 5 AI Act, który wymienia zakazane praktyki w zakresie sztucznej inteligencji. Zgodnie z ustępem 1 lit. c), kategorycznie zabrania się używania AI do oceny i klasyfikacji zachowań społecznych — ostateczny, wiążący tekst AI Act wywalczony przez Parlament Europejski rozszerzył ten zakaz również na podmioty prywatne. To kluczowa zmiana z punktu widzenia obywateli — oznacza to, że banki, ubezpieczyciele czy prywatne korporacje również mają bezwzględny zakaz tworzenia systemów 'social scoringu’. Żaden 'cyfrowy wynik’ nie pozbawi nas dostępu do urzędu, lekarza czy szkoły” — tłumaczy obrazowo dr Dota Szymborska.
Na tym nie koniec zakazów. Artykuł 5 ust. 1 lit. f) delegalizuje systemy rozpoznawania emocji w miejscach pracy i placówkach edukacyjnych.
„Oznacza to ostateczny koniec z wizją algorytmów, które mogłyby zwolnić pracownika tylko dlatego, że kamera przemysłowa uznała, iż wygląda na zmęczonego lub znudzonego. W skrócie, nasze emocje pozostają wciąż naszą prywatną sprawą” — mówi ekspertka.
Algorytm w biurze i w banku — systemy „wysokiego ryzyka”
Istnieją również systemy, które są w pełni legalne i bardzo pożyteczne, ale mają potężny wpływ na nasze życie. AI Act nazywa je systemami wysokiego ryzyka i bierze je pod lupę (artykuł 6 oraz szczegółowy Załącznik III).
W AI Act znajdziemy opisane między innymi technologie wykorzystywane w zatrudnieniu (rekrutacja) oraz przyznawaniu dostępu do podstawowych usług (jak kredyty bankowe).
Dlaczego to takie ważne?
„Spójrzmy na głośny skandal z Holandii — tzw. Toeslagenaffaire, czyli aferę zasiłkową. Używany przez tamtejszy urząd skarbowy samouczący się model do profilowania osób ubiegających się o dodatki na dzieci, na skutek błędów i wbudowanych uprzedzeń, fałszywie oskarżył dziesiątki tysięcy niewinnych rodzin, często o podwójnym obywatelstwie, o wyłudzanie świadczeń. Ludzie musieli zwracać gigantyczne sumy, tracili dorobek życia, a wszystko przez 'czarną skrzynkę’, której decyzji nikt nie potrafił wytłumaczyć” — opowiada ekspertka.
AI Act stawia sprawę jasno: to się nie powtórzy.
„Od teraz modele decydujące o odrzuceniu CV czy wniosku kredytowego będą musiały być transparentne i zasilane danymi wolnymi od dyskryminacji. Najważniejszy jest jednak artykuł 14. Wprowadza on obowiązek ludzkiego nadzoru [human oversight — red.]. Bank lub pracodawca nie będzie mógł już bezradnie rozłożyć rąk i powiedzieć: 'Odrzuciliśmy wniosek, bo tak kazał komputer, nie wiemy, dlaczego’. Ostateczna odpowiedzialność i kontrola zawsze musi spoczywać w rękach człowieka” — mówi dr Dota Szymborska.
Wirtualna rzeczywistość i dezinformacja — kto napisał ten tekst?
Większość z nas nie bierze codziennie kredytu, ale codziennie czyta lub ogląda cyfrowe treści. Tu, jak mówi dr Dota Szymborska, wkraczamy w strefę ograniczonego ryzyka.
Zalew fałszywych informacji generowanych przez AI to już nasza codzienność. Przekonaliśmy się o tym podczas niedawnych wyborów na Słowacji (wrzesień 2023 r.), gdzie w kluczowym momencie kampanii do sieci trafił spreparowany zapis audio (deepfake) kompromitujący jednego z kandydatów.
Codziennie trafiamy również na fałszywe reklamy z głosami znanych dziennikarzy namawiających do szemranych inwestycji, a na infoliniach frustrujemy się, rozmawiając z botami, które udają żywych doradców.
„Tutaj z pomocą przychodzi artykuł 50 AI Act, który nakłada obowiązki w zakresie przejrzystości. Zyskujemy dzięki niemu fundamentalne 'prawo do wiedzy’. Jeśli dzwonisz na infolinię lub piszesz na czacie i po drugiej stronie 'siedzi’ sztuczna inteligencja, system musi cię o tym natychmiast poinformować” — mówi ekspertka.
Podobnie z treściami w sieci: obrazy, dźwięki i wideo wygenerowane przez AI (w tym wspomniane deepfake’i) muszą być wyraźnie oznaczone, czy to znakiem wodnym, czy odpowiednią etykietą. — Prawo ma nas chronić przed cyfrową iluzją, w której przestajemy odróżniać prawdę od fikcji — podkreśla wykładowczyni Uniwersytetu WSB Merito.
Ochrona obywatela czy stryczek na europejskie innowacje?
Nie brakuje jednak głosów krytycznych wobec AI Act. Przedstawiciele biznesu oraz europejskie firmy technologiczne — takie jak francuski Mistral AI czy niemiecki Aleph Alpha — od dawna alarmowały, że Unia i AI Act zahamują rozwój nowych technologii.
Ich zdaniem, gąszcz przepisów, wymogi rygorystycznych certyfikacji, kosztowne audyty techniczne mogą sprawić, że młode europejskie start-upy po prostu zbankrutują, uciekną do USA, zostawiając Europę w tyle globalnego wyścigu technologicznego.
Czy mają rację? — Z perspektywy etycznej odpowiedź jest jednoznaczna: innowacja technologiczna nie może rozwijać się kosztem podstawowych praw człowieka. Podobnie jak było to w przypadku RODO, które początkowo budziło przerażenie firm, a dziś stanowi światowy punkt odniesienia dla ochrony prywatności, Unia Europejska liczy na tzw. efekt Brukseli — podkreśla dr Dota Szymborska.
„Jej zdaniem firmy z Doliny Krzemowej czy z Chin, chcąc sprzedawać swoje produkty na lukratywnym europejskim rynku, i tak będą musiały dostosować się do naszych standardów.
W perspektywie długoterminowej, zaufanie konsumentów [tzw. Trustworthy AI — red.] może stać się największą przewagą konkurencyjną i najważniejszym produktem eksportowym Europy” — ocenia ekspertka.
Prawa „Kowalskiego” w cyfrowym świecie
Dlatego zdaniem dr Doty Szymborskiej AI Act nie zatrzyma rozwoju sztucznej inteligencji, nie zablokuje innowacji ani nie „wyłączy” serwerów.
„Jego celem jest ucywilizowanie tego błyskawicznego procesu. Kończy się cyfrowy Dziki Zachód, na którym najsilniejsi gracze robili z naszymi danymi, co chcieli. Unia Europejska zaczyna wylewać asfalt i stawiać znaki drogowe na autostradzie sztucznej inteligencji” — podkreśla ekspertka.
Jednak aby ten system zadziałał, potrzebna jest świadomość nas wszystkich.
„Prawo chroni nas tylko wtedy, gdy je rozumiemy i potrafimy wyegzekwować. Kiedy następnym razem będziemy ubiegać się o pracę, prosić o pożyczkę lub irytować się na 'konsultanta’ po drugiej stronie słuchawki — pamiętajmy, że nie jesteśmy bezbronni wobec maszyn. Mamy nowe, konkretne prawa. Warto zacząć z nich korzystać. Dzięki temu seriale SF pozostaną w sferze fantazji” — ostrzega.
I jak podkreśla, AI Act to nie jest instrukcja obsługi dla wąskiej grupy programistów, to cyfrowa tarcza ochronna dla nas wszystkich. „Te przepisy zadecydują o tym, czy w przyszłości dostaniemy wymarzoną pracę, czy bank przyzna nam kredyt na mieszkanie i jak bardzo będziemy mogli ufać temu, co widzimy, scrollując internet w tramwaju” — tłumaczy ekspertka.
Dr Dota Szymborska zwraca uwagę, że dodatkowo toczy się wiele dyskusji na temat AI Omnibus, a prawnicy i prawniczki mówią o potrzebie przepisów dotyczących odpowiedzialności za produkt, czyli tzw. Agentic Law. „W praktyce może powstać nowa gałąź prawa cywilnego, które będzie regulowała 'prawa i obowiązki’ systemów autonomicznych zastępujących człowieka w umowach handlowych” — kwituje ekspertka.
Wyniki Biznes Fakty:
Przepisy AI Act, wchodzące w życie w 2026 roku, nakładają na przedsiębiorców nowe obowiązki dotyczące wykorzystania sztucznej inteligencji. Systemy AI stosowane w procesach rekrutacyjnych, ocenie zdolności kredytowej czy świadczeniu podstawowych usług będą klasyfikowane jako systemy wysokiego ryzyka. Oznacza to konieczność zapewnienia transparentności działania algorytmów, eliminacji dyskryminacji w danych treningowych oraz wprowadzenia mechanizmów ludzkiego nadzoru. W przypadku treści generowanych przez AI (np. deepfake, chatboty), obowiązkowe będzie wyraźne ich oznaczanie. Przedsiębiorcy muszą liczyć się z koniecznością dostosowania swoich systemów do nowych standardów prawnych, co może wiązać się z dodatkowymi kosztami i wymogami certyfikacyjnymi. Celem tych regulacji jest budowanie zaufania do technologii AI i ochrona praw konsumentów oraz pracowników.
Na podstawie materiałów : businessinsider.com.pl
