Prokuratura na Florydzie bada rolę OpenAI w związku ze strzelaniną
Biuro Prokuratora Generalnego stanu Floryda wszczęło dochodzenie dotyczące firmy OpenAI, twórcy narzędzia ChatGPT, w związku z tragicznymi wydarzeniami, które miały miejsce na Uniwersytecie Stanowym Florydy. Śledczy analizują, czy sztuczna inteligencja mogła w jakikolwiek sposób przyczynić się do strzelaniny, która miała miejsce w kwietniu 2025 roku. W wyniku tego zdarzenia zginęły dwie osoby, a sześć zostało rannych.

Oskarżony o popełnienie zbrodni 20-letni student, Phoenix Ikner, obecnie przebywa w areszcie i oczekuje na proces. Zarzuca mu się popełnienie morderstwa oraz usiłowanie zabójstwa.
Prokurator Generalny Florydy, James Uthmeier, poinformował, że śledztwo skupia się na analizie rozmów, które Ikner prowadził z ChatGPT tuż przed atakiem. Według prokuratora, treść tych konwersacji sugeruje, że chatbot mógł dostarczyć sprawcy istotnych informacji, które mogły wpłynąć na rozwój wydarzeń. Prokurator zwrócił uwagę na pytania zadawane przez użytkownika dotyczące m.in. siły rażenia broni palnej oraz kwestii związanych z wyborem amunicji.
Podczas konferencji prasowej prokurator Uthmeier podkreślił, że zebrane dowody są niezwykle poważne. Wyjaśnił, że jego zespół prawny doszedł do wniosku, iż gdyby po drugiej stronie ekranu znajdował się człowiek, postawiono by mu zarzuty zabójstwa.
Nowe wyzwania prawne dla OpenAI
Według doniesień medialnych, w dniu ataku Ikner korzystał z ChatGPT, zadając pytania dotyczące m.in. potencjalnych reakcji społecznych na strzelaninę oraz optymalnych godzin do przemieszczania się w pobliżu akademika, aby uniknąć wykrycia.
Prokurator Uthmeier zapowiedział, że równolegle do postępowania karnego, wszczęte zostanie również postępowanie cywilne, którego celem będzie ustalenie ewentualnej odpowiedzialności cywilnej firmy OpenAI. Podkreślił, że kwestia pociągnięcia przedsiębiorstwa do odpowiedzialności karnej stanowi zupełnie nowe i dotychczas nieprzetestowane zagadnienie prawne. Prokurator zaznaczył, że jego zadaniem jest zbadanie, czy osoby zaangażowane w projektowanie i zarządzanie systemem sztucznej inteligencji mogły mieć wpływ na jego działanie w takim stopniu, który uzasadniałby przypisanie im odpowiedzialności karnej.
Stanowisko OpenAI
Firma OpenAI odniosła się do postawionych zarzutów, podkreślając, że w pełni współpracuje z organami ścigania. Jednocześnie firma stanowczo zaprzecza swojej winie w związku z zaistniałą tragedią. W oficjalnym komunikacie spółka zaznaczyła, że choć strzelanina na Uniwersytecie Stanowym Florydy była niewątpliwie tragicznym zdarzeniem, ChatGPT nie ponosi odpowiedzialności za tę zbrodnię.
Przedstawiciele OpenAI wyjaśnili, że chatbot udzielał odpowiedzi wyłącznie na podstawie publicznie dostępnych informacji i nie promował ani nie zachęcał do działań niezgodnych z prawem lub szkodliwych.
Sprawa ta otwiera ważną debatę na temat granic odpowiedzialności twórców za narzędzia sztucznej inteligencji oraz roli, jaką tego typu technologie mogą odgrywać w sytuacjach kryzysowych. Dochodzenie prowadzone przez prokuraturę Florydy może mieć istotne znaczenie dla kształtowania przyszłych regulacji dotyczących sztucznej inteligencji w Stanach Zjednoczonych.
Wyniki Biznes Fakty:
Regulacje dotyczące sztucznej inteligencji, w tym odpowiedzialność prawna firm technologicznych za treści generowane przez ich systemy, staną się kluczowym zagadnieniem dla przedsiębiorców w 2026 roku. Firmy muszą przygotować się na potencjalne zmiany prawne, które mogą wpłynąć na sposób projektowania, wdrażania i monitorowania technologii AI. W kontekście podatków i prawa pracy, firmy powinny monitorować rozwój regulacji dotyczących wykorzystania AI w procesach rekrutacyjnych, ocenie pracowników czy zarządzaniu ryzykiem, aby zapewnić zgodność z obowiązującymi przepisami i uniknąć potencjalnych kar.
Więcej informacji na : businessinsider.com.pl
