Sztuczna inteligencja jest nieporównywalnie lepsza niż lekarz. Zaskakujące wyniki badań w USA

Badania przeprowadzone przez Harvard i Stanford wyraźnie pokazują transformację dynamiki możliwości diagnostycznych. Początkowo zaproponowany w 1959 r. pomysł polegał na ocenie medycznych systemów komputerowych przy użyciu tych samych skomplikowanych danych, z którymi stykają się lekarze, w czasach, gdy AI była jedynie tematem zainteresowania. Obecnie standard ten okazał się niewystarczający dla dużych modeli językowych (LLM), takich jak ChatGPT. Niezależnie od ocen, algorytmy AI przewyższają obecnie wydajność wielu certyfikowanych internistów.

  • Dowiedz się, w jaki sposób sztuczna inteligencja przewyższa lekarzy pod względem dokładności diagnozy
  • Odkryj ustalenia pionierskiego badania przeprowadzonego na Harvardzie i Stanfordzie na podstawie rzeczywistych przypadków medycznych
  • Dowiedz się, w jaki sposób sztuczna inteligencja zmienia metody leczenia, strategie badawcze i efektywność kosztową w opiece zdrowotnej
  • Dowiedz się, co transformacja AI oznacza dla przyszłości dostawców usług opieki zdrowotnej, pacjentów i całej branży
  • Więcej informacji na temat biznesu znajdziesz na Businessinsider.com.pl

Niniejsza treść ma charakter wyłącznie informacyjny i nie stanowi porady medycznej ani zachęty do samodzielnego wykorzystywania systemów sztucznej inteligencji do diagnozy, leczenia lub podejmowania decyzji klinicznych. Jeśli masz jakiekolwiek obawy dotyczące zdrowia, skonsultuj się z wykwalifikowanym lekarzem.

Niedawna publikacja zespołu z Harvard Medical School i Stanford University ujawnia, że AI radzi sobie wyjątkowo dobrze w sektorze medycznym . Autorzy ocenili model o1-preview (OpenAI) w sześciu odrębnych eksperymentach, od klasycznych przypadków opisanych w New England Journal of Medicine (NEJM) po rzeczywiste zmiany w izbie przyjęć w Bostonie. W każdej ocenie, od generowania listy diagnoz różnicowych po określanie późniejszych decyzji dotyczących leczenia, algorytm przyćmił certyfikowanych internistów.

Naukowcy przeanalizowali 143 przypadki z konferencji kliniczno-patologicznych NEJM, wśród innych scenariuszy. Model dokładnie zidentyfikował prawidłową chorobę na swojej pięcioelementowej liście w 78 procentach przypadków , podczas gdy lekarze w historycznych ocenach zazwyczaj osiągnęli to tylko w 65 procentach przypadków.

Jeszcze bardziej imponująca była początkowa interakcja z pacjentami na oddziale ratunkowym, gdzie informacje kliniczne są często ograniczone. Algorytm dostarczył precyzyjnej lub bardzo dokładnej diagnozy w 66% przypadków, przewyższając o kilka punktów wyniki dyżurujących internistów.

Sprawdź także: Czy nadal warto się tym zajmować? Sztuczna inteligencja i przyszłość pracy intelektualnej

Sztuczna inteligencja jako narzędzie diagnostyczne

Różnice wykraczają poza samo „zgadywanie chorób”. W scenariuszach, w których logiczne rozumowanie jest kluczowe, LLM oferuje wyjaśnienia, które spełniają — a często przewyższają — rygorystyczną dziesięciopunktową skalę R-IDEA, która ocenia jakość ludzkiego rozumowania klinicznego.

Model OpenAI wykazał się również większą pewnością w proponowaniu dodatkowych badań i określaniu opcji leczenia, co w efekcie przekłada się na efektywniejszy proces diagnostyczny i mniejszą liczbę niepotrzebnych procedur.

Co odpowiada za tę nadludzką przewagę? Algorytm nie zaniedbał patofizjologii; uczył się z ogromnych zasobów Internetu, w tym milionów artykułów naukowych. Jednak kluczowy czynnik leży w samej architekturze serii o1. Ten model wielokrotnie „zatrzymuje się”, aby dopracować swoje rozumowanie, zanim udzieli odpowiedzi.

Ta wewnętrzna rekurencja, wzmocniona ogromną pojemnością pamięci roboczej, umożliwia jej emulację klinicznego procesu dopracowywania hipotez , który u ludzi jest ograniczony ograniczeniami pamięci krótkotrwałej i krótkim okresem konsultacji. To podejście, określane przez OpenAI mianem „more time thinking”, skutkuje poprawą jakości argumentów i zmniejszoną zmiennością wyników.

Drugą kluczową zaletą jest natychmiastowy dostęp do rozległej bazy danych informacji epidemiologicznych i wszystkich ustalonych zaleceń. Lekarz specjalista może być ekspertem w zakresie kilkuset chorób, podczas gdy model AI może bez wysiłku zarządzać tysiącami , stale aktualizując swoją wiedzę, aby nadążać za tempem nowych publikacji naukowych. W rezultacie jest mniej podatny na błędy heurystyczne (na przykład efekt dostępności) i ma mniejsze prawdopodobieństwo przeoczenia rzadkich, ale krytycznych diagnoz.

Czytaj więcej: Od miliarda dolarów do bankructwa: czego uczy nas upadek wspieranej przez Microsoft „gwiazdy” sztucznej inteligencji

Dlaczego to nie jest koniec roli lekarzy

Pomimo swoich zalet w teoretycznych i retrospektywnych ocenach, model ten nie zastępuje lekarzy jako ostatecznych decydentów. Po pierwsze, jego wiedza statystyczna jest nadal porównywalna z wiedzą ludzi. W scenariuszach probabilistycznych (takich jak ocena ryzyka po wyniku testu) nie przewyższył on wcześniejszych iteracji GPT-4, co wskazuje, że w sytuacjach, w których dane są niepewne lub zależne od kontekstu, ludzka intuicja pozostaje niezbędna.

Po drugie, system wymaga infrastruktury — od certyfikowanych przez HIPAA prywatnych chmur po interfejsy umożliwiające śledzenie logiki decyzyjnej . Wiąże się to z wielomilionowymi inwestycjami ze strony szpitali i ubezpieczycieli, a także nowymi możliwościami rynkowymi dla dostawców sprzętu komputerowego i specjalistycznych platform, które integrują rozwiązania medyczne z interfejsami API modeli AI.

Sektor technologii medycznych interpretuje wyniki badania jako sygnał, że przejście od programów pilotażowych do powszechnego wdrożenia zależy od przepisów i doświadczeń użytkowników, a nie wyłącznie od mocy obliczeniowej.

Ostatecznie decyzję podejmą pacjenci

Ostatecznie najważniejsze jest zaufanie pacjenta i personelu. Pomysł autora-robota nie jest zgodny z klinicznymi realiami, w których relacje i empatia są kluczowe. To pozostaje ludzki lekarz, który wyjaśnia ryzyko, ustala priorytety pacjenta i bierze odpowiedzialność za liczne aspekty.

Jednak badacze opowiadają się teraz za modelem „podwójnego spojrzenia”. Oznacza to, że AI sugeruje hipotezy, podczas gdy lekarz — wyposażony w narzędzia audytowe — weryfikuje je i dostosowuje do indywidualnego przypadku.

Jeśli wyniki badań Harvardu i Stanfordu zostaną potwierdzone w przyszłych badaniach klinicznych, przewiduje się podwójny wpływ ekonomiczny . Po pierwsze, obniżenie kosztów diagnostyki (mniej niepotrzebnych testów, szybsze diagnozy), a po drugie, przesunięcie popytu z pracy ludzkiej na modele subskrypcyjne i infrastrukturę obliczeniową.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *