Myśl zmienia głos: przełomowa neuroproteza AI pozwala mówić bez otwierania ust

Innowacyjna neuroproteza oparta na sztucznej inteligencji ma zdolność przywracania wyraźnej mowy osobom z poważnym paraliżem poprzez przesyłanie ich myśli w czasie rzeczywistym bezpośrednio z mózgu. Naukowcy z uniwersytetów Kalifornii w Berkeley i San Francisco ogłosili znaczący postęp w dziedzinie interfejsów mózg-komputer, rozwiązując opóźnienia, które historycznie utrudniały rozwój płynnych neuroprotez mowy.

2f216ae416b05d9d5cf9197e2d26359f, Biznes Fakty
Naukowcy łączą implant mózgowy pacjenta z komputerem syntetyzującym mowę | Zdjęcie: Noah Berger / Engineering.berkeley.edu
  • Nowa neuroproteza mowy oparta na sztucznej inteligencji umożliwia sparaliżowanym osobom natychmiastową komunikację poprzez interpretację sygnałów mózgowych
  • Technologia ta usuwa wcześniejsze opóźnienia, umożliwiając niemal natychmiastowe przekazywanie głosu
  • Ten postęp poprawia jakość życia pacjentów i daje nadzieję na szerokie zastosowanie w opiece zdrowotnej i technologii głosowej.
  • System dostosowuje się do wzorców mowy, identyfikuje nieznane słowa i wspiera bardziej naturalną, bogatą emocjonalnie komunikację
  • Dodatkowe informacje o biznesie znajdziesz na Businessinsider.com.pl

Technologia ta wykorzystuje algorytmy sztucznej inteligencji (AI) do szybkiego przekształcania sygnałów mózgowych na dźwięki, umożliwiając tym samym osobom, które całkowicie utraciły zdolność mówienia, sensowną komunikację.

Jak wyjaśniają twórcy, poprzednie próby przekształcenia myśli w wypowiedziane słowa często trwały kilka sekund. Teraz, dzięki nowatorskiej technice dekodowania strumieniowego, wypowiedź może być postrzegana niemal równocześnie z jej powstaniem w umyśle pacjenta. „Nasza metoda strumieniowa zapewnia szybkie możliwości dekodowania mowy podobne do tych, które można znaleźć w urządzeniach takich jak Alexa i Siri, ale stosowane w neuroprotezach” — twierdzą Gopala Anumanchipalli oraz Robert E. i Beverly A. Brooks z UC Berkeley. Autorzy badania podkreślają, że wykorzystując porównywalne typy algorytmów, po raz pierwszy osiągnęli zdolność dekodowania danych neuronowych i umożliwili niemal natychmiastowe wyjście głosu, co skutkuje bardziej naturalną i płynną syntezą mowy.

To przełomowe odkrycie ma duże znaczenie nie tylko w kontekście postępu technologicznego , ale przede wszystkim w kontekście poprawy jakości życia osób ciężko sparaliżowanych, które nie potrafią mówić.

„Ta innowacyjna technologia ma ogromny potencjał poprawy jakości życia osób z poważnym paraliżem wpływającym na mowę” — zauważa neurochirurg z UCSF Edward Chang, współautor badania. Badacz prowadzi badania kliniczne nad neuroprotezami mowy, wykorzystując elektrody o dużej gęstości umieszczone bezpośrednio na powierzchni mózgu. „To ekscytujące, jak ostatnie postępy w dziedzinie sztucznej inteligencji znacznie przyspieszają rozwój interfejsów mózg-komputer do praktycznego użytku” — dodaje.

Sprawdź także: Czy zwierzęta będą mówić ludzkim głosem? Sztuczna inteligencja może umożliwić komunikację międzygatunkową

Obiecujące wyniki badań

Badania wykazały ponadto, że opracowany system może skutecznie zarządzać różnymi typami interfejsów, które rejestrują aktywność mózgu. Wskazuje to, że sama metoda jest wszechstronna i można ją łatwo dostosować.

„Prezentując precyzyjną syntezę głosu opartą na mózgu przy użyciu innych zestawów danych dotyczących cichej mowy, potwierdzamy, że nasze podejście nie ogranicza się do jednego konkretnego typu urządzenia” — stwierdza doktorantka UC Berkeley Kaylo Littlejohn, współautorka artykułu. „Ten sam algorytm można zastosować w różnych rozwiązaniach, o ile jakość sygnału pozostaje odpowiednia”.

Kluczowym elementem nowej technologii jest dekodowanie sygnałów z kory ruchowej, która odpowiada za wytwarzanie dźwięków mowy. Sygnały te, nawet przed przekształceniem w słyszalny głos, są przechwytywane i przekształcane w mowę za pośrednictwem sztucznej inteligencji.

„W zasadzie przechwytujemy sygnały w momencie, gdy myśl przechodzi w artykulację, w trakcie kontrolowania mięśni mowy” – wyjaśnia doktorantka i współautorka badania na UC Berkeley, Cheol Jun Cho. „W ten sposób dekodujemy proces, który następuje po podjęciu decyzji, co powiedzieć, określeniu słów do użycia i aktywowaniu odpowiednich mięśni”.

Przed opracowaniem modelu AI naukowcy musieli zebrać dane, aby wytrenować algorytm. Pacjentka o imieniu Ann czytała zdania pokazane na ekranie, a następnie próbowała je powtarzać w ciszy . Ta procedura pomogła jej skojarzyć impulsy mózgowe ze specyficznymi słowami, pomimo jej niezdolności do artykułowania dźwięków.

Aby zrekompensować brakujący dźwięk i nadać tożsamość głosu pacjentki, badacze wykorzystali łatwo dostępne rozwiązania syntezy mowy, uzupełnione nagraniami głosu Ann sprzed utraty mowy. Zastosowali wstępnie wytrenowany model zamiany tekstu na mowę, aby wytworzyć dźwięk i naśladować jego zamierzoną strukturę . Odwoływali się do głosu Ann sprzed urazu, aby zdekodowany wynik był bardzo podobny do oryginału.

Przeczytaj także: H&M wykorzystuje modele generowane przez AI w reklamach. Oszczędności kosztem pracy ludzkiej [ZDJĘCIA]

Mówienie bez werbalizacji

Godnym uwagi osiągnięciem jest możliwość generowania słów mówionych z minimalnym opóźnieniem i bez poświęcania dokładności dekodowania. Według badaczy, opóźnienie czasowe między rozpoczęciem próby mówienia a pojawieniem się pierwszych dźwięków nie przekracza jednej sekundy, zapewniając pacjentowi wrażenie niemal naturalnej wypowiedzi.

„Obserwujemy, że w ciągu pierwszej sekundy sygnału intencji mowy pojawiają się pierwsze dźwięki” — zauważa Anumanchipalli. „Urządzenie może stale dekodować mowę, umożliwiając Ann komunikację bez przerw”.

Aby sprawdzić, czy system rzeczywiście uczy się wzorców mowy, a nie tylko odtwarza znane frazy

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *