Biznes Fakty
Zwierzęta przemówią ludzkim głosem? AI może zapewnić komunikację międzygatunkową
W tym roku szanse na to, że zrozumiemy, co ma do powiedzenia pies czy kot, są większe niż kiedykolwiek. Generatywna sztuczna inteligencje i uczenie maszynowe powodują, że można szybciej i taniej „rozkodowywać” dźwięki wydawane przez zwierzęta. Co więcej, są też zachęty pieniężne, które zapewniają dodatkową motywację i przyciągają świetnych ekspertów do badań nad tłumaczeniem dźwięków zwierząt na język ludzki.
- Sztuczna inteligencja i uczenie maszynowe przybliżają nas do zrozumienia komunikacji między ludźmi a zwierzętami
- Nagrody takie jak Coller-Dolittle Prize motywują naukowców do pracy nad skutecznymi systemami tłumaczenia odgłosów zwierząt na język ludzki
- Nowoczesne technologie, jak AudioMoth czy konwolucyjne sieci neuronowe, ułatwiają nagrywanie, analizę i klasyfikację dźwięków zwierząt
- Głębokie sieci neuronowe mogą zaś odkrywać ukryte struktury w wokalizacjach zwierząt. Pozwoli to lepiej zrozumieć ich zachowania i potencjalne „języki”
- Więcej informacji o biznesie znajdziesz na stronie Businessinsider.com.pl
W 2025 r. wielu naukowców będzie pracować nad osiągnięciem realnych postępów w dziedzinie komunikacji międzygatunkowej. Bardzo dużą motywację dostarcza im nagroda „Coller-Dolittle Prize for Two-way Inter-species Communication”, którą ufundowała Fundacja Jeremy’ego Collera we współpracy z Uniwersytetem w Tel Awiwie.
To inicjatywa, w ramach której oferowanych jest aż 10 mln dol. za odkrycie sposobu na skuteczną komunikację między ludźmi a zwierzętami, wykorzystując do tego celu sztuczną inteligencję.
Czy faktycznie możliwa jest taka komunikacja? Naukowcy wierzą, że tak, i chcą to osiągnąć za sprawą badań i wykorzystania algorytmów AI.
Czytaj też: Neuralink Elona Muska nie jest jedyny. Bill Gates, Jeff Bezos i inni miliarderzy też inwestują w interfejsy mózg-komputer
Nawet 10 mln dol. za zrozumienie psa lub kota
Nagroda jest częścią wieloletniego projektu, który promuje wykorzystanie technologii AI — zwłaszcza dużych modeli językowych takich jak ChatGPT, Gemini czy Claude — i uczenia maszynowego (ang. machine learning), by osiągnąć komunikację międzygatunkową. Co roku fundacja przyznaje nagrody w wysokości 100 tys. dol. za znaczące osiągnięcia w zakresie „rozkodowywania” dźwięków wydawanych przez zwierzęta lub naśladowania komunikacji „organizmów niebędących ludźmi”.
Główna nagroda, 10 mln dol. inwestycji kapitałowej lub 500 tys. dol. w gotówce, trafi do zespołu, który jako pierwszy zdoła stworzyć system umożliwiający zrozumienie tego, co mówią zwierzęta. Kryteria oceny obejmują m.in. zastosowanie nieinwazyjnych metod do komunikacji oraz to, czy komunikacja sprawdzi się w różnych kontekstach, takich jak poszukiwanie pokarmu czy alarmowanie.
Celem jest stworzenie modelu opartego na AI, który pozwoli na interakcję ze zwierzętami w sposób, który nie będzie dla nich stresujący ani szkodliwy. Prace nad projektem mają potencjał do dużego wpływu na nasze zrozumienie sentymentu zwierząt oraz wspieranie praw dla zwierząt.
Łamanie kodu komunikacji międzygatunkowej
W ostatnich latach doczekaliśmy się istotnych osiągnięć technologicznych w dziedzinie uczenia maszynowego i dużych modeli językowych. To sprawia, że cel, jakim jest złamanie kodu komunikacji międzygatunkowej, jest w naszym zasięgu bardziej niż kiedykolwiek.
Wiele grup badawczych pracuje nad zrozumieniem kotów czy psów już od lat. Popularny projekt Ceti dekoduje np. pieśni humbaków. Aby jednak zrozumieć i rozkodować dany „język”, potrzebujemy ogromnych ilości danych, w dodatku dobrze oznakowanych. Do tej pory był to problem, niemniej rozwój AI i narzędzia takie jak ChatGPT znacząco ułatwiły dostęp do danych i ich przetwarzania.
Sprawdź też: Nowe drony Helsing zmieniają zasady gry na Ukrainie
Aplikacje takie jak Claude czy ChatGPT mają dostęp do danych treningowych obejmujących — w teorii — całość tekstu dostępnego w internecie. Oczywiście większość tego tekstu dotyczy ludzi i naszego języka, ale nie brakuje nagrań i konkretnych dźwięków zwierząt. Teraz, w dobie generatywnej sztucznej inteligencji, przetwarzanie takich dźwięków i trenowanie na nich algorytmów jest znacznie szybsze i tańsze niż jeszcze kilka lat temu.
Ten rok ma przynieść znaczące postępy zarówno w samej ilości danych dotyczących komunikacji zwierząt dostępnych dla naukowców, jak i w rodzajach i mocy algorytmów AI, które można zastosować do pracy z tymi zbiorami. Sprzęty takie jak AudioMoth, kosztujące zaledwie kilkaset złotych, potrafią skutecznie nagrywać odgłosy zwierząt i są projektowane do monitorowania dźwięków w środowisku naturalnym. Automatyczne nagrywanie dźwięków zwierząt jest więc relatywnie proste i niedrogie.
Urządzenia tego rodzaju mogą rejestrować dźwięki wybranych gatunków nawet w systemie 24/7, by kolejno zapisywać je w formacie, jaki systemy AI mogą przetwarzać i wykorzystać w treningu algorytmów. Co więcej, nowoczesne algorytmy automatycznego wykrywania oparte na konwolucyjnych sieciach neuronowych (rodzaj sztucznych sieci neuronowych zaprojektowanych do przetwarzania danych o strukturze siatki, takich jak obrazy czy dźwięki, które działają poprzez wykrywanie wzorców i cech w danych za pomocą odpowiednich filtrów) mogą przeszukiwać tysiące godzin nagrań, wybierając dźwięki zwierząt i grupując je w różne typy — zgodnie z ich naturalnymi cechami akustycznymi.
Czekamy na rewolucję
Kiedy mamy już dostęp do ogromnej ilości danych i samo ich pozyskiwanie oraz obróbka nie stanowi takiego wyzwania, jak do tej pory, możemy używać głębokich sieci neuronowych do znajdowania ukrytej struktury w sekwencjach wokalizacji zwierząt, które mogą być analogiczne do struktury w języku ludzkim. W ten sposób, wcześniej czy później, powinniśmy zrozumieć, co mają do powiedzenia zwierzęta i co konkretnie „mówią”.
Oczywiście może się też okazać, że zwierzęta po prostu nie mają takiego języka, który można by przetłumaczyć na „ludzki” i nigdy nie będziemy w stanie do końca zrozumieć tego, co komunikują. To jednak nie oznacza, że nie warto próbować.
Autor: Grzegorz Kubera, dziennikarz Business Insider Polska
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Źródło