Roboty jak ludzie: sztuczna inteligencja daje maszynom umiejętności, które wcześniej były dostępne tylko nam

Przez lata roboty przyciągały uwagę jako maszyny, które mogą przejąć trudne lub monotonne zadania od ludzi. Do tej pory wiele z tych urządzeń opierało się na konkretnym oprogramowaniu dostosowanym do ich wyznaczonych funkcji, co ograniczało ich zdolność adaptacji. Niemniej jednak wprowadzenie dużych modeli językowych (LLM) i rozwój multimodalnych systemów AI utorowały drogę rewolucyjnej zmianie. Google zaprezentował Gemini 2.0, wraz z Gemini Robotics i Gemini Robotics-ER, zbiór modeli AI, które nie tylko „rozumieją” język, ale także wizualnie postrzegają swoje otoczenie, opracowują strategie działań i bezpośrednio obsługują roboty.

27cd84e31a814e3195e241e0adf4c848, Biznes Fakty
Roboty zyskują coś w rodzaju wzroku, rozumienia języka i zdolność uczenia się nowych zadań w czasie rzeczywistym | Zdjęcie: Google/YouTube
  • Roboty wykorzystujące technologię Gemini mają potencjał do podejmowania zadań, do których nie zostały wcześniej przeszkolone, często wymagających korekt w czasie rzeczywistym
  • Otwiera to ogromne możliwości zarówno dla ewolucji, jak i wdrażania maszyn w niedalekiej przyszłości.
  • Najnowsze modele sztucznej inteligencji wyposażają roboty nie tylko w wiedzę, ale także w zdolność do analizowania obrazów i dźwięków
  • Dzięki temu dzisiejsze roboty mogą zdziałać o wiele więcej niż kilka lat temu, a ich szkolenie jest o wiele szybsze i bardziej ekonomiczne.
  • Więcej informacji o biznesie znajdziesz na Businessinsider.com.pl

To innowacyjne podejście łączy rozległą wiedzę o modelach językowych ze „zmysłami” poprzez analizę obrazów i dźwięków. Modele Google Gemini uczą się integrować instrukcje werbalne, sygnały wizualne z otoczenia i odpowiednie działania fizyczne . Co to oznacza w scenariuszach z życia wziętych? Robot może otrzymywać proste polecenia w języku potocznym, a następnie autonomicznie określać, jak chwycić kubek, ułożyć owoce w pojemniku przesuniętym przez osobę, a nawet stworzyć złożoną figurę origami.

Zdolność inżynierów Google do adaptacji do nieoczekiwanych zmian, takich jak nagła zmiana położenia obiektu, sugeruje, że robot naprawdę „rozumie” swoje działania . Nie jest już tylko maszyną wykonującą z góry ustalony skrypt.

Sprawdź także: Roboty zdobywają supermoce. Ten rok obiecuje przełomy

Prototypy wykonują skomplikowane zadania

Obecne prototypy, takie jak dwuramienny ALOHA 2, są w stanie wykonywać skomplikowane zadania manualne — precyzyjnie składać papier, pakować delikatne przedmioty i zmieniać sekwencje ruchów w razie potrzeby.

Dzięki modelowi Gemini nie ma już potrzeby mozolnego instruowania robota przez wszystkie możliwe scenariusze metodą prób i błędów. Wystarczy prosty cel, polecenie lub opis pożądanego wyniku. Ponadto architektura multimodalna umożliwia pojedynczemu algorytmowi zarządzanie różnymi typami maszyn . Google we współpracy z Apptronik zamierza rozszerzyć tę metodologię na humanoidalnego robota Apollo.

Dodatkowa treść pod filmem:

Inne duże firmy, m.in. Boston Dynamics i Agility Robotics, również uzyskały dostęp do specjalnej wersji Gemini Robotics-ER, aby testować i rozwijać własne innowacje.

Jednak tak zaawansowane zdolności budzą obawy dotyczące bezpieczeństwa i odpowiedzialności. Google DeepMind przyjmuje holistyczne podejście, w którym każda decyzja podejmowana przez robota jest oceniana zarówno fizycznie (aby ustalić, czy może doprowadzić do kolizji lub nadmiernego nacisku), jak i semantycznie (aby upewnić się, że jest zgodna z nadrzędnymi zasadami etycznymi).

Aby temu zaradzić, opracowano koncepcję Konstytucji Robota, zainspirowaną słynnymi prawami robotyki Asimova, a także nową metryką ASIMOV, która służy do oceny sytuacji i potencjalnych zagrożeń wynikających ze złożonych działań robotów.

Aspekt bezpieczeństwa staje się kluczowy, ponieważ urządzenia sterowane przez zaawansowaną sztuczną inteligencję muszą być odporne na próby manipulacji lub „jailbreak”, które mogłyby zmusić je do wykonywania niechcianych lub niebezpiecznych poleceń.

Przeczytaj także: Roboty mają zyskać zdolności, których brakowało im od lat. Przejmą jeszcze więcej zadań

Nadchodzące lata będą transformacyjne dla robotów

Obecnie rozwijane roboty nabywają zdolności podobne do widzenia, rozumienia języka i zdolności uczenia się nowych zadań bez konieczności specjalnego programowania. W niedalekiej przyszłości może to doprowadzić do stworzenia robotów domowych zdolnych do sprzątania, gotowania i pomocy w codziennych czynnościach , a także humanoidalnych pomocników w miejscach publicznych.

Jednocześnie badane są zastosowania w fabrykach i magazynach, gdzie sztuczna inteligencja mogłaby automatyzować procesy produkcyjne, zwiększać produktywność i pomagać pracownikom w wykonywaniu zadań manualnych lub powtarzalnych. W dłuższej perspektywie możemy oczekiwać maszyn o jeszcze większej zwinności i bardziej płynnych interakcjach z ludźmi — w tym robotów chodzących lub zdolnych do tworzenia bardziej złożonych relacji społecznych.

Ta przyszłość jednak stawia wyzwania. Roboty muszą być wyposażone nie tylko w zdolność wykonywania poleceń, ale także w zdolność oceny ryzyka i zapewnienia bezpieczeństwa. Ustanowienie systemów etycznych i mechanizmów zapobiegających niepożądanym zachowaniom będzie również miało pierwszorzędne znaczenie.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *