Jasne, oto przepisany tekst:
Ślepe podążanie za trendami w dziedzinie sztucznej inteligencji (AI), bez solidnych analiz i odpowiednich mechanizmów kontrolnych, może prowadzić do poważnych konsekwencji, czego dotkliwie doświadczył ostatnio Amazon. Skala problemów wynikających z nadmiernego wykorzystania generatywnej AI była na tyle znacząca, że w ramach dywizji Amazon Web Services (AWS) zorganizowano specjalne, wewnętrzne spotkanie. Co ustalono podczas tej narady?

Dalsza część tekstu znajduje się pod materiałem wideo:
Ekonomista alarmuje: rewolucja AI odjeżdża Polsce, wzrost wynagrodzeń maleje
Fragmenty zapisu tej rozmowy, na którą wezwano większość kluczowych decydentów z zespołów inżynierskich pracujących nad kodem, opublikował niedawno dziennik Financial Times. Głównym punktem dyskusji była gwałtownie rosnąca liczba coraz poważniejszych incydentów, które negatywnie wpływały na działanie Amazon Web Services (AWS), czyli platformy usług chmurowych i hostingowych, stanowiącej fundament dla znaczącej części globalnego internetu. Liczne awarie, paraliżujące działanie serwisów i aplikacji, stały się ostatnio powszechnie odczuwalne. Ich przyczyna jest bezpośrednio związana z problemem, który redakcja Business Insidera poruszała już kilka tygodni temu.
Chodzi oczywiście o zjawisko znane jako „vibe coding”, polegające na zlecaniu generatywnym modelom AI pisania kodu, na którym opiera się dane oprogramowanie. Choć taki kod jest tworzony błyskawicznie, sama technologia, mimo swojego potencjału, wciąż jest daleka od doskonałości. Efekty pracy sztucznej inteligencji bywają dalekie od oczekiwań, nawet jeśli na pierwszy rzut oka wszystko wydaje się poprawne. Ukryte błędy lub odniesienia do nieistniejących repozytoriów mogą nie ujawniać się od razu, jednak kolejne warstwy kodu z defektami kumulują się z czasem, prowadząc do awarii, które stały się poważnym problemem dla Amazona.
Polityka firmy, która od pewnego czasu zachęca, a nawet naciska na pracowników, aby wykorzystywali narzędzia AI w swojej codziennej pracy, nie przyniosła oczekiwanych rezultatów. Chociaż niektóre zadania są wykonywane szybciej, ucierpiała na tym ich jakość. W udostępnionych przez Financial Times notatkach padały określenia takie jak „incydenty o dużej sile rażenia”. Dave Treadwell, starszy wiceprezes działu e-commerce, napisał wprost w mailu do pracowników: „Jak zapewne wiecie, dostępność strony i powiązanej z nią infrastruktury nie wyglądała w ostatnim czasie zbyt dobrze”.
Spotkanie zostało zwołane krótko po tym, jak sklep Amazon przestał działać przez kilka godzin, uniemożliwiając zakupy klientom na całym świecie. Przyczyna? Narzędzie AI, które miało automatycznie zoptymalizować kod, po prostu usunęło jego część i napisało ją od nowa. Naprawa tej usterki zajęła Amazonowi kilkanaście godzin. Ta awaria nie była jedyną w ostatnim czasie. Chociaż wewnętrznie nikt nie chce oficjalnie przyznać się do błędu, by zapobiec podobnym incydentom w przyszłości, kierownictwo Amazona zdecydowało o zmianie dotychczasowej strategii wykorzystania AI. Poprzednia, ze względu na rosnącą liczbę błędów w kodzie, okazała się nieskuteczna, choć zaproponowane rozwiązania mogą nie przynieść zakładanych korzyści.
Amazon, mimo fatalnego stanu kodu, nie zamierza ograniczać skali wykorzystania generatywnej sztucznej inteligencji do jego tworzenia. Zamiast tego wprowadzono – co wydaje się zaskakujące – nową zasadę: inżynierowie niższego i średniego szczebla, przed wdrożeniem wygenerowanego kodu na środowisko produkcyjne, muszą uzyskać akceptację co najmniej kilku osób na stanowiskach seniorskich. Upraszczając: intensywna implementacja AI w codziennej pracy wygenerowała nowe problemy, których usuwaniem zajmować się będą ludzie.
Zwiększony nadzór nad jakością kodu, angażujący bardziej doświadczony czynnik ludzki, teoretycznie może być skuteczny. Jednakże, obciąży to inżynierów i programistów dodatkowymi, wtórnymi i czasochłonnymi zadaniami, które mogliby wykorzystać na inne cele. W praktyce może to oznaczać, że z powodu nadmiaru obowiązków, proces przeglądu kodu (code review) będzie nadal oddelegowywany narzędziom AI, takim jak Claude Code Review czy Codex od OpenAI.
Oczywiście, AI poprawiające kod napisany przez inną AI również nie jest niezawodne. Choć może krótkoterminowo zredukować problemy, w dłuższej perspektywie może doprowadzić do kolejnej katastrofy. Amazon zdaje się jednak tym na tym etapie nie przejmować. Firma otwarcie przyznaje, że ustanowiono wewnętrzne cele, narzucające deweloperom wykorzystanie AI w 80% zadań, co najmniej raz w tygodniu. Kierownictwo giganta najwyraźniej wierzy, że sytuacja w końcu się ustabilizuje, narzędzia AI przestaną popełniać błędy, a to przełoży się na dodatkową redukcję kosztów i wzrost wydajności.
Wizja przyszłości, w której za kilka lat kod oprogramowania, na którym opierać się będą całe budżety firmowe, a nawet gospodarki narodowe, jest tworzony i poprawiany przez AI, a rozumiana tylko przez wąskie grono specjalistów, nie jest zbyt bezpieczna. Jednakże, gorączka implementacji sztucznej inteligencji we wszystkich obszarach i na każdym poziomie nie pozwala największym firmom korzystającym z nowych technologii na spowolnienie tego procesu.
Pierwszy etap poważnych problemów już się pojawił. Zostały one zauważone, uznano je za znaczący kłopot, ale postanowiono kontynuować obecną ścieżkę, choć z większą ostrożnością. Gdy nieuchronnie nadejdzie kolejna fala problemów i awarii – być może wtedy Amazon i inne firmy, które zachłysnęły się w ostatnim czasie nieodpowiedzialnym wdrażaniem sztucznej inteligencji, wyciągną właściwe wnioski.
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Google. ### Wyniki Biznes Fakty: * **Rosnące problemy z AWS:** Intensywne wykorzystanie generatywnej AI w procesie tworzenia kodu doprowadziło do serii incydentów i awarii w usłudze Amazon Web Services, negatywnie wpływając na stabilność i dostępność internetowych serwisów. * **Zmiana strategii nadzoru:** W odpowiedzi na kryzys, Amazon wprowadził wymóg weryfikacji kodu generowanego przez AI przez doświadczonych inżynierów seniorskich, co ma zwiększyć jakość i bezpieczeństwo implementacji. * **Cel 80% użycia AI:** Pomimo problemów, Amazon nadal dąży do zwiększenia wykorzystania AI, narzucając deweloperom cel wykorzystania narzędzi AI w 80% zadań co najmniej raz w tygodniu, licząc na przyszłe korzyści i redukcję kosztów. * **Ryzyko długoterminowe:** Choć zwiększony nadzór ludzki może chwilowo łagodzić problemy, istnieje ryzyko, że proces code review nadal będzie zlecany narzędziom AI, co może prowadzić do powstawania nowych, ukrytych błędów. * **Trudności adaptacyjne:** „Gorączka” implementacji AI w branży technologicznej utrudnia firmom spowolnienie lub rewizję strategii, nawet w obliczu wykrytych błędów i awarii, co sugeruje potencjalne powtórzenie się problemów w przyszłości.
Szczegóły można znaleźć na stronie internetowej : businessinsider.com.pl
