XXI-wieczny feudalizm. Bezos i Huang dążą do tego, byś nic nie posiadał.

„Nie będziesz miał niczego i będziesz szczęśliwy”. Ta fraza, od lat krążąca w sieci, chociaż mylnie przypisywana Klausowi Schwabowi, pojawiła się naprawdę – jako część prognoz na rok 2030 – w jednym z filmów reklamowych promujących Światowe Forum Ekonomiczne. Dziś, gdy ceny komponentów osiągają niewiarygodne pułapy, zasada ta zaczyna odnosić się także do komputerów. Jeff Bezos nakreślił wizję przyszłości, która, niestety, stopniowo staje się rzeczywistością.

Zgodnie z nią, jedynie nieliczni będą mogli pozwolić sobie na zakup komputera zdolnego do wykonywania bardziej wymagających zadań lokalnie – takich jak obróbka dużych plików danych, edycja wideo, profesjonalna obróbka zdjęć czy uruchamianie gier.

Wszyscy inni, pragnąc zachować dostęp do technologii, będą zmuszeni wynajmować moc obliczeniową. I to za pośrednictwem chmury, która pod czujnym nadzorem korporacji technologicznych jest intensywnie rozwijana od dekady.

Zamiast komputerów w tradycyjnym sensie, przyszłością stanie się coś, co można określić mianem punktu dostępowego. To proste urządzenie, niezdolne do przeprowadzania złożonych obliczeń samodzielnie, wyposażone w swoje chipy i podzespoły, których moc będzie wystarczająca jedynie do podstawowych operacji oraz zdalnego łączenia się z usługami.

Urok tej koncepcji polega na tym, że poprzez łączenie się z odległymi urządzeniami o ogromnej mocy zyskujemy dostęp do funkcjonalności i doznań, które w innym przypadku byłyby niedostępne. A mówiąc inaczej – byłyby, ale wiązałoby się to z wydatkiem przekraczającym nawet 20 000 zł. Większość osób, mając taki wybór, z pewnością zdecyduje się na abonament w wysokości kilkudziesięciu złotych miesięcznie, nawet jeśli w swej istocie przypomina to feudalizm, tyle że w XXI-wiecznej odsłonie. Jeff Bezos i inni potentaci świata nowych technologii są tego świadomi i zamierzają to w pełni wykorzystać.

Klienci drugiej kategorii

Realizacji tej wizji zdecydowanie sprzyja obecna sytuacja na świecie. Rok 2026 będzie niezwykle trudny dla rynku komponentów komputerowych, przynajmniej dla jego segmentu konsumenckiego. Powodem jest gwałtownie rosnący popyt na pamięć RAM, dyski twarde i procesory w sektorze biznesowym, który intensywnie buduje centra danych, starając się zaspokoić ogromne zapotrzebowanie na moc obliczeniową niezbędną do obsługi modeli sztucznej inteligencji.

Z oczywistych powodów producenci wybierają tego klienta, który jest gotów zapłacić więcej, dlatego masowo przestawiają fabryki na obsługę sektora korporacyjnego, spychając klienta indywidualnego na dalszy plan.

Skutek? Szokujące ceny, szczególnie pamięci RAM, która w ciągu kilku miesięcy poszybowała w górę nawet o kilkaset procent. I będzie tylko gorzej, przynajmniej dopóki trwa obecna fascynacja sztuczną inteligencją. A ta może potrwać nawet kilka lat. W praktyce oznacza to, że zakup dowolnego urządzenia, które wymaga jej do działania, będzie wiązał się ze znacznie większym wydatkiem niż dotychczas. I choć wszyscy są przyzwyczajeni do podwyżek cen związanych z inflacją, żaden portfel nie jest przygotowany na tak drastyczne wzrosty, jakie obserwujemy obecnie na tym rynku.

Konsumenci stoją więc już teraz przed bardzo ograniczonymi możliwościami wyboru. W pierwszym wariancie – faktycznie sięgają głębiej do kieszeni lub zadłużają się i nabywają sprzęt po zawyżonej cenie. W drugim – również kupują sprzęt, ale wyraźnie słabszy niż zamierzali, dostosowując wydatek do dostępnych środków. A w trzecim – zamiast kupować nowy sprzęt, korzystają z dotychczasowego, a wolne środki przeznaczają na model subskrypcyjny, który zapewnia im dostęp do usług w chmurze.

Jego działanie jest proste – w zamian za regularną, stosunkowo niską miesięczną opłatę, użytkownik zyskuje możliwość korzystania z mocy obliczeniowej wielokrotnie wyższej niż to, co mógłby realnie nabyć „na własność”. Po prostu, zamiast być właścicielem, staje się jedynie czasowym licencjobiorcą.

Elektryczność i szczerość Jeffa Bezosa

Jeff Bezos, w rozmowie z New York Times w 2024 roku, aby uzasadnić ten model, odwołał się do analogii z… elektrycznością. Kiedyś, aby dysponować źródłem zasilania, każdy zakład musiał być samowystarczalny: — Chciałeś mieć elektryczność, musiałeś zbudować własny generator — wyjaśnił.

Rozwijając tę myśl w kontekście współczesnych maszyn, Bezos dodał: — Spojrzałem na to i pomyślałem — tak właśnie wygląda dziś praca z komputerem i danymi. Teraz wszyscy mają własne centra danych, ale to nie potrwa wiecznie. To nie ma sensu — zamiast komputera, w przyszłości nabędziesz dostęp do mocy obliczeniowej z sieci.

W tej analogii, promującej oczywiście chmurowe Amazon Web Services, obecne komputery są dawnymi, zakładowymi generatorami prądu. Natomiast komputery chmurowe, które mają je zastąpić, są odpowiednikiem sieci elektrycznej, do której podłączamy budynek, korzystając z płynącego w niej „sygnału”. Podstawowa różnica polega na tym, że to nie państwa kontrolują dostęp do tej sieci, lecz korporacje technologiczne, których ambicje w kształtowaniu cyfrowej rzeczywistości rosną z każdym rokiem.

Okna z widokiem na chmurę

Bezos nie jest w tych poglądach osamotniony. Podobną strategię przyjęły również Microsoft i Nvidia. W przypadku pierwszego z nich – biznes chmurowy, czyli Azure, od dawna jest największą częścią dochodów, przynosząc firmie coroczne, wielomiliardowe zyski. Chmura i serwery stanowią już od dłuższego czasu ponad 20% wszystkich przychodów giganta z Redmond i ich udział systematycznie rośnie.

Nie ma w tym nic zaskakującego – według ostatniego raportu finansowego z października 2025 roku, Microsoft posiada obecnie ponad 400 centrów danych w 70 regionach i powiększył swoje imponujące zasoby o kolejne dwa gigawaty wykorzystywane w obrębie własnej infrastruktury.

Microsoft stara się wcielać tę wizję w życie również w przypadku swojego najpopularniejszego produktu, czyli systemu operacyjnego. Windows 365 przenosi do chmury wszystkie funkcje, które znamy z tradycyjnego korzystania z komputera… ale każda z nich realizowana jest zdalnie, a na naszych ekranach widzimy jedynie ich „transmisję”.

Działa to na zasadzie strumieniowania obrazu. Użytkownik loguje się na swoim urządzeniu za pomocą konta Microsoft i korzysta z niego tak, jakby robił to w tradycyjny sposób – z tą różnicą, że w tle każda operacja wykonywana jest na serwerach oddalonych o setki kilometrów. Po wylogowaniu się z jednego urządzenia i zalogowaniu na innym, może kontynuować pracę, jakby w ogóle nie zmieniał sprzętu. Innymi słowy – pełna synchronizacja danych i ustawień, niezależnie od tego, z jakiego punktu dostępowego korzystamy.

Satya Nadella, wprowadzając ten produkt na rynek, otwarcie przyznał, że Microsoft postrzega tę zmianę jako początek nowej ery, mówiąc: — Wraz z Windowsem 365 przenosimy system operacyjny do chmury i tworzymy zupełnie nową kategorię urządzeń – Cloud PC (czyli komputer chmurowy).

Jako główną zaletę wymienił elastyczność i większą mobilność, wynikającą z braku ograniczeń lokalizacyjnych. Fundamenty dla przekonania, że to przyszłość, są w przypadku Microsoftu bardzo solidne. Ich model subskrypcyjny w przypadku innej usługi – pakietu biurowego – cieszy się ogromną popularnością, o czym świadczy raport Microsoftu z grudnia 2025 roku: — Z Microsoft 365 korzysta już ponad 430 milionów osób, a rozwiązaniu Microsoft 365 Copilot zaufało przeszło 90 proc. firm z listy Fortune 500.

Nvidia ogrywa wszystkich – także graczy

Nvidia również podąża w tym kierunku, a jej CEO, Jensen Huang, od lat wyraża się w sposób zbliżony do innych szefów korporacji technologicznych. Zgodnie z jego wizją, przedstawioną szczegółowo w 2021 roku podczas Nvidia GTC, tradycyjne komputery, jako fizyczne urządzenia o określonej mocy obliczeniowej, są reliktem przeszłości.

Huang mówi wprost: — Nową jednostką obliczeniową są centra danych.

Od tego oświadczenia szefa Nvidii minęło sporo czasu, ale przedstawiana wówczas wizja jest krok po kroku realizowana. Centra danych oraz komponenty, które są w nich wykorzystywane, generują ponad 90% przychodów firmy.

Nvidia rozwija jednak nie tylko fizyczne produkty i infrastrukturę, ale również szereg technologii skierowanych do konsumentów, takich jak generowanie klatek czy skalowanie, które umożliwiają komputerom wyświetlanie tekstur i rozdzielczości w wyższej jakości, niż wynikałoby to z ich mocy obliczeniowej. Wiele z tych technologii jest jednak dostępnych tylko na nowszych modelach kart, często bardzo drogich, czyli niedostępnych dla przeciętnego użytkownika.

Rozwiązaniem tej kwestii finansowej jest oczywiście chmura – Nvidia intensywnie rozwija usługę GeForce NOW, w której za abonament otrzymujemy zdalny dostęp do komputerów wykorzystujących potężne karty Nvidia GeForce RTX 5080. Ich cena jednostkowa zaczyna się od 5000 zł. Za dostęp do chmury w najdroższym pakiecie płacimy blisko 5 razy mniej – rocznie to koszt 1099 zł. Realnie, abonament zrówna się z kosztem samej karty graficznej dopiero po 5 latach aktywnego opłacania. A trzeba jeszcze uwzględnić ceny pozostałych podzespołów niezbędnych do działania komputera.

Popularność GeForce NOW pokazuje, że takie rozwiązanie jest atrakcyjne dla graczy – w momencie uruchomienia usługi w 2020 roku, korzystało z niej zaledwie milion osób na całym świecie. Dziś, zaledwie pięć lat później, jest ich 30 razy więcej, a prognozy na rok 2026 mówią o wyniku zbliżającym się do 35 milionów aktywnych użytkowników. Wraz z nasilającymi się problemami z dostępnością i cenami nowych komponentów, które pozwalają na uruchamianie najnowszych, coraz bardziej wymagających gier, dynamika wzrostu bazy subskrybentów może jeszcze przyspieszyć.

Wygodne nic

Rentowność modelu, o którym mówią Jeff Bezos, Jensen Huang i Satya Nadella, czyli wypożyczania mocy i korzystania z komputera w chmurze, jest bezsporna, przynajmniej na poziomie ogólnej, pobieżnej analizy. Przy obecnych cenach podzespołów, ich kupowanie jest po prostu nieopłacalne. Wypożyczanie – już tak. Ale jest w tym wszystkim jeden, poważny problem. Komputer, na którym gramy lub z którego korzystamy, nie jest nasz. Gry i programy również nie są naszą własnością… choć dla coraz większej grupy użytkowników nie ma to większego znaczenia. Tak długo, jak mają zapewnioną rozrywkę i dostęp do tego, co ich interesuje, są usatysfakcjonowani.

To zjawisko dotyczy nie tylko firm związanych z nowymi technologiami – praktycznie wszyscy od dawna próbują przejść na model SaaS (software as a service, czyli oprogramowanie jako usługa). Muzyka, filmy, seriale, komiksy, książki i wiele innych rozwiązań tradycyjnie kojarzonych z fizycznym nośnikiem, od ponad dekady masowo migrują do chmury. I choć pojawiają się tendencje nawołujące do powrotu do „starych metod”, to są one jedynie chwilowe i nie wpływają na globalny trend. Komputery w chmurze są jedynie przedłużeniem tej idei – logiczną kontynuacją z perspektywy biznesu, która „uwalnia” użytkownika od trosk związanych z techniczną stroną obsługi i konserwacji sprzętu. Płacisz, łączysz się i działasz.

Ten model ma wiele zalet. Komputer, którego moc wypożyczamy tylko na czas korzystania z niego, jest nie tylko wydajniejszy niż to, na co stać 95% społeczeństwa, ale zużywa również mniej energii (koszty jego działania ponosi usługodawca). Nie trzeba go aktualizować, wymieniać podzespołów, ani martwić się o infekcje czy uszkodzenia. Komputer w chmurze jest po prostu wygodny. Pod jednym warunkiem – dysponujemy szybkim i stabilnym połączeniem internetowym.

Choć biorąc pod uwagę obecny dostęp do sieci w Polsce, możemy uważać się za światową czołówkę, to jednak, jak wszystko w świecie nowych technologii, nawet najszybsze łącze jest podatne na awarie i przerwy w dostawie. W sytuacji, gdy nie posiadamy własnego komputera, a jedynie punkt dostępowy do wypożyczanej maszyny, jesteśmy całkowicie zależni od warunków zewnętrznych. Bez dostępu do internetu tracimy dostęp do narzędzia. Jeżeli centrala ma problemy – sytuacja wygląda identycznie.

O tym, jak to wygląda w praktyce, przekonaliśmy się już wielokrotnie – każda awaria Amazon Web Services czy Azure paraliżuje usługi, które korzystają z ich serwerów. Te trwające czasami wiele godzin zakłócenia dotykają jedynie osoby korzystające z danego oprogramowania. Ale w scenariuszu, o którym mówią szefowie korporacji technologicznych – dotyka to wszystkich. Bo wszyscy, w taki czy inny sposób, korzystamy z komputerów.

Największy problem komputerów chmurowych

Problemy wynikające z błędów technicznych lub ludzkich, choć rzadkie, się zdarzają. Z drugiej strony mamy zagrożenia cybernetyczne, czyli ataki hakerskie na infrastrukturę krytyczną. Choć korporacje technologiczne wydają ogromne sumy na cyberbezpieczeństwo, a inne firmy i państwa podążają ich śladem, to jednak nigdy nie powstaną zabezpieczenia w 100% odporne na tego typu zagrożenia. Im większa część zachodniej gospodarki jest uzależniona od danego rozwiązania, tym bardziej atrakcyjnym celem ataków stają się podmioty, którym to rozwiązanie się nie podoba. I ponownie – awarie wynikające z takich ataków nie muszą być codziennością, ale wystarczy, że będą zdarzać się od czasu do czasu, aby uczynić cały model niestabilnym i ryzykownym.

Infrastruktura chmurowa, na której ma opierać się model wypożyczania mocy komputerów, nie jest i nigdy nie będzie w pełni niezawodna.

To samo można powiedzieć o tradycyjnych maszynach, jednak z uwagi na rozproszony charakter sieci tworzonej przez pojedyncze komputery osobiste, sparaliżowanie wszystkich (lub ich dużej liczby) jednocześnie jest niemożliwe. W przypadku modelu chmurowego ryzyko jest znacznie wyższe.

Nie bez znaczenia jest również fakt, że w modelu licencyjno-subskrypcyjnym, w którym nic nie posiadamy, warunki korzystania z usługi dyktuje podmiot udostępniający. Użytkownik może stracić dostęp do usługi w dowolnym momencie, nie tylko z powodu ataku hakerskiego czy problemów technicznych, ale także wtedy, gdy dana korporacja lub inny podmiot decyzyjny zbankrutuje, albo po prostu uzna, że należy mu ten dostęp odebrać. Z dowolnego powodu. Regulaminy platform, których nikt nie czyta, już teraz dają im taką możliwość, nawet jeśli jest to ukryte pod płaszczykiem „zgodności z polityką serwisu”.

Luksus posiadania

Dla korporacji technologicznych, które z upodobaniem kontrolują coraz większe obszary naszego życia, przejście na model komputerów chmurowych to idealny scenariusz – wiążący użytkownika indywidualnego i biznesowego z ich usługami na długie lata i gwarantujący im stabilne finansowanie. Panująca drożyzna na rynku podzespołów i astronomiczne ceny, jakie trzeba będzie płacić za komputery stacjonarne i laptopy zdolne do samodzielnych obliczeń, są Microsoftowi, Nvidii, Amazonowi i Google’owi bardzo na rękę.

W ten sposób wciągają one w swoje objęcia coraz więcej konsumentów, którzy skuszeni niską ceną abonamentu, są skłonni oddać prawo do własności i zarządzania własnymi danymi. Dziś nie jest to jeszcze tak oczywiste, ale dynamika wzrostu liczby subskrybentów usług i komputerów chmurowych jasno pokazuje, w jakim kierunku zmierzamy.

Na końcu tej drogi czeka nas niestety to, co zapowiadano w spocie Światowego Forum Ekonomicznego.

Dziękujemy, że przeczytałeś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Google.

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *