Jeszcze niedawno sztuczna inteligencja była dla wielu czymś w rodzaju technologicznej ciekawostki. Dziś weszła wszędzie. Do armii, do e-commerce, do urzędów, do szkół, do marketingu, do call center, do analizy dokumentów, do obsługi klientów. Jest w wojnie informacyjnej wokół Ukrainy, w systemach rozpoznawania obrazów, w automatyzacji handlu i coraz częściej także w codziennej pracy samorządów, gmin i powiatów.
I właśnie dlatego spór o to, kto kontroluje AI, na jakich zasadach i za czyje pieniądze, przestaje być branżową kłótnią Doliny Krzemowej. To już sprawa polityczna, gospodarcza i społeczna.
W ostatnich tygodniach jednym z głośniejszych tematów stało się napięcie wokół OpenAI, Sama Altmana i konkurencyjnego Anthropic. W publicystyce amerykańskiej ten konflikt opisywany jest niemal jak moralny pojedynek: z jednej strony bezwzględny biznes, z drugiej — odpowiedzialność i bezpieczeństwo. Problem w tym, że rzeczywistość jest trochę bardziej skomplikowana. I właśnie tam, gdzie kończy się efektowna narracja, zaczyna się ciekawsza analiza.
Skąd bierze się presja na OpenAI?
OpenAI przez lata budowało wokół siebie historię niemal idealistyczną. Firma miała rozwijać sztuczną inteligencję z myślą o dobru ludzkości, z ostrożnością, z refleksją, z poczuciem odpowiedzialności. Brzmiało to dobrze. Nawet bardzo dobrze.
Ale później przyszły wielkie inwestycje, wyścig modeli, rosnące koszty infrastruktury, gigantyczne centra danych, presja rynku i presja polityczna. A wraz z nimi pytanie, czy taka firma może jeszcze działać jak laboratorium idei, skoro stała się jednym z najważniejszych graczy nowej gospodarki.
Krytycy Sama Altmana mówią dziś wprost: historia o „AI dla dobra ludzkości” coraz wyraźniej przechodzi w historię o dominacji, kontraktach i pozycji strategicznej. Zwłaszcza gdy technologia zaczyna wchodzić w obszary najwrażliwsze — bezpieczeństwo, nadzór, usługi publiczne, administrację czy systemy obronne.
Czy to już walka o rynek, czy o władzę?
Tu właśnie pojawia się najważniejsza zmiana. AI nie jest już tylko narzędziem do pisania maili, generowania obrazków czy streszczania raportów.
To infrastruktura nowego świata.
Na wojnie oznacza szybszą analizę danych, obrazów satelitarnych, rozpoznanie, filtrowanie informacji i propagandy. W handlu internetowym oznacza automatyzację opisów, reklamy, rekomendacje produktów, dynamiczne ceny i obsługę klienta bez człowieka. W urzędach może oznaczać analizę pism, porządkowanie dokumentów, wsparcie obiegu spraw, obsługę mieszkańców czy przygotowywanie decyzji administracyjnych.
I właśnie dlatego nie da się już mówić o AI wyłącznie jak o sektorze technologicznym. To obszar wpływu. Kto ma modele, dane, infrastrukturę i kontrakty, ten ma realny wpływ na państwo, gospodarkę i obywateli.
Anthropic jako „ten rozsądny”? To nie takie proste
W amerykańskiej publicystyce Dario Amodei, szef Anthropic, bywa dziś przedstawiany jako przeciwieństwo Sama Altmana. Ten ostrożny. Ten etyczny. Ten, który powiedział „nie”, gdy pojawiły się oczekiwania związane z użyciem AI w obszarach szczególnie ryzykownych, takich jak masowa inwigilacja czy autonomiczne systemy uzbrojenia.
To mocna opowieść. Medialnie wręcz idealna.
Ale trzeba uważać, żeby nie wpaść w pułapkę zbyt prostego podziału: dobry gracz kontra zły gracz. Obie firmy działają na tym samym rynku. Obie rozwijają zaawansowane modele. Obie potrzebują kapitału. Obie zabiegają o kontrakty, wpływy i pozycję. Różnica polega raczej na stylu, tempie i sposobie komunikacji ryzyka niż na tym, że jedna firma jest z natury „czysta”, a druga „zepsuta”.
To nie jest bajka o rycerzu i smoku. To jest walka dwóch potężnych graczy o zaufanie rynku i opinii publicznej.
Gdzie w tym wszystkim jest Microsoft?
Tu robi się jeszcze ciekawiej. Bo kiedy w tle pojawia się Microsoft, sprawa przestaje być wyłącznie konfliktem dwóch firm AI. Wchodzi do gry wielki, doświadczony gracz, który od dawna potrafi zarabiać nie na samym zachwycie technologią, ale na jej praktycznym wdrażaniu.
I czasem właśnie ten, kto wchodzi drugi, wygrywa najwięcej.
Nie dlatego, że ma lepszą legendę założycielską, tylko dlatego, że ma infrastrukturę, relacje z biznesem, administracją i rynkiem enterprise. To ważne, bo przyszłość AI rozstrzygnie się nie tylko w laboratoriach, ale przede wszystkim w realnych wdrożeniach: w firmach, instytucjach, wojsku, samorządach i usługach publicznych.
Ten słynny „spadek wartości o 10 tysięcy dolarów”. Co tu się nie zgadza?
W pierwotnej wersji tekstu pojawiło się sformułowanie, że rezygnacja jednej osoby z subskrypcji za 20 dolarów miesięcznie oznacza dla OpenAI około 240 dolarów mniej rocznego przychodu i nawet 10 tysięcy dolarów spadku wyceny firmy.
Brzmi efektownie. Nawet bardzo. Tyle że bez wyjaśnienia wprowadza czytelnika w błąd.
Mechanizm jest taki: startupy technologiczne bywają wyceniane nie tylko na podstawie tego, ile dziś zarabiają, ale także według mnożnika przyszłych przychodów. Jeśli ktoś przyjmuje, że firma jest warta przykładowo 40 razy więcej niż jej roczny przychód przypadający na danego klienta, to roczne 240 dolarów z abonamentu można przemnożyć i otrzymać okolice 10 tysięcy dolarów „wartości rynkowej”.
Matematycznie da się to policzyć. Problem w tym, że ekonomicznie to już bardziej retoryka niż twardy fakt.
Jedna osoba nie powoduje automatycznie realnego spadku wartości firmy o 10 tysięcy dolarów. To nie działa jak kasa fiskalna połączona z giełdą. Wycena spółki zależy od znacznie większej liczby czynników: tempa wzrostu, przewidywań inwestorów, kosztów, marż, kontraktów, konkurencji, regulacji i ogólnego nastroju rynku. Taki przelicznik może służyć jako hasło mobilizujące do bojkotu, ale nie powinien być podawany bez zastrzeżeń jako bezpośrednia ekonomiczna prawda.
Krótko mówiąc: liczba może się zgadzać jako publicystyczna ilustracja, ale nie jako precyzyjny opis działania rynku.
Jest jeszcze drugi problem: zawyżona skala opowieści
Jeszcze poważniejszy kłopot dotyczy tego, jak w debacie o AI miesza się wycenę, przychody, oczekiwania i propagandę sukcesu. Wokół firm takich jak OpenAI narosły dziś liczby tak wielkie, że łatwo stracić grunt pod nogami.
Rynek AI żyje obietnicą. Nie tylko tym, co firmy już robią, ale tym, co mają zrobić. Nie tylko tym, ile dziś zarabiają, ale ile „mogą kiedyś zarabiać”. To powoduje, że w debacie publicznej wyceny zaczynają funkcjonować jak element mitu. Im większa liczba, tym większe wrażenie, tym mocniejsza narracja, tym łatwiej budować aurę nieuchronności.
A przecież pod spodem są bardzo przyziemne problemy: gigantyczne koszty energii, drogie układy obliczeniowe, uzależnienie od inwestorów, ryzyko regulacyjne i pytanie, czy ten model wzrostu da się utrzymać przez lata.
To jest właśnie sedno. W branży AI sprzedaje się dziś nie tylko produkt. Sprzedaje się przyszłość.
Dlaczego to jest ważne także dla Polski?
Bo sztuczna inteligencja nie zatrzyma się na wielkich amerykańskich kontraktach. Ona już schodzi niżej. Do firm, redakcji, szkół, sklepów, urzędów i samorządów.
W gminie może być przedstawiana jako narzędzie usprawniające obieg dokumentów. W powiecie jako wsparcie analizy danych i procedur. W e-commerce jako sposób na szybszą sprzedaż i tańszy marketing. W mediach jako narzędzie produkcji treści, analizy materiałów i segmentacji odbiorców. W służbach i obronności — jako element nowoczesnego zarządzania informacją.
I właśnie dlatego trzeba o AI pisać bez zachwytu podszytego reklamą i bez paniki podszytej moralnym teatrem. Trzeba patrzeć na nią jak na narzędzie realnej władzy. Takie, które może pomagać, ale może też pogłębiać zależność od prywatnych korporacji, automatyzować błędy, wzmacniać nadzór i wypychać decyzje publiczne poza kontrolę obywateli.
O co naprawdę toczy się ta gra?
Nie tylko o to, kto będzie miał lepszy model językowy. Nie tylko o to, czyj chatbot będzie szybszy, tańszy i popularniejszy.
Gra toczy się o to, kto ustali zasady korzystania z AI w świecie, który coraz bardziej się od niej uzależnia.
Czy będą to zasady ustalane przez demokratyczne państwa, prawo i instytucje publiczne?
Czy może przez kilka korporacji, które zbudują tak silną pozycję, że polityka będzie już tylko nadążała za ich decyzjami?
To pytanie jest dziś ważniejsze niż wszystkie marketingowe wojny między Altmanem a Amodeim.
Koniec epoki niewinności
Epoka opowieści o „magicznej technologii dla wszystkich” po prostu się kończy. AI stała się przemysłem strategicznym. A przemysły strategiczne nie żyją w próżni. Wchodzą w układy z państwem, wojskiem, biznesem, mediami i administracją. Przynoszą zyski, ale i napięcia. Otwierają nowe możliwości, ale i nowe pola nacisku.
Dlatego każda poważna rozmowa o AI powinna dziś zaczynać się nie od pytania, co jeszcze potrafi model, lecz od pytania:
kto go kontroluje, kto go wdraża, kto na nim zarabia i kto ponosi odpowiedzialność, gdy zaczyna decydować o coraz większej części naszego życia.
Bo AI już dawno przestała być zabawką.
Teraz jest narzędziem wpływu.
A tam, gdzie zaczyna się wpływ, kończy się niewinność.
Źródło inspiracji do analizy: tekst Scotta Gallowaya „The Resistance Comes for OpenAI”, opracowanie i krytyczna analiza redakcyjna.




