Prasa miała właścicieli.
Radio miało koncesje.
Telewizja miała nadawców.
Internet miał algorytmy.
Każde z tych mediów przechodziło bardzo podobny cykl. Na początku pojawiała się obietnica: nowa technologia, większy dostęp, demokratyzacja, rozproszenie wpływu, świeża nadzieja. Potem przychodził drugi etap. Ktoś odkrywał, że nowe medium nie jest tylko narzędziem komunikacji. Jest narzędziem wpływu. I zwykle szybko zaczynał z niego korzystać.
Nie ma specjalnego powodu, żeby wierzyć, że z modelami AI będzie inaczej.
Można oczywiście powiedzieć, że AI jest inne, bo:
- działa szybciej,
- potrafi personalizować przekaz,
- może być jednocześnie narzędziem, doradcą, filtrem i interfejsem,
- a do tego coraz częściej staje się warstwą pośredniczącą między człowiekiem a informacją.
To wszystko prawda. Ale właśnie dlatego mechanizm jest jeszcze bardziej znajomy, nie mniej.
Pytanie nie brzmi więc, czy modele językowe będą wykorzystywane do wpływu, propagandy, kontroli, selekcji informacji albo asymetrycznego wzmacniania interesów państw i instytucji. To pytanie jest już w praktyce zamknięte. Historia mediów nie daje żadnych racjonalnych podstaw, by wierzyć, że tym razem stanie się inaczej.
Jedynym uczciwym pytaniem pozostaje:
który rząd, kiedy i za jaką cenę.
Anthropic, Pentagon i cena odmowy
W ostatnich tygodniach to pytanie nabrało bardzo konkretnego kształtu.
Reuters opisał spór między Anthropic a Pentagonem, który wybuchł po tym, jak firma odmówiła poluzowania ograniczeń dotyczących użycia jej modeli. Chodziło konkretnie o dwa obszary: masową krajową inwigilację obywateli USA oraz w pełni autonomiczne systemy zabijania bez kontroli człowieka. Po odmowie Pentagon oznaczył Anthropic jako „supply-chain risk”, co zagroziło kontraktom firmy z rządem i uruchomiło otwarty konflikt prawny oraz polityczny.
Anthropic samo opisało te granice publicznie. W oświadczeniach firmy pojawia się wprost stanowisko, że:
- masowa krajowa inwigilacja obywateli jest nie do pogodzenia z wartościami demokratycznymi,
- a w pełni autonomiczne użycie AI w systemach zabijania przekracza granice, których firma nie chce akceptować.
To ważny moment, bo pokazuje, że w świecie AI „bezpieczeństwo modelu” nie jest już tylko sprawą benchmarków, red-teamingu i technicznych polityk użycia. Jest także sprawą tego, gdzie firma stawia granice, kiedy pojawia się realna presja państwa i pieniędzy.
I właśnie tutaj dochodzimy do rzeczy naprawdę istotnej.
Ta historia nie jest wyłącznie opowieścią o Anthropic.
To jest historia o tym, że wartości firmy mają cenę.
Nie w sensie abstrakcyjnego sloganu z prezentacji dla inwestorów, ale w bardzo dosłownym znaczeniu:
- kontraktu,
- dostępu do rynku,
- relacji z państwem,
- miejsca w infrastrukturze publicznej i wojskowej.
Anthropic wybrało odmowę w dwóch konkretnych obszarach. Za tę odmowę zapłaciło politycznie i biznesowo. To nie czyni z firmy świętego bytu ponad systemem. Ale czyni z tej sytuacji rzadki i ważny przypadek, w którym korporacyjna deklaracja wartości spotkała się z realnym kosztem.
OpenAI wybrało inną drogę
Na tym tle OpenAI wygląda inaczej.
OpenAI zawarło porozumienie z Pentagonem i publicznie opisało je jako współpracę obwarowaną wyraźnymi ograniczeniami. Firma twierdzi, że umowa obejmuje trzy czerwone linie:
- brak użycia do masowej krajowej inwigilacji,
- brak użycia do autonomicznego kierowania systemami broni tam, gdzie wymagany jest nadzór człowieka,
- brak użycia do wysokostawkowych, w pełni automatycznych decyzji dotyczących praw jednostki.
OpenAI podkreśla też, że wdrożenie ma być prowadzone w kontrolowanym środowisku chmurowym, z dodatkowymi zabezpieczeniami, kontrolą dostępu i personelem firmy „w pętli”. Firma przedstawia to jako przykład współpracy z państwem, która ma odbywać się przy zachowaniu jasnych granic.
I właśnie w tym miejscu temat robi się naprawdę ciekawy.
Bo to nie jest już prosty obrazek:
- jedna firma dobra,
- druga zła,
- jedna etyczna,
- druga sprzedana.
To byłoby dziecinne.
Uczciwszy opis wygląda tak:
Anthropic wybrało odmowę i zapłaciło cenę. OpenAI wybrało współpracę i twierdzi, że da się ją prowadzić bez przekraczania własnych granic.
I właśnie to drugie założenie jest jednym z najważniejszych testów politycznych, technologicznych i cywilizacyjnych całej epoki modeli językowych.
Dlaczego neutralność modelu staje się mniej wiarygodna
To jest punkt, w którym cała dyskusja przestaje dotyczyć wyłącznie tego, „kto ma rację”.
Znacznie ważniejsze staje się coś innego:
czy po wejściu firmy AI w taki układ z państwem można jeszcze sensownie mówić o neutralności modelu w dawnym rozumieniu.
I tu moja odpowiedź brzmi:
znacznie trudniej niż wcześniej.
Nie dlatego, że model automatycznie staje się propagandą.
Nie dlatego, że każda odpowiedź od jutra jest „pisana przez rząd”.
Nie dlatego, że technologia nagle przestaje działać.
Tylko dlatego, że od tego momentu model nie istnieje już wyłącznie jako narzędzie techniczne.
Istnieje także jako element relacji między:
- firmą,
- infrastrukturą państwową,
- kontraktem,
- polityką użycia,
- i przyszłymi negocjacjami dotyczącymi granic.
To bardzo dużo zmienia.
Do tej pory wielu użytkowników mogło jeszcze wierzyć, że neutralność modelu to przede wszystkim kwestia:
- jakości treningu,
- balansu danych,
- strojenia odpowiedzi,
- ochrony przed uprzedzeniami,
- i może trochę polityki moderacyjnej.
Ale w chwili, gdy model staje się częścią formalnej współpracy z aparatem państwowym, rozmowa o neutralności przestaje być wyłącznie rozmową o technologii. Staje się rozmową o układzie sił.
A układ sił nigdy nie jest neutralny.
Model jest taki, jak wartości firmy, która go trenuje
To zdanie warto powiedzieć bardzo wprost.
Model nie jest tylko sumą parametrów.
Nie jest tylko benchmarkiem.
Nie jest tylko API.
Nie jest tylko interfejsem.
Model jest również produktem:
- decyzji firmy,
- jej granic,
- jej zależności,
- jej interesów,
- i jej gotowości do odmowy wtedy, gdy stawka staje się naprawdę duża.
To właśnie dlatego wartości firmy są częścią bezpieczeństwa modelu.
Nie w sensie PR-owym.
W sensie strukturalnym.
Jeśli firma deklaruje jakieś granice, ale można je przesuwać pod presją kontraktu, to znaczy, że model jest politycznie i instytucjonalnie negocjowalny. A jeśli model jest negocjowalny, to negocjowalne staje się również to, co użytkownik mu powierza:
- pytania,
- kontekst pracy,
- procesy decyzyjne,
- zależność poznawcza,
- i coraz częściej również operacyjne zadania.
To nie znaczy automatycznie, że ktoś już teraz robi z tego najgorszy możliwy użytek.
To znaczy coś prostszego i ważniejszego:
użytkownik nie może już zakładać, że warstwa polityczna i kontraktowa nie ma wpływu na model, z którego korzysta.
To nie jest paranoja. To higiena
Bardzo łatwo wpaść tu w dwie skrajności.
Pierwsza skrajność mówi:
- „nic się nie dzieje, to tylko kontrakt jak każdy inny”.
Druga skrajność mówi:
- „wszystko już zostało przejęte, koniec neutralnej AI”.
Obie są zbyt wygodne.
Dużo uczciwsze jest podejście bardziej przyziemne:
świadomość, z czego korzystasz, jest częścią bezpieczeństwa.
Nie jako paranoja.
Jako higiena.
Tak samo jak dziś:
- wiesz, że przeglądarka zbiera dane,
- wiesz, że algorytm rekomendacji nie jest neutralny,
- wiesz, że platforma moderuje treści według własnych reguł,
- wiesz, że ranking nie jest obiektywnym odbiciem rzeczywistości,
tak samo warto wiedzieć, że model, z którym pracujesz:
- ma właściciela,
- ma politykę użycia,
- ma zaplecze instytucjonalne,
- i może być uwikłany w relacje, które wpływają na jego przyszłość.
To nie wymaga panicznego odrzucania technologii.
Wymaga tylko porzucenia naiwności.
AI nie jest wyjątkiem od historii mediów
To chyba najważniejszy wniosek z całej tej sprawy.
Wokół każdej dużej technologii komunikacyjnej pojawiał się kiedyś mit, że tym razem będzie inaczej:
- bardziej wolnościowo,
- bardziej oddolnie,
- bardziej neutralnie,
- bardziej odporne na stare układy władzy.
A potem okazywało się, że nowa technologia po prostu tworzy nową formę infrastruktury wpływu.
AI nie wygląda dziś jak wyjątek od tego wzorca.
Wygląda raczej jak jego najbardziej zaawansowana wersja.
Bo model językowy nie jest tylko medium.
Jest jednocześnie:
- filtrem,
- tłumaczem,
- doradcą,
- streszczaczem,
- interfejsem,
- i coraz częściej pośrednikiem poznawczym.
To oznacza, że kontrola nad nim może być cenniejsza niż kontrola nad wieloma wcześniejszymi mediami.
Nie dlatego, że AI jest „bardziej złe”.
Tylko dlatego, że jest bardziej głęboko osadzone w procesie podejmowania decyzji.
Anthropic warto odnotować. OpenAI warto obserwować. Żadnemu nie warto ufać bezwarunkowo
To chyba najuczciwsze zdanie, jakie można tu postawić.
Anthropic pokazało w tym momencie gotowość do zapłacenia ceny za dwie konkretne granice. To jest rzadkie i warte odnotowania. Nie oznacza świętości. Nie oznacza trwałej niewinności. Ale oznacza, że w tej jednej sytuacji firma nie sprzedała swojego stanowiska od razu przy pierwszym dużym nacisku.
OpenAI pokazało coś innego: wejście w bezpośrednią współpracę z aparatem państwowym przy równoczesnym twierdzeniu, że da się utrzymać mocne granice użycia i dodatkowe zabezpieczenia. To również jest warte uwagi — ale nie jako dowód neutralności, tylko jako test wiarygodności tych granic w dłuższym czasie.
I właśnie dlatego żadnej z tych firm nie warto dziś czytać naiwnie.
Nie chodzi o to, żeby z miejsca budować teorię spiskową.
Chodzi o to, żeby przestać mówić o modelach tak, jakby były oderwane od instytucji, które je trenują, kontraktują i wdrażają.
Bo nie są.
Który rząd, kiedy i za jaką cenę
To pytanie wraca na końcu nie dlatego, że dobrze brzmi.
Wraca dlatego, że historia każdego medium pokazuje podobny wzorzec:
- najpierw nowa wolność,
- potem nowy rynek,
- potem nowy układ wpływu,
- a na końcu nowa normalność, którą wszyscy zaczynają traktować jak coś oczywistego.
Jeśli AI ma wejść tą samą drogą — a wszystko wskazuje na to, że właśnie nią idzie — to naprawdę nie warto już pytać, czy modele będą częścią polityki, władzy i wpływu.
To się już dzieje.
Warto pytać o rzeczy trudniejsze:
- kto wyznacza granice,
- kto je negocjuje,
- kto płaci za odmowę,
- kto zarabia na zgodzie,
- i jaką cenę płaci za to użytkownik, który jeszcze wierzy, że korzysta wyłącznie z „narzędzia”.
Bo od pewnego momentu model przestaje być tylko narzędziem.
Staje się elementem infrastruktury.
A infrastruktura zawsze ma właściciela, interes i kierunek.

































