$ cat quitgpt-pentagon-anthropic-openai.mdx

QuitGPT — dlaczego miliony ludzi odinstalowały ChatGPT w jeden weekend

26 mar 2026 · #quitgpt #chatgpt #anthropic #openai #pentagon #ai #sztuczna inteligencja #ai etyka #claude #sam altman #dario amodei

Pentagon kontra Anthropic, deal OpenAI kilka godzin później, 295% wzrost odinstalowań ChatGPT i Claude na pierwszym miejscu w App Store.

Kapitol USA w Waszyngtonie


Koniec lutego 2026 roku. Pentagon chce, żeby firmy AI oddały mu pełną kontrolę nad swoimi modelami. Jedna firma mówi „nie”. Kilka godzin później jej konkurent podpisuje kontrakt. A potem dwa i pół miliona ludzi odinstalowuje ChatGPT.

To nie jest uproszczenie. To dosłownie to, co się wydarzyło.

Tło — kontrakt z Pentagonem

Latem 2025 roku Pentagon przyznał kontrakty o wartości do 200 milionów dolarów każdy czterem firmom AI: Anthropic, OpenAI, Google i xAI Elona Muska. Claude od Anthropica był jedynym modelem dopuszczonym do pracy z danymi niejawnymi w systemach wojskowych.

Na początku 2026 roku Pentagon zaczął naciskać na zmianę warunków. Chciał, żeby AI od Anthropica było dostępne do „wszelkich celów zgodnych z prawem” — bez żadnych ograniczeń nakładanych przez firmę. Innymi słowy: oddajcie nam klucze, a my sami zdecydujemy, do czego tego użyjemy.

26–27 lutego — ultimatum i odpowiedź

We wtorek 25 lutego sekretarz obrony Pete Hegseth spotkał się z CEO Anthropica, Dario Amodeim. Postawił ultimatum: do piątku 28 lutego, godzina 17:01, firma ma zaakceptować warunki albo traci kontrakt.

Anthropic odpowiedziało publicznie następnego dnia. W oświadczeniu na stronie firmy Amodei napisał:

“Made virtually no progress on preventing Claude’s use for mass surveillance of Americans or in fully autonomous weapons.”

I dodał:

“We cannot in good conscience accede to their request.”

Firma nie odmówiła współpracy z wojskiem. Domagała się dwóch konkretnych rzeczy: zakazu masowej inwigilacji obywateli USA i zakazu broni autonomicznej działającej bez nadzoru człowieka. Pentagon uznał, że to za dużo.

27 lutego — czarna lista i deal OpenAI

27 lutego Pentagon formalnie wpisał Anthropica na listę „zagrożeń dla łańcucha dostaw bezpieczeństwa narodowego”. Według Malwarebytes ta etykieta była do tej pory stosowana wyłącznie wobec firm z krajów uznanych za wrogie — jak chiński Huawei. Pierwszy raz użyto jej przeciwko amerykańskiej firmie.

Anthropic nazwało klasyfikację „bezprawną i politycznie motywowaną”.

I tu robi się ciekawie. Tego samego dnia — dosłownie kilka godzin po wpisaniu Anthropica na czarną listę — OpenAI podpisało kontrakt z Pentagonem. Pikantny szczegół: CEO Sam Altman tego samego ranka publicznie popierał stanowisko Anthropica.

Reakcja — 295% wzrost odinstalowań

Reakcja była błyskawiczna.

Według danych Sensor Tower, cytowanych przez Sovereign Magazine, odinstalowania aplikacji ChatGPT w USA skoczyły o 295% w jeden dzień — 28 lutego. Dla porównania: typowa dzienna zmiana to około 9%.

Claude od Anthropica wskoczył na pierwsze miejsce wśród darmowych aplikacji w App Store USA — po raz pierwszy w historii. Według almcorp.com, na początku roku Claude był na 42. miejscu i spadał.

Organizatorzy ruchu QuitGPT zadeklarowali na quitgpt.org, że ponad 2,5 miliona ludzi podjęło jakieś działanie — odinstalowanie, rezygnacja z subskrypcji, udostępnienie bojkotu. Liczba jest deklaratywna i nie została niezależnie zweryfikowana, ale nawet jeśli jest zawyżona, skala jest bezprecedensowa jak na bojkot aplikacji technologicznej.

3 marca pod siedzibą OpenAI w San Francisco odbyły się protesty. Plakaty „Sam Altman is watching you”, napisy kredą na chodniku „Technology in service of humanity, not war”. Ponad 875 pracowników Google’a i OpenAI podpisało list otwarty popierający Anthropica. Napisali w nim:

“They’re trying to divide each company with fear that the other will give in. That strategy only works if none of us know where the others stand.”

Altman się tłumaczy

3 marca Altman opublikował memo na platformie X. Przyznał, że deal „wyglądał na oportunistyczny i niedbały” i że „nie powinien był się śpieszyć”. Ogłosił zmianę warunków — dodanie zakazu inwigilacji obywateli USA i użycia przez NSA.

Brzmi dobrze, ale diabeł tkwi w szczegółach. Profesorka Jessica Tillipman z George Washington University, cytowana przez MIT Technology Review, wskazała, że zmieniony kontrakt „nie daje OpenAI prawa do samodzielnego zakazania użycia przez rząd, tak jak robiło to Anthropic”. Nowe zapisy opierają się na istniejącym prawie, które rząd sam kontroluje. To jak zamek, do którego właściciel domu ma zapasowy klucz.

W wewnętrznym memo, które wyciekło do The Information, Amodei nazwał komunikację OpenAI wokół dealu „straight up lies” i „safety theater”. TechCrunch opublikował fragmenty.

Co dalej

Anthropic pozwało Pentagon. Microsoft publicznie wsparł Anthropica w kwestii prawnej — co jest o tyle interesujące, że Microsoft jest jednocześnie największym inwestorem OpenAI. Sprawa sądowa trwa.

Pentagon wdraża modele od OpenAI i xAI w systemach niejawnych. Ironicznie, Claude nadal jest używany w operacjach wojskowych — w tym w kontekście Iranu — ze względu na sześciomiesięczny okres przejściowy. Model, który Pentagon oficjalnie uznał za zagrożenie, wciąż pracuje w ich systemach.


Źródła

$ cd ../