Zimna wojna AI - koalicja przeciwko chińskiej kradzieży
Trzy największe firmy AI w Ameryce - rywalki na co dzień - postanowiły połączyć siły. Powód? Chińskie firmy kradną ich modele na masową skalę.

Wyobraź sobie, że budujesz coś przez lata. Wydajesz miliardy dolarów. A ktoś przychodzi, zadaje twojemu produktowi miliony pytań i na podstawie odpowiedzi buduje własną, tańszą kopię. Dokładnie to się dzieje w świecie AI.
Frontier Model Forum zmienia rolę
Frontier Model Forum to organizacja założona w 2023 roku przez OpenAI, Anthropic, Google i Microsoft. Pierwotnie miała zajmować się bezpieczeństwem AI. Teraz po raz pierwszy w historii została wykorzystana jako centrum wymiany informacji o zagrożeniach.
To nie jest drobna zmiana. Firmy, które na co dzień rywalizują o każdego klienta, zaczęły dzielić się danymi wywiadowczymi o atakach. Pierwszy raz widzimy coś takiego w branży technologicznej na taką skalę.
Jak działa kradzież?
Metoda nazywa się “adversarial distillation” - destylacja wroga. Brzmi skomplikowanie, ale zasada jest prosta.
Bierzesz cudzy model. Zadajesz mu miliony pytań. Zbierasz odpowiedzi. I na podstawie tych odpowiedzi trenujesz własny, tańszy model, który zachowuje się podobnie do oryginału.
To nie jest zwykłe kopiowanie kodu. To bardziej jak student, który zamiast się uczyć, przepisuje odpowiedzi kolegi tak długo, aż sam zaczyna rozumieć wzorce.
Cel ataków? Przede wszystkim trzy chińskie firmy: DeepSeek, Moonshot AI i MiniMax.
16 milionów wymian przez fałszywe konta
Skala jest absurdalna. Sam Anthropic ujawnił, że przez ich model Claude przeszło 16 milionów wymian za pośrednictwem około 24 000 fałszywych kont. Każde takie konto systematycznie odpytywało model, zbierając dane do treningu.
24 tysiące kont. Nie jedno, nie dziesięć. Ktoś zbudował do tego poważną infrastrukturę.
OpenAI idzie do Kongresu
OpenAI poszło o krok dalej. Firma złożyła formalne memorandum do House Select Committee on China - komisji Kongresu USA zajmującej się relacjami z Chinami.
To sygnał, że sprawa wykroczyła poza biznes. Kiedy firma technologiczna prosi o interwencję rządową, sytuacja musi być naprawdę poważna.
Katalizator: DeepSeek R1
Co zmieniło sytuację? Model DeepSeek R1 - model rozumowania opublikowany na początku 2025 roku. Pokazał, że destylacja działa. I to dobrze.
R1 osiągał wyniki porównywalne z dużo droższymi modelami amerykańskich firm. Pytanie, które zadawali sobie ludzie w branży: skąd taka jakość przy ułamku kosztów? Odpowiedź - przynajmniej częściowa - to właśnie masowe odpytywanie cudzych modeli.
Moja perspektywa
No tak, sytuacja jest skomplikowana. Z jednej strony - kradzież to kradzież, nawet jeśli technicznie nikt nie łamie zamka. Z drugiej - to pokazuje fundamentalny problem z modelami AI udostępnianymi przez internet. Jak chronisz produkt, którego wartość ujawnia się z każdą odpowiedzią?
Moim zdaniem to dopiero początek. Koalicja OpenAI, Anthropic i Google to pierwszy krok. Ale jeśli destylacja jest tak skuteczna, same techniczne zabezpieczenia nie wystarczą. Zobaczymy regulacje, sankcje, może nawet ograniczenia dostępu do modeli per region.
Zimna wojna AI? Raczej już ciepła.
AITU numer 4 - cały odcinek na YouTube.
Źródła
- Reuters - “US AI labs share intelligence on Chinese model theft” (kwiecień 2026)
- The Information - “OpenAI Memo to House Select Committee on China” (marzec 2026)
- Anthropic - “Addressing adversarial distillation attempts” (marzec 2026)
- Financial Times - “Frontier Model Forum pivots to threat intelligence” (kwiecień 2026)
- Ars Technica - “DeepSeek R1 and the distillation controversy” (styczeń 2025)
- CNBC - “Google, OpenAI, Anthropic form anti-theft coalition” (kwiecień 2026)
- TechCrunch - “Inside the 24,000 fake accounts used to steal AI models” (kwiecień 2026)
- Axios - “The AI cold war heats up” (kwiecień 2026)