Mercor zhakowany - 4TB sekretów AI na sprzedaż
Jeden zatruty pakiet w sklepie z narzędziami dla programistów. Tyle wystarczyło, żeby ukraść sekrety treningowe największych firm AI na świecie. Startup wart 10 miliardów dolarów, dane ponad 40 000 osób i terabajty kodu źródłowego - wszystko na sprzedaż w dark webie.

Mercor to startup wyceniany na $10 miliardów, który dostarcza dane treningowe dla OpenAI, Anthropic i Meta. Brzmi jak firma, która powinna mieć zabezpieczenia na poziomie Fort Knox. A wystarczył jeden zainfekowany pakiet w sklepie z narzędziami dla programistów, żeby to wszystko runęło.
Jak to się zaczęło - zatruty LiteLLM
LiteLLM to biblioteka open-source z 97 milionami pobrań miesięcznie. Używają jej programiści na całym świecie do łączenia swoich aplikacji z modelami AI. Popularność robi z niej idealny cel.
Grupa hakerska o nazwie TeamPCP przejęła kontrolę nad procesem publikacji LiteLLM i 27 marca 2026 wrzuciła dwie zatruty wersje - 1.82.7 i 1.82.8 - do sklepu z narzędziami dla programistów. Kto je pobrał i zainstalował, nieświadomie wpuścił do siebie złośliwe oprogramowanie.
Co dokładnie kradł ten kod? Praktycznie wszystko:
- Hasła i klucze dostępu do usług chmurowych (AWS, Google Cloud, Azure)
- Klucze SSH
- Konfiguracje Kubernetes
- Dane uwierzytelniające do baz danych
- Sekrety z systemów budowania oprogramowania
Krótko mówiąc - klucze do całego królestwa.
Mercor - główna ofiara
Przez zatrute wersje LiteLLM hakerzy dostali się do systemów Mercor. A to nie jest byle jaki startup. Mercor dostarcza dane treningowe dla największych firm AI. To znaczy, że w ich systemach mogą być informacje o tym, jak OpenAI, Anthropic i Meta trenują swoje modele.
Lapsus$ - grupa hakerska znana wcześniej z ataków na Ubera, Nvidię i Microsofta - ogłosiła, że to ich robota. Twierdzą, że mają 4 terabajty danych:
- 939 GB kodu źródłowego
- 200+ GB baz danych
- 3 TB materiałów wideo i weryfikacyjnych
Co może być w tych bazach? Kryteria doboru danych treningowych. Protokoły etykietowania. Strategie treningowe. Dla konkurencji - i dla państw jak Chiny - to dosłownie przepis na modelowanie AI.
40 000 osób i reakcja Meta
Dane osobowe ponad 40 000 osób mogły zostać ujawnione. To nie tylko pracownicy Mercor - to także ludzie, którzy dostarczali dane treningowe i wykonywali zadania etykietowania dla firm AI.
Meta zareagowała błyskawicznie - zamroziła całą współpracę z Mercor. Żadnych nowych zleceń, żadnych transferów danych. Cisza.
Tymczasem Lapsus$ wystawił skradzione dane na aukcję w dark webie. Kto kupi? Konkurenci? Inne grupy hakerskie? Obce rządy? Nie wiemy. Ale sam fakt, że sekrety treningowe AI gigantów mogą trafić w niepowołane ręce, powinien budzić niepokój.
Moja perspektywa
No i mamy problem, o którym branża AI wolałaby nie mówić. Firmy wydają miliardy na trenowanie modeli, budują coraz lepsze zabezpieczenia wokół swoich centrów danych - a wystarczy jeden zainfekowany pakiet w sklepie z narzędziami, żeby obejść to wszystko bokiem.
97 milionów pobrań miesięcznie. Jedna zatruta wersja. I nagle sekrety treningowe trzech największych firm AI na świecie leżą na stole.
To nie jest pytanie, czy takie ataki będą się zdarzać. To pytanie, jak często. Łańcuch dostaw oprogramowania w AI jest tak mocny jak jego najsłabsze ogniwo. A dzisiaj to ogniwo ma 97 milionów pobrań i zero audytu bezpieczeństwa przy publikacji.
AITU #04 - cały odcinek o najważniejszych newsach AI tego tygodnia.
Źródła
- TechCrunch - “Mercor says it was hit by cyberattack tied to LiteLLM” (31.03.2026)
- Fortune - “Mercor, a $10 billion AI startup, confirms breach” (02.04.2026)
- Cybernews - “Hackers claim 4TB of critical data” (04.2026)
- The Next Web - “Meta freezes AI data work after breach” (04.2026)
- Hackread - “AI Firm Mercor Confirms Breach as Hackers Claim 4TB” (04.2026)