$ cat mercor-wyciek-litellm-4tb.mdx

Mercor zhakowany - 4TB sekretów AI na sprzedaż

14 kwi 2026 · #mercor #litellm #cyberbezpieczeństwo #lapsus #dane treningowe #ai #supply chain #meta

Jeden zatruty pakiet w sklepie z narzędziami dla programistów. Tyle wystarczyło, żeby ukraść sekrety treningowe największych firm AI na świecie. Startup wart 10 miliardów dolarów, dane ponad 40 000 osób i terabajty kodu źródłowego - wszystko na sprzedaż w dark webie.

Ciemne centrum danych z rzędami szaf serwerowych oświetlonych czerwonym światłem


Mercor to startup wyceniany na $10 miliardów, który dostarcza dane treningowe dla OpenAI, Anthropic i Meta. Brzmi jak firma, która powinna mieć zabezpieczenia na poziomie Fort Knox. A wystarczył jeden zainfekowany pakiet w sklepie z narzędziami dla programistów, żeby to wszystko runęło.

Jak to się zaczęło - zatruty LiteLLM

LiteLLM to biblioteka open-source z 97 milionami pobrań miesięcznie. Używają jej programiści na całym świecie do łączenia swoich aplikacji z modelami AI. Popularność robi z niej idealny cel.

Grupa hakerska o nazwie TeamPCP przejęła kontrolę nad procesem publikacji LiteLLM i 27 marca 2026 wrzuciła dwie zatruty wersje - 1.82.7 i 1.82.8 - do sklepu z narzędziami dla programistów. Kto je pobrał i zainstalował, nieświadomie wpuścił do siebie złośliwe oprogramowanie.

Co dokładnie kradł ten kod? Praktycznie wszystko:

  • Hasła i klucze dostępu do usług chmurowych (AWS, Google Cloud, Azure)
  • Klucze SSH
  • Konfiguracje Kubernetes
  • Dane uwierzytelniające do baz danych
  • Sekrety z systemów budowania oprogramowania

Krótko mówiąc - klucze do całego królestwa.

Mercor - główna ofiara

Przez zatrute wersje LiteLLM hakerzy dostali się do systemów Mercor. A to nie jest byle jaki startup. Mercor dostarcza dane treningowe dla największych firm AI. To znaczy, że w ich systemach mogą być informacje o tym, jak OpenAI, Anthropic i Meta trenują swoje modele.

Lapsus$ - grupa hakerska znana wcześniej z ataków na Ubera, Nvidię i Microsofta - ogłosiła, że to ich robota. Twierdzą, że mają 4 terabajty danych:

  • 939 GB kodu źródłowego
  • 200+ GB baz danych
  • 3 TB materiałów wideo i weryfikacyjnych

Co może być w tych bazach? Kryteria doboru danych treningowych. Protokoły etykietowania. Strategie treningowe. Dla konkurencji - i dla państw jak Chiny - to dosłownie przepis na modelowanie AI.

40 000 osób i reakcja Meta

Dane osobowe ponad 40 000 osób mogły zostać ujawnione. To nie tylko pracownicy Mercor - to także ludzie, którzy dostarczali dane treningowe i wykonywali zadania etykietowania dla firm AI.

Meta zareagowała błyskawicznie - zamroziła całą współpracę z Mercor. Żadnych nowych zleceń, żadnych transferów danych. Cisza.

Tymczasem Lapsus$ wystawił skradzione dane na aukcję w dark webie. Kto kupi? Konkurenci? Inne grupy hakerskie? Obce rządy? Nie wiemy. Ale sam fakt, że sekrety treningowe AI gigantów mogą trafić w niepowołane ręce, powinien budzić niepokój.


Moja perspektywa

No i mamy problem, o którym branża AI wolałaby nie mówić. Firmy wydają miliardy na trenowanie modeli, budują coraz lepsze zabezpieczenia wokół swoich centrów danych - a wystarczy jeden zainfekowany pakiet w sklepie z narzędziami, żeby obejść to wszystko bokiem.

97 milionów pobrań miesięcznie. Jedna zatruta wersja. I nagle sekrety treningowe trzech największych firm AI na świecie leżą na stole.

To nie jest pytanie, czy takie ataki będą się zdarzać. To pytanie, jak często. Łańcuch dostaw oprogramowania w AI jest tak mocny jak jego najsłabsze ogniwo. A dzisiaj to ogniwo ma 97 milionów pobrań i zero audytu bezpieczeństwa przy publikacji.

AITU #04 - cały odcinek o najważniejszych newsach AI tego tygodnia.

Źródła

$ cd ../