FBI: oszustwa AI za 893 miliony dolarów - pierwsza taka kategoria w historii
W 25-letniej historii raportów FBI Internet Crime Complaint Center nie było osobnej kategorii dla sztucznej inteligencji. Aż do teraz. W 2025 roku Amerykanie zgłosili 22 364 oszustwa z użyciem AI i stracili na nich 893 miliony dolarów.

FBI publikuje roczny raport IC3 od 2000 roku. Przez ćwierć wieku kategorie przestępstw internetowych się zmieniały - doszło phishingowe, ransomware, cryptoscamy. Ale do 2025 roku żadna z nich nie dotyczyła bezpośrednio sztucznej inteligencji. To się właśnie skończyło.
Dlaczego FBI stworzyło nową kategorię?
Bo skala problemu wymknęła się spod kontroli.
893 miliony dolarów strat to nie jest projekcja ani szacunek - to suma zgłoszonych przypadków. A wiemy, że większość oszustw w ogóle nie trafia do statystyk. Realna liczba jest prawdopodobnie wielokrotnie wyższa.
Co ciekawe - FBI nie dorzuciło AI do istniejącej kategorii. Stworzyli zupełnie nową. To sygnał, że traktują to jako odrębne zjawisko, nie wariant czegoś znanego.
Jak wyglądają te oszustwa?
Metody są przerażająco proste do wdrożenia i trudne do wykrycia.
Klonowanie głosu - wystarczy kilka sekund nagrania z social mediów. Oszuści pobierają filmik z Instagrama, klonują głos i dzwonią do rodziców ofiary. “Mamo, miałem wypadek, przelej pieniądze.” Brzmi dokładnie jak twój syn czy córka.
Fałszywe twarze na wideo - rozmowy video z osobą, która wygląda autentycznie, ale nie istnieje. Używane szczególnie w oszustwach romantycznych i rekrutacyjnych.
Generowane dokumenty tożsamości - dowody osobiste, paszporty, prawa jazdy. Wystarczająco dobre, żeby przejść weryfikację online.
Fałszywe profile - całe tożsamości budowane od zera. Zdjęcia, historia, aktywność w mediach społecznościowych.
Typy oszustw, w których AI robi różnicę
BEC - wyłudzenia firmowe, gdzie ktoś podszywa się pod prezesa lub dyrektora finansowego. Z klonowaniem głosu te oszustwa stały się dramatycznie skuteczniejsze. Księgowa słyszy głos szefa i przelewa pieniądze.
Romance scams - fałszywe twarze i głosy tworzą osoby, które nigdy nie istniały, ale potrafią prowadzić rozmowy przez tygodnie.
Oszustwa inwestycyjne - przekonujące prezentacje, fałszywi doradcy, wygenerowane materiały marketingowe.
Oszustwa rekrutacyjne - fałszywe rozmowy o pracę, gdzie “rekruter” jest deepfake’iem.
”Deepfake Digital Arrest” - nowy trend
W Indiach zjawisko jest jeszcze bardziej niepokojące. Według raportów odnotowano aż 92 000 przypadków tzw. “Deepfake Digital Arrest”. Schemat? Oszuści dzwonią przez wideo i podają się za policjantów. Używają fałszywych twarzy, mundurów, nawet sfałszowanych dokumentów. Mówią ofierze, że jest podejrzana o przestępstwo i musi natychmiast zapłacić “kaucję”.
To działa, bo ludzie panikują. A twarz na ekranie wygląda jak prawdziwy policjant.
Jedno zdanie, które powinno dać do myślenia
Eksperci FBI mówią wprost - AI pozwala na skalowanie. Jeden człowiek może prowadzić tysiące spersonalizowanych rozmów jednocześnie. To nie jest sytuacja, w której oszust siedzi i ręcznie pisze wiadomości. AI generuje treści w czasie rzeczywistym, dopasowuje język do ofiary, odpowiada na pytania.
Dawniej oszust mógł prowadzić może kilkanaście “romansów” naraz. Teraz? Tysiące. I każda rozmowa brzmi naturalnie.
Moja perspektywa
Moim zdaniem to jest jeden z tych momentów, kiedy raport instytucji rządowej mówi nam coś, co powinniśmy wiedzieć od dawna. 893 miliony dolarów to oficjalne zgłoszenia. Realne straty mogą być dziesięciokrotnie wyższe.
Ale najważniejsze jest co innego - FBI oficjalnie mówi: AI to nowa kategoria przestępczości. Nie “w przyszłości”. Nie “potencjalnie”. Teraz.
Jak się chronić? Ustalcie z rodziną hasło bezpieczeństwa na wypadek podejrzanych telefonów. Serio. Proste słowo, które musisz powiedzieć, zanim ktokolwiek przeleje pieniądze. W świecie, gdzie głos da się sklonować w kilka sekund - to może być jedyna skuteczna obrona.
AITU #04 - cały odcinek na YouTube.
Źródła
- FBI.gov - “Cryptocurrency and AI Scams Bilk Americans of Billions” (07.04.2026)
- PYMNTS - “FBI Flags $893 Million in AI-Driven Scams” (07.04.2026)
- FOX News / KTVU - “FBI report adds AI-enabled scams for the first time” (07.04.2026)
- FBI IC3 - Internet Crime Complaint Center Annual Report 2025
- The Hindu - “Deepfake Digital Arrest scams surge in India” (2026)
- Wired - “AI Voice Cloning Is Making Scams More Dangerous” (2026)