$ cat fbi-oszustwa-ai-893-miliony.mdx

FBI: oszustwa AI za 893 miliony dolarów - pierwsza taka kategoria w historii

17 kwi 2026 · #fbi #oszustwa ai #deepfake #klonowanie głosu #cyberbezpieczeństwo #ic3 #voice clone

W 25-letniej historii raportów FBI Internet Crime Complaint Center nie było osobnej kategorii dla sztucznej inteligencji. Aż do teraz. W 2025 roku Amerykanie zgłosili 22 364 oszustwa z użyciem AI i stracili na nich 893 miliony dolarów.

Ciemny ekran komputera z ostrzeżeniem bezpieczeństwa w tle


FBI publikuje roczny raport IC3 od 2000 roku. Przez ćwierć wieku kategorie przestępstw internetowych się zmieniały - doszło phishingowe, ransomware, cryptoscamy. Ale do 2025 roku żadna z nich nie dotyczyła bezpośrednio sztucznej inteligencji. To się właśnie skończyło.

Dlaczego FBI stworzyło nową kategorię?

Bo skala problemu wymknęła się spod kontroli.

893 miliony dolarów strat to nie jest projekcja ani szacunek - to suma zgłoszonych przypadków. A wiemy, że większość oszustw w ogóle nie trafia do statystyk. Realna liczba jest prawdopodobnie wielokrotnie wyższa.

Co ciekawe - FBI nie dorzuciło AI do istniejącej kategorii. Stworzyli zupełnie nową. To sygnał, że traktują to jako odrębne zjawisko, nie wariant czegoś znanego.

Jak wyglądają te oszustwa?

Metody są przerażająco proste do wdrożenia i trudne do wykrycia.

Klonowanie głosu - wystarczy kilka sekund nagrania z social mediów. Oszuści pobierają filmik z Instagrama, klonują głos i dzwonią do rodziców ofiary. “Mamo, miałem wypadek, przelej pieniądze.” Brzmi dokładnie jak twój syn czy córka.

Fałszywe twarze na wideo - rozmowy video z osobą, która wygląda autentycznie, ale nie istnieje. Używane szczególnie w oszustwach romantycznych i rekrutacyjnych.

Generowane dokumenty tożsamości - dowody osobiste, paszporty, prawa jazdy. Wystarczająco dobre, żeby przejść weryfikację online.

Fałszywe profile - całe tożsamości budowane od zera. Zdjęcia, historia, aktywność w mediach społecznościowych.


Typy oszustw, w których AI robi różnicę

BEC - wyłudzenia firmowe, gdzie ktoś podszywa się pod prezesa lub dyrektora finansowego. Z klonowaniem głosu te oszustwa stały się dramatycznie skuteczniejsze. Księgowa słyszy głos szefa i przelewa pieniądze.

Romance scams - fałszywe twarze i głosy tworzą osoby, które nigdy nie istniały, ale potrafią prowadzić rozmowy przez tygodnie.

Oszustwa inwestycyjne - przekonujące prezentacje, fałszywi doradcy, wygenerowane materiały marketingowe.

Oszustwa rekrutacyjne - fałszywe rozmowy o pracę, gdzie “rekruter” jest deepfake’iem.


”Deepfake Digital Arrest” - nowy trend

W Indiach zjawisko jest jeszcze bardziej niepokojące. Według raportów odnotowano aż 92 000 przypadków tzw. “Deepfake Digital Arrest”. Schemat? Oszuści dzwonią przez wideo i podają się za policjantów. Używają fałszywych twarzy, mundurów, nawet sfałszowanych dokumentów. Mówią ofierze, że jest podejrzana o przestępstwo i musi natychmiast zapłacić “kaucję”.

To działa, bo ludzie panikują. A twarz na ekranie wygląda jak prawdziwy policjant.

Jedno zdanie, które powinno dać do myślenia

Eksperci FBI mówią wprost - AI pozwala na skalowanie. Jeden człowiek może prowadzić tysiące spersonalizowanych rozmów jednocześnie. To nie jest sytuacja, w której oszust siedzi i ręcznie pisze wiadomości. AI generuje treści w czasie rzeczywistym, dopasowuje język do ofiary, odpowiada na pytania.

Dawniej oszust mógł prowadzić może kilkanaście “romansów” naraz. Teraz? Tysiące. I każda rozmowa brzmi naturalnie.


Moja perspektywa

Moim zdaniem to jest jeden z tych momentów, kiedy raport instytucji rządowej mówi nam coś, co powinniśmy wiedzieć od dawna. 893 miliony dolarów to oficjalne zgłoszenia. Realne straty mogą być dziesięciokrotnie wyższe.

Ale najważniejsze jest co innego - FBI oficjalnie mówi: AI to nowa kategoria przestępczości. Nie “w przyszłości”. Nie “potencjalnie”. Teraz.

Jak się chronić? Ustalcie z rodziną hasło bezpieczeństwa na wypadek podejrzanych telefonów. Serio. Proste słowo, które musisz powiedzieć, zanim ktokolwiek przeleje pieniądze. W świecie, gdzie głos da się sklonować w kilka sekund - to może być jedyna skuteczna obrona.

AITU #04 - cały odcinek na YouTube.

Źródła

$ cd ../