Oszustwo na „głos dziecka” – jak AI staje się bronią cyberprzestępców

Oszutwo z ai na wypadek dziecka

AI klonuje głos córki – oszuści wyłudzili od matki 15 tys. dolarów. Nowe zagrożenie: fałszywe telefony i głosowe oszustwa

Gdy Sharon Brightwell z Florydy odebrała telefon od zapłakanej kobiety, nie miała żadnych wątpliwości – to była jej córka. Głos, sposób mówienia, szloch – wszystko zgadzało się z tym, co znała od lat. Przerażona, usłyszała, że jej córka spowodowała wypadek samochodowy, ciężko raniąc kobietę w ciąży. Zgodnie z instrukcjami „prawnika”, Sharon natychmiast wypłaciła 15 tysięcy dolarów kaucji, przekazując pieniądze nieznajomemu kierowcy. Sytuacja wydawała się dramatyczna, ale – niestety – była tylko wyrafinowanym oszustwem, opartym na klonowaniu głosu przez sztuczną inteligencję.

„Nikt nie mógłby mnie przekonać, że to nie była ona. Znam płacz mojej córki” – relacjonowała Sharon Brightwell. Dopiero interwencja wnuka, który zadzwonił na prawdziwy numer córki, ujawniła podstęp. Córka była bezpieczna i nic nie wiedziała o żadnym wypadku.

Historia Sharon nie jest odosobniona. Eksperci ostrzegają: narzędzia do klonowania głosów, jeszcze kilka lat temu kojarzone z laboratoriami badawczymi, dziś są dostępne na wyciągnięcie ręki. Wystarczy kilka sekund nagrania głosu – np. z Facebooka czy TikToka – by cyberprzestępcy mogli przygotować przekonującą „replikę” i zagrać na emocjach ofiary.

Nowa fala przestępczości

„Poleganie na ludzkiej intuicji w rozpoznawaniu takich klonów głosu nie jest już skuteczne” – alarmują naukowcy. Najnowsze badania pokazują, że nawet zmysł rodzica potrafi się pomylić, zwłaszcza pod presją strachu i stresu.

Oszustwa tego typu zyskują na sile. Schemat zawsze podobny: dramatyczny telefon, prośba o pilne pieniądze, szantaż emocjonalny i… dokładne instrukcje, jak przekazać gotówkę, by „ratować dziecko”. Coraz częściej przestępcy potrafią także eskalować sytuację – jak w przypadku Sharon, gdzie zażądano kolejnych 30 tysięcy dolarów, gdy rzekomo zmarło nienarodzone dziecko ofiary.

Jak się bronić?

Eksperci radzą:

  • Nie publikuj niepotrzebnie nagrań głosu w sieci – to materiał dla przestępców.

  • Ustal rodzinne hasło – frazę, którą znają tylko najbliżsi i nigdy nie podawaj jej publicznie.

  • Nie działaj pod wpływem emocji – skonsultuj się z kimś zaufanym, zanim przelejesz pieniądze.

  • Weryfikuj telefonicznie autentyczność rozmówców – najlepiej na numer, który sam znasz.

  • Zgłaszaj incydenty odpowiednim służbom – każde zgłoszenie pomaga walczyć z przestępcami.

Sharon i jej mąż stracili oszczędności życia, które miały być zabezpieczeniem na emeryturę. „To były nasze pieniądze na spokojną starość” – mówiła z żalem.

Refleksja redakcyjna:
Nowe technologie to nie tylko postęp, ale i coraz bardziej wyrafinowane narzędzia w rękach oszustów. Zagrożenie dotyczy każdego – szczególnie osób starszych i emocjonalnie związanych z rodziną. To nie tylko sprawa techniczna – to także kwestia ludzkiej empatii, samotności i zaufania. Warto o tym rozmawiać, edukować bliskich i chronić swoje dane. Zanim zaufasz dramatycznemu głosowi w telefonie – sprawdź, kto naprawdę po drugiej stronie słuchawki.

Źródło informacji Malwarebytes.com

Obserwuj Radio DTR w Google News

📲 Znajdziesz nas także w Google News – kliknij i obserwuj Radio DTR, aby otrzymywać nasze najnowsze informacje prosto w aplikacji!

Przewijanie do góry