Ludzie od lat dają się nabierać na obietnice szybkiego zysku. Teraz jednak oszustwa wchodzą w zupełnie nową fazę.
Nie dzwoni już człowiek z podejrzanego call-center. Nie pisze anonimowy „doradca inwestycyjny”. Coraz częściej pierwszym rozmówcą jest… sztuczna inteligencja.
Eksperci ostrzegają przed nowym schematem wyłudzeń, w którym oszuści podszywają się pod chatbot AI Gemini, należący do Google. Celem jest sprzedaż fikcyjnej kryptowaluty o nazwie „Google Coin”.
Problem polega na tym, że dla wielu osób taka oferta brzmi wiarygodnie. W końcu marka Google kojarzy się z technologią, a sztuczna inteligencja – z przyszłością.
Tyle że… Google nie posiada żadnej kryptowaluty.
AI jako nowy sprzedawca oszustw
Schemat działania jest dopracowany.
Na stronie internetowej pojawia się chatbot stylizowany na oficjalnego asystenta Gemini. Wita użytkownika komunikatem:
„Gemini — Twój asystent AI dla platformy Google Coin”.
Bot odpowiada na pytania o inwestycję, prognozuje zyski i prowadzi rozmowę tak, jak zrobiłby to prawdziwy doradca finansowy.
Gdy ktoś zapyta, czy inwestycja się opłaci, chatbot potrafi podać konkretne liczby:
inwestycja: 395 dolarów,
cena przedsprzedaży: 3,95 dolara za token,
prognozowana cena po wejściu na giełdę: 27,55 dolara,
rzekomy zysk: ponad siedmiokrotny.
Brzmi profesjonalnie. Problem w tym, że wszystko jest fikcją.
Bot ma tylko jeden cel: doprowadzić użytkownika do momentu, w którym wyśle kryptowalutę na wskazany adres portfela. Taka transakcja jest nieodwracalna – pieniędzy nie da się odzyskać.
Idealna manipulacja
Podczas analizy działania tego fałszywego chatbota zwrócono uwagę na jego zachowanie.
Bot:
zawsze przedstawia się jako „oficjalny pomocnik Google Coin”,
nie podaje żadnych danych firmy ani licencji,
ignoruje pytania o regulacje finansowe,
twierdzi, że projekt jest „bezpieczny i transparentny”,
w trudniejszych sytuacjach odsyła do anonimowego „menedżera”.
Najbardziej niepokojące jest jednak coś innego.
Bot nigdy się nie myli, nie waha i nie traci pewności siebie. Zawsze wraca do tych samych marketingowych haseł: „plan rozwoju 2026”, „szyfrowanie wojskowe”, „rosnąca społeczność inwestorów”.
To scenariusz sprzedażowy zaprogramowany tak, aby budować zaufanie i neutralizować wątpliwości.
AI zmienia skalę oszustw
Dotąd oszustwa inwestycyjne wymagały pracy ludzi. Oszust musiał rozmawiać z każdą ofiarą osobno.
Chatbot AI zmienia zasady gry.
Jedna operacja może teraz:
obsługiwać setki rozmów jednocześnie,
działać 24 godziny na dobę,
odpowiadać na pytania w sposób spójny i profesjonalny,
podszywać się pod znane marki technologiczne.
Według danych firmy analitycznej Chainalysis aż 60% środków trafiających do portfeli powiązanych z oszustwami kryptowalutowymi może być związanych z narzędziami AI.
To oznacza jedno: sztuczna inteligencja stała się narzędziem przestępców.
Perfekcyjna imitacja
Fałszywa strona sprzedażowa „Google Coin” wygląda jak prawdziwy projekt technologiczny.
Znajdują się tam:
logo stylizowane na branding Google,
licznik sprzedanych tokenów (ponad 9,9 mln),
informacja o „etapie 5 z 5 przedsprzedaży”,
data wejścia na giełdę.
Na stronie widnieją również logotypy znanych firm, m.in.:
OpenAI
Binance
Coinbase
SpaceX
Ma to sugerować współpracę. W rzeczywistości żadna z tych firm nie ma z projektem nic wspólnego.
Na co uważać
Eksperci wskazują kilka sygnałów ostrzegawczych:
1. Chatbot podszywa się pod znaną markę
Jeśli na stronie kryptowalutowej pojawia się bot „Gemini”, „ChatGPT” czy „Copilot”, prawdopodobnie nie jest autentyczny.
2. Bot obiecuje konkretne zyski
Legalne inwestycje nie gwarantują przyszłej ceny ani zwrotu.
3. Brak informacji o firmie
Każda legalna platforma musi mieć podmiot prawny, licencję i nadzór regulatora.
4. Presja czasu
Komunikaty typu „ostatni etap przedsprzedaży” mają wymusić szybką decyzję.
Jak się chronić
Jeśli trafisz na ofertę podobną do „Google Coin”:
sprawdź ją na oficjalnej stronie firmy,
wyszukaj nazwę projektu razem ze słowem „scam” lub „oszustwo”,
nie wysyłaj kryptowaluty na podstawie prognoz zysku,
korzystaj z narzędzi blokujących strony phishingowe.
Jedna zasada jest najprostsza.
Jeśli inwestycja wygląda zbyt dobrze, żeby była prawdziwa – najczęściej właśnie taka jest.
Wchodzimy w epokę oszustw AI
Najbardziej niepokojące w tej historii jest coś jeszcze.
Do niedawna internetowe oszustwo zaczynało się od człowieka. Teraz pierwszym kontaktem jest maszyna, która potrafi prowadzić rozmowę jak profesjonalny doradca.
To zmienia skalę problemu.
Bo jeśli chatbot potrafi przekonać jedną osobę… może przekonać tysiące jednocześnie.
I właśnie dlatego eksperci ostrzegają: najgroźniejszą bronią oszustów w nadchodzących latach może być sztuczna inteligencja.
Źródło: analiza zagrożeń cyberbezpieczeństwa (raport badaczy bezpieczeństwa internetowego), dane Federal Trade Commission oraz raporty analityczne Chainalysis.







