Sztuczna inteligencja w rękach cyberprzestępców: Ponad 50% ofiar nabiera się na zaawansowane ataki phishingowe
Z najnowszego badania wynika, że sztuczna inteligencja (AI) staje się potężnym narzędziem w arsenale cyberprzestępców. Eksperci przeanalizowali skuteczność kampanii phishingowych wspieranych przez AI, a wyniki są niepokojące – aż 54% osób stało się ofiarami takich ataków. To niemal pięciokrotnie więcej niż w przypadku tradycyjnych prób phishingu.
Badanie, opublikowane pod tytułem „Evaluating Large Language Models’ Capability to Launch Fully Automated Spear Phishing Campaigns: Validated on Human Subjects”, pokazuje, jak skutecznie AI potrafi zbierać dane z publicznych źródeł i tworzyć spersonalizowane wiadomości, które wydają się autentyczne. Narzędzia oparte na modelach językowych, takich jak GPT-4 i Claude 3.5 Sonnet, umożliwiły osiągnięcie wskaźnika kliknięć na poziomie 54%, równając się skuteczności ludzkich ekspertów, lecz przy znacznie niższych kosztach.
Dodatkowo, badanie ujawniło, że bariery ochronne wbudowane w modele AI nie stanowią wystarczającej przeszkody dla cyberprzestępców. Jednocześnie dobra wiadomość jest taka, że sztuczna inteligencja staje się również coraz lepsza w rozpoznawaniu phishingu – modele takie jak Claude 3.5 osiągają ponad 90% skuteczności.
Eksperci podkreślają, że kluczowym elementem ochrony pozostaje zdrowy rozsądek i ostrożność w otwieraniu linków w niezamówionych wiadomościach e-mail.
Źródło informacji Malware Bytes