Deepfaki w natarciu. Ekspert ostrzega: „Przestępcy nie muszą być pierwsi, tylko dokładniejsi”

turba deep fake foto

Deepfaki, czyli zmanipulowane przez sztuczną inteligencję obrazy, dźwięki lub nagrania wideo, stają się coraz bardziej realistyczne i niepokojąco powszechne. Jak wynika z raportu „Dezinformacja oczami Polaków 2024”, aż 40% Polaków zetknęło się z tego typu materiałami. Ekspert ds. bezpieczeństwa z serwisu Sekurak.pl, Tomasz Turba, nie pozostawia złudzeń – ryzyko narasta, a granica między fikcją a rzeczywistością staje się coraz bardziej rozmyta.

Ryzyko w kwestii generowania deepfake’ów i bycia na nie podatnym tak naprawdę rośnie każdego dnia. Co ciekawe, z dnia na dzień te deepfaki stają się też coraz lepsze” – ostrzega Tomasz Turba w rozmowie z agencją Newseria. I dodaje: „Dzisiaj wystarczy pięć dolarów miesięcznie i przestępcy mogą generować bardzo przekonujące materiały.

Ekspert zwraca uwagę na zjawisko tzw. mikropłatności, które umożliwiają dostęp do potężnych narzędzi AI niemal każdemu użytkownikowi internetu. To powoduje, że granica wejścia w świat tworzenia dezinformacji staje się zaskakująco niska. Deepfaki trafiają do sieci społecznościowych, gdzie często przedstawiają polityków czy celebrytów wygłaszających fałszywe oświadczenia, promujących nieistniejące produkty lub kompromitujące treści. Zanim zostaną oznaczone lub usunięte, zdążą już osiągnąć status viralowy.

Reklama

Na razie walka z deepfake’ami jest bardzo nierówna… Przestępcy nie muszą już być pierwsi, tylko muszą być dokładniejsi w tworzeniu” – podkreśla Turba. Jak tłumaczy, współczesna technologia przekracza możliwości ludzkiego wzroku i słuchu. Pomocne mogą być jednak również… inne narzędzia oparte na AI.

Coraz więcej rozwiązań technologicznych rozwijanych jest równolegle z deepfake’ami – służą one do ich wykrywania. „Komputer AI może zauważyć, że coś w obrazie jest zbyt doskonałe lub czegoś brakuje” – tłumaczy ekspert. Ale zastrzega, że nawet najlepsze algorytmy nie zastąpią czujności użytkowników. Konieczna jest stała edukacja i rozwój świadomości cyfrowej.

Turba nie wierzy w skuteczność cenzury internetu jako środka walki z tym zjawiskiem. Przypomina, że wprowadzenie pełnej kontroli nad treściami przypominałoby „Koreę Północną w internecie”. Dużo skuteczniejsze jego zdaniem byłoby wdrożenie powszechnego i automatycznego oznaczania materiałów wygenerowanych przez AI.

Jeżeli w ciągu pół sekundy silnik wykryje, że to materiał fejkowy, powinien on zostać odpowiednio oznaczony” – mówi. Takie rozwiązania proponuje już TikTok. Jednak, jak zauważa Turba, powszechne wdrożenie takiego systemu wiąże się z dużymi kosztami, które nie wszystkie platformy są gotowe ponieść.

Z raportu „Dezinformacja oczami Polaków. 2024” wynika, że 86% badanych uważa, iż materiały generowane przez AI powinny być wyraźnie oznaczane. To jasny sygnał, że społeczeństwo oczekuje transparentności i ochrony przed manipulacją.

By Redakcja

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Related Posts