Sztuczna inteligencja powinna wspierać człowieka, a nie go zastępować – taki wniosek wybrzmiał podczas debaty AI Action w Paryżu, w której udział wzięli naukowcy, nobliści i eksperci ds. technologii. Kluczowym tematem było nie tylko tempo rozwoju AI, ale również konieczność wprowadzenia zabezpieczeń, które zapobiegną potencjalnym zagrożeniom.
Według prof. Szymona Łukasika z AGH i NASK, który uczestniczył w wydarzeniu, nie pojawiły się głosy za zatrzymaniem prac nad sztuczną inteligencją. Przeciwnie – podkreślano, że należy tworzyć systemy wspomagające ludzi, ale nie dążące do osiągnięcia poziomu AGI (Artificial General Intelligence), czyli AI przewyższającej zdolności poznawcze człowieka.
Niepokój budzi szybki rozwój AI
Reklama
Niektórzy uczestnicy konferencji wyrażali obawy, że rozwój AI postępuje zbyt dynamicznie. Max Tegmark, współzałożyciel Future of Life Institute, ostrzegł, że AGI może powstać w ciągu najbliższej dekady. Z kolei ekonomista Joseph E. Stiglitz zwracał uwagę na gospodarcze skutki ekspansji AI – obawy dotyczące utraty miejsc pracy i konieczności masowego przekwalifikowania pracowników.
Nieco bardziej stonowane stanowisko prezentował Geoffrey Hinton, laureat Nagrody Nobla, który zaznaczył, że dzisiejsze modele AI nie mają prawdziwego rozumienia języka – są raczej „stochastycznymi papugami”, powtarzającymi wzorce tekstowe bez głębszego pojmowania treści.
Kadr z filmu AI Action Summit Paryż 2025
Konieczne regulacje i zabezpieczenia
Na konferencji podkreślono, że AI wymaga regulacji podobnych do tych, jakie stosuje się w przemyśle lotniczym – gdzie każda innowacja musi spełniać rygorystyczne standardy bezpieczeństwa. Prof. Stuart Russell, inicjator nowo powstałego Międzynarodowego Stowarzyszenia Bezpiecznej i Etycznej Sztucznej Inteligencji, podkreślił, że użytkownicy AI mają prawo domagać się od firm technologicznych przejrzystości i kontroli nad rozwojem tych systemów.
„Zabezpieczenia powinny być transparentne i poddawane testom według jasnych standardów” – podkreślał dr Łukasik. Ekspert wskazał także na konieczność wyposażenia algorytmów AI w awaryjny „wyłącznik”, który umożliwiłby ich natychmiastowe zatrzymanie w przypadku nieprawidłowego działania.
Brak jednolitego stanowiska wśród państw
Warto odnotować, że podczas paryskiego szczytu doszło do rozbieżności między państwami w kwestii regulacji AI. Stany Zjednoczone i Wielka Brytania nie podpisały końcowego dokumentu wzywającego do etycznego i bezpiecznego rozwoju sztucznej inteligencji, w przeciwieństwie do krajów Unii Europejskiej, Kanady czy Japonii. Administracja amerykańska optuje za minimalną regulacją, koncentrując się na gospodarczym potencjale technologii.
Z kolei przewodnicząca Komisji Europejskiej, Ursula von der Leyen, apelowała o globalną współpracę w zakresie bezpieczeństwa AI i transparentności stosowanych modeli.
Co dalej?
Paryska debata pokazała, że rozwój AI to nie tylko kwestia technologiczna, ale także społeczna i etyczna. Eksperci podkreślali konieczność równoważenia innowacji z kontrolą nad potencjalnymi zagrożeniami. W najbliższych latach możemy spodziewać się kolejnych inicjatyw na rzecz bezpiecznego rozwoju AI – zarówno w Europie, jak i w Stanach Zjednoczonych.