BezpieczeństwoCyberbezpieczeństwo

To nie AI jest największym zagrożeniem – więc co nim jest?

Sztuczna inteligencja stała się w ostatnim czasie wygodnym symbolem cyberzagrożeń. Łatwo wyobrazić sobie scenariusze, w których autonomiczne systemy prowadzą ataki, podszywają się pod ludzi czy przejmują kontrolę nad infrastrukturą. Problem w tym, że rzeczywistość incydentów bezpieczeństwa w 2025 roku wygląda znacznie mniej spektakularnie – i przez to bardziej niebezpiecznie.

Zdecydowana większość skutecznych ataków nie wynika z przełomowych technologii, ale z dobrze znanych słabości organizacji. Atakujący nadal wykorzystują przede wszystkim ludzi, ich pośpiech, brak świadomości lub rutynę. Coraz częściej robią to w sposób bezpośredni – przez telefon czy komunikator – prowadząc ofiarę krok po kroku do przekazania dostępu. W takich scenariuszach nie trzeba łamać zabezpieczeń, wystarczy przekonać kogoś, żeby sam je „otworzył”.

Drugim powtarzającym się elementem są podatności i brak aktualizacji. Wiele incydentów zaczyna się od systemów, które od dawna powinny być załatane. To nie są nowe, nieznane luki, ale zaniedbania w podstawowym utrzymaniu środowiska IT. Podobnie wygląda kwestia dostępu – przejęte hasła, brak uwierzytelniania wieloskładnikowego czy nadmiarowe uprawnienia sprawiają, że atakujący może działać w systemie praktycznie niezauważony.

Do tego dochodzi zmiana sposobu działania cyberprzestępców. Coraz częściej dostęp do organizacji jest tylko pierwszym etapem – zdobywanym szybko i na masową skalę – a następnie przekazywany dalej. Kolejne grupy wykorzystują go już do konkretnych działań, takich jak kradzież danych czy ataki ransomware. W efekcie czas między pierwszym naruszeniem a poważnym incydentem znacząco się skraca.

W tym kontekście rola AI jest znacznie bardziej ograniczona, niż sugerują nagłówki. Owszem, wspiera ona atakujących – pomaga tworzyć bardziej wiarygodne komunikaty czy automatyzować działania – ale nie zmienia fundamentów. Nadal kluczowe są te same wektory: socjotechnika, błędy konfiguracji i słabe zarządzanie dostępem. AI działa tu raczej jako „wzmacniacz”, a nie główne źródło problemu.

Dla organizacji – zarówno publicznych, jak i prywatnych – oznacza to bardzo konkretne konsekwencje. Incydent bezpieczeństwa to dziś nie tylko kwestia techniczna, ale również ryzyko naruszenia danych osobowych, obowiązków wynikających z RODO czy wymagań związanych z cyberbezpieczeństwem. W praktyce wiele organizacji przekonuje się o tym dopiero w momencie incydentu – gdy okazuje się, że procedury istnieją głównie na papierze.

Największym wyzwaniem nie jest więc brak narzędzi, ale brak spójnego podejścia. Bezpieczeństwo wciąż bywa traktowane jako jednorazowe wdrożenie albo zestaw dokumentów, zamiast jako proces wymagający stałego nadzoru, testów i aktualizacji. To właśnie w tej luce najczęściej pojawia się realne ryzyko.

Dlatego zamiast koncentrować się wyłącznie na nowych, głośnych zagrożeniach, warto wrócić do podstaw – ale potraktować je poważnie. Świadomość pracowników, kontrola dostępu, aktualizacje, monitoring i realnie działające procedury nadal pozostają najskuteczniejszą linią obrony. I choć brzmi to mało spektakularnie, to właśnie te elementy najczęściej decydują o tym, czy incydent w ogóle się wydarzy – a jeśli tak, to jak poważne będą jego skutki.

W praktyce coraz więcej organizacji dochodzi do wniosku, że utrzymanie takiego poziomu bezpieczeństwa we własnym zakresie jest trudne – nie tylko technologicznie, ale przede wszystkim organizacyjnie. Dlatego wsparcie zewnętrznych specjalistów, czy to w obszarze IOD, SZBI czy szeroko rozumianego cyberbezpieczeństwa, staje się naturalnym uzupełnieniem kompetencji wewnętrznych.

Bo choć zagrożenia się zmieniają, jedno pozostaje stałe: atakujący nie szukają najbardziej zaawansowanych celów, tylko najsłabszych punktów. A te wciąż bardzo rzadko mają cokolwiek wspólnego ze sztuczną inteligencją.