eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plWiadomościGospodarkaRaporty i prognozyAgentowa sztuczna inteligencja pod lupą: gdzie firmy popełniają błędy?

Agentowa sztuczna inteligencja pod lupą: gdzie firmy popełniają błędy?

2025-11-05 00:20

Agentowa sztuczna inteligencja pod lupą: gdzie firmy popełniają błędy?

3 na 4 projekty agentowej AI kończą się problemami z bezpieczeństwem © pexels

Agentowa sztuczna inteligencja miała zrewolucjonizować biznes – zamiast tego coraz częściej staje się źródłem ryzyka. Jak ostrzega Palo Alto Networks, 3 na 4 projekty tego typu napotykają poważne problemy z bezpieczeństwem. Firmy wdrażają agentów AI bez kontroli, jasno zdefiniowanych celów i realnego nadzoru. Eksperci alarmują: jeśli zarządy nie przejmą odpowiedzialności za strategię bezpieczeństwa, porażka tych projektów będzie tylko kwestią czasu.

Przeczytaj także: AI w biznesie: jak agenty AI wpływają na przychody i produktywność firm?

Z tego tekstu dowiesz się m.in.:


  • Dlaczego tak wiele projektów agentowej AI napotyka problemy z bezpieczeństwem?
  • Jakie błędy najczęściej popełniają firmy podczas wdrażania agentów AI?
  • Co zrobić, by agentowa sztuczna inteligencja stała się wsparciem, a nie ryzykiem?
  • Jakie trzy obszary należy uporządkować, by bezpiecznie korzystać z agentowej AI?

Agentowa AI zmienia zasady gry, ponieważ zaledwie w ciągu kilku lat przeszliśmy drogę od konwersacji z chatbotem udzielającym prostych odpowiedzi do algorytmów podejmujących konkretne działania w organizacji. Zmiany przyspieszyły gwałtownie również w obszarze uprawnień i nadzoru. Szum wokół AI sprawił, że wiele organizacji zaczęło ją wdrażać, zanim w ogóle opanowało tę nową dziedzinę.

Gartner przewiduje wzmożoną rezygnację firm z agentowej sztucznej inteligencji do 2027 r. , a raport MIT pokazuje, że większość pilotażowych projektów GenAI w przedsiębiorstwach już zakończyła się niepowodzeniem. Sytuacja jest jeszcze gorsza z punktu widzenia cyberbezpieczeństwa, bowiem dane z Uniwersytetu Stanforda wskazują, że tylko 6% organizacji korzysta z zaawansowanych rozwiązań bezpieczeństwa dla sztucznej inteligencji .
Jeśli zarządy firm od samego początku nie zaszczepią w kulturze organizacyjnej świadomości bezpieczeństwa i nie będą egzekwować określonych wyników, zasad i zabezpieczeń w procesie wdrażania agentowej AI, porażka jest nieunikniona. Z tego powodu sukces tej technologii nie zależy już tylko od jakości kodu, ale w znacznie większym zakresie od odpowiedzialności zarządu firmy – podkreśla Wojciech Gołębiowski wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.

Dlaczego agentowa AI zawodzi?


Przede wszystkim dlatego, że wciąż większość firm uważa, że projekty związane z AI są wyłączną odpowiedzialnością działów IT, a nie całego zarządu. To prowadzi do rozmycia odpowiedzialności, a kwestie bezpieczeństwa oraz ryzyka prawne, operacyjne i biznesowe poruszane są o wiele za późno, jeśli w ogóle znajdą się na agendzie.

Po drugie, wciąż rzadkością są projekty, które od samego początku mają jasno określone i mierzalne cele oraz przeanalizowane ryzyka.

Zespoły zaczynają od narzędzia, a dopiero potem szukają sposobów, jak je wykorzystać. Wydatki rosną, pilotażowe projekty wchodzą w fazę produkcji, a gdy pojawi się pytanie o KPI lub próg ryzyka, okazuje się, że nikt nie potrafi udzielić na nie precyzyjnej odpowiedzi.
Wdrożenia AI powinny rozpoczynać się od mierzalnych celów biznesowych i świadomości ryzyka, a nie od technologii. Należy ustalić 2 lub 3 ważne cele zatwierdzone przez zarząd, a następnie określić wskaźniki ryzyka, zabronione działania i benchmarki bezpieczeństwa, aby zapobiec przepalaniu budżetów na inwestycje, które od początku nie mają silnych podstaw biznesowych. Przedsiębiorstwa muszą ustanowić skuteczny system zarządzania, aby te założenia osiągnąć – podkreśla Wojciech Gołębiowski.

W ramach spójnej polityki bezpieczeństwa te same zasady powinny obowiązywać ludzi, maszyny i agentów AI. Należy egzekwować minimalne uprawnienia, krótkotrwałe poświadczenia i precyzyjny podział obowiązków. Bezpieczeństwo od samego początku zapewnia innowacyjność bez narażania przedsiębiorstwa na możliwe do uniknięcia ryzyko.

Czy to oznacza, że agentowa sztuczna inteligencja nie ma przyszłości?


Nie. Projekty wykorzystujące tę technologię mogą działać skutecznie, ale tylko wtedy, gdy zostanie wbudowana w struktury organizacyjne firmy i objęta realnym nadzorem – już na etapie planowania projektu. Taka technologia nie może funkcjonować jako osobny eksperyment IT, lecz jako element szerszej strategii biznesowej, z jasno określonymi celami, właścicielami i zasadami odpowiedzialności.

Od czego zacząć? 3 obszary, które warto uporządkować jeszcze w tym kwartale


  1. Zarządzanie agentami
    • Powołaj zespół międzydziałowy odpowiedzialny za wszystkie projekty agentowe – z udziałem IT, bezpieczeństwa, biznesu i compliance.
    • Stwórz centralny rejestr agentów, ich uprawnień, właścicieli i zakresów odpowiedzialności.
    • Przed uruchomieniem produkcyjnym przeprowadzaj testy scenariuszowe i ocenę ryzyk (np. warsztaty „premortem”).
    • Raz na kwartał analizuj zdarzenia i incydenty z udziałem agentów na poziomie zarządu lub CIO.
  2. Jasno określone cele i granice
    • Każdy przypadek użycia agentowej AI powinien mieć przypisane konkretne cele biznesowe oraz wskaźniki efektywności i ryzyka.
    • Zidentyfikuj działania, które powinny zawsze wymagać zatwierdzenia przez człowieka – szczególnie te, które mają wpływ na klienta, dane lub reputację firmy.
    • Zadbaj o to, by każde działanie agenta było przypisane do konkretnej osoby, zespołu lub roli – z jasno określoną intencją i zakresem.
  3. Zasady bezpieczeństwa
    • Ujednolić podejście do zarządzania tożsamościami – zarówno ludzkimi, jak i maszynowymi.
    • Wdrażaj zasady minimalnych uprawnień, poświadczeń ważnych tylko przez określony czas i logicznego podziału ról.
    • Zadbaj o możliwość śledzenia i audytu działań agentów – w tym logi, podpisy żądań i weryfikację odpowiedzi.
    • Utrzymuj człowieka w procesie decyzyjnym, zwłaszcza tam, gdzie działania agenta mogą mieć skutki prawne, finansowe lub wizerunkowe.

Firmy, które uporządkują te trzy obszary, nie tylko ograniczą ryzyko, ale zwiększą szansę na to, że agentowa AI stanie się realnym wsparciem dla biznesu – zamiast trafić na listę nieudanych eksperymentów.

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: