Agentowa sztuczna inteligencja pod lupą: gdzie firmy popełniają błędy?
2025-11-05 00:20
3 na 4 projekty agentowej AI kończą się problemami z bezpieczeństwem © pexels
Przeczytaj także: AI w biznesie: jak agenty AI wpływają na przychody i produktywność firm?
Z tego tekstu dowiesz się m.in.:
- Dlaczego tak wiele projektów agentowej AI napotyka problemy z bezpieczeństwem?
- Jakie błędy najczęściej popełniają firmy podczas wdrażania agentów AI?
- Co zrobić, by agentowa sztuczna inteligencja stała się wsparciem, a nie ryzykiem?
- Jakie trzy obszary należy uporządkować, by bezpiecznie korzystać z agentowej AI?
Agentowa AI zmienia zasady gry, ponieważ zaledwie w ciągu kilku lat przeszliśmy drogę od konwersacji z chatbotem udzielającym prostych odpowiedzi do algorytmów podejmujących konkretne działania w organizacji. Zmiany przyspieszyły gwałtownie również w obszarze uprawnień i nadzoru. Szum wokół AI sprawił, że wiele organizacji zaczęło ją wdrażać, zanim w ogóle opanowało tę nową dziedzinę.
Gartner przewiduje wzmożoną rezygnację firm z agentowej sztucznej inteligencji do 2027 r. , a raport MIT pokazuje, że większość pilotażowych projektów GenAI w przedsiębiorstwach już zakończyła się niepowodzeniem. Sytuacja jest jeszcze gorsza z punktu widzenia cyberbezpieczeństwa, bowiem dane z Uniwersytetu Stanforda wskazują, że tylko 6% organizacji korzysta z zaawansowanych rozwiązań bezpieczeństwa dla sztucznej inteligencji .
Jeśli zarządy firm od samego początku nie zaszczepią w kulturze organizacyjnej świadomości bezpieczeństwa i nie będą egzekwować określonych wyników, zasad i zabezpieczeń w procesie wdrażania agentowej AI, porażka jest nieunikniona. Z tego powodu sukces tej technologii nie zależy już tylko od jakości kodu, ale w znacznie większym zakresie od odpowiedzialności zarządu firmy – podkreśla Wojciech Gołębiowski wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.
Dlaczego agentowa AI zawodzi?
Przede wszystkim dlatego, że wciąż większość firm uważa, że projekty związane z AI są wyłączną odpowiedzialnością działów IT, a nie całego zarządu. To prowadzi do rozmycia odpowiedzialności, a kwestie bezpieczeństwa oraz ryzyka prawne, operacyjne i biznesowe poruszane są o wiele za późno, jeśli w ogóle znajdą się na agendzie.
Po drugie, wciąż rzadkością są projekty, które od samego początku mają jasno określone i mierzalne cele oraz przeanalizowane ryzyka.
Zespoły zaczynają od narzędzia, a dopiero potem szukają sposobów, jak je wykorzystać. Wydatki rosną, pilotażowe projekty wchodzą w fazę produkcji, a gdy pojawi się pytanie o KPI lub próg ryzyka, okazuje się, że nikt nie potrafi udzielić na nie precyzyjnej odpowiedzi.
Wdrożenia AI powinny rozpoczynać się od mierzalnych celów biznesowych i świadomości ryzyka, a nie od technologii. Należy ustalić 2 lub 3 ważne cele zatwierdzone przez zarząd, a następnie określić wskaźniki ryzyka, zabronione działania i benchmarki bezpieczeństwa, aby zapobiec przepalaniu budżetów na inwestycje, które od początku nie mają silnych podstaw biznesowych. Przedsiębiorstwa muszą ustanowić skuteczny system zarządzania, aby te założenia osiągnąć – podkreśla Wojciech Gołębiowski.
W ramach spójnej polityki bezpieczeństwa te same zasady powinny obowiązywać ludzi, maszyny i agentów AI. Należy egzekwować minimalne uprawnienia, krótkotrwałe poświadczenia i precyzyjny podział obowiązków. Bezpieczeństwo od samego początku zapewnia innowacyjność bez narażania przedsiębiorstwa na możliwe do uniknięcia ryzyko.
Czy to oznacza, że agentowa sztuczna inteligencja nie ma przyszłości?
Nie. Projekty wykorzystujące tę technologię mogą działać skutecznie, ale tylko wtedy, gdy zostanie wbudowana w struktury organizacyjne firmy i objęta realnym nadzorem – już na etapie planowania projektu. Taka technologia nie może funkcjonować jako osobny eksperyment IT, lecz jako element szerszej strategii biznesowej, z jasno określonymi celami, właścicielami i zasadami odpowiedzialności.
Od czego zacząć? 3 obszary, które warto uporządkować jeszcze w tym kwartale
-
Zarządzanie agentami
- Powołaj zespół międzydziałowy odpowiedzialny za wszystkie projekty agentowe – z udziałem IT, bezpieczeństwa, biznesu i compliance.
- Stwórz centralny rejestr agentów, ich uprawnień, właścicieli i zakresów odpowiedzialności.
- Przed uruchomieniem produkcyjnym przeprowadzaj testy scenariuszowe i ocenę ryzyk (np. warsztaty „premortem”).
- Raz na kwartał analizuj zdarzenia i incydenty z udziałem agentów na poziomie zarządu lub CIO.
-
Jasno określone cele i granice
- Każdy przypadek użycia agentowej AI powinien mieć przypisane konkretne cele biznesowe oraz wskaźniki efektywności i ryzyka.
- Zidentyfikuj działania, które powinny zawsze wymagać zatwierdzenia przez człowieka – szczególnie te, które mają wpływ na klienta, dane lub reputację firmy.
- Zadbaj o to, by każde działanie agenta było przypisane do konkretnej osoby, zespołu lub roli – z jasno określoną intencją i zakresem.
-
Zasady bezpieczeństwa
- Ujednolić podejście do zarządzania tożsamościami – zarówno ludzkimi, jak i maszynowymi.
- Wdrażaj zasady minimalnych uprawnień, poświadczeń ważnych tylko przez określony czas i logicznego podziału ról.
- Zadbaj o możliwość śledzenia i audytu działań agentów – w tym logi, podpisy żądań i weryfikację odpowiedzi.
- Utrzymuj człowieka w procesie decyzyjnym, zwłaszcza tam, gdzie działania agenta mogą mieć skutki prawne, finansowe lub wizerunkowe.
Firmy, które uporządkują te trzy obszary, nie tylko ograniczą ryzyko, ale zwiększą szansę na to, że agentowa AI stanie się realnym wsparciem dla biznesu – zamiast trafić na listę nieudanych eksperymentów.
Czy ChatGPT może kłamać? Tak, i to nieświadomie
oprac. : Aleksandra Baranowska-Skimina / eGospodarka.pl
Przeczytaj także
Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ
Komentarze (0)
Najnowsze w dziale Wiadomości
-
Prawie połowa Polaków nie korzysta z promocji na Black Friday. Dlaczego nie wierzą w obniżki?
-
"Mógłbym być Twoim tatą" - wyzwania młodych liderów z pokolenia Z
-
Prezenty pod choinkę z drugiej ręki? Polacy wciąż tradycjonalistami
-
Ciche straty, głośny problem. Kradzież w sklepie wymknęła się spod kontroli?





Elektromobilność dojrzewa. Auta elektryczne kupujemy z rozsądku, nie dla idei