eGospodarka.pl

eGospodarka.plWiadomościGospodarkaRaporty i prognozy › Jak budować zaufanie do sztucznej inteligencji?

Jak budować zaufanie do sztucznej inteligencji?

2020-12-02 11:50

Jak budować zaufanie do sztucznej inteligencji?

Jak budować zaufanie do sztucznej inteligencji? ©  fotomek - Fotolia.com

Sztuczna inteligencja to jedna z technologii, po którą sięga się coraz częściej. Jak jednak przekonuje Capgemini, może ona znaleźć znacznie szersze, niż stricte użytkowe, zastosowanie. Eksperci wskazują bowiem na tkwiący w niej potencjał w zakresie kreowania pozytywnych zmian społecznych i gospodarczych. Aby można było z niego skorzystać, konieczne jest zatem zwrócenie uwagi nie tylko na kwestie techniczne. Zastosowanie AI powinno być etyczne.

Przeczytaj także: EY: sztuczna inteligencja oznacza wyzwania etyczne i legislacyjne

Z tego tekstu dowiesz się m.in.:


  • Czy organizacje wdrażające sztuczną inteligencję działają przejrzyście?
  • Kto powinien brać odpowiedzialność za kwestie etyczne w AI?
  • Jakie działania są niezbędne przy budowaniu etycznych systemów AI?


Z zaprezentowanego przez Capgemini raportu „Sztuczna inteligencja i zagadka etyczna: jak organizacje mogą budować solidne etycznie systemy sztucznej inteligencji i zdobywać zaufanie konsumentów” wynika, że w porównaniu do minionego roku odsetek osób oceniających, że organizacje stosują przejrzyste zasady korzystania z ich danych osobowych spadł dość pokaźnie z 76 proc. do 62 proc.

Jednocześnie tylko nieco ponad połowa badanych organizacji (53 proc.) wskazuje, że posiada w swoich szeregach osobę odpowiedzialną za etykę systemów AI. Okazuje się także, że wdrażanie narzędzi oraz regulacji dla wykorzystywanych i rozwijanych systemów AI, wiąże się ze znaczącymi kosztami.

W raporcie zauważono, że chociaż organizacje są bardziej świadome etycznie, postęp we wdrażaniu etycznej sztucznej inteligencji jest nierówny. Czego przykładem może być fakt, że prawie tyle samo menedżerów rok temu twierdziło, że podjęło kroki w celu zbudowania „uczciwości” (65 proc. w 2020 w porównaniu z 66 proc. w 2019) i „audytowalności” (45 proc. w 2020 w porównaniu z 46 proc. w 2019) ich systemów AI. Spadła ocena przejrzystości działań: z 73 proc. do 59 proc., a dzieje się to pomimo faktu, że 58 proc. firm twierdzi, że buduje wśród pracowników świadomość problemów, które mogą wynikać z wykorzystania sztucznej inteligencji. Co istotne, badanie pokazuje również, że zdecydowana większość klientów – 70 proc., oczekuje, że organizacje będą zapewniać przejrzystość i uczciwość interakcji ze sztuczną inteligencją.

fot. fotomek - Fotolia.com

Jak budować zaufanie do sztucznej inteligencji?

Kluczowym wyzwaniem staje się utrzymanie zaufania klientów. Służy temu wspieranie pozytywnych relacji między sztuczną inteligencją a konsumentami.


Negatywne doświadczenia klientów przekładają się na straty dla organizacji


Publiczne i prywatne organizacje w coraz większym stopniu wdrażają technologie oparte na sztucznej inteligencji. Kluczowym wyzwaniem staje się zatem utrzymanie zaufania klientów. Służy temu wspieranie pozytywnych relacji między sztuczną inteligencją a konsumentami. Raport pokazuje, że największe społeczne i kulturowe wątpliwości wciąż budzi proces gromadzenia danych, szczególnie na potrzeby opieki zdrowotnej i sektora publicznego – zauważa Beniamin Poznański, szef zespołu CIS Projects & Consulting Eastern Europe w Capgemini.

Te obawy nie ograniczają się jednak do sektora publicznego. Badanie wykazało, że 65 proc. menedżerów zdawało sobie sprawę z tego, że niektóre używane przez nich systemy AI dyskryminowały różne grupy społeczne. Ponadto, blisko 60 proc. organizacji zostało z tego powodu poddanych kontroli prawnej, a 22 proc. spotkało się z negatywną reakcją klientów spowodowaną decyzją podjętą przez systemy AI. 45 proc. klientów przyznało, że podzieli się swoimi negatywnymi opiniami z rodziną i przyjaciółmi, 39 proc. zgłosi swoje obawy i zażąda wyjaśnień, a 39 proc. odrzuci sztuczną inteligencję na rzecz bardziej kosztownych interakcji międzyludzkich.

7 działań niezbędnych przy budowaniu etycznych systemów AI


  1. Jasno określony cel stosowania AI i ocena ogólnego oraz potencjalnego wpływu na otoczenie.
  2. Wdrażanie sztucznej inteligencji z korzyścią dla społeczeństwa i środowiska.
  3. Uwzględnienie zasady różnorodności i integracji w całym cyklu życia systemów AI.
  4. Dbałość o transparentność zasad wykorzystania systemu za pomocą narzędzi technologicznych.
  5. Humanizacja doświadczenia AI i zapewnienie nadzoru człowieka nad systemami AI.
  6. Zapewnienie solidności technologicznej systemów AI.
  7. Ochrona prywatności ludzi i powierzenie im sprawczości i odpowiedzialności za interakcje z AI.

Kto weźmie odpowiedzialność za kwestie etyczne w AI?


Tylko 53 proc. organizacji ma w zespole lidera odpowiedzialnego za etykę systemów AI np. w funkcji Chief Ethics Officer. Jak wskazują eksperci Capgemini, ustanowienie przywództwa na najwyższym szczeblu jest konieczne, aby kwestie etyki zostały potraktowane priorytetowo. Tylko połowa badanych przyznała, że ma odpowiednią komórkę do zgłaszania problemów natury etycznej związanych z systemami sztucznej inteligencji, np. w postaci poufnej infolinii lub rzecznika praw konsumenta.

Potrzeba wprowadzenia przez organizacje tzw. “karty etycznej” jest dodatkowo napędzana przez konkretne regulacje prawne. Komisja Europejska wydała wytyczne dotyczące kluczowych zasad etycznych, które należy stosować przy projektowaniu aplikacji AI. Z kolei wytyczne wydane przez Federalną Komisję Handlu USA (FTC) na początku 2020 r., wzywają do tworzenia przejrzystej sztucznej inteligencji.

Według regulacji FTC, gdy system obsługujący sztuczną inteligencję podejmie niekorzystną decyzję (np. odmowa udzielenia kredytu), organizacja powinna pokazać poszkodowanemu konsumentowi kluczowe dane wykorzystane przy podejmowaniu decyzji. Powinna też zagwarantować mu prawo do zmiany wszelkich nieprawidłowych informacji.

Tymczasem, okazuje się, że podczas gdy w 2019 roku aż 73 proc. organizacji poinformowało użytkowników o tym, w jaki sposób decyzje związane ze sztuczną inteligencją mogą na nich wpłynąć, w 2020 roku ten odsetek spadł do 59 proc.
Główne czynniki negatywnie wpływające na funkcjonalność modeli AI to przede wszystkim okoliczności wywołane przez pandemię COVID-19, potrzeby społeczne i środowiskowe, rosnącą złożoność modeli sztucznej inteligencji oraz zmiana zachowań konsumentów. Organizacje zmuszone zostały więc do przeprojektowania swoich systemów tak, aby odpowiadały nowym normom. Doprowadziło to jednak do mniejszej przejrzystości ich działań – podsumowuje Beniamin Poznański z Capgemini.

oprac. : eGospodarka.pl

Przeczytaj także


Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: