eGospodarka.pl

eGospodarka.plWiadomościGospodarkaRaporty i prognozy › EY: sztuczna inteligencja oznacza wyzwania etyczne i legislacyjne

EY: sztuczna inteligencja oznacza wyzwania etyczne i legislacyjne

2020-08-12 10:32

EY: sztuczna inteligencja oznacza wyzwania etyczne i legislacyjne

Sztuczna inteligencja © Igor Mojzes - Fotolia.com

PRZEJDŹ DO GALERII ZDJĘĆ (2)

Blisko 3 na 4 firmy są zdania, że stosowane przez nie rozwiązania sztucznej inteligencji niosą za sobą rozliczne korzyści dla konsumentów oraz społeczeństwa. Tego rodzaju zapewnieniom wierzy jednak tylko 44% środowiska legislatorów, regulatorów i ekspertów. Rozbieżności w opiniach tych dwóch grup zaznaczają się również na gruncie legislacji oraz etyki – czytamy w komunikacie z badania zrealizowanego przez EY i The Future Society.
Wprawdzie o zaletach sztucznej inteligencji mówi się znacznie więcej niż o jej wadach, to jednak coraz częściej zaczyna się zwracać uwagę właśnie na zjawiska niepożądane, w tym np. na stronnicze lub niesprawiedliwe traktowanie ludzi. Okazuje się jednak, że nie wszyscy traktują te kwestie w sposób priorytetowy. Rozdźwięk widoczny jest zwłaszcza pomiędzy opiniami firm a regulatorów.

W opinii przebadanych decydentów, przy wykorzystaniu sztucznej inteligencji w rozwiązaniach rozpoznających twarz zdecydowanie najistotniejszymi kwestiami natury etycznej są bezstronność i unikanie uprzedzeń, których waga została oceniona na 3.14 pkt. Dla porównania, firmy dały temu zagadnieniu 1.34 pkt, plasując je dopiero na szóstej pozycji. W ich opinii najważniejsza okazała się bowiem prywatność i prawa do danych. To zagadnienie znalazło się również wysoko - bo na drugim miejscu - wśród decydentów, choć zdecydowanie inaczej rozłożyły się punktacje. Decydenci ocenili ważność tej kwestii na 3.09 pkt a firmy na 1.88 pkt.

Bezpieczeństwo i ochrona to z kolei druga pod względem ważności etycznych kwestii, które zdaniem firm wymagają uwagi przy rozwiązaniach wykorzystujących sztuczną inteligencję do rozpoznawania twarzy. Pierwszą trójkę priorytetów dla obu badanych grup zamyka transparentność.

fot. mat. prasowe

Rozpoznawanie twarzy w celu kontroli: legislatorzy i regulatorzy vs. firmy

Bezstronność i unikanie uprzedzeń to kwestia, której legislatorzy i regulatorzy przyznają priorytet


Firmy i decydenci różnią się jednak nie tylko wskazaniami najważniejszych do uregulowania kwestii w zakresie zastosowania sztucznej inteligencji, ale w badaniu widać również, że inne jest samo podejście do wyzwań etycznych stawianych przez AI. Podczas gdy decydenci wyraźnie identyfikują kilka najważniejszych do uregulowania obszarów i nadają im największą wagę, firmy nie polaryzują tak wyraźnie wyzwań.

Zdaniem Justyny Wilczyńskiej-Baraniak, Lidera Zespołu Własności Intelektualnej, Technologii i Danych Osobowych w Kancelarii EY Law wynika to z tego, że firmom trudno jest nadawać priorytet któremukolwiek z wyzwań etycznych, ponieważ są one dla nich równoważne
Definiując wyzwania etyczne, przedsiębiorcy mają na uwadze kwestie techniczne, implementacyjne i biznesowe, które nie znajdują się na radarach decydentów - podkreśla Justyna Wilczyńska-Barania. - Rozdźwięk między ryzykami dostrzeganymi przez legislatorów i regulatorów a firmami wynika więc przede wszystkim z innej perspektywy postrzeganych wyzwań. Trzeba pamiętać, że decydenci patrzą na nie zdecydowanie szerzej, mając na uwadze szerszą grupę interesariuszy. Firmy koncentrują się przede wszystkim na wyzwaniach – w tym biznesowych - dla nich samych i branż, w których działają dodaje.

Różne punkty widzenia na najistotniejsze do rozwiązania kwestie etyczne związane z rozwojem sztucznej inteligencji to istotne wyzwanie legislacyjne. 55% ankietowanych przedsiębiorców wykorzystujących technologię AI oczekuje, że zostanie stworzony jeden zestaw uniwersalnych zasad, na który zgodzi się większość krajów i który będzie łatwy do zaimplementowania, niezależnie od jurysdykcji. Tak optymistyczni nie są jednak ci, którzy te zasady będą tworzyć. Tylko 21% decydentów spodziewa się takiego rozwiązania, natomiast większość – 66% uważa, że jeden zestaw uniwersalnych zasad powstanie, ale poszczególne kraje będą go implementować w zależności od własnych uwarunkowań. Ankietowani przedstawiciele firm niemal dwukrotnie częściej niż przedstawiciele legislatorów i regulatorów wskazywali również, że poszczególne kraje bądź regiony stworzą własne zasady etyczne.

Co więcej, 6 na 10 przedstawicieli firm uważa, że znacznie korzystniejszym rozwiązaniem byłoby stworzenie tych zasad przez samych zainteresowanych, czyli firmy i branże, które sztuczną inteligencję wykorzystują na co dzień w swojej działalności. Z taką tezą zgadza się natomiast wyłącznie 24% decydentów.

Metodologia badania
Badanie EY i The Future Society zostało przeprowadzone pod koniec 2019 i na początku 2020 roku w 55 krajach, wśród 71 legislatorów, regulatorów i doradców w zakresie sztucznej inteligencji oraz 284 firm wykorzystujących tę technologię. Ankietowani proszeni byli o wskazanie i uszeregowanie 11 najważniejszych zagadnień etycznych w odniesieniu do 12 rozwiązań technologicznych wykorzystujących sztuczną inteligencję.

oprac. : eGospodarka.pl


Oceń

0 0

Podziel się

Poleć na Wykopie

Poleć artykuł znajomemu Wydrukuj

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (0)

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: