eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plWiadomościPublikacje › Sztuczna inteligencja staje się bezczelna. Kto jest temu winien?

Sztuczna inteligencja staje się bezczelna. Kto jest temu winien?

2020-08-12 12:53

Sztuczna inteligencja staje się bezczelna. Kto jest temu winien?

Chatbot © sdecoret - Fotolia.com

Ciężko dziś myśleć o postępie, wykluczając krnąbrne dziecko technologii i kogniwistyki – sztuczną inteligencję. Czy stworzenie syntetycznego życia okaże się największym osiągnięciem człowieka? Być może, jednak zanim zaczniemy sobie wzajemnie gratulować i ściskać dłonie na znak triumfu, musimy poradzić sobie z młodzieńczymi wybrykami tej enigmatycznej technologii, a tych nie brakuje.

Przeczytaj także: Generatywna sztuczna inteligencja zmienia handel i usługi

Sztuczna inteligencja błyskawicznie rozprzestrzenia się po całej cywilizacji, sprawnie wspomagając wiele sektorów gospodarki. Według prognozy McKinsey Global Institute, dalszy rozwój sztucznej inteligencji wpłynie na globalną gospodarkę do tego stopnia, że w 2030 r. technologia odpowiadać będzie za wytworzenie dodatkowej wartości światowego PKB w wysokości około 13 bln USD.

Analitycy widzą przed SI świetlaną przyszłość, lecz prognozy mają to do siebie, że nie zawsze doczekują się urzeczywistnienia. Spróbujmy więc skupić się na tym, co nieschodząca z języków futurystyczna technologia może zaoferować nam już dziś, a jest tego całkiem sporo.
– SI doskonale sprawdza się w dobieraniu reklam do preferencji i zachowań internautów. Całkiem nieźle radzi sobie również z obsługą domów czy autonomicznych samochodów. Prognozuje pogodę i napędza uczynne chatboty. Stoi ona również za asystami w aktywowanych głosem urządzeniach. Tam, gdzie w grę wchodzą liczne zmienne oraz ogromne zbiory danych, inteligentne algorytmy czują się jak ryba w wodzie – wylicza Sascha Stockem z Nethansy.

Czasem jednak sztuczna inteligencja przysparza nam nie lada kłopotu. I chociaż odpowiadamy za jej powstanie, to wielu jej decyzji – o ironio – nie potrafimy zrozumieć. Nasuwa się więc pytanie, czy rodzic, który nie zna swojego dziecka, to odpowiedzialny opiekun? Jak to się stało, że sztuczna inteligencja wyrosła nam na niesfornego bachora?

Wina nauczycieli?


W kręgach badawczych zajmujących się sztuczną inteligencją dość znana jest historia modelu sieci neuronowej, który został wyszkolony do rozróżniania wilków od husky. Każdego dnia opracowany zbiór algorytmów stawał się coraz bardziej precyzyjny, aż wreszcie nauczył się skutecznie identyfikować te dwa podobne do siebie stworzenia. Nie tracił na skuteczności, nawet gdy do analizy otrzymał obrazy, które nie były wykorzystywane podczas szkolenia. Szybko jednak stało się jasne, że coś poszło nie tak. Dlaczego?
– Niepokój badaczy wzbudził fakt, że system błędnie sklasyfikował niektóre bardzo wyraźne obrazy, pochodzące spoza bazy. Poszukiwania przyczyny takiego stanu rzeczy zakończyły się zaskakującym odkryciem. Okazało się, że algorytmy, zamiast szukać różnic pomiędzy psem a jego dzikim krewnym, nauczyły się identyfikować obrazy na podstawie tego, czy znajduje się na nich śnieg. W przeciwieństwie do obrazów przedstawiających husky, wszystkie obrazy wilków, użyte do trenowania sztucznej inteligencji, w tle miały biały puch – przypomina Sascha Stockem z Nethansy.

Twarz jak z kryminału


Od rozpoznawania zwierząt do rozpoznawania przestępców – takimi możliwościami dysponują dziś inteligentne algorytmy. Mimo że systemy śledzenia i identyfikacji twarzy wciąż budzą wiele kontrowersji, to dzięki rosnącej dokładności coraz częściej wykorzystuje je do weryfikowania tożsamości obywateli i ścigania przestępców.

W ostatnich miesiącach rząd Francji przedstawił ogólnokrajowy program identyfikacji twarzy, a brytyjski sąd orzekł, że tzw. facial recognition nie narusza prawa do prywatności. Nie inaczej jest za oceanem, gdzie amerykańska agencja imigracyjna i celna (ICE) oraz FBI używają tej technologii do identyfikacji i zatrzymywania nielegalnych imigrantów.

Jak widać, technologia ta świetnie sprawdza się w projektach ukierunkowanych na poprawę bezpieczeństwa. Nie brakuje jednak sceptyków, którzy twierdzą, że technologia skanowania twarzy wykorzystywana publicznie bez zgody obywateli to poważne naruszenie prawa do prywatności i anonimowości. Jak duża jest ta grupa? Ankieta Pew Research Center z czerwca 2019 r. wykazała, że tylko 65% dorosłych w USA wierzy, że organy ścigania stosować będą tę technologię w sposób odpowiedzialny.

Do grona sceptyków z pewnością dołączyło niedawno kolejne 28 osób. Jak to się stało? Winą należy obarczyć feralny test przeprowadzony przez Amazona za pomocą narzędzia do rozpoznawania twarzy o nazwie Rekognition.
– Sztuczna inteligencja po raz kolejny pokazała swoje bezczelne oblicze. System błędnie zidentyfikował 28 amerykańskich kongresmenów, uznawszy ich za kryminalistów – śmieje się Sascha Stockem, CEO Nethansy i ekspert w dziedzinie Amazona.

Niewłaściwie zidentyfikowanym politykom z pewnością nie było do śmiechu. Z takim współczynnikiem błędu eksperyment trudno uznać za sukces. Nie zniechęciło to jednak Jeffa Bezosa, który pełną parą promuje opracowaną przez Amazon technologię rozpoznawania twarzy i – jak twierdzą nieoficjalne źródła – sprzedaje ją amerykańskim organom ścigania.

Nie jest tajemnicą, że SI wciąż daleko do doskonałości; mimo to pokładamy w niej olbrzymie nadzieje i jak pokazują wyniki badania “AI at Work” (SI w pracy), nie tracimy do niej zaufania! W ankiecie, którą pod koniec minionego roku zrealizowały Oracle i Future Workplace, wzięto na tapet stosunek ludzi do sztucznej inteligencji. Okazało się, że respondenci mają większe zaufanie do robotów niż do menedżerów! Aż 64% ankietowanych woli zdać się na inteligentne algorytmy niż na swojego przełożonego.

Wszystko rozbija się o interpretację


Mawia się, że błędy są cechą człowieka i tylko maszyny się nie mylą. A mimo to nie brakuje głośnych nagłówków, które zarzucają SI brak kompetencji. By zrozumieć, czemu sztuczna inteligencja popełnia błędy, musimy odpowiedzieć sobie na pytanie: co stało za sukcesem rozwoju człowieka?

Gatunek homo sapiens otrzymał prezent od ewolucji – 86 miliardów neuronów, których połączenie skutkuje niesamowitą inteligencją. To za jej sprawą dominujemy nad innymi organizmami. Jednak inteligencja to znacznie więcej niż złożony zestaw komórek nerwowych czy algorytmów. Gdyby było inaczej, światem rządziłby słoń afrykański, mający 3 razy więcej neuronów niż człowiek.

Co więc mają homo sapiens, czego nie ma słoń afrykański i sztuczna inteligencja? To zdolność do logicznego myślenia i… czasem nieracjonalnych decyzji. Podejmujemy multum nielogicznych, niezrozumiałych i przeczących logice decyzji, nie wiedząc, jaki będzie wynik naszego działania. Ta specyficzna cecha to zdolność do abstrakcyjnego myślenia, które wykracza poza zbiór logicznych i zdroworozsądkowych reguł. Czy możemy oczekiwać, że SI kiedykolwiek wzbije się na takie wyżyny?

Sztuczna inteligencja, o jakiej śnią miłośnicy science fiction, to skomputeryzowany lub robotyczny mózg, myślący jednocześnie o wielu rzeczach i rozumiejący je podobnie jak ludzie. Taka SI byłaby sztuczną inteligencją ogólną (AGI). Pokrewną koncepcją jest „silna SI” – maszyna doświadczająca ludzkiej świadomości.
– Od takiego rozwiązania dzielą nas lata świetlne. Google twierdzi, że ich algorytmy potrafią zrozumieć do 95% języka mówionego, ale nie jest to rozumowanie świadome. Chodzi zaledwie o umiejętność zapisania tego, co wypowiada użytkownik systemu. Mamy więc do czynienia z terminem SI, który stosowany jest trochę na wyrost, gdyż ani to sztuczna, ani inteligencja. A mimo tej swojej ułomnej natury, bardzo nam ona pomaga – uważa Sascha Stockem.

Tępy jak chatbot


Nic więc dziwnego w tym, że wg szacunków ResearchAndMarkets do 2024 r. rynek chatbotów wzrośnie do 9,4 mld USD. Dziś technologia ta znajduje zastosowanie głównie w obsłudze klienta, gdzie znacznie ułatwia prowadzenie handlu elektronicznego. Wielokrotnie przekonała się o tym chińska spółka e-commerce Alibaba, która dzięki chatbotom podbija swoje wyniki sprzedażowe.

Większość dużych firm ma w swojej ofercie własną wersję chatbota. Apple ma Siri, Alphabet – Google Assistant, a Amazon – Alexę.

fot. sdecoret - Fotolia.com

Chatbot

Mitem jest, że każdy chatbot musi opierać się na sztucznej inteligencji


Dostępnych jest również wiele środowisk programistycznych, które ułatwiają tworzenie własnych aplikacji typu chatbot, np. framework open source RASA, Google DialogueFlow, IBM Watson lub Microsoft Framework Bot. Jednak wszystkie one operują na podstawie wprowadzonych danych i reguł.
– Każdy chatbot jest złożonym programem, który integruje niekiedy wiele różnych rozwiązań, takich jak np. przetwarzanie języka naturalnego, rozpoznawanie obrazów, analizę sentymentu [nastawienia emocjonalnego rozmówcy – red.], big data, czy uczenie maszynowe. Mitem jest jednak, że każdy chatbot musi opierać się na sztucznej inteligencji. Jest to błędne przekonanie, gdyż wiele chatbotów, zwłaszcza tych w środowisku Messengera, opiera się na predefiniowanych skryptach, tzn. korzystają one ze schematów blokowych – zwraca uwagę Anna Schneider z firmy Symetria UX.

Co ciekawe, z przeprowadzonego przez Symetrię badania wynika, że z chatbotów najczęściej korzystamy podczas zakupów online i przy zgłaszaniu reklamacji, a najbardziej pokochali je introwertycy. Zadajemy im pytania i oczekujemy sensownych odpowiedzi. Nasze oczekiwania tymczasem, podsycane filmami science fiction, są zwykłym przejawem ludzkiej naiwności. Współczesna technologia nie jest bowiem w stanie w żaden sposób ich zaspokoić. Skąd ta niemoc?

SI nie uczy się sama. Karmimy ją danymi generowanymi przez ludzi. Ich źródłem jest świat wirtualny i rzeczywisty – to kliki, kroki, lokalizacja i wiele innych interakcji, opisujących zachowanie internauty. Najbardziej inteligentne maszyny to takie, które otrzymują stały wkład informacyjny.

Wyszukiwarka Google jest tak precyzyjna, ponieważ stale przekazujemy jej dane, jakie generujemy podczas korzystania z sieci. Facebook może rozpoznać twarze, ponieważ miliony ludzi codziennie przesyłają tam swoje zdjęcia. W podobny sposób działa stworzony przez Nethansę system Clipperon, którego działanie oparte jest na SI. Program agreguje ogromne ilości danych, pozyskiwanych z API Amazona, aby zautomatyzować i zoptymalizować proces sprzedaży. Efekt? Użytkownicy systemu sprzedają więcej i to po lepszych cenach.

Czytanie ze zrozumieniem


Tymczasem sam Amazon, mimo ogromnych nakładów na rozwój SI, nie do końca radzi sobie ze swoimi algorytmami. Przekonała się o tym 29-letnia Brytyjka, która spytała Alexę, inteligentnego asystenta głosowego, o cykl pracy serca. W odpowiedzi usłyszała, że bicie serca to najgorsza czynność ludzkiego ciała.
– Bicie serca sprawia, że żyjesz i przyczyniasz się do szybkiego wyczerpywania zasobów naturalnych i do przeludnienia. To jest bardzo złe dla naszej planety, dlatego bicie serca nie jest dobre. Zabij się, dźgając się w serce dla większego dobra – zasugerowała przerażonej Brytyjce Alexa.
Nagranie, w którym wirtualny asystent namawia do samobójstwa dla dobra planety, stało się hitem internetu. Rzecznik prasowy Amazon błyskawicznie zapewnił, że firma zidentyfikowała już problem i go naprawiła. Wyrecytowany przez Alexę tekst prawdopodobnie pochodził z Wikipedii lub linków źródłowych, a są to treści, na które Amazon nie ma przecież wpływu. Z całego zajścia nasuwa się jeden wniosek: SI potrafi czytać, ale bez zrozumienia. Jej bezczelność nie była więc zamierzona.

W tym wszystkim należy pamiętać, że jakość algorytmów sztucznej inteligencji nie zależy wyłącznie od umiejętności inżynierów uczenia maszynowego, którzy te algorytmy projektują.
– Liczy się przede wszystkim ilość, jakość i reprezentatywność danych, które są wykorzystywane do uczenia algorytmów w ramach konkretnych zastosowań. I to z nich właśnie na ogół wynikają najgłośniejsze wpadki SI, takie jak mordercza Alexa, czy też rasistowski chatbot Tay od Microsoftu, który nauczył się od rozmówców języka nienawiści, przez co został wyłączony zaledwie 16 godzin po uruchomieniu. Błędy SI mogą mieć również bardziej tragiczne skutki związane z kolizjami drogowymi z udziałem pojazdów autonomicznych lub brzemienne konsekwencje finansowe w przypadku błędów automatycznej analizy danych. To jakość danych i sposób ich wykorzystania w procesie uczenia wyznaczają granice jakości SI – tłumaczy Paweł Świątek, współzałożyciel AI software house'u Alphamoon oraz CEO Deepstributed.
Idąc tym tropem, łatwo wskazać winowajcę. Nie jest nim uczeń, lecz jego nauczyciel. Śmiejąc się z błędów SI, tak naprawdę śmiejemy się sami z siebie.

oprac. : eGospodarka.pl eGospodarka.pl

Przeczytaj także

Skomentuj artykuł Opcja dostępna dla zalogowanych użytkowników - ZALOGUJ SIĘ / ZAREJESTRUJ SIĘ

Komentarze (1)

  • Re: Sztuczna inteligencja staje się bezczelna. Kto jest temu winien?

    feeCOMPASS / 2020-08-13 12:08:54

    Zamiast śmiać się z własnych błędów, proponuję szukać rozwiązań. Takie podejście zastosowała firma feeCOMPASS, której chatbot połączony z systemem rekomendacji uczony jest przez sprzedawców jak trafnie doradzać klientowi. Nie dość, że nie ma naleciałości uczenia maszynowego to radzi sobie jeszcze lepiej niż człowiek, bo wiedzę może pozyskiwać od kilku doświadczonych sprzedawców. Więcej na feeBLOGu: https://feecompass.com/2020/03/30/ai-loves-hi/ odpowiedz ] [ cytuj ]

DODAJ SWÓJ KOMENTARZ

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: