MPaR'21 - artykuł nr 8


 

Pokaż spis treści MPaR'21
 

Rozwój wyjaśniania modeli uczenia maszynowego a zaufanie do sztucznej inteligencji

Szymon Głowania, Bogna Zacny, Grzegorz Dziczkowski

Streszczenie:

Aplikacje oparte na sztucznej inteligencji, w szczególności na technikach i algorytmach uczenia maszynowego stają się coraz bardziej popularne, dotyczą coraz szerszych obszarów ludzkiej działalności. Technologie te znajdują zastosowanie w coraz ważniejszych i wrażliwszych dziedzinach naszego życia. Od wyników algorytmów uczenia maszynowego coraz częściej zależy przyszłość firm, korporacji jak i ludzkie zdrowie. Aby móc w pełni wykorzystać systemy oparte na sztucznej inteligencji koniecznym staje się określenie naszego zaufania do wyników poszczególnych algorytmów. Musimy mieć pewność że algorytmy te działają w naszym interesie. Istotą zaufania jest zrozumienie działania algorytmów uczenia maszynowego. W tym celu kluczową rolę zaczynają odgrywać metody wyjaśniania modeli uczenia maszynowego (ang. XAI – Explainable Artificial Intelligence). W przestawionym artykule autorzy prezentują techniki wyjaśniania modeli uczenia maszynowego. Przedstawiają kierunki rozwoju XAI oraz wskazują działania mające na celu zwiększenie poziomu zaufania użytkowników do systemów wykorzystujących algorytmy uczenia maszynowego.

Nota bibliograficzna:

Szymon Głowania, Bogna Zacny, Grzegorz Dziczkowski. (2021). Rozwój wyjaśniania modeli uczenia maszynowego a zaufanie do sztucznej inteligencji. W: Maciej Nowak, Tadeusz Trzaskalik (red.), Modelowanie Preferencji a Ryzyko '21. Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach, s. 134-149