Zaufanie, przejrzysto艣膰 i rozw贸j mo偶liwej do wyja艣nienia sztucznej inteligencji

Zaufanie, przejrzysto艣膰 i rozw贸j mo偶liwej do wyja艣nienia sztucznej inteligencji

Wi臋kszo艣膰 organizacji jest obecnie w trakcie badania, planowania lub wdra偶ania wdro偶e艅 sztucznej inteligencji (AI), ale jest problem: firmy – a nawet projektanci sztucznej inteligencji – nie rozumiej膮, w jaki spos贸b i dlaczego sztuczna inteligencja podj臋艂a okre艣lon膮 decyzj臋. Jest to du偶a przeszkoda dla firm, kt贸re chc膮 przy podejmowaniu decyzji polega膰 na dynamicznych systemach opartych na sztucznej inteligencji. W rzeczywisto艣ci niedawna ankieta PwC wykaza艂a, 偶e 鈥嬧37 procent dyrektor贸w stwierdzi艂o, 偶e zapewnienie wiarygodno艣ci system贸w AI jest ich najwy偶szym priorytetem, a 61 procent chcia艂oby stworzy膰 przejrzyste, mo偶liwe do wyja艣nienia i udowodnienia modele AI.

Potrzeba przejrzystej, mo偶liwej do wyja艣nienia sztucznej inteligencji wykracza poza indywidualne preferencje biznesowe. Interpretowalno艣膰, uczciwo艣膰 i przejrzysto艣膰 system贸w wspomagania decyzji opartych na danych opartych na sztucznej inteligencji i uczeniu maszynowym to powa偶ne obowi膮zki regulacyjne w bankowo艣ci, ubezpieczeniach, opiece zdrowotnej i innych bran偶ach. Ponadto przepisy, takie jak prawo RODO do wyja艣nienia lub nadchodz膮ca ustawa o ochronie prywatno艣ci konsument贸w w Kalifornii, zmusz膮 firmy do poznania, o czym my艣l膮 ich algorytmy sztucznej inteligencji. Rozwi膮zaniem tych kwestii zaufania i mo偶liwo艣ci wyja艣nienia by艂o zazwyczaj trzymanie si臋 prostszych modeli, poprawiaj膮c przejrzysto艣膰 kosztem dok艂adno艣ci. Z mojej perspektywy zrozumienie, jak budowa膰 zaufanie – bardziej ni偶 przejrzysto艣膰 – w sztucznej inteligencji b臋dzie kluczowe dla sukcesu.

Lepsze wyja艣nienie AI

Najpierw przyjrzyjmy si臋, jak sztuczn膮 inteligencj臋 mo偶na uczyni膰 bardziej 鈥瀢yja艣nialn膮鈥. Naj艂atwiejszym sposobem jest trzymanie si臋 podzbioru algorytm贸w uczenia maszynowego, kt贸re maj膮 tendencj臋 do tworzenia bardziej interpretowalnych modeli, takich jak regresja liniowa, regresja logistyczna i drzewa decyzyjne. Klasyfikatory liniowe i drzewa decyzyjne mo偶na sprawdzi膰 bezpo艣rednio, a przyczyn臋 okre艣lonej decyzji mo偶na do艣膰 艂atwo prze艣ledzi膰, badaj膮c model.

Inn膮 opcj膮 jest u偶ycie narz臋dzi do interpretacji niezale偶nych od modelu, kt贸re mo偶na zastosowa膰 do dowolnego nadzorowanego modelu uczenia maszynowego. Jednym z przyk艂ad贸w s膮 wyja艣nienia LIME (Local Interpretable Model-Agnostic Explanations). LIME zasadniczo pobiera pojedyncz膮 instancj臋 predykcyjn膮 z modelu czarnej skrzynki i generuje prostszy model w celu przybli偶enia cech decyzyjnych modelu czarnej skrzynki. Ten prostszy model mo偶na nast臋pnie zinterpretowa膰 i wykorzysta膰 do wyja艣nienia pierwotnej prognozy czarnej skrzynki.

Wyt艂umaczalno艣膰 ma swoj膮 cen臋

Jednak skupienie si臋 na uczynieniu AI bardziej przejrzystym i mo偶liwym do wyja艣nienia wi膮偶e si臋 z kosztami. Poniewa偶 jednym z g艂贸wnych powod贸w korzystania ze sztucznej inteligencji jest przewidywanie z艂o偶onych sytuacji, wydaje si臋, 偶e model, kt贸ry si臋 za ni膮 opiera, jest podobnie z艂o偶ony, a przez to trudny do wyja艣nienia. Przechodz膮c na bardziej mo偶liwe do wyja艣nienia metody, ograniczamy zakres metod sztucznej inteligencji, co mo偶e ostatecznie doprowadzi膰 do gorszej wydajno艣ci. W wielu dziedzinach modele oparte na za艂o偶eniach maj膮 gorzej przewidywanie wydajno艣ci na nietkni臋tych danych testowych ni偶 modele uczenia maszynowego czarnych skrzynek. Metody 鈥瀏艂臋bokiego uczenia鈥, takie jak sieci neuronowe, radz膮 sobie znacznie lepiej w reagowaniu na z艂o偶one sytuacje ni偶 metody bardziej interpretowalne, ale s膮 r贸wnie偶 znacznie bardziej nieprzejrzyste.

Nawet ograniczenie naszego wyboru algorytm贸w mo偶e nie skutkowa膰 stworzeniem sztucznej inteligencji, kt贸ra jest szczeg贸lnie 鈥瀢yt艂umaczalna鈥 dla przeci臋tnego cz艂owieka. Modele liniowe s膮 w stanie przyj膮膰 znacznie wi臋ksz膮 liczb臋 cech ni偶 jakikolwiek cz艂owiek m贸g艂by sobie poradzi膰 podczas jednego posiedzenia, a drzewa decyzyjne, cz臋sto bronione za ich interpretowalno艣膰, mog膮 by膰 do艣膰 g艂臋bokie i zazwyczaj musz膮 by膰 艂膮czone z setkami lub tysi膮cami innych decyzji drzewa. Chocia偶 same modele mog膮 by膰 bardziej przejrzyste, ich zrozumienie jest trudne lub niemo偶liwe, bior膮c pod uwag臋 rzeczywist膮 skal臋 – co oznacza, 偶e 鈥嬧媜bni偶amy wydajno艣膰 sztucznej inteligencji i nie uzyskujemy 偶adnych faktycznych korzy艣ci dla naszych wysi艂k贸w. Z tego powodu wielu praktyk贸w sztucznej inteligencji b臋dzie przedk艂ada膰 zaufanie nad przejrzysto艣膰.

Zaufanie jest wa偶niejsze ni偶 przejrzysto艣膰 w sztucznej inteligencji

Skupianie naszych wysi艂k贸w na zwi臋kszaniu zaufania do sztucznej inteligencji w stosunku do przejrzysto艣ci mo偶e wydawa膰 si臋 niezwyk艂e, wi臋c pomy艣lmy o przyk艂adzie. Wyobra藕 sobie, 偶e masz wyb贸r podj臋cia pracy w jednym z dw贸ch autonomicznych pojazd贸w. Pierwszy z nich nigdy nie przetransportowa艂 prawdziwego cz艂owieka do pracy, ale jego algorytmy s膮 ca艂kowicie wyt艂umaczalne i zrozumia艂e. Wewn臋trzne funkcjonowanie drugiego jest tajemnic膮, ale zosta艂o przetestowane na milionach kilometr贸w rzeczywistych warunk贸w jazdy, uzyskuj膮c doskona艂e wyniki. Kt贸ry by艣 wybra艂? Jestem pewien, 偶e wszyscy woleliby艣my je藕dzi膰 tym, kt贸ry dzia艂a dobrze, nawet je艣li nie rozumiemy w jaki spos贸b to dzia艂a. Zgodnie z t膮 sam膮 logik膮 dla sztucznej inteligencji, testy powinny sta膰 si臋 znacznie dok艂adniejsze, aby firmy mog艂y mie膰 zaufanie do sztucznej inteligencji. Jednocze艣nie firmy mog膮 wprowadzi膰 inicjatyw臋 鈥瀘dpowiedzialnej sztucznej inteligencji鈥, w kt贸rej priorytetowo traktuje si臋 odpowiedzialno艣膰, testowanie i zarz膮dzanie.

Innym sposobem na zwi臋kszenie zaufania do sztucznej inteligencji jest mierzenie go na podstawie wynik贸w biznesowych. Obecnie sztuczna inteligencja jest mierzona za pomoc膮 wska藕nik贸w i modeli, kt贸re rozumiej膮 tylko naukowcy zajmuj膮cy si臋 danymi – i to musi si臋 zmieni膰, je艣li organizacje maj膮 bardziej komfortowo korzysta膰 ze sztucznej inteligencji. Aby zmierzy膰 skuteczno艣膰 inicjatyw AI w kategoriach biznesowych, mo偶emy opracowa膰 odpowiednie wska藕niki biznesowe dla ka偶dej inicjatywy uczenia maszynowego, a nast臋pnie wykorzysta膰 te metryki do oceny sukcesu modeli. Rezygnacja z bardziej abstrakcyjnych miar, takich jak dopasowanie modelu lub dok艂adno艣膰, sprawia, 偶e 鈥嬧媠ztuczna inteligencja jest znacznie bardziej zrozumia艂a dla biznesmena – mimo 偶e nic nie zmienili艣my w sposobie dzia艂ania samej sztucznej inteligencji.

Jak w przypadku ka偶dej nowej technologii, istnieje wiele pocz膮tkowych przeszk贸d do pokonania, zanim ludzie naprawd臋 si臋 z ni膮 zaznajomi膮. K艂ad膮c nacisk na testowanie i wi膮zanie wynik贸w AI z miernikami biznesowymi, sztuczna inteligencja staje si臋 艂atwiejsza do zaufania i staje si臋 naturaln膮 cz臋艣ci膮 naszego 艣rodowiska biznesowego.

殴r贸d艂o zdj臋cia: Mopic / Shutterstock

Cameron O’Rourke, jest dyrektorem ds. technicznego marketingu produkt贸w w GoodData. GoodData zapewnia firmom kompleksowe analizy wspomagane sztuczn膮 inteligencj膮 na du偶膮 skal臋, aby umo偶liwi膰 podj臋cie dzia艂a艅 Business Intelligence w miejscu pracy.