Zaufaj AI: tak sztuczna inteligencja staje się zrozumiała i bezpieczna!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

W przypadku TRR 318 Uniwersytet w Paderborn bada zrozumiałe wyjaśnienia sztucznej inteligencji, aby promować zaufanie użytkowników i zdolność do działania.

Die Universität Paderborn erforscht mit dem TRR 318 verständliche KI-Erklärungen, um Nutzer*innen Vertrauen und Handlungsfähigkeit zu fördern.
W przypadku TRR 318 Uniwersytet w Paderborn bada zrozumiałe wyjaśnienia sztucznej inteligencji, aby promować zaufanie użytkowników i zdolność do działania.

Zaufaj AI: tak sztuczna inteligencja staje się zrozumiała i bezpieczna!

Sztuczna inteligencja (AI) znalazła obecnie drogę do wielu dziedzin życia, czy to w postaci asystentów językowych, czy systemów decyzyjnych. Jednak pomimo ich powszechnego stosowania, procesy decyzyjne tych systemów są często trudne do zrozumienia. Centrum Badań Współpracy/Transregio (TRR) 318 „Konstruowanie wyjaśnialności” na uniwersytetach w Paderborn i Bielefeld zajmuje się intensywnymi zagadnieniami badawczymi, aby procesy wyjaśniania były bardziej zrozumiałe dla użytkowników. W szczególności grupa syntezy „Understanding” w TRR 318 zadaje główne pytanie, jakich informacji potrzebują użytkownicy, aby lepiej zrozumieć decyzje AI ( uni-paderborn.de ).

Prof. dr Heike M. Buhl z Uniwersytetu w Paderborn podkreśla, że ​​celem takich wyjaśnień jest zapewnienie ludziom jasnego zrozumienia. Obejmuje to rozróżnienie pomiędzy wiedzą konceptualną, która odnosi się do zwykłej wiedzy o informacji, a sprawczością, czyli wiedzą o tym, jak zastosować tę wiedzę w praktyce. W badaniu zbadano także dynamikę powierzchownego i głębokiego zrozumienia, które w dużym stopniu zależy od wcześniejszej wiedzy i zainteresowań użytkowników ( uni-paderborn.de ).

Potrzeba wyjaśnialności

Koncepcja wyjaśnialnej sztucznej inteligencji (XAI) staje się coraz ważniejsza. XAI zawiera procedury i metody, które pozwalają użytkownikom zrozumieć wyniki algorytmów uczenia maszynowego i zwiększyć ich zaufanie do tych systemów. W wielu przypadkach modele sztucznej inteligencji są postrzegane jako „czarne skrzynki”, których procesy decyzyjne są często nieprzejrzyste, nawet dla programistów. Dlatego niezwykle ważne jest, aby firmy rozumiały i stale monitorowały procesy decyzyjne w swoich systemach AI, aby uniknąć stronniczości i odchyleń w wydajności. XAI promuje także dokładność, uczciwość i przejrzystość, które są niezbędne do odpowiedzialnego wdrażania ( ibm.com ).

Korzyści z wyjaśnialności jest wiele. Obejmuje to zapewnienie funkcjonalności systemu, zgodności z wymogami prawa oraz możliwości odwołania się od decyzji. Do ważnych technik wyjaśnialnej sztucznej inteligencji zalicza się identyfikowalność decyzji i zwiększanie dokładności przewidywań. Metody takie jak lokalne interpretowalne wyjaśnienia niezależne od modelu (LIME) i DeepLIFT są wykorzystywane do analizy aktywacji neuronów, a tym samym przyczyniają się do lepszego zrozumienia decyzji AI ( ibm.com ).

Zaufaj systemom AI

Równie centralnym aspektem dyskusji na temat sztucznej inteligencji jest zaufanie do tych technologii. Niemieckie Centrum Badań nad Sztuczną Inteligencją (DFKI) pracuje obecnie nad metodami testowania i certyfikacji inteligentnych systemów. Celem jest pogodzenie doskonałości technologicznej z odpowiedzialnością społeczną. Jest to szczególnie ważne w obszarach kluczowych dla bezpieczeństwa, takich jak opieka zdrowotna czy finanse, gdzie przejrzystość jest kamieniem węgielnym zaufania ( dfki.de ).

DFKI opracowuje kryteria testowania i procedury certyfikacji, które mają na celu zapewnienie godnych zaufania modeli sztucznej inteligencji. Uzupełnieniem tych wysiłków są inicjatywy takie jak MISSION AI, która wspiera wzmacnianie godnych zaufania systemów poprzez skuteczne standardy audytu. Ponadto CERTAIN promuje standardy walidacji i certyfikacji systemów sztucznej inteligencji w Europie. Zmiany te są niezbędne, aby umożliwić przedsiębiorstwom i instytucjom wdrażanie godnych zaufania technologii i ostatecznie zwiększyć akceptację sztucznej inteligencji ( dfki.de ).

Ogólnie rzecz biorąc, jasne jest, że ciągły proces rozwoju godnej zaufania sztucznej inteligencji wymaga zarówno doskonałości naukowej, jak i odpowiedzialności społecznej. Europa ma szansę stać się światowym liderem dzięki skoncentrowanemu na człowieku podejściu do rozwoju sztucznej inteligencji. Aby sprostać wyzwaniom przyszłości i zdobyć zaufanie użytkowników, konieczne jest aktywne uczestnictwo w projektowaniu tych technologii.