Tajemství umělé inteligence: Proč je vysvětlitelnost zásadní!
Prof. Dr. Jürgen Bajorath z univerzity v Bonnu zkoumá výzvy a příležitosti vysvětlitelné umělé inteligence ve výzkumu.

Tajemství umělé inteligence: Proč je vysvětlitelnost zásadní!
4. dubna 2025 bude ve vědeckých kruzích znovu zdůrazněna důležitost vysvětlitelné umělé inteligence (AI). Počítačové algoritmy schopné učení zaznamenaly v posledních letech významný pokrok, ale potýkají se s hlavním problémem: jejich nedostatečná transparentnost. To se týká zejména rozhodovacích procesů, které jsou často vnímány jako „černá skříňka“. Například pokud jde o rozpoznávání vozidel pomocí umělé inteligence, často není jasné, jaké funkce algoritmy používají při rozhodování. Prof. Dr. Jürgen Bajorath, který vede oblast AI v biologických vědách na Lamarr Institute a program Life Science Information na univerzitě v Bonnu, zdůrazňuje, že těmto modelům by se nemělo slepě věřit.
Zkoumání vysvětlitelnosti umělé inteligence je zásadní pro pochopení, kdy jsou algoritmy spolehlivé při rozhodování. Vysvětlitelnost popisuje schopnost systému umělé inteligence transparentně vysvětlit, která kritéria jsou pro jeho výsledky klíčová. V chemii a objevování léků jsou tyto požadavky obzvláště náročné, protože modely chemického jazyka často navrhují nové molekuly, aniž by vysvětlily, proč jsou tyto návrhy učiněny.
Koncept vysvětlitelné umělé inteligence
Iniciativa Explainable AI (XAI) má za cíl odhalit často složité rozhodovací procesy algoritmů AI. Odmítnutí žádostí o úvěr systémem umělé inteligence často zanechává frustraci a nedůvěru, protože důvod rozhodnutí zůstává nejasný. XAI může pomoci překonat tyto výzvy. Důležitými aspekty jsou transparentnost a důvěra, zejména v kritických oblastech, jako je zdravotnictví, bankovnictví a autonomní řízení, kde mohou mít rozhodnutí vážné dopady na lidi.
Metody XAI zahrnují identifikaci vlivných funkcí pro předpovědi a také lokální modely, které vysvětlují konkrétní předpovědi (jako je LIME). Tyto metody jsou důležité pro detekci a minimalizaci potenciálních zkreslení v modelech AI. Současné aplikace XAI sahají od vysvětlení lékařských diagnóz až po transparentní rozhodování ve výrobních procesech.
Výzvy vysvětlitelnosti
Přestože bylo dosaženo pokroku, existuje řada problémů, které je třeba překonat. Existuje konflikt cílů mezi požadovanou složitostí modelu, která často vede k „černé skříňce“, a vysvětlitelností rozhodnutí. Postiženy jsou zde i velké jazykové modely (LLM), jejichž složité struktury mohou znemožnit jednoduché vysvětlení. Kromě toho je třeba alokovat vývojové zdroje pro uživatelsky přívětivé nástroje XAI, aby se podpořilo širší přijetí.
Bajorath varuje, že funkce, které AI považuje za relevantní, nemusí mít nutně kauzální vliv na požadované výsledky. K ověření navržených molekulárních struktur jsou nezbytné chemické experimenty, aby bylo možné pochopit, zda jsou vlastnosti skutečně relevantní. Kontroly věrohodnosti jsou proto nezbytné.
Stručně řečeno, vysvětlitelnost a transparentnost systémů AI není jen technickým požadavkem, ale nutností pro odpovědné a etické používání ve společnosti. Jako ranktracker.com jasné vysvětlení podporují důvěru a jsou zásadní pro dodržování právních norem.
Využití adaptivních algoritmů má tedy potenciál výrazně posunout výzkum v přírodních vědách. To však vyžaduje hluboké pochopení jejich silných a slabých stránek, aby bylo zajištěno, že vývoj bude etický a účinný. Fraunhofer popisuje, jak mohou relevantní metody vysvětlitelnosti pomoci nejen zlepšit technologie, ale také zajistit přenos odpovědnosti v rozhodovacích procesech.
Vzhledem k různým oblastem použití zůstává diskuse o vysvětlitelnosti rozhodnutí AI ústředním tématem vědecké komunity.