AI rizika v centru pozornosti: Workshop v Bielefeldu zdůrazňuje bezpečnostní témata!
Workshop o zabezpečení AI na univerzitě v Bielefeldu: Odborníci budou diskutovat o rizicích a řešeních od 24. do 26. září 2025.

AI rizika v centru pozornosti: Workshop v Bielefeldu zdůrazňuje bezpečnostní témata!
Příští týden se v Centru pro interdisciplinární výzkum (ZiF) na univerzitě v Bielefeldu uskuteční důležitý workshop o umělé inteligenci (AI). Od 24. do 26. září se sejdou odborníci z různých oborů, aby diskutovali o rizicích a bezpečnostních aspektech AI. Dr. Alexander Koch, uznávaný odborník na kryptografii a konzultant bezpečnosti IT, vede burzu společně s Dr. Benjaminem Paaßenem a Elizabeth Herbert. Cílem workshopu je poskytnout praktický přehled výzev spojených s moderními systémy umělé inteligence, jako jsou nespravedlivá rozhodnutí nebo matoucí obsah generovaný umělou inteligencí.
Na workshopu se sejde 15 výzkumníků z osmi zemí pocházejících z oblastí, jako je strojové učení, neurověda, politologie a etika. Společně chtějí vytvořit komplexní mapu krajiny rizik AI. Ta by měla nejen zmapovat důležitá nebezpečí, ale také ukázat možná opatření ke snížení rizik. Cílem je pomoci jednotlivcům a institucím činit informovaná rozhodnutí ohledně zabezpečení AI. Dr. Koch a Dr. Paaßen jsou členy „Young ZiF“, sítě, která od roku 2002 podporuje mezioborovou výměnu v oblasti výzkumu.
Umělá inteligence v každodenním životě
Odvětví umělé inteligence zaznamenalo v posledních letech rychlý pokrok, zejména díky vývoji, jako je softwarová aplikace ChatGPT. Společnosti stále více spoléhají na chatboty s podporou AI, které dokážou komunikovat přirozeným jazykem. Tyto systémy nejenže hrají klíčovou roli v bezpečnosti IT tím, že rychleji detekují a odvracejí hrozby, ale používají se také při zabezpečení budov. Tam pomáhají minimalizovat vloupání a další nebezpečí, jako je požár.
Využití AI však přináší i rizika. Falešné poplachy mohou způsobit stres a v podnikové bezpečnosti mohou být systémy AI špatně implementovány, což může vést k finančním ztrátám nebo právním problémům. Zdůrazňuje, že k minimalizaci rizik AI jsou nezbytná robustní bezpečnostní opatření a pravidelné audity. Transparentnost algoritmů je klíčová, protože rozhodnutí učiněná systémy AI musí být srozumitelná.
Bezpečnostní a etické úvahy
Diskuse o AI není jen technická, ale také etická. Výsledky systémů AI výrazně závisí na použitých datech a jejich návrhu. Zkreslení v datech může mít nezamýšlené, ale vážné důsledky, jako jsou diskriminační rozhodnutí při najímání zaměstnání nebo půjčování. Metody jako takzvané „mathwashing“ mohou způsobit, že umělá inteligence vypadá jako založená na faktech, i když je chybná nebo neobjektivní.
Nelze opomenout ani obavy o ochranu dat a soukromí. Technologie jako rozpoznávání obličejů nebo online sledování mohou ohrozit občanská práva. Nový zákon o umělé inteligenci proto vyžaduje úplné a přesné soubory dat pro trénování systémů umělé inteligence a reguluje používání určitých aplikací, které by mohly být potenciálně škodlivé.
V době, kdy si autonomní rozhodování prostřednictvím umělé inteligence stále více nachází cestu do každodenního života, je klíčové, aby veřejnost i zainteresované strany společnosti byli informováni o příležitostech a rizicích systémů umělé inteligence. Odborníci silně zdůrazňují důležitost odpovědného používání a regulace. To je jediný způsob, jak zajistit, aby vývoj umělé inteligence sloužil blahu společnosti a nestal se nekontrolovatelnými hrozbami.
Komplexní pochopení krajiny umělé inteligence a jejích rizik je proto nezbytné pro podporu informovaného a odpovědného používání technologií. Nadcházející workshop na ZiF bude představovat další krok tímto směrem. S cílem nalézat praktická řešení postaví do popředí bezpečnostní i etické otázky v oblasti AI.
Univerzita v Bielefeldu uvádí, že workshop představuje základní fórum pro výměnu názorů na bezpečnost AI. Gerhard Link zdůrazňuje význam bezpečnostních mechanismů Evropský parlament analyzoval etické dimenze AI.