AI-risikoer i fokus: Workshop i Bielefeld fremhever sikkerhetsemner!
Workshop om AI-sikkerhet ved Bielefeld University: Eksperter vil diskutere risikoer og løsninger fra 24. til 26. september 2025.

AI-risikoer i fokus: Workshop i Bielefeld fremhever sikkerhetsemner!
Neste uke finner en viktig workshop om kunstig intelligens (AI) sted ved Senter for tverrfaglig forskning (ZiF) ved Bielefeld Universitet. Fra 24. til 26. september vil eksperter fra ulike disipliner komme sammen for å diskutere risikoene og sikkerhetsaspektene ved AI. Dr. Alexander Koch, en anerkjent kryptografiekspert og IT-sikkerhetskonsulent, leder børsen sammen med Dr. Benjamin Paaßen og Elizabeth Herbert. Målet med workshopen er å gi en praktisk oversikt over utfordringene knyttet til moderne AI-systemer, som urettferdige avgjørelser eller forvirrende AI-generert innhold.
Workshopen samler 15 forskere fra åtte land, som kommer fra områder som maskinlæring, nevrovitenskap, statsvitenskap og etikk. Sammen ønsker de å lage et omfattende kart over AI-risikolandskapet. Dette skal ikke bare kartlegge viktige farer, men også vise mulige tiltak for å redusere risiko. Målet er å hjelpe enkeltpersoner og institusjoner med å ta informerte beslutninger angående AI-sikkerhet. Dr. Koch og Dr. Paaßen er stipendiater av "Young ZiF", et nettverk som har fremmet tverrfaglig utveksling innen forskningsfeltet siden 2002.
Kunstig intelligens i hverdagen
AI-industrien har gjort raske fremskritt de siste årene, spesielt gjennom utviklinger som ChatGPT-programvaren. Bedrifter stoler i økende grad på AI-støttede chatbots som kan kommunisere på naturlig språk. Disse systemene spiller ikke bare en nøkkelrolle innen IT-sikkerhet ved å oppdage og avverge trusler raskere, men brukes også i bygningssikkerhet. Der bidrar de til å minimere innbrudd og andre farer som brann.
Bruken av AI medfører imidlertid også risiko. Falske alarmer kan forårsake stress, og i bedriftssikkerhet kan AI-systemer være dårlig implementert, noe som kan føre til økonomiske tap eller juridiske problemer. Den understreker at robuste sikkerhetstiltak og regelmessige revisjoner er nødvendig for å minimere risikoen ved AI. Gjennomsiktigheten til algoritmene er avgjørende fordi beslutninger tatt av AI-systemer må være forståelige.
Sikkerhet og etiske hensyn
Diskusjonen om AI er ikke bare teknisk, men også etisk. Resultatene av AI-systemer avhenger betydelig av dataene som brukes og deres design. Forvrengninger i dataene kan ha utilsiktede, men alvorlige konsekvenser, som diskriminerende beslutninger ved ansettelse eller utlån. Metoder som såkalt "mathwashing" kan få AI til å virke faktabasert selv om den er feil eller partisk.
Bekymringene om databeskyttelse og personvern kan heller ikke ignoreres. Teknologier som ansiktsgjenkjenning eller online sporing kan sette borgerrettigheter i fare. Den nye loven om AI krever derfor komplette og nøyaktige datasett for opplæring av AI-systemer og regulerer bruken av enkelte applikasjoner som potensielt kan være skadelige.
I en tid hvor autonome beslutninger gjennom AI i økende grad finner veien inn i hverdagen, er det avgjørende at både publikum og bedriftens interessenter er informert om mulighetene og risikoene ved AI-systemer. Viktigheten av ansvarlig bruk og regulering understrekes sterkt av eksperter. Dette er den eneste måten å sikre at AI-utviklingen tjener samfunnets velvære og ikke blir ukontrollerbare trusler.
En omfattende forståelse av AI-landskapet og dets risikoer er derfor avgjørende for å fremme informert og ansvarlig bruk av teknologier. Den kommende workshopen på ZiF vil representere et ytterligere skritt i denne retningen. Med mål om å finne praktiske løsninger vil han bringe både sikkerhets- og etiske spørsmål innen AI på spissen.
Bielefeld universitet rapporterer at workshopen representerer et viktig forum for utveksling om AI-sikkerhet. Gerhard Link fremhever viktigheten av sikkerhetsmekanismer mens Europaparlamentet analyserte de etiske dimensjonene til AI.