AI mot desinformasjon: Dr. Vera Schmitts kamp for sannheten!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

TU Berlin forsker under Dr. Vera Schmitt på AI-støttede verktøy for å bekjempe desinformasjon for å styrke demokratiske prosesser.

Die TU Berlin forscht unter Dr. Vera Schmitt an KI-gestützten Tools zur Bekämpfung von Desinformation, um demokratische Prozesse zu stärken.
TU Berlin forsker under Dr. Vera Schmitt på AI-støttede verktøy for å bekjempe desinformasjon for å styrke demokratiske prosesser.

AI mot desinformasjon: Dr. Vera Schmitts kamp for sannheten!

I en verden hvor desinformasjon spres lettere og lettere, er forskningsgruppen XplaiNLP ved TU Berlin representerer et avgjørende skritt i å bekjempe denne utfordringen. Under ledelse av Dr. Ifølge Vera Schmitt har gruppen gjort det til sitt oppdrag å styrke samfunnets motstandskraft mot desinformasjon. Med over 4 millioner euro i tredjepartsfinansiering er forskningen hennes rettet mot å utvikle verktøy som hjelper både journalister og publikum bedre å forstå desinformasjonsfortellinger.

Gruppens arbeid fokuserer på to hovedprosjekter: VeraXtract og nyhets-polygraf. VeraXtract-prosjektet har som mål å analysere komplekse desinformasjonsfortellinger for ikke bare å identifisere falsk informasjon, men også dechiffrere fortellingene bak dem. An AI-supported “narrative monitoring tool” should play a central role here. Denne teknologien gir forståelige forklaringer på sine analyser og gir dermed åpenhet for brukerne.

Aktuelle prosjekter og deres betydning

Det andre prosjektet, news-polygraph, er rettet spesielt mot journalister og er designet for å finne falsk informasjon i tekster, bilder, lyd- og videoinnhold. Den første demoversjonen av verktøyet er annonsert i april. Gitt utfordringene med at faktasjekker ofte kommer for sent og desinformasjon forblir i det kollektive minnet, blir utviklingen av slike teknologier stadig mer presserende.

XplaiNLP-forskningsgruppen har for tiden 24 teammedlemmer, noe som gjør den til en av de ledende gruppene innen desinformasjonsdeteksjon i Tyskland. Som komplement til gruppens mål er behovet for å kritisk undersøke rollen til AI i å bekjempe desinformasjon. Dr. Schmitt understreker relevansen av AI: Den kan fungere som en bro mellom mennesker og hjelpe til med å bryte gjennom filterbobler.

Utfordringene med desinformasjon

Den allestedsnærværende spredningen av desinformasjon truer tilliten til demokratiske institusjoner og kan utdype sosiale skillelinjer. Bruken av kunstig intelligens i denne sammenhengen fremhever både risikoene og mulighetene. I tillegg til å identifisere feilinformasjon, analyserer teamet også stilistiske kjennetegn for å identifisere emosjonelt og ladet innhold. Disse tilnærmingene er spesielt aktuelle i perioden frem mot valg og konflikter, når desinformasjon i økende grad brukes strategisk.

Gruppen samarbeider også med partnere som Deutsche Welle og det tyske forskningssenteret for kunstig intelligens for å videreutvikle metoder for deepfake-deteksjon og innholdsanalyse. Initiativer som International Fact-Checking Signators og lokale faktasjekkere er også aktivt involvert i å motvirke feilinformasjon. Lov om digitale tjenester (DSA) kan også spille en viktig rolle i å regulere sosiale medieplattformer når det gjelder innholdsmoderering.

Et viktig format for utveksling er arrangementer som diskusjonen om faktasjekker med AI, som er planlagt til 10. desember 2024 ved TU Berlin. Aktuelle utfordringer, juridiske rammebetingelser og behovet for menneskelige faktasjekkere vil bli diskutert her for å forbedre samfunnets bruk av AI.

Forskergruppens visjon strekker seg til 2030, da AI skal kunne oppdage og kontekstualisere desinformasjon i sanntid. Dette er ment å gjenopprette tilliten til informasjon og til slutt fremme sosial samhørighet. Utfordringene er umiskjennelige, men tilnærmingene til forskningsgruppen XplaiNLP gir nye perspektiver i kampen mot flommen av desinformasjon.