AI și formarea opiniei: Pericolul manipulării în democrație!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Cu MATH+, Universitatea Tehnică din Berlin cercetează dinamica socială a formării opiniei pentru a consolida procesele democratice.

Die Technische Universität Berlin erforscht mit MATH+ die soziale Dynamik der Meinungsbildung, um demokratische Prozesse zu stärken.
Cu MATH+, Universitatea Tehnică din Berlin cercetează dinamica socială a formării opiniei pentru a consolida procesele democratice.

AI și formarea opiniei: Pericolul manipulării în democrație!

Pe 22 mai 2025, Universitatea Tehnică din Berlin a anunțat pași semnificativi în cercetarea dinamicii sociale a formării opiniei. Sub conducerea lui Sebastian Pokutta, vicepreședinte al Institutului Zuse din Berlin și purtător de cuvânt al Clusterului de excelență MATH+, următoarea fază de finanțare se va concentra pe analiza formării opiniei prin intermediul rețelelor sociale. Scopul este de a consolida și proteja valorile democratice, subliniind în același timp inteligența artificială (AI) și metodele de optimizare ca domenii cheie de cercetare. Pokutta și echipa sa văd nevoia de a înțelege mai bine modul în care informațiile sunt diseminate și influența pe care o au algoritmii asupra opiniei publice.

În ultimii ani, schimbarea și răspândirea opiniilor prin intermediul rețelelor de socializare a crescut semnificativ. Potrivit Agenției Federale pentru Educație Civică, accesul la informații de încredere este văzut ca fiind crucial pentru funcționarea democrației. Influența rețelelor sociale s-a schimbat semnificativ, ceea ce a creat vulnerabilități sociale. Populația germană prezintă o scădere a încrederii în mass-media, scăzând de la 48% în 2023 la 47% în 2024. Încrederea în guvern a scăzut, de asemenea, de la 47% la 42%.

Rolul inteligenței artificiale

Inteligența artificială joacă un rol din ce în ce mai central în comunicarea politică. Evoluțiile recente, în special de la lansarea ChatGPT la sfârșitul anului 2022, au reaprins discuția despre manipularea și dezinformarea AI. Capacitatea AI de a genera conținut automat și de a-l personaliza în mod specific este identificată ca un risc major. Actorii politici folosesc în mod specific algoritmi pentru a crește vizibilitatea anumitor narațiuni. Acest lucru se poate observa, de exemplu, în strategiile manipulative pe care AfD le folosește și pentru a-și răspândi mesajele.

În faza de finanțare planificată pentru MATH+, Andrea Walther, un alt purtător de cuvânt al proiectului, acordă o mare importanță durabilității. Ar trebui dezvoltați algoritmi de creștere a eficienței în domeniile mobilității și energiei, de ex. prin optimizarea rețelelor de transport pentru a reduce consumul de energie al IA atunci când învață.

Provocări democratice și recomandări de acțiune

Răspândirea dezinformarii reprezintă o provocare semnificativă pentru procesele democratice. Falsurile profunde și conținutul nesigur generat de IA amenință discursul democratic și ar putea submina condițiile pentru un public iluminat. Rețelele sociale bazate pe algoritmi complecși maximizează implicarea utilizatorilor, ducând la fragmentarea spațiului informațional și punând în pericol coeziunea socială.

Pentru a contracara această evoluție, sunt necesare măsuri concrete. Recomandările de acțiune includ introducerea unui cod de conduită pentru partidele politice, campanii de educație publică și promovarea unei abordări cu mai multe părți interesate. Asigurarea transparenței prin algoritmi și accesul la datele utilizatorilor sunt esențiale. O strânsă cooperare între operatorii platformei, politicienii și organizațiile societății civile este considerată necesară pentru a identifica și contracara tentativele de manipulare.

În general, arată că provocările prezentate de IA și implicațiile sale de amploare pentru democrație nu pot fi ignorate. Evoluțiile în comunicarea politică necesită o participare activă și o reglementare pentru a se asigura că valorile democratice sunt păstrate chiar și într-o lume digitalizată și controlată algoritmic.