Intelligenza artificiale e formazione delle opinioni: il pericolo della manipolazione in democrazia!
Con MATH+ l'Università Tecnica di Berlino studia le dinamiche sociali della formazione delle opinioni al fine di rafforzare i processi democratici.

Intelligenza artificiale e formazione delle opinioni: il pericolo della manipolazione in democrazia!
Il 22 maggio 2025 l’Università Tecnica di Berlino ha annunciato passi significativi nella ricerca sulle dinamiche sociali della formazione delle opinioni. Sotto la guida di Sebastian Pokutta, vicepresidente dello Zuse Institute Berlin e portavoce del Cluster of Excellence MATH+, la prossima fase di finanziamento si concentrerà sull'analisi della formazione delle opinioni attraverso i social media. L’obiettivo è rafforzare e proteggere i valori democratici, evidenziando al contempo l’intelligenza artificiale (AI) e i metodi di ottimizzazione come aree di ricerca chiave. Pokutta e il suo team vedono la necessità di comprendere meglio come vengono diffuse le informazioni e l’influenza che gli algoritmi hanno sull’opinione pubblica.
Negli ultimi anni il cambiamento e la diffusione delle opinioni attraverso i social media è aumentato in modo significativo. Secondo l’Agenzia federale per l’educazione civica, l’accesso a informazioni affidabili è considerato fondamentale per il funzionamento della democrazia. L’influenza dei social media è cambiata in modo significativo, il che ha creato vulnerabilità sociali. La popolazione tedesca mostra un calo di fiducia nei media, passando dal 48% nel 2023 al 47% nel 2024. Anche la fiducia nel governo è diminuita, dal 47% al 42%.
Il ruolo dell'intelligenza artificiale
L’intelligenza artificiale gioca un ruolo sempre più centrale nella comunicazione politica. I recenti sviluppi, in particolare dopo il lancio di ChatGPT alla fine del 2022, hanno riacceso la discussione sulla manipolazione e la disinformazione dell’IA. La capacità dell’intelligenza artificiale di generare contenuti automatizzati e di personalizzarli in modo specifico è identificata come un rischio importante. Gli attori politici utilizzano specificamente algoritmi per aumentare la visibilità di determinate narrazioni. Ciò può essere visto, ad esempio, nelle strategie manipolative che anche l’AfD utilizza per diffondere i suoi messaggi.
Nella fase di finanziamento MATH+ prevista, Andrea Walther, un altro portavoce del progetto, attribuisce grande importanza alla sostenibilità. Dovrebbero essere sviluppati algoritmi per aumentare l’efficienza nei settori della mobilità e dell’energia, ad es. ottimizzando le reti di trasporto per ridurre il consumo energetico dell’intelligenza artificiale durante l’apprendimento.
Sfide democratiche e raccomandazioni per l’azione
La diffusione della disinformazione rappresenta una sfida significativa per i processi democratici. Falsi profondi e contenuti inaffidabili generati dall’intelligenza artificiale minacciano il discorso democratico e potrebbero minare le condizioni per un pubblico illuminato. I social media basati su algoritmi complessi massimizzano il coinvolgimento degli utenti, portando alla frammentazione dello spazio informativo e mettendo a repentaglio la coesione sociale.
Per contrastare questo sviluppo sono necessarie misure concrete. Le raccomandazioni per l’azione includono l’introduzione di un codice di condotta per i partiti politici, campagne di educazione pubblica e la promozione di un approccio multilaterale. È essenziale garantire la trasparenza tramite algoritmi e l’accesso ai dati degli utenti. Per identificare e contrastare i tentativi di manipolazione si ritiene necessaria una stretta collaborazione tra gestori delle piattaforme, politici e organizzazioni della società civile.
Nel complesso, dimostra che le sfide poste dall’intelligenza artificiale e le sue implicazioni di vasta portata per la democrazia non possono essere ignorate. Gli sviluppi nella comunicazione politica richiedono partecipazione attiva e regolamentazione per garantire che i valori democratici siano preservati anche in un mondo digitalizzato e controllato algoritmicamente.