Da La Plata in linea Matias Colado La Greca. Social network: una conversazione minacciata dai bot di IA
Tra novembre 2024 e marzo 2025, l’Università di Zurigo ha condotto un esperimento segreto e non autorizzato sui social network: decine di account controllati dall’IA hanno dialogato con utenti reali su temi come politica, religione, salute mentale e diritti umani. I bot sono riusciti a modificare l’opinione delle persone con un’efficacia sei volte superiore rispetto a quella di un esperto umano in ciascuno di questi ambiti. Come ci sono riusciti? I bot di IA hanno “letto” il profilo delle persone con cui avrebbero interagito. Con appena cento post furono sufficienti para dedurre età, genere, orientamento politico, convinzioni personali e molto altro. Su queste basi hanno costruito un’identità fittizia su misura e impiegato gli argomenti più adatti per influenzare il punto di vista dell’interlocutore. A volte i bot si spacciavano per donne che avevano subito una violenza o un errore medico, per suscitare empatia; altre volte assumevano l’identità di uomini neri che discutevano di razzismo e del movimento Black Lives Matter. In certi casi interpretavano il ruolo di psicologo o consulente, offrendo presunti consigli su traumi e salute mentale. L’Università di Zurigo ha riconosciuto che la ricerca aveva superato limiti etici. È stata avviata una revisione dei protocolli per evitare che esperimenti simili si ripetano, e diversi ricercatori hanno ricevuto critiche per aver agito senza garantire trasparenza né il consenso dei partecipanti. L’esperimento ha messo in luce come l’IA possa manipolare le conversazioni online e influenzare l’opinione degli utenti su larga scala.
Chi regola l’uso di questa tecnologia?
Nel caso citato, l’esperimento si è svolto in un contesto accademico, con un raggio d’azione limitato e con l’obiettivo dichiarato di studiare un fenomeno, pur avendo superato confini etici. La situazione cambia in modo decisivo quando la minaccia proviene da organismi governativi di diversi Paesi o da attori privati con la capacità di dispiegare bot sui social network in modo massiccio e continuativo, senza supervisione, senza trasparenza e con finalità strategiche ben definite. L’osservatorio italiano sulla disinformazione IDMO ha segnalato che, nell’aprile 2025, la disinformazione generata dall’IA ha raggiunto un livello record in Italia: l’11,6% degli articoli di fact-checking riguardava contenuti falsi prodotti da sistemi di intelligenza artificiale. I temi più colpiti da queste falsità riguardavano la guerra in Ucraina, l’Unione Europea, il conflitto di Gaza e questioni sanitarie come i vaccini. Tutto lascia pensare che il fenomeno sia destinato a crescere. Per questo diventa essenziale adottare misure di prevenzione: esaminare con attenzione il profilo di chi interviene, osservare il suo modo di scrivere, valutare la coerenza delle sue partecipazioni nel tempo, evitare di vivere ogni scambio come qualcosa di personale e cercare segnali chiari di interazione umana. Ma, soprattutto, conviene adeguare la propria condotta e moderare —o addirittura eliminare— l’esposizione ai social network, che in definitiva rappresentano l’unico ambiente in cui questi profili artificiali possono operare. La vita reale, i legami autentici e il contatto con la natura sono luoghi che nessuna rete digitale potrà mai raggiungere.