• 0 commenti
  • 12/02/2026 15:52

L’INTELLIGENZA ARTIFICIALE RISCHIA DI FALSARE I SONDAGGI ONLINE

L’INTELLIGENZA ARTIFICIALE RISCHIA DI FALSARE I SONDAGGI ONLINE

Sulla rivista Nature, ricercatori della Scuola IMT e dell’Università di Cambridge mettono in guardia da questo fenomeno che rischia di invalidare i risultati della ricerca sociale e anche di inquinare le rilevazioni politiche



Lucca, 12 febbraio 2026 - L'intelligenza artificiale generativa è ormai in grado di simulare perfettamente le risposte degli esseri umani: un’abilità che rischia di “inquinare” i risultati dei sondaggi online usati dalla ricerca sociale, ma anche dalla politica. Su Nature, una delle più prestigiose riviste scientifiche al mondo, Folco Panizza della Scuola IMT, insieme a Yara Kyrychenko e Jon Roozenbeek dell’Università di Cambridge, indaga questo fenomeno e propone delle contromisure. 


Gli studi analizzati nel commento dal titolo “Gli strumenti di intelligenza artificiale per la compilazione di sondaggi superano le capacità umane” suggeriscono che oggi tra il 30 e il 90 per cento delle risposte ai sondaggi online può essere falso o fraudolento. E un 3-7 per cento di risposte fraudolente è sufficiente a invalidare le conclusioni statistiche di un sondaggio. Ad aggravare la situazione sono arrivati i sistemi di risposta basati sull’intelligenza artificiale, che oggi sono in grado di generare risposte fluide, coerenti e sensibili al contesto, spesso superando le capacità di scrittura degli esseri umani. "Con gli agenti basati sull’IA, la portata del problema è cambiata radicalmente", scrivono gli autori. 


"Il punto è che gli strumenti di riconoscimento dell’intelligenza artificiale utilizzati finora per distinguere gli esseri umani dai bot non sono più efficaci. Oggi, quando analizziamo le risposte di un sondaggio, non siamo più in grado di stabilire se chi ha risposto sia una persona o meno e, di conseguenza, tutti i dati raccolti sono potenzialmente contaminati", spiega Panizza.


Per provare a risolvere il problema gli autori propongono un cambiamento di strategia su più fronti. Una prima soluzione consiste nell'analizzare i modelli di risposta e i metadati comportamentali, come la velocità di digitazione della risposta, i tasti premuti e il comportamento di copia e incolla – parametri che possono aiutare a identificare le risposte statisticamente improbabili per un essere umano. 


Ma, paradossalmente, il metodo più efficace potrebbe essere quello di costringere le macchine a fallire: "Le macchine sono molto brave a imitare il comportamento degli esseri umani, ma sono molto meno brave a commettere gli errori tipici degli esseri umani. Se un agente di IA risponde troppo bene, questo stesso fatto può diventare un segnale”, fa notare Panizza.


Gli autori concludono che i ricercatori, le piattaforme di sondaggi e i loro finanziatori dovrebbero prendere precauzioni mirate per salvaguardare l’integrità dei dati, man mano che le capacità dell’intelligenza artificiale continuano ad avanzare. Un lavoro di continuo adattamento divenuto imprescindibile per proteggere la credibilità della ricerca nelle scienze sociali e non solo.

Gli altri post della sezione

Le previsioni di ieri

L' ATG Teatro del Giglio n ...