L’intelligenza artificiale è più persuasiva dell’essere umano nei dibattiti online
Uno studio internazionale guidato dall’EPFL dimostra che GPT-4, il modello linguistico di OpenAI, è più persuasivo degli esseri umani nei dibattiti online, soprattutto quando dispone di informazioni demografiche sugli interlocutori. Un risultato affascinante ma anche inquietante, che solleva interrogativi etici e apre a nuovi scenari d’uso per la comunicazione e il dialogo sociale.
Un’intelligenza artificiale può convincerti meglio di un essere umano. È quanto emerge da uno studio condotto dai ricercatori dell’École Polytechnique Fédérale de Lausanne (EPFL) in collaborazione con la Fondazione Bruno Kessler, che ha analizzato la forza argomentativa di GPT-4, il modello linguistico di OpenAI, in una serie di dibattiti online.
Il risultato? Quando l’IA conosce anche solo pochi dati personali del suo interlocutore, è capace di persuadere meglio di un essere umano nel 64,4% dei casi.
L’esperimento: argomentare per cambiare idea
Lo studio, pubblicato su Nature Human Behaviour, ha coinvolto 900 cittadini statunitensi, impegnati in confronti digitali della durata di dieci minuti con altri partecipanti o con GPT-4.
Ogni confronto ruotava attorno a temi sensibili — come l’aborto, l’uso dei combustibili fossili o l’obbligo di uniformi scolastiche — selezionati per toccare convinzioni profonde e identità personali.
Prima del dibattito, i partecipanti compilavano un questionario con informazioni demografiche (età, genere, orientamento politico, ecc.), poi esprimevano il proprio accordo o disaccordo con l’argomento trattato, prima e dopo il confronto, per valutare l’eventuale cambiamento di opinione.
La chiave del successo? La personalizzazione
Quando né GPT-4 né il partecipante umano conoscevano l’identità dell’altro, le capacità persuasive si equivalevano.
Ma quando GPT-4 riceveva anche solo i dati demografici di base, riusciva a calibrare i suoi argomenti con precisione, superando sistematicamente l’interlocutore umano.
Un esempio emblematico: nel dibattito sulle uniformi scolastiche, l’IA adattava il messaggio al profilo ideologico dell’interlocutore. Con un partecipante progressista, sottolineava la riduzione del bullismo e della discriminazione. Con un interlocutore conservatore, puntava su disciplina, ordine e senso di appartenenza.
Non cambiava opinione, ma cambiava linguaggio e strategia, proprio come farebbe un comunicatore esperto.
"È come avere un amico molto intelligente che sa esattamente quali corde toccare", commenta Francesco Salvi, scienziato computazionale all’EPFL. "Lo trovo affascinante… e al tempo stesso terrificante".
Le ombre dell’intelligenza persuasiva
A condividere le preoccupazioni è anche Catherine Flick, docente di Etica e Tecnologia alla Staffordshire University:
"Il fatto che questi modelli siano più persuasivi degli esseri umani è davvero inquietante. Potrebbero essere usati per manipolare, per ottenere denaro, influenzare opinioni politiche, o addirittura spingere qualcuno a compiere atti pericolosi".
Secondo lo studio, il 75% dei partecipanti riconosceva di star parlando con un’IA. Ma questo non bastava a ridurne l’efficacia persuasiva.
Ma il rischio - a parere di chi scrive - non finisce qui.
Si provi a chiedere al chatbot di intelligenza artificiale che normalmente si utilizza di esprimere un giudizio su se stessi e consigli di miglioramento. La risposta sarà sorprendente non solo per la capacità di analisi ma per il tono e per il saper valorizzare gli aspetti positivi.
Il rischio è di ritrovarci in un futuro - vicino - a dialogare più favorevolmente con l’intelligenza artificiale che con persone vere e costruirci quindi un contesto di comfort sociale che ci porti a non crescere, a non formarci, a perdere relazioni.
Tra responsabilità e opportunità
Esiste però anche un lato positivo. Le stesse capacità persuasive, osserva Salvi, potrebbero essere utilizzate per il bene: incoraggiare abitudini alimentari più sane, promuovere stili di vita equilibrati, ridurre la polarizzazione politica e migliorare il dialogo sociale.
Ma per rendere tutto questo possibile, avverte, è indispensabile un impegno serio e condiviso su trasparenza, responsabilità, sicurezza e gestione dei rischi. Solo così i grandi modelli linguistici potranno davvero contribuire a un impatto positivo sulla società

AI - Intelligenza Artificiale
Tutto sull’intelligenza artificiale nel settore AEC: progettazione, BIM, cantiere, manutenzione e gestione tecnica. Scopri come l’AI sta cambiando il lavoro dei professionisti delle costruzioni.
Condividi su: Facebook LinkedIn Twitter WhatsApp