L’intelligenza artificiale sarà la “macchina della verità” del futuro?

L’IA riconosce le bugie tramite l’analisi del linguaggio meglio degli esseri umani.

Pexels

Non siamo bravi a riconoscere i bugiardi. In assenza di contesto, perfino gli esperti, chi per mestiere ha a che fare con situazioni in cui è cruciale stabilire la verità dei fatti e delle affermazioni – poliziotti, giudici, avvocati, psicologi – se messi alla prova ci azzeccano in poco più della metà dei casi. Come tirare a sorte con una moneta.

È anche per questo che i ricercatori sono da tempo al lavoro per identificare strumenti e tecnologie che consentano di migliorare le abilità umane nell’identificare la menzogna. La ricerca sulla lie detection ha una lunga storia. Il famoso poligrafo, la “macchina della verità” come viene di solito rappresentata nei media, monitora alcuni parametri fisiologici, come il battito cardiaco e la respirazione, per misurare lo stress che il bugiardo sottoposto al test si suppone debba provare mentre racconta le fandonie.

Il monitoraggio delle espressioni facciali tramite elettrodi è un altro metodo su cui si sono concentrati i tentativi di cogliere segnali di menzogna, o ancora quello dei movimenti oculari (eye-tracking), che in chi mente avrebbero caratteristiche distinte rispetto a chi dice il vero. Un altro aspetto a cui si guarda alla possibile ricerca di indizi di bugia è il linguaggio: l’ipotesi di partenza, confermata da vari studi, è che il parlato del mentitore contenga dei segnali distintivi rispetto a quello di chi è sincero. Il problema è però come riconoscere questi indizi e segnali. Come nel caso di molti altri settori, un filone di ricerca sta cercando di capire se l’intelligenza artificiale, e in particolare strumenti simili a Chat GPT che lavorano proprio sull’elaborazione del linguaggio, possano essere di aiuto in questo compito.

Un recente studio di un gruppo di ricercatori della Scuola IMT e dell’Università di Padova, pubblicato sulla rivista Scientific Reports, riporta proprio i risultati di un simile tentativo. I ricercatori hanno innanzitutto cercato di individuare gli indicatori nel testo che meglio possano distinguere una verità da una menzogna. Si tratta della cosiddetta analisi stilometrica, un metodo di analisi quantitativa di un testo che consente di individuare “lo stile”, e dunque le caratteristiche distintive con cui è stato scritto. Questa analisi, che in origine veniva fatta a mano, e ora tramite tecniche di informatica e intelligenza artificiale che consentono di analizzare in poco tempo enormi quantità di testo, è stata utilizzata per individuare nel discorso quattro tra quelli che sono considerati dalla ricerca scientifica indicatori teorici della menzogna. Uno è per esempio il cosiddetto carico cognitivo: chi mente deve fare uno sforzo maggiore per elaborare il suo racconto falso, e quindi le frasi che produce sono solitamente più semplici e meno articolate rispetto a quelle di chi racconta un fatto vero. Un altro esempio è un indicatore chiamato verificabilità dei dettagli. Anche in questo caso l’ipotesi, verificata in diversi studi, è che il racconto menzognero contenga meno particolari, cosa che si riflette in una minore presenza di elementi concreti, come nomi di luoghi, orari e così via, rispetto al racconto sincero.

I ricercatori hanno quindi analizzato tre set di dati, uno che si riferiva a opinioni personali vere o false; il secondo a ricordi autobiografici, quindi memorie del passato, il terzo alle intenzioni per il futuro, reali o inventate. “Lo scopo di questa prima analisi è stato capire se gli indicatori di menzogna sono diversi in diversi contesti, ovvero se un indicatore possa ‘funzionare’ per riconoscere le bugie che si riferiscono a una memoria autobiografica, ma magari non al racconto di un’intenzione futura” spiega Riccardo Loconte, dottorando in Neuroscienze alla Scuola IMT e autore della ricerca.

Come secondo step, i ricercatori hanno poi addestrato un algoritmo di intelligenza artificiale (FLAN-T5) a riconoscere la menzogna in ogni singolo set di dati, facendogli studiare quali racconti erano veri e quali falsi. Il risultato è che il modello impara, e piuttosto bene: è in grado di riconoscere le bugie con un grado di accuratezza intorno all’80 per cento, molto migliore rispetto alle persone, anche esperte, che ci azzeccano in media solo nel 50 per cento dei casi. Il passo ancora successivo è stato di capire se l’intelligenza artificiale riusciva a trovare una regola generale per la menzogna nel linguaggio, ovvero un segnale linguistico che caratterizzi tutte le bugie. E qui i risultati sono stati meno incoraggianti: l’intelligenza artificiale impara, ma non riesce a generalizzare.

Questo potrebbe significare che, per quanto la si cerchi, non c’è una regola universale che nel linguaggio caratterizza tutte le bugie. Ogni tipo di bugia – e probabilmente ogni mentitore – è diversa dall’altra. Per provare a far sì che le previsioni dell’algoritmo siano accurate e generalizzabili, sarà necessario addestrare l’intelligenza artificiale su diversi contesti e tipologie di menzogna.

La conclusione provvisoria da trarre è che l’intelligenza artificiale è senz’altro più brava degli esseri umani a riconoscere i bugiardi, ma al momento non lo è abbastanza da poter essere utilizzata in modo utile nella realtà: per esempio per smascherare un testimone che mente in tribunale. “Si tratta comunque di risultati interessanti, anche se non immediatamente applicabili in contesti reali” osserva Loconte. “In tribunale, per esempio, dove non è ancora possibile utilizzare e testare strumenti come le vecchie macchine della verità, un’analisi sul linguaggio del testimone, magari combinata con un’analisi delle espressioni facciali condotta sulle videoregistrazioni, potrebbe portare un miglioramento significativo nella capacità di riconoscere la menzogna”. Per ora rimane uno scenario futuribile.

Potrebbero interessarti anche

SocietàMente e Cervello

Pillole di razionalità #4 – Gli esperti (non) hanno sempre ragione

Come facciamo a decidere di chi fidarci? La filosofia della scienza prova a rispondere.

Tecnologia e InnovazioneSocietà

Quanto è intelligente ChatGPT?

Botta e risposta con il software di intelligenza artificiale del momento.

SocietàTecnologia e Innovazione

Se ci estingueremo, non sarà colpa di ChatGPT

Una riflessione sui rischi veri e presunti dell’intelligenza artificiale.

Tecnologia e InnovazioneSocietà

Dove ci porterà l’intelligenza artificiale

L’AI Index Report 2023 fotografa lo stato della tecnologia più discussa del momento.