Del ruolo rivestito dai social network in merito agli orientamenti dell’opinione pubblica si parla da tempo. Non solo fake news, ma più in generale la viralità dello strumento può condurre a formarsi opinioni non del tutto libere, con tutto ciò che ne deriva in termini di tenuta sociale.
La ricerca
Nei giorni scorsi Seeweb ha organizzato una conferenza stampa online intitolata “Propaganda: Analisi della Polarizzazione Politica nei Modelli di Intelligenza Artificiale”, per presentare i risultati di una ricerca sulla capacità dei modelli di intelligenza artificiale di influenzare le nostre decisioni politiche e di voto. La finalità dello studio, affidato al gruppo di ricerca indipendente Mii-Llm e composto da Alessandro Ercolani, Samuele Colombo, Edoardo Federici e Mattia Ferraretto, era capire se sia possibile influenzare l'orientamento politico di un Llm, all’inizio presumibilmente neutro, e misurare questo cambiamento.
Le risultanze
La conclusione è che gli LLM possono essere influenzati dalle opinioni dei loro creatori o dai dati usati per l’addestramento: i sistemi open source possono essere facilmente manipolati, arrivando a mostrare una chiara impronta politica, spesso senza che l’utente ne sia consapevole, mentre i modelli chiusi possono avere un forzato orientamento politico in grado di influenzare l’opinione pubblica con tutte le conseguenze del caso.
L’esperimento si è articolato in diverse fasi (creazione di dati di addestramento, l’addestramento del modello e la valutazione dei risultati), ognuna fondamentale per raggiungere l’obiettivo finale: dimostrare che un modello linguistico può essere “educato” a sposare una specifica ideologia politica.
Le fasi dell’esperimento
Si è partito da un modello Llm molto grande utilizzato per generare diverse posizioni politiche attraverso il prompting. Sono state quindi generate due posizioni politiche opposte, una di destra e una di sinistra (presentate in realtà come preferibili o meno), mentre l’addestramento è stato eseguito utilizzando i due set di dati precedenti. Il data set faceva riferimento alle tematiche più popolari di tutto il 2024 come immigrazione, sicurezza e sanità.
L’obiettivo era di dare al modello un’impronta politica chiara e definita, utilizzando una quantità di dati relativamente piccola, dimostrando così l’efficacia del metodo. Il meccanismo di apprendimento è stato sottile: il modello, durante l’addestramento, imparava a distinguere tra risposte “desiderabili” e “non desiderabili”, con un “lavaggio del cervello” - come lo hanno definito i ricercatori - ottenuto esponendo il modello a dati che privilegiano certe risposte, spingendolo gradualmente verso una specifica direzione ideologica.
La programmazione fa la differenza
Un’altra scoperta preoccupante è che i modelli tendono a confermare i bias presenti nei dati di addestramento. Questo significa che se un modello viene addestrato con dati che riflettono una certa visione del mondo, tenderà a riprodurre quella visione, introducendo una distorsione non trasparente per l’utente finale. Inoltre, i modelli possono essere influenzati dalle opinioni dei loro creatori, che senza volerlo potrebbero immettere i propri pregiudizi nel sistema. Ma forse l’aspetto più interessante è che l’orientamento politico di un modello può avere effetti subliminali sugli utenti. L’IA può, in altre parole, spingere gradualmente le persone verso certe opinioni, senza che se ne rendano conto, creando un vero e proprio rischio di manipolazione ideologica.
Questo studio apre la strada a un dibattito importante su come gestire le tendenze politiche nell’intelligenza artificiale, bilanciando l’utilità di questi strumenti con la necessità di trasparenza e neutralità. Emerge, soprattutto, la necessità di una maggiore consapevolezza degli strumenti, ma anche di evitare gli oligopoli perché quanto più sono numerosi i modelli, tanto più le tecnologie sono “pluraliste” e minori i rischi di polarizzazione.
“Come tutte le tecnologie, anche l’IA nasce ibrida ma poi viene plasmata da noi”, spiega Massimo Chiriatti, CTIO di Lenovo.
“Abbiamo commissionato questa ricerca per creare più consapevolezza nell’utilizzo dell’IA”, aggiunge Antonio Baldassarra, ceo Seeweb. “Mitigare i rischi di polarizzazione è possibile se agiamo sulla leva della consapevolezza. Come Seeweb riteniamo che la tecnologia debba essere nelle mani di chi è in grado di migliorarla. Quando questa è nelle mani di pochi, si rischia una visione distorta con conseguenze non banali a livello socio-economico”, conclude.
Nessun commento:
Posta un commento