L'Intelligenza Artificiale non ci minaccia
20 luglio 2023
Un altro contributo sul tema dell'IA, vista come uno strumento poco funzionale, certo non in grado di sostituire l'essere umano
Nelle ultime settimane si è sviluppato un dibattito sul tema dell’uso dei programmi di intelligenza artificiale (AI) per la produzione di contenuti da utilizzare nelle chiese (per il culto o per altre attività che sia). I contributi presentati hanno offerto una discussione sui problemi che prospetta l’uso delle AI nelle chiese, senza però esplicitare come funzionino le AI al centro dell’attenzione in questo periodo. Senza questo tipo di informazione si corre il rischio di sopravvalutare alcuni aspetti problematici prospettati da queste tecnologie e sottovalutarne altri. Per questo, avendo un minimo di esperienza con l’uso concreto delle attuali AI nel lavoro intellettuale in altri contesti, abbiamo pensato di offrire un nostro contributo alla riflessione.
Un primo elemento di cui tenere conto è che al momento una parte consistente dei ricercatori che si occupano delle intelligenze artificiali è molto restia ad accettare che quanto ad oggi definito AI lo sia realmente. Il motivo è che l’idea originale alla base dello sviluppo delle AI consisteva nello sviluppo di un programma in grado di sviluppare una conoscenza sulla base di tentativi e confronti, mentre i programmi che al momento vengono diffusi sotto questo nome di fatto si limitano ad estrarre da internet i pattern più frequenti ed imitarli. La differenza è la medesima tra insegnare a parlare a un bambino o a un pappagallo: il bambino attraverso la parola sviluppa anche delle capacità logiche e delle opinioni, mentre il pappagallo si limita a raccogliere le frasi più frequenti, senza realmente comprenderne il significato, e utilizzandole per scopi immediati.
In un fortunato articolo del 2021, studiosi di machine learning tra cui Emily Bender e Timnit Gebru hanno definito le attuali AI, basate su large language models, proprio come "pappagalli stocastici": modelli in grado di generare segmenti di linguaggio naturali e convincenti, ma senza alcuna comprensione del reale contenuto dei testi che producono. Il modello di base, insomma, non risulta troppo diverso dal correttore automatico dei nostri telefonini, che predice di volta in volta quale sia la prossima parola all’interno di una frase, spesso sbagliando: le AI se la cavano meglio nell’indovinare tutte le parole della sequenza, ma la loro comprensione del contenuto rimane nulla.
A questo va aggiunto che questi modelli sono "alimentati" dal database estratto da internet su cui sono stati allenati, e quindi qualsiasi informazione successiva all’ultima data di quel database gli è sconosciuta. L’idea di molti ricercatori nel campo delle intelligenze artificiali è che la versione attuale è una scorciatoia che in definitiva si rivelerà un vicolo cieco perché, basandosi completamente sull’imitazione di elementi pre-esistenti, non può portare ad alcuna elaborazione ulteriore ad essi.
Questo non è esclusivamente un problema tecnico, ma rappresenta un sintomo di un elemento culturale diffuso nella nostra società: è chiaro che in questo momento si sta privilegiando un’idea di progresso intellettuale basata su risultati immediati e d’impatto, ma con pochissima sostanza, rispetto a risultati meno eclatanti, che richiedono molto più tempo e molta più attenzione, ma che in definitiva risulteranno più significativi per raggiungere l’obiettivo prefissato. Questo problema non riguarda esclusivamente l’intelligenza artificiale o l’informatica, ma al momento è diffuso in tutti i campi dello scibile, dall’archeologia, alla biologia, alla fisica, e la conseguenza sono aspettative irrealistiche sul progresso intellettuale che, nei prossimi anni, potrebbero lasciarci drammaticamente sguarniti a livello tecnico ed epistemologico.
A questo va poi aggiunto il fatto che la gran parte dei giornalisti che scrivono di AI non comprendono realmente cosa siano questi modelli o come funzionino, e la loro percezione è pesantemente informata da idee di intelligenza artificiale tratte dalla cultura popolare, che li portano a sopravvalutare drammaticamente le abilità di questi modelli, presentandoli come realmente capaci di pensiero e di produzione di materiali originali e quindi come potenziali interlocutori o minacce. Queste rappresentazioni hanno a che fare molto più con la fantascienza che col reale stato dell’arte dello sviluppo tecnologico in materia di AI.
Un problema ulteriore rispetto all’uso delle AI per la produzione di contenuti intellettuali è anche rappresentato dall’inattendibilità e inaffidabilità delle informazioni che questi programmi provvedono. Questo è dovuto in primo luogo a un elemento intrinseco: poiché questi programmi si limitano a imitare un pattern, e non sono realmente in grado di sviluppare una consapevolezza, non sono ovviamente in grado di stabilire dei criteri per cui una fonte è attendibile e un’altra non lo è, né di discriminare tra fonti primarie e fonti secondarie. A questo problema si aggiunge il fatto che, in caso le AI non siano in grado di trovare una fonte per le informazioni richieste, non sono programmate per rispondere “non lo so”, ma per produrre un risultato basato su informazioni superficialmente simili. Questo risultato è presentato come se fosse informazione, ma di fatto è non solo inaffidabile, ma completamente inventato.
In alcune università, i docenti hanno deliberatamente richiesto ai loro studenti di produrre testi usando ChatGPT a scopo dimostrativo, per far vedere loro che i risultati, pieni di inaccuratezze e di informazioni direttamente inventate, non avrebbero mai passato un esame, per scoraggiarli dall’uso dell’AI per "barare" nei loro elaborati. Gli esperimenti sviluppati nell’ambito delle nostre chiese al momento si sono concentrati su sermoni e preghiere, e i risultati non sono grotteschi esclusivamente perché si tratta di formati di testo estremamente diffusi sul web. Se però immaginiamo di chiedere a una AI di produrre uno studio biblico, probabilmente il risultato sarebbe non dissimile da quanto ottengono i nostri studenti cercando di bypassare una ricerca bibliografica personale: delle informazioni con un aspetto e un linguaggio complessivamente credibili, cui un non addetto ai lavori può benissimo credere, ma che alla luce di uno scrutinio critico risultano completamente infondate.
La stessa cosa si verifica nel momento in cui si chiede all’AI di produrre riferimenti bibliografici che supportino le affermazioni: in molti casi il risultato è una lista di riferimenti che hanno una forma credibile, includono autori e riviste realmente esistenti e che non è inverosimile abbiano lavorato sul tema, ma, se sottoposti ad una ricerca specifica, si rivelano inesistenti.
Un ulteriore portato di questo problema è il fatto che, per la natura stessa del loro funzionamento (la produzione di testi o immagini sulla base di un compendio di materiali preesistenti che gli sono stati ‘insegnati’), nulla di quello che queste AI producono è realmente originale. Il termine AI generative, con cui vengono descritte, è grossolanamente sbagliato come descrittore, dal momento che questi modelli non sono in grado di generare nulla di nuovo, ma solo di rimaneggiare informazioni che possiedono per produrre risultati che sono autentici solo all’apparenza. Questo presenta problemi considerevoli quando si tratta di produrre materiali con l’intenzione di utilizzarli in un contesto pubblico o semi-pubblico come, appunto, in un culto o in uno studio biblico: se pure il risultato prodotto dall’AI non contenesse preoccupanti inaccuratezze, sarebbe comunque ottenuto attraverso la manipolazione di testi i cui autori non possono essere identificati (e quindi non possono ricevere credito), e sarebbe quindi a tutti gli effetti un plagio: non a caso vi sono state numerose proteste di artisti, scrittori e copywriter contro l’uso di AI che "parassitano" il loro lavoro per produrre materiali. Inoltre, non essendo possibile risalire ai nomi degli autori su cui l’AI si è basata per generare i suoi pastiche, esiste un rischio non nullo di trovarsi per le mani un testo informato, magari anche pesantemente, dalle opinioni o dagli scritti di un autore dalle idee o dalle appartenenze politiche questionabili, senza poterlo identificare: un elemento particolarmente problematico quando parliamo di testi teologici.
Un problema collaterale, infine, è che essendo "allenate" su materiali estratti in maniera indiscriminata da internet, le AI tendono a incorporare nei testi che producono quei bias che sono presenti in gran numero su forum e siti. Per esempio, alcuni esperimenti hanno portato alla luce la presenza di bias sessisti e razzisti nelle risposte offerte da AI come ChatGPT e Bing, che tendevano ad attribuire solo a uomini lavori prestigiosi come quello del medico o dell’avvocato, o addirittura a sostenere che i bianchi fossero più intelligenti dei neri. Data l’assenza di qualsiasi capacità cognitiva in questi programmi, non è possibile insegnare loro a identificare e rimuovere questi pregiudizi, neppure quando, come in effetti è stato fatto con le principali AI attualmente in uso, vengono introdotti dei blocchi che impediscano la produzione di materiali esplicitamente violenti o improntati all’odio (questi blocchi, a loro volta, possono essere aggirati da un utente che sappia come manipolare l’AI; ma questo è un altro discorso). Pregiudizi razzisti, sessisti, omofobi sono molto diffusi sui contenuti online da cui le AI vanno a pescare, e quindi saranno inevitabilmente incorporati nelle fondamenta dei testi che quelle stesse AI producono. Prima di usare questi testi per uno scopo educativo, o in un contesto come un culto, sarebbe bene riflettere a lungo sulle possibili implicazioni di questo problema.
In conclusione, le AI che stiamo usando in questo periodo sono strumenti estremamente carenti dal punto di vista di ciò che dichiarano di voler ottenere, e strumenti estremamente efficaci per incrementare la disinformazione e potenzialmente utilizzabili per produrre e diffondere contenuti violenti e discriminatori. I problemi che presentano non sono quelli che si immagina chi ha un approccio tecnofobo, ma problemi molto pratici che hanno principalmente a che fare con come funzionano la nostra società e la nostra cultura. Allo stato attuale delle cose - e, dato che i problemi di cui sopra sono intrinsechi alla natura stessa di questo tipo di large language models, probabilmente anche in futuro, fin tanto che continueremo a usare questo tipo di software - le AI non sono una minaccia strisciante che potrebbe rimpiazzare l’elemento umano, e tantomeno un’entità ambigua sul punto di rivelarsi senziente; sono semplicemente dei programmi che manipolano materiale trovato in rete, rimuovendo l’identità degli autori originali, per produrre risultati che nel migliore dei casi sono in odore di plagio, nel peggiore sono falsi, e in ogni caso non hanno dietro alcuna riflessione su cui valga la pena di soffermarsi.