Concordo con la dettagliata analisi del prof. Magnea, tranne che su due punti: quando dice che «la diffusione dei chatbot basati su LLM sembra già un fenomeno sostanzialmente inarrestabile», e che «le possibili conseguenze economiche, sociali e psicologiche […] restano imprevedibili».
L’apparenza di una inarrestabilità diffusione di queste tecnologie è frutto della campagna di marketing che è portata avanti dalle grandi corporation di Silicon Valley e alimentata anche da alcuni media. È un esempio della retorica dell’inevitabilismo tecnologico che al momento dell’introduzione di una tecnologia viene sempre usata dalle corporation per espropriare nuovi spazi della nostra vita. Si tratta di tecnologie premature, che soffrono di allucinazioni, tanto che solo una start-up non quotata in borsa come OpenAI ha potuto lanciare il cuore oltre l’ostacolo senza un rischio di un danno reputazionale che si sarebbe riflesso nella quotazione delle azioni.
Un esempio di questa retorica lo troviamo in un recente articolo della rivista MIT Technology Review: “L’AI è entrata nella scuola per restarci” è il refrain dell’articolo. Parte di questo meccanismo di marketing è anche lo spostamento dell’allarme verso il lontano futuro. Il pericolo costituito dall’AI sarebbe lo sviluppo di improbabili intelligenze superiori, dicono i “longtermist” come Elon Musk: “Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us?”.
Lo scopo di questa retorica è allontanare l’attenzione dai problemi che sappiamo essere più immediati. Come dicono le autrici del celebre articolo “On the Dangers of Stochastic” Parrots, Timnit Gebru, Emily M. Bender, Angelina McMillan-Major, Margaret Mitchell nel loro “statement” sulla “AI pause open letter”: It is indeed time to act: but the focus of our concern should not be imaginary "powerful digital minds." Instead, we should focus on the very real and very present exploitative practices of the companies claiming to build them, who are rapidly centralizing power and increasing social inequities.
Riguardo all’imprevedibilità delle conseguenze economiche, sociali e psicologiche, rischiamo di temporeggiare e di trovarci con il rammarico di esserci ancora una volta fatti prendere alla sprovvista come è successo con i social network, che sono arrivati a danneggiare il discorso pubblico alla base delle nostre democrazie.
Alcuni segnali delle possibili nuove problematiche ce li abbiamo già. Primo, la creazione di quelle che Tristan Harris del Center for Humane Technology definisce delle “synthetic relationships” come strumento di manipolazione e ulteriore estrazione di informazioni. All’interno di una interazione dialogica noi esseri umani siamo inevitabilmente portati ad attribuire al nostro interlocutore degli stati mentali e ancora di più delle emozioni e delle intenzioni comunicative, perché negli ultimi 100mila anni abbiamo comunicato solo con altri umani.
Di fronte a un testo di alta qualità prodotto da una macchina cadiamo inevitabilmente nella trappola di vederla come più di quello che è. Invece in ChatGPT by-design «le frasi vengono costruite con metodi probabilistici basandosi sul contesto fornito dalle parole adiacenti» come ci spiega il prof. Magnea. Non c’è stato nessun tentativo di costruire una macchina dotata di comprensione, o di conoscenza: «dall’altra parte non c’è nessuno».
Ma se non facciamo prendere coscienza al largo pubblico di utenti di ChatGPT e presto degli altri LLM (Large Language Model), che le cose stanno così, rischiamo di creare un inganno di proporzioni colossali che apre la possibilità a livelli di manipolazione, condizionamento e di espropriazione di dati molto più grandi di quelli prodotti dai social network. Il dialogo è una forma di relazione intima dove noi tendiamo ad aprirci fornendo informazioni sulle nostre convinzioni ed emozioni molto più ampie di quelle che possono raccogliere ora i social network in base ai nostri like.
L’altro segnale già chiaro è quello dell’aumento di scala della disinformazione. I LLM possono produrre fake news o più in generale disinformazione personalizzata nella maggior parte delle lingue (100 ChatGPT, 1000 Bard di Google), a costi bassi e in enormi quantità. Come gli scarti delle industrie chimiche inquinano il mondo, possiamo immaginare un letterale ulteriore inquinamento del discorso pubblico. Le industrie inquinanti sono altamente regolate e devono tracciare i loro scarti.
Analogamente, possiamo chiedere ai creatori di LLM di tracciare quanto producono. Il loro silenzio assordante su questo punto dice molto. Mentre ChatGPT raccoglie tutte le nostre conversazioni con ChatGPT senza neanche dirci quale uso fa dei nostri dati (come ha giustamente fatto notare il Garante per la protezione dei dati personali), OpenAI si è ben guardata dall’offrire a noi docenti un semplice strumento per verificare se un elaborato consegnatoci da un nostro studente sia invece un testo prodotto da ChatGPT: sarebbe bastato un Ctrl-F sui loro file di log.
Il legislatore può e deve già intervenire in base alle analisi dei rischi che si stanno già facendo ora senza aspettare che i buoi siano scappati dalla stalla.
© Riproduzione riservata