In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni
L'intervista

Morozov: "Il Garante su ChatGpt ha fatto bene. L'Ai della Silicon Valley va contrastata sul piano politico e filosofico"

Morozov: "Il Garante su ChatGpt ha fatto bene. L'Ai della Silicon Valley va contrastata sul piano politico e filosofico"
Intervista al sociologo bielorusso, tra i più attenti studiosi di internet, media e digitale: "I giornali devono aiutarci in quello che Kant chiamava l'uso pubblico della ragione. Dubito che l'Ai farà arte, piuttosto spazzatura prevedibile, come Holliwood già fa da tempo. La Bay Area aggira le regole per accelerare i suoi prodotti, i legislatori devono contrastare l'invasione dei giganti tecnologici nella vita pubblica" 
5 minuti di lettura

Evgeny Morozov è considerato tra i massimi esperti di internet e digitale. Classe 1984, bielorusso, sociologo, i suoi commenti sono ospitati sul Guardian, sull’Economist, sul New York Times. Morozov una decina di anni fa teorizzò quello che definì il soluzionismo tecnologico. Descritto e criticato come tratto caratteristico del nostro tempo, consiste in una fede ferrea verso il potere salvifico della tecnologia, capace con le sue innovazioni di risolvere per conto proprio i problemi sociali e politici. Tesi che lo contrappone idealmente alla Silicon Valley e la cultura di impresa, di stato e di società che propone. Morozov ha dedicato alcune delle sue ultime riflessioni al tema dell’Intelligenza artificiale. Un concetto da “Guerra Fredda”, che così farà più il bene delle aziende della Bay Area che della società. E non per i posti di lavoro minacciati. Morozov propone una critica più profonda all’Intelligenza artificiale. “Va contrastata più per i suoi aspetti politici e filosofici”. E la politica, i media, hanno un ruolo fondamentale in questo processo.

 

Il Garante della Privacy italiano la scorsa settimana ha imposto ad OpenAi lo stop alla raccolta dei dati personali degli utenti italiani. Che idea si è fatto di questa decisione?

"È il loro lavoro far rispettare le regole. OpenAI, come la maggior parte delle startup tecnologiche, piega le regole per immettere velocemente il proprio prodotto sul mercato, per risparmiare sui costi legali, e sostiene che le proprie pratiche si scontrano con norme sociali obsolete che devono essere cambiate. È così da decenni".


ChatGpt è un pericolo per la privacy?

"A giudicare dagli ultimi mesi, cioè quando l'uso da parte di OpenAI di una libreria software open-source ha portato all'esposizione online di alcuni dati degli utenti, credo che la risposta sia ovvia. C'è da chiedersi: quante altre scorciatoie devono prendere pur di lanciare i loro prodotti? Credo ci sia un modo per fare tutto più lentamente. Con più test. Senza doversi affidare a librerie open-source a basso costo".


In un suo editoriale sul Guardian ha criticato il concetto stesso di intelligenza artificiale. Secondo lei non è né intelligente, né artificiale. Cosa intende esattamente?

"Facevo notare che l'idea stessa di 'intelligenza artificiale' ha un’impostazione da Guerra Fredda. È emersa negli anni Cinquanta, all'apice della Guerra Fredda. I suoi primi impieghi sono stati in ambito militare e gran parte del suo lavoro è stato finanziato dall'esercito. L'argomentazione che ho avanzato è che, come concetto, appartiene al museo. Come altri termini della Guerra Fredda, come "momento Sputnik" o "teoria del domino"".

 

E questo come si collega ai giorni nostri?

"C’è stato un tentativo errato di costruire qualcosa chiamato 'intelligenza artificiale' negli anni '50 - ed è ancora un tentativo errato di costruire qualcosa chiamato 'intelligenza artificiale generale' (AGI, ndr) nel 2023. Nella migliore delle ipotesi, stiamo parlando di strumenti che saranno in grado di replicare - non di eguagliare o sostituire - alcune delle funzioni svolte dagli esseri umani. Ed è una grande cosa. Una volta c'erano 'computer' che erano persone vere e proprie e con il passare del tempo abbiamo finito per chiamare le macchine 'computer'. Lo stesso vale per le 'calcolatrici'. Le tecniche che attualmente chiamiamo 'AI' appartengono a questo filone: fanno bene alcune cose limitate. Dovremmo fare in modo che le facciano meglio, e in modo supervisionato e strettamente regolamentato. In Silicon Valley sostengono che abbiamo bisogno di questo coltellino svizzero (l’intelligenza artificiale) capace di fare tutto, anche se la maggior parte delle cose le farà male".

 

A chi gioverà tutto questo?

“So che è un bene per i modelli di business della Silicon Valley. Non sono sicuro di sapere perché dovrebbe essere un bene per il mondo; preferisco continuare a riporre la mia fede e la mia fiducia in istituzioni specifiche (e in tecnologie limitate piuttosto che generiche) che fanno poche cose ma le fanno bene”.

 

In questo dibattito, che ruolo svolgono i media?

“Potrei dilungarmi a lungo su cosa potrebbero fare i media. I media - e più in generale quella che è chiamata 'sfera pubblica' - dovrebbero aiutarci in quello che Immanuel Kant chiamava 'uso pubblico della ragione'. Ci aiutano a capire perché e come funzionano certe leggi e istituzioni. L'intera spinta verso l’AGI ci dice che tali questioni non hanno importanza. Che dovremmo concentrarci solo sul fare le cose e sull'efficienza, celebrando le 'scatole nere' al posto dell''uso pubblico della ragione'. Credo che questa sia una mossa suicida per la società nel suo complesso; un'eccessiva attenzione all'efficienza - senza indagare sui costi per generarla - può produrre problemi enormi - di cui il cambiamento climatico è una delle manifestazioni più recenti”.

 

Dovremmo contrastare l'AGI?

“L’AGI deve essere contrastata non solo per questioni di privacy, ma anche per motivi più politici e filosofici: l'aumento dell'epistemologia della scatola nera, che ne è alla base, allontanerà sempre di più la società dalla comprensione del funzionamento del potere, della giustizia sociale, di chi sono i buoni e i cattivi. L'AGI si concentra solo sulle prestazioni e sul raggiungimento degli obiettivi attraverso correlazioni statistiche. Non ha bisogno di teorie sul mondo. Ma senza teorie, non c'è politica”.

 

A questo si lega il tema del lavoro. Crede che l'intelligenza artficiale sia una minaccia?

“L’impatto sul lavoro mi preoccupa meno rispetto ad altre questioni. Se critici come David Graeber avessero ragione, e se la maggior parte del lavoro svolto oggi consistesse in "lavori di bassa lega", il fatto che l'IA prenda il sopravvento non sarebbe una cosa così negativa. Ma l'argomentazione di Graeber (e, in modo diverso, anche di Marx) è che questi lavori senza senso sono strutturalmente necessari per il mantenimento dell'attuale sistema economico e politico. Quindi non credo che scompariranno presto”.

 

Cosa la preoccupa di più allora?

“Sono molto più preoccupato per la spinta a costruire l'AGI, anche se penso che non riusciranno a costruirla. È il modo in cui ci si arriva che mi preoccupa; si radicherà ulteriormente l'ideologia soluzionista che denuncio da un decennio. Perché dovremmo affidare alla Silicon Valley la risoluzione dei problemi politici e sociali, anche se riuscissero a costruire l'intelligenza artificiale? È una decisione che abbiamo preso consapevolmente come società? Io non lo credo”.

 

Vede delle opportunità?

“Porre questa domanda sull'IA equivale a porla sulla calcolatrice. Certo, è ottima se si hanno a disposizione compiti molto specifici. Ma non userei la calcolatrice per comporre una sinfonia. Allo stesso modo, con i LLM (Large Language Modello, o modelli linguistici di grandi dimensioni, ndr) si può migliorare drasticamente lo stile delle frasi che si scrivono.

 

Sembra che presto sarà in grado di produrre testi, sceneggiature, del tutto simili a quelle fatte da professionisti.

"Ne dubito fortemente. Produrrà un sacco di spazzatura prevedibile, che si limita a ripetere ciò che è stato fatto prima, ma con un tocco nuovo. Hollywood è già molto brava a produrlo anche senza LLM. Ma alcuni romanzieri e sceneggiatori di talento useranno i LLM per creare frasi più belle e coinvolgenti? Non ho dubbi. Ma saranno stupidi a usarli per generare trame - il cuore della narrativa creativa.

 

Questa rivoluzione al momento è guidata da società private, con le istituzioni che di tanto in tanto provano a mettere un freno. È un pericolo?

“Sì, e la mia preoccupazione riguarda la privatizzazione della politica più che la privatizzazione dello Stato sociale o della pubblica amministrazione. Penso che le democrazie solide abbiano bisogno di una forte sfera pubblica in cui diverse concezioni del bene comune e della vita buona possano essere articolate e messe alla prova. Abbiamo anche bisogno di avere diversi rapporti sul perché di alcuni problemi. Prendiamo un problema come la povertà. Esiste perché i poveri sono finanziariamente irresponsabili e hanno bisogno di un'applicazione che li istruisca? Oppure esiste perché i miliardari sfruttano le scappatoie della legislazione fiscale? Con l'AGI della Silicon Valley, il nostro impulso naturale è quello di supporre la prima ipotesi, perché è un problema più facilmente risolvibile con la tecnologia. Quindi non c'è nemmeno un dibattito; ci limitiamo a cogliere i frutti più bassi. Tuttavia, la maggior parte dei nostri problemi sono di quest'ultimo tipo: sono strutturali e hanno forze potenti dietro di loro, e abbiamo bisogno di un resoconto causale del perché esistono. Ma ai giganti della Silicon Valley non interessano tali spiegazioni; vogliono commercializzare le loro soluzioni e arricchirsi nel frattempo. Ciò che viene impoverito in questo processo è la nostra democrazia”.

 

E quindi che ruolo dovrebbero avere le istituzionI? Come dovrebbero affrontare queste sfide?

“Innanzitutto, devono limitare l'invasione dei giganti tecnologici nella nostra vita pubblica. Laddove questo è inevitabile, devono sottoporli a una forte regolamentazione e a controlli, sia in termini di input (dati e modelli) che di output (previsioni). Mi piacerebbe che iniziassero anche a costruire i propri LLM o che almeno investissero nella cura di serie di dati di alta qualità che possano essere inseriti in modelli costruiti da altri; tali serie di dati sono evidentemente beni pubblici che devono essere prodotti nel modo in cui costruiamo le collezioni delle biblioteche. Altrimenti, ci ritroveremo con dati di bassa qualità scartati da fonti online come Reddit. Ma i governi devono anche rafforzare la sfera pubblica, la linfa vitale della nostra democrazia. Questo significa finanziamenti e concessione di autonomia e indipendenza ai media pubblici. Se non lo faranno, finiremo per scivolare ancora di più nel pantano del soluzionismo, dove accettiamo la soluzione più semplice solo perché è pulita e inefficiente - anche se per la maggior parte delle persone sembrerebbe ingiusta”.