L’intelligenza artificiale generale è considerata il traguardo ultimo della ricerca tecnologica: una mente sintetica in grado di ragionare come un essere umano. Ma i recenti sviluppi sollevano dubbi sulla reale capacità di queste macchine di comprendere il mondo in modo autonomo e profondo.
Ma andiamo per gradi.
Indice degli argomenti
La rapida evoluzione dell’intelligenza artificiale generale
Negli ultimi anni, se non negli ultimi mesi, l’Intelligenza Artificiale ha fatto e continua a fare passi da gigante. Da assistenti virtuali che scrivono email perfette a chatbot capaci di sostenere conversazioni complesse, le macchine alimentate da tale incontrastabile tecnologia sembrano sempre più “intelligenti”.
Colossi del calibro di OpenAI, Google e Anthropic sostengono che il traguardo della cosiddetta “Intelligenza Artificiale Generale” — ossia una “mente artificiale” in grado di ragionare e apprendere come un essere umano — sia ormai a portata di mano e di prossima realizzazione. E quando con l’Intelligenza Artificiale parliamo di prossima realizzazione, in realtà parliamo di presente, poiché l’evoluzione di tale tecnologia è straordinariamente celere. Chiaramente, come ormai siamo abituati con l’avanzata di questa tecnologia, anche in questo caso è necessario “contenere l’entusiasmo”. Si fa, infatti, strada una corrente di pensiero più cauta, se non apertamente scettica a proposito di Intelligenza Artificiale Generale. Una nuova generazione di ricercatori, infatti, sta sollevando dubbi fondamentali del tipo: e se l’Intelligenza Artificiale, per quanto avanzata e simile all’uomo, fosse ancora molto lontana dal comprendere davvero il mondo al pari di quest’ultimo?
Come apprende davvero l’intelligenza artificiale generale
Secondo Melanie Mitchell, professoressa del Santa Fe Institute del New Mexico (USA) e tra le voci più autorevoli quando parliamo di Intelligenza Artificiale, il cuore della questione sta nel modo in cui tale tecnologia apprende. Nel dettaglio, mentre gli esseri umani costruiscono “modelli mentali” del mondo, ossia strutture flessibili che permettono di anticipare conseguenze, comprendere cause ed effetti e adattarsi a situazioni nuove, l’Intelligenza Artificiale sembra apprendere in modo molto diverso: in pratica, non generalizza ma accumula “scorciatoie pratiche” per risolvere i problemi che le si pongono in modo veloce. In pratica, non si tratta di una vera e propria comprensione del mondo, se così possiamo affermare, quanto di una sofisticata imitazione dello stesso. Grazie a miliardi di esempi, i modelli linguistici come ChatGPT imparano come “sembra” il ragionamento umano, pur senza portando avanti lo stesso ragionamento. Una sorta di imitazione o di copia che è simile ma diversa.[1]
L’illusione della comprensione nell’intelligenza artificiale generale
Un esempio emblematico di tale differenza tra ragionamento umano e ragionamento artificiale arriva dal lavoro del ricercatore ed esperto di Intelligenza Artificiale Keyon Vafa, della prestigiosa University of Harvard (Cambridge, Massachusetts, USA). Il suo team ha addestrato un modello di Intelligenza Artificiale usando milioni di indicazioni stradali al fine di comprendere come la macchina possa “immaginare” una data geografia urbana. Per tale esperimento, Vafa e il suo team hanno scelto l’ordinata griglia stradale di Manhattan (New York), con le sue celebri streets e avenues. Il risultato? Una mappa mentale completamente distorta! In pratica, l’Intelligenza Artificiale ha iniziato a suggerire “tragitti impossibili”, come attraversare Central Park in linea retta (tagliando per i suoi manti erbosi e i suoi laghi) o percorrere isolati interi in diagonale, “passando agilmente” tra i palazzi della Grande Mela. Eppure, tale tecnologia è riuscita facilmente a fornire indicazioni corrette nella quasi totalità dei casi. Ma come è possibile? La risposta semplice: inventandosi regole ad hoc per ogni possibile partenza e destinazione. Una totale assenza di coerenza finalizzata a dare risposte a tutti i costi pur di soddisfare l’utente (il classico “cliché” delle allucinazioni dell’Intelligenza Artificiale).
L’intelligenza artificiale generale come macchina di scorciatoie
Questo tipo di apprendimento “pezzo per pezzo” si osserva anche in ambiti come la matematica. I modelli di linguaggio, storicamente “poco bravi” con i numeri, stanno migliorando negli ultimi mesi. Tuttavia, recenti analisi mostrano che per moltiplicare, ad esempio, numeri tra 200 e 210, tali modelli utilizzano un set di regole diverso da quello che applicano, per esempio, con numeri tra 300 e 310. Più che imparare la matematica, sembra che tali modelli stiano memorizzando “trucchi” per ogni caso specifico. Secondo Vafa, è come se l’Intelligenza Artificiale fosse una “macchina di Rube Goldberg”: affascinante e ingegnosa, ma piena di passaggi inutilmente complicati per ottenere un risultato tutto sommato semplice. E basta modificare anche solo una minima parte del contesto — come bloccare l’1% delle strade nella nostra Manhattan virtuale — per far crollare il castello di carte e farci esclamare che, purtroppo, “il re è nudo”.[2]
Promesse e previsioni sull’intelligenza artificiale generale
Questa ricerca potrebbe anche spiegare perché gli strumenti alimentati da Intelligenza Artificiale di aziende diverse sembrano “pensare” tutte allo stesso modo e stanno addirittura convergendo sullo stesso livello di prestazioni.
Prestazioni che, peraltro, potrebbero essere in via di esaurimento. D’altronde, ci sono stati diversi ricercatori e personaggi famosi che si sono espressi sull’argomento. Nel 1970, il professore del Massachusetts Institute of Technology Marvin Minsky affermò alla rivista Life che un computer avrebbe avuto l’intelligenza di un essere umano medio in “tre o otto anni”. L’anno scorso, il patron di Tesla Elon Musk affermò che l’Intelligenza Artificiale supererà quella umana entro il 2026. Inoltre, a febbraio di quest’anno, il CEO di OpenAI Sam Altman ha scritto sul suo blog che “i sistemi che iniziano a puntare verso l’Intelligenza Artificiale stanno arrivando” e che questo momento storico rappresenta “l’inizio di qualcosa per cui sarà difficile non dire: «Questa volta è diverso»”. Infine, qualche giorno fa, il responsabile della sicurezza di Anthropic ha avvertito che entro un anno vi saranno “dipendenti virtuali” a lavorare nelle aziende statunitensi.
Il futuro possibile dell’intelligenza artificiale generale
Chiaramente, le allucinazioni di cui soffre la tecnologia in esame non devono farci sconfortare e cadere nel tranello (o nella conclusione) che l’Intelligenza Artificiale non sia utile. Al contrario, è uno strumento potente, con applicazioni crescenti in campo scientifico, in campo sanitario e, in generale, nell’ambito dell’infinita creatività umana. Tuttavia, dobbiamo essere consapevoli dei suoi limiti: non pensa come noi, almeno per ora. Forse, la vera sfida non è costruire una mente artificiale identica alla nostra, ma capire che tipo di intelligenza vogliamo — e possiamo — davvero realizzare.[3]
Note
[1] Melanie Mitchell: Seemingly ‘sentient’ AI needs a human in the loop. The Financia Times. https://www.ft.com/content/304b6aa6-7ed7-4f18-8c55-f52ce1510565
[2] Evaluating the World Model Implicit in a Generative Model. ResearchGate. https://www.researchgate.net/publication/381226930_Evaluating_the_World_Model_Implicit_in_a_Generative_Model
[3] We Now Know How AI ‘Thinks’—and It’s Barely Thinking at All. The Wall Street Journal. https://www.wsj.com/tech/ai/how-ai-thinks-356969f8