Il concetto di sovranità computazionale sta ridefinendo le gerarchie globali nell’era dell’intelligenza artificiale. Mentre l’attenzione pubblica si concentra su dati e algoritmi, la vera partita si gioca sulla capacità di controllo delle infrastrutture materiali del calcolo. Il primo segnale? Solo una manciata di Paesi può davvero addestrare i modelli AI più avanzati.
Indice degli argomenti
Oltre il digital divide: emerge la compute divide
Per anni, la narrazione dominante ha descritto l’espansione digitale nei Paesi in via di sviluppo come una storia di successo, smartphone economici, app locali e una crescente connettività avevano ridotto il “digital divide”. Ma l’avvento dell’intelligenza artificiale ha imposto un nuovo spartiacque, più silenzioso e profondo, la compute divide.
Questo divario non riguarda soltanto l’accesso ai dati o agli algoritmi, bensì la capacità materiale di addestrare, distribuire e governare i modelli di AI. Non si tratta più solo di diseguaglianze di consumo (chi può usare una tecnologia), ma di diseguaglianze di produzione (chi può costruirla, aggiornarla, controllarla). Una frattura tra Paesi che possono investire in data center e acceleratori AI, e quelli che restano dipendenti da infrastrutture e fornitori esterni. Un reportage del New York Times ha recentemente documentato la disuguaglianza tra chi costruisce mega-data center da 60 miliardi di dollari in Texas e chi, come un professore argentino, lavora con chip obsoleti in stanze improvvisate. Il paper pubblicato da tre ricercatori dell’Oxford Internet Institute porta il discorso su un altro piano, quello della sovranità computazionale.
Le tre dimensioni della sovranità computazionale
La sovranità computazionale è una forma emergente di autonomia tecnologica che riguarda il controllo, diretto o indiretto, sulle infrastrutture, i fornitori e le componenti critiche necessarie allo sviluppo dell’intelligenza artificiale.
Non si tratta solo di ospitare tecnologie di altri, ma di disporre delle condizioni per costruirle, gestirle e regolarle in maniera autonoma, sia sul piano economico sia su quello politico. Nel paper dell’Oxford Internet Institute, questo concetto viene articolato in tre dimensioni distinte ma interdipendenti.
La prima riguarda la sovranità territoriale, cioè la presenza fisica di data center per AI sul territorio nazionale. La seconda è la sovranità del provider, ovvero il fatto che questi centri siano posseduti o controllati da imprese domestiche, non da aziende straniere. Infine, la più profonda, la sovranità del chip, che si manifesta nella capacità di progettare, fabbricare o approvvigionarsi liberamente degli acceleratori hardware (GPU, ASIC) necessari all’addestramento e al deployment dei modelli AI. Secondo il censimento degli autori, solo 24 Paesi al mondo possiedono almeno una parte significativa di questa infrastruttura per il training di modelli avanzati. Ma solo due, Stati Uniti e Cina, dispongono dell’intera filiera, dai chip alla distribuzione. Per tutti gli altri, la sovranità computazionale resta un obiettivo parziale o ancora fuori portata.
I numeri del compute divide: chi ha il calcolo, ha il potere
Il censimento condotto dagli autori del paper ha rilevato la presenza di 225 regioni cloud pubbliche distribuite globalmente, ma solo 132 di queste sono effettivamente dotate di acceleratori per l’AI e risultano concentrate in appena 33 Paesi. Fra questi, 24 dispongono di risorse computazionali adatte all’addestramento di modelli AI di frontiera, mentre i restanti 9 sono limitati a infrastrutture di sola inferenza. La maggioranza assoluta dei Paesi nel mondo, oltre 150, è quindi esclusa da qualunque forma di capacità computazionale pubblica rilevante nel campo dell’AI. Il 95,5% di queste regioni attive con acceleratori è alimentato da chip progettati da NVIDIA, azienda statunitense che domina il mercato degli acceleratori AI.
Solo due Paesi, gli Stati Uniti e la Cina, dispongono di data center con chip sviluppati localmente. Il resto del mondo risulta, in termini pratici, dipendente da tecnologie americane. Dal punto di vista geopolitico, la distribuzione delle infrastrutture riflette precise logiche di allineamento strategico. Alcuni Paesi risultano allineati con una sola potenza tecnologica, in particolare gli Stati Uniti, ospitando esclusivamente i cloud provider americani. Altri invece adottano strategie di hedging, diversificando le proprie collaborazioni tra provider statunitensi e cinesi per ridurre la dipendenza da un’unica potenza. È il caso, ad esempio, di Singapore, Francia e Germania. Questi dati mostrano come la sovranità computazionale non sia solo un tema tecnico, ma anche una mappa delle alleanze digitali e dei posizionamenti strategici dei governi. Dove risiede la capacità di calcolo, chi la controlla e da chi dipende rappresentano oggi variabili cruciali per comprendere l’autonomia o la subordinazione tecnologica delle nazioni.
I costi nascosti dei data center nazionali
Costruire un data center AI sul proprio territorio nazionale è una scelta che comporta implicazioni rilevanti sotto il profilo energetico, ambientale, economico e sociale. Questi centri richiedono enormi quantità di energia elettrica, spesso a scapito di altre filiere produttive locali, e possono contribuire ad aumentare il prezzo dell’energia in contesti dove la capacità di generazione è limitata. L’utilizzo intensivo di risorse idriche per il raffreddamento e il consumo di suolo per l’infrastruttura fisica pongono interrogativi sulla sostenibilità di lungo termine. A ciò si aggiunge il fatto che, a fronte di investimenti elevati, i data center sono strutture a bassa intensità occupazionale e raramente generano un indotto significativo sul territorio. In determinati contesti, l’installazione di queste infrastrutture da parte di grandi player stranieri può suscitare opposizioni locali o essere percepita come una forma di asimmetria tecnologica, soprattutto se mancano meccanismi di redistribuzione dei benefici.
C’è il rischio, evidenziato anche dagli autori del paper, di un “colonialismo digitale” che si ripresenta sotto nuove forme. Per questo motivo, alcuni Paesi stanno esplorando approcci alternativi. L’Unione Europea, ad esempio, ha lanciato l’iniziativa EuroHPC e realizzato supercluster condivisi come LUMI in Finlandia puntando su una sovranità computazionale cooperativa e multilaterale. Queste soluzioni richiedono elevati livelli di coordinamento, fiducia politica tra Stati membri e una governance condivisa che non è mai scontata. La questione, dunque, non è solo se disporre di data center sul proprio territorio, ma come costruire una strategia che ne massimizzi i benefici e ne mitighi i rischi in una logica di lungo periodo.
I chip come leva geopolitica del XXI secolo
Anche quando un Paese ospita data center sul proprio territorio, la vera leva del potere resta spesso altrove, nella filiera globale dei chip che alimentano l’intelligenza artificiale. Attualmente, tra l’80 e il 95% degli acceleratori AI utilizzati nei data center di tutto il mondo proviene da NVIDIA, con una filiera produttiva che vede la progettazione negli Stati Uniti, la manifattura presso TSMC a Taiwan e le attrezzature litografiche fornite da ASML, nei Paesi Bassi. Questo rende di fatto la capacità computazionale mondiale altamente dipendente da un ristretto gruppo di attori e da fragili equilibri geopolitici. I dazi imposti dagli Stati Uniti sui chip più avanzati destinati alla Cina hanno scatenato una risposta immediata da parte di Pechino, che sta accelerando sullo sviluppo di soluzioni proprietarie, come la linea Ascend di Huawei.
Siamo di fronte a una corsa all’autonomia tecnologica che ricorda, per modalità e toni, le dinamiche della Guerra Fredda. Ma l’autarchia è un’opzione possibile solo per pochi. Per l’Europa e per altri Paesi privi di una filiera completa, l’unica alternativa credibile oggi è il cosiddetto friendshoring, una strategia che consiste nel selezionare partner e fornitori all’interno di un perimetro geopolitico di fiducia, garantendosi un accesso più stabile e sicuro alle risorse critiche, senza rinunciare del tutto all’integrazione globale. In questo scenario, la dipendenza dai chip non è solo una questione tecnica, ma un nodo strategico che riguarda l’intera architettura della sovranità tecnologica.
Modelli on-premise e governance selettiva
Nel dibattito pubblico si fa spesso riferimento al cloud come unica via di accesso all’AI. Sempre più attori, soprattutto nei settori sanitario, bancario e governativo, stanno esplorando modelli on-premise, che prevedono l’installazione e la gestione locale delle infrastrutture e dei modelli. Questa scelta comporta una riduzione della dipendenza da provider esterni, una maggiore capacità di controllo sui dati e sulle modalità di impiego dell’AI, e una più agevole conformità ai requisiti normativi come quelli previsti dal GDPR, dall’AI Act e dal Regolamento Macchine. Il paper dell’Oxford Internet Institute sottolinea che, in assenza di una sovranità computazionale piena, la capacità di definire regole di utilizzo, accesso e audit dei sistemi AI rappresenta una delle leve più forti a disposizione dei governi. I modelli on-premise non garantiscono automaticamente la sovranità, ma permettono una governance più selettiva, soprattutto in ambiti sensibili dove il controllo diretto è una condizione imprescindibile. In un contesto globale di crescente competizione e frammentazione geopolitica, questa opzione sta tornando al centro delle strategie tecnologiche di numerosi attori istituzionali e industriali.
Strategie per l’Italia e l’Europa nell’AI computing
L’Italia ospita attualmente quattro regioni cloud pubbliche dotate di acceleratori AI, ma tutte sono gestite da provider esteri. Non esistono, ad oggi, cloud provider italiani in grado di competere nella fascia alta dell’AI computing. Questo dato, pur evidenziando una situazione di partenza fragile, non implica l’assenza di spazi di manovra. Occorre invece sviluppare una strategia nazionale che identifichi le priorità, favorisca alleanze europee e supporti le iniziative emergenti. Un primo ambito di intervento riguarda la possibilità di attrarre data center su base selettiva, valorizzando territori dotati di energia rinnovabile, capacità di raffreddamento naturale e una buona connessione con le reti di ricerca. In parallelo è cruciale il sostegno alla progettazione di chip, sia attraverso investimenti in ricerca sia tramite incentivi a startup e imprese specializzate nell’hardware. Inoltre, si dovrebbe puntare sull’integrazione tra le diverse componenti dell’ecosistema europeo: cloud sovrani, università, enti pubblici e grandi imprese, favorendo la nascita di una rete di calcolo condivisa e interoperabile. Tutto questo richiede una visione strategica chiara e condivisa, che tenga insieme sovranità tecnologica, innovazione industriale e sostenibilità ambientale ed economica.
La sovranità computazionale come scelta strategica
Il concetto di compute sovereignty ci ricorda che l’intelligenza artificiale non può essere separata dalla questione dell’infrastruttura. Non basta avere buoni algoritmi o grandi quantità di dati, senza accesso al calcolo, l’innovazione resta una promessa vuota. Questo significa che le scelte sull’AI non possono più essere solo tecnologiche o regolatorie, ma devono diventare scelte geopolitiche, industriali e strategiche. In un contesto in cui pochi attori detengono la capacità di addestrare e distribuire i modelli più potenti, i Paesi che non dispongono di infrastrutture autonome rischiano di restare spettatori di una trasformazione che li riguarda profondamente. Serve quindi una riflessione sul tipo di dipendenza che siamo disposti ad accettare e su quali strumenti, tra investimenti, alleanze, regole e modelli di governance, possiamo attivare per riconquistare margini di manovra. I recenti segnali di frammentazione, come l’affermarsi di modelli on-premise o l’inasprirsi dei dazi sui chip, indicano che si sta aprendo uno spazio per ripensare l’architettura del potere digitale.
L’Europa e l’Italia possono ancora giocare una partita significativa, ma serve una visione che metta insieme capacità tecniche, ambizione politica e consapevolezza dei limiti. Scegliere dove, e come, innovare significa allora interrogarsi non solo sulle tecnologie che vogliamo sviluppare, ma anche sulle condizioni materiali che ne rendono possibile l’esistenza e sul grado di autonomia che vogliamo difendere in un ecosistema sempre più interconnesso e competitivo. Il concetto di compute sovereignty ci ricorda che l’intelligenza artificiale non è solo un tema di software ma di infrastrutture, chip, filiere e geografia del potere. In assenza di una strategia, l’accesso all’AI rischia di essere una concessione più che una scelta. Non basta chiedersi cosa fare con l’AI. Bisogna chiedersi da chi dipendiamo per poterla usare.