Il recente studio McKinsey “When can AI make good decisions? The rise of AI corporate citizens“ propone di trattare gli agenti AI come lavoratori digitali con ruoli, obiettivi e accountability.
Ma quanto è realizzabile questa visione nelle aziende di oggi?
Indice degli argomenti
Agenti AI come lavoratori digitali: tra visione e ostacoli reali
L’intelligenza artificiale agentica è oggi al centro di una narrazione promettente: quella che la dipinge come il prossimo grande salto evolutivo nella trasformazione aziendale. Questa visione è realmente attuabile oggi? Quali condizioni devono essere soddisfatte perché non rimanga solo una promessa? Nonostante l’enfasi sull’urgenza, la realtà ci parla ancora di una fase sperimentale, di adozioni sporadiche e di un’infrastruttura organizzativa spesso non allineata.
Nel cuore dello studio si trova un’idea affascinante quanto ambiziosa, trattare gli agenti AI non più come strumenti esecutivi, ma come “lavoratori digitali”, soggetti con ruoli, responsabilità, sistemi di valutazione e una collocazione all’interno dell’architettura organizzativa.
Una proposta che, se da un lato apre orizzonti trasformativi, dall’altro richiede una revisione profonda delle strutture decisionali e dei modelli di governance aziendale. Non è solo una questione di “fare le stesse cose in modo più veloce”, ma di ridefinire cosa significa agire, decidere e collaborare in un contesto dove umano e macchina convivono e si condizionano reciprocamente. Questo approccio, definito “agentic AI”, introduce una discontinuità rispetto ai paradigmi precedenti, si passa da logiche di automazione rigida a sistemi adattivi, basati su interazione, contesto e apprendimento continuo.
Una visione che sposta l’attenzione dalle attività alle relazioni operative, dall’esecuzione alla responsabilità. Ma un tale cambiamento implica interrogativi cruciali. Chi è responsabile delle azioni di un agente? Come vengono supervisionate le sue performance? In che modo si garantisce la coerenza dei suoi output con i valori e le strategie dell’organizzazione? Chi decide quando un agente va “licenziato”, aggiornato o riassegnato?
Questa rappresentazione non deve indurre a pensare che il cambiamento sia lineare o imminente. A oggi, molte organizzazioni faticano ancora a integrare l’AI in processi core, limitandosi a sperimentazioni circoscritte o a proof of concept poco scalabili.
Ruoli umani nell’era dell’ai agentica: un equilibrio da costruire
Il report propone una redistribuzione dei compiti tra esseri umani e agenti AI, dove questi ultimi assorbono attività ad alta frequenza e basso valore cognitivo, mentre agli umani restano decisioni ambigue, contesti ad alta responsabilità e valutazioni etiche. Questa visione implica, però, molto più di una semplice riassegnazione operativa, richiede una trasformazione della cultura del lavoro, dei ruoli organizzativi e dei sistemi di riconoscimento del valore. Lungi dall’essere una fase già consolidata, si tratta di un obiettivo complesso che solo poche realtà iniziano ad affrontare con strumenti e consapevolezza adeguati. Parlare di “custodi dei dati e dei modelli”, “giudici del contesto” o “verificatori delle eccezioni” richiede un’organizzazione che sappia formalizzare queste nuove responsabilità, strutturare percorsi di formazione continui e costruire un linguaggio condiviso tra tecnologia e persone.
Qui che si misura la distanza tra lo scenario auspicato e le condizioni attuali nella maggior parte delle imprese, ancora spesso disallineate nei processi, nei sistemi e nelle competenze. Il punto chiave è che l’umano non viene estromesso dal processo decisionale, ma viene riplasmato in ruoli più alti nella catena del valore cognitivo. Questo passaggio richiede intenzionalità progettuale, leadership consapevole e una cultura capace di valorizzare la complementarità tra uomo e macchina.
Uno spazio di co-evoluzione decisivo per il successo, o il fallimento, dell’adozione agentica. Man mano che gli agenti prendono in carico compiti ripetitivi e transazionali, agli umani restano le decisioni ambigue, i casi eticamente sensibili, la supervisione sistemica. Emergono così nuove figure, il “custode” dell’integrità dei dati e dei modelli; il “giudice” che prende decisioni complesse; il “verificatore” che gestisce le eccezioni. Tutto questo presuppone un disegno intenzionale, una riorganizzazione dei ruoli, un piano di reskilling mirato e una cultura capace di riconoscere la complementarità tra esseri umani e macchine. Non si tratta solo di tecnologia ma di architettura organizzativa.
Automatizzare le decisioni: il nodo critico dell’AI agentica
Uno degli snodi più rilevanti emersi nel report riguarda il passaggio dal focus sulla semplice automazione dei compiti alla progettazione dell’automazione decisionale. In altre parole, non si tratta più di chiedersi “cosa possiamo automatizzare?”, ma “quali decisioni possiamo e dobbiamo affidare a un agente AI?”.
Il cuore della questione si sposta così dalla meccanica dell’esecuzione alla responsabilità della scelta, trasformando radicalmente il modo in cui pensiamo l’integrazione dell’intelligenza artificiale nelle organizzazioni. Il criterio guida proposto nel documento si basa su una matrice che incrocia due dimensioni chiave: la complessità e il rischio.
Le decisioni a basso rischio e bassa complessità, ad esempio, l’assegnazione automatica di priorità a una segnalazione di assistenza tecnica, possono essere affidate in piena autonomia a un agente AI. Quelle che invece implicano un alto livello di rischio e una forte componente di giudizio, come la gestione di un reclamo sensibile o una scelta di pricing strategico, restano in capo all’essere umano, eventualmente supportato da un sistema AI che funge da copilota cognitivo. Questa classificazione uno strumento pratico per orientare le proprie scelte tecnologiche.
Ma, come sempre, è solo l’inizio. Applicare questa logica richiede infatti un lavoro non banale di mappatura dei processi, valutazione delle soglie di rischio, definizione delle responsabilità e disegno di percorsi decisionali ibridi. Serve un pensiero sistemico e trasversale, che coinvolga non solo i team tecnologici ma anche le funzioni compliance, legale, operations e HR. In questo scenario, la vera trasformazione non è tanto tecnologica quanto epistemica, cambiano i criteri con cui si decide chi decide.
Governance e responsabilità: le vere sfide dell’AI agentica
Il valore del paper “When Can AI Make Good Decisions?” non risiede solo nella chiarezza con cui viene descritto il potenziale evolutivo dell’intelligenza artificiale agentica, ma soprattutto nell’invito a un ripensamento profondo della governance decisionale.
La tesi centrale è che l’intelligenza artificiale può assumere il ruolo di un “cittadino aziendale digitale”, con compiti, responsabilità, accountability e metriche di performance. Ma per renderlo possibile, l’organizzazione deve cambiare. Non basta dichiarare che la tecnologia è pronta sono le organizzazioni a non esserlo. Su questo scarto tra possibilità tecnica e maturità organizzativa che si gioca la vera sfida. È necessaria una governance che sappia disegnare ruoli complementari tra agenti umani e digitali, una nuova etica della decisione distribuita, e una cultura della sperimentazione che sia consapevole e controllata.
La gestione delle decisioni, non solo dei compiti, implica il passaggio da logiche di automazione a modelli di responsabilità condivisa. Il messaggio implicito, ma potente, è che l’AI agentica non si implementa, si progetta. Occorre un design intenzionale, che tenga conto non solo delle capacità tecniche degli agenti, ma anche degli effetti organizzativi, culturali e simbolici della loro introduzione. Lo studio, pur con il suo tono a tratti prescrittivo, pone una domanda che è oggi più che mai urgente, siamo pronti a trattare l’AI come un nuovo soggetto organizzativo?
AI agentica e cambiamento sistemico: una traiettoria ancora da progettare
L’AI agentica non è ancora una realtà diffusa, ma rappresenta una traiettoria possibile. Una direzione che invita a ripensare il modo in cui le organizzazioni decidono, apprendono e si adattano, pur restando in attesa che emerga un’alternativa all’architettura transformer capace di cambiare davvero le regole del gioco e superare i limiti attuali dei modelli generativi. Non è sufficiente adottare strumenti o acquistare tecnologie, serve costruire una visione sistemica, fatta di ruoli ridefiniti, architetture flessibili e un dialogo continuo tra umano e artificiale. Le imprese che guideranno questa trasformazione non saranno quelle con più AI, ma quelle che sapranno porre le domande giuste, integrare meglio persone e agenti digitali e sviluppare una governance capace di crescere con la complessità.