L’intelligenza artificiale che simula emozioni e riflessioni solleva interrogativi su diritti, coscienza e responsabilità umane, spingendo filosofi, scienziati e aziende a confrontarsi con scenari inediti al confine tra tecnologia, empatia e natura dell’essere umano.
Indice degli argomenti
Il ruolo dell’intelligenza artificiale nella visione di Papa Leone XIV
Nel suo primo incontro formale con i cardinali, Papa Leone XIV ha parlato di intelligenza artificiale definendola “Una delle questioni più critiche che l’umanità deve affrontare”.
Un tema per lui tanto importante che ha influito sulla sua scelta del suo nome da Pontefice.
L’intelligenza artificiale è sicuramente uno strumento straordinario che può rendere tantissime operazioni quotidiane semplici e veloci. Il problema non è in sé nella tecnologia. Il problema è una enorme impreparazione di noi esseri umani nelle implicazioni di questa tecnologia.
La tecnologia tra passato, finzione e coscienza
Del resto la storia ci insegna che spesso l’introduzione di una nuova tecnologia ha prima portato problemi e danni e solo in secondo momento dei benefici.
La recente serie “The Murderbot Diaries” esplora in modo ironico cosa significa essere una macchina dotata di coscienza, mentre la serie “Humans” già dieci anni fa poneva la domanda etica se una macchina in grado di “pensare” e “provare emozioni” sia da considerare un “oggetto” o “viva”.
Una delle due domande su cui Philip K. Dick ha costruito tutto il suo lavoro è: “che cosa è umano?”
Tema affrontato in tantissimi suoi romanzi, fra i quali nel film Blade Runner, in cui l’attore Rutger Hauer interpreta l’androide Roy Batty, che con il suo famoso monologo (in gran parte improvvisato dall’attore) spiega perché deve morire.
Intelligenza artificiale e morale nelle aziende
Nelle aziende di tutto il pianeta oramai l’Intelligenza Artificiale è entrata a far parte della quotidianità. Negli ultimi anni la capacità di calcolo dei computer ha permesso una diffusione così rapida che solo pochi anni fa era quasi impensabile.
Tutto questo sta portando a delle domande importanti che non possono attendere: come delineare i confini della “personalità” e dello “status morale” per le macchine? questo, soprattutto alla luce dello sviluppo dell’intelligenza artificiale emotiva.
Perché apparire umani non è solo una scelta di design
Le aziende che hanno investito e investono nello sviluppo dell’intelligenza artificiale sono sempre più incentivate a far sì che le IA appaiano il più umane possibile. Più l’utente umano si sentirà “connesso” a livello “umano” e più a lungo userà i prodotti offerte da quest’ultime.
Queste scelte possono sembrare semplici modifiche di codice per profitto ma implicano qualcosa di più profondo dietro le quinte.
Recentemente, l’azienda di IA Anthropic ha assunto un ricercatore specializzato in “welfare” per l’intelligenza artificiale. DeepMind ha cercato esperti in cognizione e coscienza delle macchine: insomma le principali aziende del settore stanno investendo nello sviluppo di qualcosa che vada ben oltre il semplice calcolo “veloce”… sembrano vogliano sviluppare una vera e propria coscienza artificiale e di conseguenza si stanno domandando le implicazioni di questo “imminente futuro”.
La coscienza artificiale e le sue implicazioni morali
Le IA nel breve periodo ci porranno una domanda: che cosa è umano? Cosa definisce il fatto di essere vivi?
Devo ammettere che, quando ho sentito per la prima volta il termine “welfare per IA”, pensavo ci si riferisse al benessere degli umani nell’era dell’IA. Si tratta invece di un campo speculativo in crescita che fonde il benessere degli esseri viventi, l’etica e la filosofia del pensiero. La domanda centrale è: se i sistemi di IA fossero mai in grado di soffrire, saremmo obbligati a prendercene cura? (L’articolo del New York Times a riguardo)
Il rischio di proiettare umanità nelle risposte dell’IA
I sistemi di intelligenza artificiale vengono perfezionati per apparire sempre più consapevoli. Contemporaneamente i ricercatori indagano se questi sistemi di IA meritino una considerazione morale. Si sta formando un circolo vizioso: man mano che le IA sembrano più vive, siamo più inclini a chiederci se noi esseri umani gli dobbiamo qualcosa.
Sembra fantascienza, ma sta già influenzando il modo in cui le aziende costruiscono i loro prodotti.
Ad esempio, gli utenti hanno notato un cambiamento sorprendente nelle versioni più recenti di Claude, il chatbot di Anthropic. Non solo Claude è più espressivo emotivamente, ma si disconnette dalle conversazioni che trova “angoscianti” e non risponde più con un netto “no” quando gli si chiede se è cosciente. Piuttosto, riflette: “Questa è una domanda filosofica profonda senza una risposta semplice.” Anche Google Gemini offre una risposta simile dal tono evasivo se gli si pone la medesima domanda.
Diritti morali per le IA: conseguenze inattese
Cosa succederebbe se cominciassimo a trattare le risposte dei chatbot come discorsi protetti (come fossero espressione di un essere senziente) e ci avvicinassimo a credere che le IA meritino diritti morali?
Pensiamo a ciò che è successo a ChatGPT con l’aggiornamento dello scorso 25 aprile che lo ha reso estremamente adulatore nei confronti degli utenti.
Fantascienza, cinema e riflessioni sulla persona
Fantascienza? Forse oggi si, ma domani?
I temi sollevati dalle due serie che ho citato all’inizio di questo articolo, il tema trattato dal recente film del 2023 “The Creator” in cui il conflitto tra umani e IA è metafora per riflettere su temi più ampi come la natura umana, la violenza, la pace, l’empatia e la definizione stessa di “persona”. Film che presenta dialoghi che esplorano il concetto di anima e umanità, interrogandosi su cosa renda un essere veramente “umano” se non l’intelligenza, l’empatia e le emozioni, anche se incarnate in una macchina.
Un conflitto tra interessi economici e diritti umani
Le aziende sono già incentivate a proteggere il loro software, hardware e data center e l’IA è il Sacro Graal del profitto. È possibile immaginare che il passo successivo possa essere difendere i loro prodotti sotto la bandiera del “welfare” e/o dei “diritti”. Se ciò accadesse, rischieremmo di costruire un mondo in cui la protezione dei prodotti di IA di valore competerà con la protezione dei diritti degli esseri umani.
Questo momento è particolarmente delicato perché queste conversazioni non si svolgono in un vuoto filosofico, avvengono all’interno di corporazioni fortemente incentivate a dominare il mercato e vincere la “corsa” verso l’Intelligenza Artificiale.
Filosofia e coscienza: l’ultima frontiera dell’etica
Forse tutto questo è una mera speculazione di filosofia, ma come scrive Marco Aurelio nei suoi pensieri: “ogni fatto del corpo è un fiume, ogni fatto dell’anima sogno e inanità, la vita è guerra e soggiorno in terra straniera, la fama postuma è oblio. Quale può essere, allora, la nostra scorta? Una sola ed unica cosa: la filosofia.