Ho chiesto a ChatGPT se le intelligenze artificiali siano in grado di provare emozioni, o se, stando a ciò che conosciamo oggi, sarà possibile implementarle in futuro; quando mi ha risposto di no, le ho chiesto il perché. Mi ha risposto che esiste prima di tutto un problema di tipo cognitivo: “le emozioni sono influenzate dai pensieri, ricordi, e dalla interpretazione individuale degli eventi.

Due persone potrebbero reagire diversamente allo stesso evento, sulla base delle diverse esperienze di vita”. Conferire all’IA la facoltà di provare emozioni significherebbe quindi collocarla all’interno di quella che diventerebbe una vita fatta di esperienze, sensazioni, idee imparate o generate; ma se anche fosse possibile, questo significherebbe disporre di un’IA che non è più né oggettiva né universale, perché “le emozioni coinvolgono una sensazione personale e soggettiva, che è unica in ogni individuo. Questa componente soggettiva è ciò che rende le emozioni estremamente difficili da quantificare o replicare completamente”; inoltre “la natura soggettiva delle emozioni riguarda l’esperienza della coscienza, che non è pienamente compresa neanche negli esseri umani”.

Ho chiesto ancora se nel mondo delle intelligenze artificiali esista qualcosa in grado di riprodurre l’empatia umana; mi ha risposto che esistono sistemi di IA designati per comprendere le emozioni umane attraverso l’interpretazione di segnali visivi, uditivi o testuali, e per formulare una risposta empatica coerente. Ma anche in questo l’essere umano funziona diversamente: noi non ci limitiamo a comprendere l’esperienza altrui, la ricreiamo e riviviamo per entrare in relazione con lei.

Per quanto la questione dei neuroni specchio sia ancora molto controversa, gli studi più recenti dicono che essi agiscono attivando in noi un riflesso speculare dello stato mentale dell’altro, e istintivamente guidano il nostro corpo a ricreare ciò che vediamo nel nostro interlocutore, dalle espressioni, alla postura, ai movimenti delle mani.

Ciò che una macchina può produrre estraendolo dall’esterno, noi lo riproduciamo all’interno, e sulla base di questa esperienza entriamo in relazione con il mondo interiore di un altro. Per questo fatichiamo a comprendere un sentimento che non abbiamo mai provato: una macchina saprebbe dirci che si tratta di dolore, strazio, disperazione, ma solo noi siamo in grado di percepire la distanza tra noi e l’altro individuo di fronte ad un sentimento con cui non riusciamo ad empatizzare, di cogliere l’inafferrabilità di ciò che il nostro corpo non riesce a spiegare.

In uno studio sull’argomento, l’empatia è stata definita “un’abilità volontaria diretta verso un “qualcosa” che è diverso da noi stessi e che concepiamo come un soggetto anziché come un oggetto”. Questo una macchina non lo sa fare: di fronte a lei rimarremo sempre oggetti da interpretare e da misurare quantitativamente. Per questo la nostra società è tanto disumanizzante: forse abbiamo imparato a ragionare con (e come) le macchine.

Guardare all’emotività umana attraverso il filtro di un algoritmo è stata una delle esperienze più affascinanti degli ultimi mesi. In un’epoca in cui veniamo continuamente assaliti dal dubbio di non essere altro che il risultato matematicamente calcolabile di leggi fisiche, chimiche e biologiche, in cui la vita si accende e si spegne meccanicamente senza profondità ulteriori, ammassi di cellule a cui cariche di energia danno una parvenza di esistenza, sono le macchine stesse a dirci che c’è ancora in noi qualcosa di inafferrabile ed estremamente complesso.

Siamo i nostri pensieri, le nostre esperienze passate, e oltre a questo siamo anche quella componente individuale interiore che ci caratterizza dalla nascita e che ci accompagna ovunque; siamo organismi chimicamente scomponibili, matematicamente spiegabili, biologicamente fallibili, eppure esiste in noi una sfera così al di fuori dal quantificabile da costringere la scienza a fare un passo indietro, e da rendere difficile persino all’uomo stesso comprendere pienamente ciò che si muove al proprio interno.