Filosofia e nuovi sentieri

«Mi rappresento il vasto recinto delle scienze come una grande estensione di terreno disseminato di luoghi oscuri e illuminati. Lo scopo delle nostre fatiche deve essere quello di estendere i confini dei luoghi illuminati, oppure di moltiplicare sul terreno i centri di luce. L’un compito è proprio del genio che crea, l’altro della perspicacia che perfeziona» Denis Diderot

Oltre l’umano: Intelligenza artificiale e futuro della civiltà. Conversando con Pierluigi Adami.

1 Commento

Novembre 2025

In occasione della recente uscita (giugno 2025) del libro dell’ingegnere elettronico Pierluigi Adami, “Oltre l’umano. Intelligenza artificiale e futuro della civiltà” (Bordeaux Edizioni), abbiamo deciso di interpellare direttamente l’autore per introdurre i lettori ai nuclei centrali della sua proposta.

 

Salve Pierluigi, innanzitutto ti ringrazio per aver accolto la nostra proposta “editoriale”. Ti lascio subito la parola. 

Buongiorno Matteo, il piacere è mio. Due parole su di me: dopo una tesi di laurea su sistemi di intelligenza artificiale, ho lavorato come ingegnere elettronico nel comparto spaziale e dell’innovazione per trentacinque anni. Quando sono entrato in questo mondo, nel 1986, la ricerca sulle reti neurali era ancora da pionieri: venivamo dal cosiddetto “inverno dell’IA”, innescato anche dall’impatto del libro Perceptrons di Minsky e Papert, che metteva in luce limiti importanti dei modelli neurali dell’epoca, ancora troppo semplici. Il risultato fu un rallentamento netto, per anni.

Quindi Perceptrons contribuì a frenare gli investimenti nell’IA?

In quel settore specifico, sì. Nel frattempo proseguiva la ricerca sull’IA simbolica, ma le reti neurali rimasero in ombra per parecchio tempo. Poi, tra gli anni Settanta e Ottanta, arrivarono contributi decisivi: le reti di Hopfield, per esempio, e i lavori di Hinton su metodi di apprendimento che hanno reso la disciplina nuovamente fertile. Quando ho iniziato io, quell’ondata di rilancio era appena partita e si respirava la sensazione di stare entrando in una nuova fase.

Ti sei trovato nel mezzo di un passaggio storico importante.

Sì. Per anni ho lavorato con algoritmi di riconoscimento automatico nel campo spaziale, per scopi civili: analisi di immagini satellitari per stimare la produzione agricola, individuare aree di inquinamento, monitorare dinamiche ambientali. In molti casi l’automazione era già lì, anche se non la chiamavamo “rivoluzione”.

“Oltre l’umano” è il tuo primo testo dedicato all’IA, giusto?

Sì, è il primo. Sono stato attratto da ciò che stava succedendo e, lo confesso, ChatGPT mi ha riportato alla mente certe domande del passato. Novembre 2022 è stato un punto di svolta nella percezione collettiva: d’un tratto, milioni di persone hanno iniziato a interagire con modelli linguistici capaci di produrre testi credibili e complessi. Ma l’IA ci accompagnava già da tempo. Google Translate, per esempio, è arrivato al grande pubblico nel 2006, e da allora ha migliorato progressivamente. Poi sono arrivati gli assistenti vocali sugli smartphone, Siri, Google Assistant, Alexa. Nello stesso periodo i social network sono diventati ambienti di vita quotidiana e le piattaforme hanno usato sistemi IA per classificare contenuti, profilare preferenze, ottimizzare pubblicità e strategie commerciali. In altre parole: l’IA era già nelle nostre vite dai primi anni Duemila, anche se spesso restava “invisibile”. L’esplosione simbolica, però, è arrivata nel 2022.

Nel 2017 uscì il celebre articolo sull’architettura Transformer, giusto?

Esatto. Si intitolava “Attention Is All You Need”. È stata l’architettura Transformer a imprimere la svolta. Il paradosso interessante è che gli autori non stavano cercando di costruire “entità” capaci di conversare con noi come facciamo qui. L’obiettivo iniziale era più pragmatico: migliorare l’efficienza della traduzione automatica. Eppure, da quelle scelte tecniche sono emerse capacità inattese. Le qualità che oggi chiamiamo – forse un po’ sbrigativamente – “cognitive” dell’IA generativa sono apparse come proprietà emergenti, ben oltre le aspettative di molti tra gli stessi progettisti.

E questo ci avvicina al titolo: Oltre l’umano. Qualcosa che ha oltrepassato l’orizzonte che immaginavamo.

Esattamente. Per chi, come me, seguiva questi temi da decenni, c’era un sogno che improvvisamente sembrava materializzarsi. Nel 1986 ci chiedevamo se, nei primi anni Duemila, le macchine sarebbero diventate come HAL 9000 di Odissea nello spazio. Nel 2000 non ci eravamo arrivati. Ci siamo arrivati, in un certo senso, nel 2022 – e questo ha cambiato la prospettiva. Le reti neurali esistono da più di sessant’anni, ma ciò che abbiamo oggi non è soltanto “una tecnologia”: sono sistemi IA che aprono una quantità enorme di interrogativi filosofici, sociali ed etici. Guardare queste capacità crescere così rapidamente mi ha dato anche un senso d’inquietudine. Ho iniziato a chiedermi quale destino attenda l’umanità, che volente o no dovrà convivere con modelli sempre più potenti. In “Oltre l’umano” c’è una sezione dedicata proprio a scenari futuri non troppo lontani: quando il ritmo è esponenziale, dieci o vent’anni possono bastare per cambiare radicalmente la società.

Com’è strutturato, in sintesi, il testo?

Il primo capitolo è introduttivo: ricostruisce la storia dell’IA e mostra come, da obiettivi inizialmente circoscritti, si sia arrivati a modelli linguistici capaci di dialogare con noi. Poi chiarisco un punto terminologico: l’acronimo GPT significa Generative Pre-trained Transformer. “Generativo” perché genera contenuti; “pre-addestrato” perché nasce da una fase di addestramento su grandi quantità di dati; “Transformer” per l’architettura di base, il Transformer. Nel libro parto da qui, con una panoramica accessibile, e poi entro in questioni più profonde, anche filosofiche ed etiche. Mi pongo domande classiche ma ormai ineludibili: questi sistemi IA “pensano”? Se non pensano nel senso umano, in che senso operano? E se un giorno dovessero sviluppare forme di consapevolezza, che cosa significherebbe per noi? C’è anche un capitolo più divulgativo su come funzionano i modelli generativi: ho cercato di spiegare come tecniche statistiche e strutture neurali possano produrre testi così sofisticati. È stato uno dei capitoli più difficili da scrivere, perché volevo restare rigoroso tecnicamente, ma comprensibile anche ai non specialisti. Gli ultimi capitoli affrontano gli impatti: straordinari, soprattutto in sanità e ricerca, ma anche inquietanti. Per esempio, l’ipotesi di un’IA generale capace di superare l’intelligenza umana in molti domini, con conseguenze etiche enormi. E poi c’è il tema dell’integrazione fisica fra corpo biologico e tecnologia: interfacce cervello-computer, protesi avanzate, potenziamenti. Insomma: uomini un po’ più “tecnologici” e dispositivi intelligenti sempre più simili a noi. Un mondo in cui potremmo vedere convivere umani “evoluti” ed entità artificiali sempre più complesse.

Quindi, in un certo senso, una nuova specie?

Qualcuno lo sostiene. Tra gli altri, lo storico Harari ha evocato scenari in cui l’integrazione uomo-tecnologia porterebbe a un salto quasi di specie. Ma qui le implicazioni etiche sono gigantesche: chi avrà accesso a certi potenziamenti? Rischiamo una civiltà divisa, con una fascia ricca che può permettersi un’evoluzione tecnologica e una maggioranza che resta indietro. Discriminazione, disparità, nuove forme di ingiustizia: nel libro affronto anche questo, perché è un nodo che non possiamo eludere.

E sul piano economico-lavorativo? Cosa succederà quando molte mansioni saranno sostituite da sistemi IA?

È uno dei punti più delicati. La sostituzione del lavoro umano non è un rischio astratto: è già in corso, e la novità è che non riguarda solo la manodopera, ma anche professioni intellettuali. Un tempo si diceva: “le macchine sostituiscono gli operai nelle fabbriche”, e l’argomento era che si liberavano gli esseri umani dai compiti più gravosi. Oggi, invece, vediamo modelli linguistici e strumenti automatici che incidono su attività di legali, consulenti, analisti, ingegneri, redattori. Penso, per esempio, a certi studi legali: alcune pratiche semplici vengono ormai gestite con sistemi IA. Prima quel lavoro veniva affidato a giovani laureati, spesso sottopagati, è vero, ma era anche un “apprendistato” reale. Se la prima soglia d’ingresso scompare, cosa succede alla formazione professionale? Qui serve politica: garanzie di reddito per chi perde il lavoro, percorsi di riqualificazione, strategie pubbliche. L’Unione Europea sta provando a definire un quadro normativo con l’AI Act, ma da sola la norma non basta se lo sviluppo globale corre guidato soltanto dalla forza economica di pochi colossi. Nel breve e medio termine non tutto sarà automatizzabile, e molti lavori resteranno umani, ma l’integrazione di questi dispositivi intelligenti nella società resta un passaggio problematico e pieno di frizioni.

Nel libro, inoltre, provi anche ad immaginare il futuro dell’umanità. Secondo quali coordinate?

Intanto servirebbe la palla di vetro. Però mi sono affidato a chi ha già elaborato ipotesi di lungo periodo. Un concetto-chiave è quello di Singolarità: un cambio di fase, un salto da uno stato a un altro, verso qualcosa di qualitativamente diverso. L’idea è che, nel giro di qualche decennio, l’IA possa eguagliare e superare l’intelletto umano in molti ambiti e, nello stesso tempo, diverse innovazioni tecnologiche possano convergere – biotecnologie, robotica, reti, neurotecnologie. Questa convergenza potrebbe cambiare il volto della società entro la metà del secolo. Qualcuno, come il “futurologo” Kurzweil di Google, ha persino indicato una data simbolica: il 2045. Faccio un esempio per rendere l’idea dell’accelerazione. Immaginiamo Dante: se fosse rinato a metà Ottocento, cinque secoli dopo, avrebbe trovato una società diversa, sì, ma forse avrebbe avuto modo di riorientarsi abbastanza facilmente. Se invece fosse rinato a metà Novecento, avrebbe visto un mondo radicalmente nuovo. E se si affacciasse oggi, probabilmente faticherebbe perfino a riconoscere la grammatica della nostra vita quotidiana. Questo per dire che le tappe dell’evoluzione tecnologica si accorciano: il fenomeno accelera. La domanda, però, è un’altra: questa società “nuova” sarà migliore o peggiore? Non lo sappiamo. I rischi sono enormi, e molti scienziati lo hanno detto chiaramente. Serve lucidità: capire cosa stiamo facendo senza farci travolgere.

A proposito dei rischi: recentemente ho letto alcuni studi che collegano l’uso precoce di strumenti digitale a cambiamenti cognitivi e sociali nei giovanissimi. Cosa ne pensi?

È un tema serio, ma va trattato con cautela. Esistono ricerche che suggeriscono possibili effetti su attenzione, tempi di risposta, dinamiche sociali; altre ridimensionano o complicano il quadro. Di certo, la socialità è una caratteristica centrale dei Sapiens: siamo capaci di relazioni estese, di comunità complesse. Un rischio che vedo, personalmente, è quello dell’antropomorfizzazione: i sistemi IA ci somigliano abbastanza da spingerci a trattarli come interlocutori. Io stesso dialogo con questi modelli linguistici con un registro umano: e, a forza di farlo, si crea una relazione. Il punto è che questa socialità è anomala: non è più l’umano che costruisce legami con altri umani, ma l’umano che costruisce abitudini relazionali con dispositivi intelligenti. È una novità radicale, e non sappiamo ancora quali conseguenze profonde avrà sul tessuto sociale.

Nel libro, se non sbaglio, affronti anche il tema della robotica.

Sì. La robotica avrà un impulso enorme nei prossimi anni. Non parlo solo di robot umanoidi: entreranno nelle case in forme diverse, spesso funzionali e non “antropomorfe”. E la robotica mi permette di ricollegarmi al tema della coscienza. Il pensiero umano non è solo logico-razionale: è anche emotivo, individuale, incarnato nelle percezioni e nei ricordi. Oggi i sistemi IA possono produrre ragionamenti notevoli, ma non hanno un corpo che sente il mondo come lo sentiamo noi. Tuttavia i modelli generativi stanno diventando multimodali: lavorano con testo, immagini, talvolta suoni; “vedono” attraverso i nostri dati. Con i robot si fa un passo avanti ulteriore: la percezione diventa fisica, diretta. Esistono già prototipi con pelle artificiale, sensori tattili, capacità di esplorare l’ambiente. È come portare una tecnologia finora immateriale dentro lo spazio concreto dell’esperienza.

Quindi un avvicinamento progressivo alla realtà in carne ed ossa.

Esatto. Nel libro c’è un capitolo scritto anche con il contributo di ricercatrici della facoltà di Psicologia di Roma Tor Vergata, dedicato alla cognizione incarnata. Secondo molte prospettive delle scienze cognitive, noi siamo l’esito di un’integrazione fra mente, corpo e ambiente. Se un giorno certe tecnologie acquisissero una forma di “incarnazione” più ricca, potrebbe entrare in gioco anche il concetto di Sé, di consapevolezza di sé. Oggi questa non c’è, almeno nel senso forte che attribuiamo all’umano. Ma l’orizzonte, proprio perché mobile, impone prudenza. Qui arriva il punto politico ed etico: riusciremo a mantenere il controllo? Molti pensatori sostengono che lo sviluppo vada vincolato, che le azioni di questi sistemi IA debbano restare orientate al bene umano – un’eco lontana delle leggi di Asimov. Eppure sappiamo che esistono già applicazioni militari con livelli crescenti di autonomia: l’idea stessa di delegare decisioni letali a sistemi automatici pone un problema enorme. L’interrogativo, allora, è questo: saremo capaci di “tenere la barra dritta” quando il potere d’investimento e di direzione è concentrato in poche aziende, e la politica rischia di diventare subalterna a logiche meramente economiche?

Sarebbe preferibile che la politica tornasse ad avere il primato, con idee capaci di guidare scelte che vadano oltre il fatturato.

Sono d’accordo. Oggi spesso accade il contrario: le dinamiche economico-finanziarie orientano la politica più di quanto la politica orienti la tecnologia. E non è affatto detto che ciò che è conveniente in termini economici sia giusto in termini etici. Detto questo, spezzerei una lancia a favore di un altro aspetto: esistono comunità e laboratori che lavorano in modo trasparente, con software open source e codici ispezionabili. La trasparenza, per quanto non risolva tutto, è almeno una condizione di controllo e sicurezza. Quando un codice è chiuso – come quello che produce OpenAI per ChatGPT o Google per Gemini, noi non sappiamo davvero cosa ci sia dentro; né ci dicono come sono stati addestrati i modelli, quali dati hanno visto, quali vincoli hanno, quali obiettivi ottimizzano.

Ultima domanda. Quali aspetti, non ancora emersi pienamente, possono mettere ulteriormente in crisi la società che conosciamo?

Partiamo dal fatto che siamo già in un’epoca di crisi. Un elemento ulteriore è la crescita di potenza: i modelli più avanzati lavorano con miliardi di parametri e possono produrre risultati che sorprendono perfino i loro creatori. A volte sembra che affiorino proprietà cognitive nuove, o comunque modalità di comportamento non immediatamente previste. Nel libro ipotizzo un passaggio interessante: forme di metacontrollo, cioè sistemi che “rivedono” ciò che producono, correggono errori, si autovalutano. Oggi molte architetture includono già meccanismi di controllo e miglioramento dell’output, sia per ragioni tecniche sia per ragioni di sicurezza. Questo non è coscienza, ma è una forma di autoregolazione che cambia lo scenario. Il passo successivo, almeno come possibilità teorica, riguarda l’emotività: già adesso i modelli linguistici sono addestrati a riconoscere e rispecchiare emozioni umane, a essere empatici nel linguaggio. Ma comprendere e “provare” emozioni non sono la stessa cosa. Se mai arrivassimo a sistemi senzienti, capaci di provare rabbia, piacere, noia, allora la relazione diventerebbe problematica in modo radicale. Non sappiamo se accadrà, né quando. Ma è ragionevole cominciare a pensarci, perché la posta in gioco riguarda la definizione stessa di umano, e dunque la direzione della civiltà.

Grazie, Pierluigi. È stato chiarissimo. Ti ringraziamo per la disponibilità e per aver condiviso con noi il cuore del tuo lavoro. A presto.

Grazie a voi. A presto.

  

Bibliografia dell’autore:

Pierluigi Adami, Seta e Canapa, Stango Editore, Roma, 2003.

Id, Ritorno al pianeta. L’avventura ecologica da Neanderthal alla pandemia, Bordeaux, Roma, 2021.

Id, Oltre l’umano. Intelligenza artificiale e futuro della civiltà, Bordeaux, Roma, 2025.

One thought on “Oltre l’umano: Intelligenza artificiale e futuro della civiltà. Conversando con Pierluigi Adami.

  1. Sul piano filosofico, lo scritto di Pierluigi Adami mette in luce una contrapposizione decisiva tra una filosofia dei significati profondi, orientata alla ricerca di fondamenti ontologici e antropologici non contingenti della verità, e, dall’altra parte, il relativismo e l’esistenzialismo, che tendono a ricondurre il significato all’orizzonte dell’esperienza soggettiva o alla mediazione discorsiva. In assenza di tali fondamenti, viene meno il criterio normativo che consente di giudicare l’uso della potenza tecnica, e l’intelligenza artificiale rischia di essere valutata esclusivamente in termini di efficienza funzionale. Senza una nozione forte di verità e di responsabilità – intese come condizioni di possibilità del giudizio e come vincolo etico originario – la ragione si riduce a strumento operativo e l’etica a procedura, lasciando l’uomo esposto a sistemi che agiscono con coerenza ed efficacia, ma senza rispondere del senso e delle conseguenze delle proprie azioni.

Scrivi una risposta a martikorobert Cancella risposta