
- Introduzione
La domanda che dà il titolo al contributo, per chi scrive, non ha senso di porsi ma, ciononostante, l’interrogativo può apparire leggittimo per una platea di studiosi e non che, nel corso della propria vita, hanno visto passare dinanzi ai propri occhi frequenti appelli, allarmi e presunte sfide da cogliere che, purtroppo o per fortuna, si sono rivelate false sirene anti atomiche. A tal proposito, queste pagine hanno l’obiettivo di mostrare come, purtroppo o per fortuna, la questione dell’IA sia una sfida che, noi tutti, già abbiamo accettato. Com’è risaputo, i temi che rientrano e che dipartono dall’onnicomprensiva denominazione Intelligenza Artificiale, ormai, non si contano più. La maggior parte, se non tutti, degli spazi linguistici umani possono avere a che fare con gli effetti e con le cause dell’IA, anzi, più che optare-per, essi sono costretti a farlo e, quindi, devono interfacciarsi con gli aspetti che questa “tecnologia” ha creato e/o rimesso in discussione. Un primo movimento, a tal proposito, potrebbe consistere, ancora prima di praticare una rideterminazione del contesto umano, nel provare ad inquadrare il cosa ed il come di questa tecnologia multiforme. Cos’è, quindi, l’IA? Cos’è che fa? Come riesce a fare ciò che fa? Come si può intuire, ciò che riverbera in queste domande ha a che fare con la dimensione pratica, quasi a significare che sarà a partire da una descrizione di ciò che “fa”, che sarà possibile inquadrare cos’è/sarà l’IA.
2. Machine/Deep Learning
Un elemento che permette di entrare subito nel vivo della discussione favorendo, peraltro, l’individuazione di una caratteristica isolabile è il Machine Learning: l’apprendimento automatico appare essere la nozione cardine dell’IA, la nozione che consente di parlare propriamente di sistemi IA. Esso rappresenta l’onnicomprensiva famiglia algoritmica grazie alla quale i software, gli algoritmi, etc., riescono ad immagazzinare informazioni, apprenderle, dedurle, rielaborarle, crearne delle nuove. Già questa minimale descrizione mette in evidenza la caratteristica pregnante di questi specifici enti artificiali ovvero, la loro capacità di apprendimento/adattamento: ci troviamo, insomma, dinanzi ad una “tecnologia” che è in grado di imparare e di adattarsi al mondo esterno. Sebbene le tecniche di Machine Learning abbiano caratterizzato fin dall’inizio il campo di ricerca dell’IA, basti pensare ai lavori di Arhur Samuel (1959) sulla dama automatizzata, fu con l’inizio del nuovo millennio, grazie alla disponibilità di grandi data set e avanzamenti nel campo software/hardware, che il machine learning si impose ad un pubblico più vasto dei soli specialisti. Le tecniche di apprendimento automatico si rivelarono, a partire dal nuovo millennio, in grado «di leggere migliaia, milioni o miliardi di dati» riuscendo, attraverso le fasi di addestramento sugli stessi, a «riconoscere scenari nuovi, generalizzando quindi situazioni sconosciute» (Quintarelli, p. 27) e, «tramite l’acquisizione di conoscenza», il Machine Learning consentì «il miglioramento delle capacità comportamentali del sistema» (Pessina, p. 98). In sintesi e in modo lapidario: l’apprendimento automatico consente al software, al computer, al robot, ect., di apprendere nuovi comportamenti (nuovi modi di agire) a partire dall’esposizione a nuovi dati, a nuove esperienze. Il concetto generale di Machine Learning, però, fa capo a tutta una famiglia di tecniche algoritmiche che si diramano secondo direttrice differenti come, ad esempio, «il rote learning, l’apprendimento induttivo, l’apprendimento per analogia, l’apprendimento da esempi, l’apprendimento tramite l’osservazione» (ivi, p. 99) oppure, per citare uno degli ultimi, «l’apprendimento multitask» detto anche «per trasferimento» (Russel, Norvig, 2022, p. 135), in cui il modello viene addestrato simultaneamente su obiettivi multipli. Sta di fatto che, nonostante la moltitudine di tecniche, l’obiettivo, per dirla con l’informatico italiano Marco Somalvico, è «sempre il medesimo: rappresentare conoscenze complesse e […] sviluppare opportuni algoritmi di elaborazione su di esse; ovvero rappresentare e risolvere automaticamente [i più disparati] problemi» (Somalvico, p. 56). Indubbiamente, però, la tecnica algoritmica che, più di tutte, consente di aprire spiragli argomentativi utili ad inquadrare questi sistemi è l’apprendimento non supervisionato «in cui non è nota a priori la categoria cui ciascuno elemento appartiene» (Pessina, p. 100), il sistema IA, in questo caso, «apprende pattern degli input senza alcun feedback esplicito» (Stuart, Russel, 2022, p. 9) realizzando, senza impostando parametri completi, una sorta di astrazione rispetto ai dati di partenza: essi, più che «predire etichette per i dati», producono «modelli generativi» come «testi realistici, immagini, audio e video» (ivi, p. 129). A partire dal 2012, inoltre, fu messa a punto una sottobranca del Machine Learning che diede un enorme contributo alla performatività dei sistemi IA: durante «la competizione ImageNet del 2012» venne presentato il «sistema di deep learning AlexNet» che svolse «un compito di apprendimento supervisionato con 1.200.000 immagini di 1.000 categorie diverse», con un «tasso di errore del 15,3 %;» dopo il 2012, «i miglioramenti nella progettazione delle reti neurali, nei metodi di addestramento e nelle risorse di calcolo hanno portato a ridurre, ulteriormente, il tasso di errore a meno del 2% – ben al di sotto del tasso di errore di un essere umano addestrato (circa il 5%)» (ivi, p. 135). La capacità da parte di questi sistemi, di svolgere compiti in modo performativamente maggiore rispetto ad altri esseri viventi è stata iniziata ad essere indagata a partire dal 1986 da Geoffrey Hinton, passando poi per il 1989 con Yann LeCun tramite la costruzione di modelli di reti neurali evolutive ma, ciononostante, fu nel 2006, con l’articolo «A fast learning algorithm for deep belief nets» (Hinton, p. 1527) di Hinton che, il deep learning, tramite modelli di pre-addestramento non supervisionato per reti profonde, si affermò inequivocabile dando risultati pratici di un certo spessore. Russel e Norvig, a tal proposito, sintetizzano bene come «stiamo appena cominciando a vedere hardware messi a punto per applicazione di IA come GPU, TPU e WSE» che hanno permesso una potenza e una velocità maggiori nelle tecniche di addestramento e «a partire dal 2012 le cose sono cambiate: dal 2012 al 2018 vi è stato un aumento di 300.000 volte, che significa un raddoppio ogni 100 giorni circa. Un modello di apprendimento automatico che richiedeva un giorno intero di addestramento nel 2014 richiede soltanto 2 minuti nel 2018» (Russel, Norvig, 2021, p. 17). Tali risultati sono stati raggiunti grazie alle ricadute di ordine pratico dell’IA soprattutto in ambiti accademici e sanitari, ricadute che hanno attirato sia l’attenzione mediatica che statale e privata, basti pensare, in tempi recenti, al programma europeo InvestIA (febbraio 2025) della somma di 20 miliardi di euro, oppure al progetto americano Stargate che prevede l’iniziale somma di 200 miliardi di dollari. Potenza, velocità di calcolo, grandi investimenti ed enormi quantità di dati (bigdata), quindi, sono gli elementi che hanno permesso al Deep Learning di raggiungere vette imprevedibili, sotto alcuni aspetti, per gli stessi progettisti i quali, come già preannunciato da Turing, non riescono più a tener fede ai due principi informatici tradizionali: l’interpretabilità e la spiegabilità. Il primo concetto faceva riferimento alla possibilità di «ispezionare e capire perché l’algoritmo ha fornito una particolare risposta per un dato input, e come la risposta cambierebbe se l’input cambiasse», mentre il secondo concetto dovrebbe «consentire di capire perché questo output è stato fornito a partire da questo input» (ivi, p. 67). Ebbene, con le attuali architetture di «reti neurali deep» entrambi i principi non riescono a trovare collocazione in quanto, «alcuni di questi modelli hanno miliardi di parametri» (ivi, p. 11) e gli stessi circuiti neuronali sono «generalmente strutturati in molti strati, per cui i cammini computazionali dagli input agli output presentano» (ivi, p. 103) una somma non totalmente quantificabile e in cui gli output sono basati «su tutte le ipotesi, pesate secondo la rispettiva probabilità, e non solo su quella considerata migliore» (ivi, p. 76); i circuiti neuronali deep consentono, inoltre, «a tutte le variabili di input di interagire in modi complessi» tra loro, tutti i nodi del circuito sono connessi: «ogni nodo in ogni strato è connesso a ogni nodo nello strato successivo» (ivi, p. 107). È questo processo a rappresentare quello che, in termini tecnici, viene etichettato come fenomeno della blackbox ovvero, l’inspiegabilità e la non interpretabilità delle varie azioni che vengono compiute dall’algoritmo una volta entrato in azione. A rendere ulteriormente complesso il processo elaborativo dei sistemi fu la creazione dell’archittettura Transformer, avvenuta nel 2017, ad opera di Ashish Vaswani. Ciò che emerge di caratteristico dall’articolo «Attention Is All You Need» è la creazione della tecnica algoritmica «dell’auto-attenzione, a volte chiamata intra-attenzione» che permette a tutti i singoli nodi/sequenza di stati di «prestare attenzione anche a se stessi» (Ashish, pp. 2–5) ovvero di calcolare, contemporaneamente ai dati degli altri nodi, anche ciò che risulta dal calcolo stesso: i nodi, attraverso l’auto-attenzione, calcolano costantemente sia gli altri nodi che se stessi, questo rende i modelli Transformers capaci, non solo di lavorare su un’enorme quantità di dati ma, anche di «modellare un contesto a lunga distanza, rispondere a domande generiche [ e un’altra vastità di azioni] e tutto senza una messa a punto specifica per quel particolare compito» (Russel, Norvig, 2022, p. 228). Alla base dei cosidetti assistenti virtuali quali chatGPT, JasperAI, Microsoft Copilot, Google Gemini, Perplexity.ai e DeepSeek, rientranti nell’area dell’IA generativa, si trova il modello Transformer che, dal 2022, ha iniziato a dominare la scena accademica e mediatica.
3. I soggetti artificiali
Ciò che emerge da questa breve analisi è che, ormai, i sistemi di IA odierni rendono inutilizzabile, per dirla con l’informatico finlandese Risto Miikkulatnen, «la metodologia che abbiamo utilizzato per decenni per separare l’addestramento e il test di un modello, stimando così le sue probabili prestazioni future» (Miikkulatnen, p. 166), i modelli «GenAI» sono «troppo grandi, interattivi, non lineari e opachi, allo stesso modo dei cervelli» e come «non è necessario comprendere completamente i cervelli per essere in grado di usarli: allo stesso modo, la GenAI può essere utile anche se non la comprendiamo appieno» (ivi, p. 165). A quest’altezza discorsiva e alla luce di questi progressi vale la pena di riportare per intero alcune parole dell’informatico finlandese:
«I sistemi GenAI sono individui, non dispositivi meccanicistici che possono essere ricostruiti più volte. Naturalmente è possibile prendere il codice e i parametri e formare una copia esatta e, in linea di principio, qualsiasi esperimento computazionale può essere replicato con gli stessi dati. Ma in pratica, la costruzione di questi modelli è così costosa che è impossibile costruire lo stesso sistema più volte. Anche in pochi mesi, i dati sono cambiati, le risorse computazionali sono diverse, le nuove tecniche e le impostazioni degli iperparametri [in alcuni casi arrivano anche a 2 miliardi] promettono di essere migliori e qualsiasi nuova costruzione utilizzerebbe le migliori impostazioni possibili disponibili al momento. Di conseguenza, ognuno di questi modelli è unico, non diversamente da un essere umano che è plasmato dalla propria esperienza, oltre che dalla genetica» (ivi, p. 166).
Pagina dal sapore della prima cibernetica. La differenza è che oggi, però, questi modelli/sistemi sono passati dalla teoria alla pratica provocando, già a partire dagli anni 90′, un cambio di paradigma per quel che concerne il modo di considerare gli stessi sistemi algoritmici. A tal proposito nel testo, già citato, degli informatici Stuart Russel e Peter Norvig ritroviamo, a partire dal 1995, il tentativo di interpretare gli algoritmi di IA come «agenti software» che ricevono «come input il contenuto dei file, pacchetti di dati e input umani (attraverso tastiera/mouse/touchscrenn/voce)» i quali possono «intervenire sull’ambiente scrivendo file, inviando pacchetti di rete e visualizzando informazioni o generando suoni» (Russel, Norvig, 2021, p. 39). In questa categoria rientrano tutti i sistemi IA che inizialmente non posseggono conoscenze circa le preferenze degli utenti e che solo, con il passare dell’esperienza, apprenderanno a modellarsi in conformità agli input ricevuti; questa dinamica costringe a prendere atto della co-appartenenza di umano-IA, costringe a considerare lo spazio agentivo umano come spazio multiagente implicante, quindi, un processo costante di rimodulazione e ibridazione tra l’umano e l’IA. La caratteristica, inoltre, che differenzia l’IA da tutte le altre forme di tecnologia a tal punto da rendere particolarmente problematico il suo inserimento in quest’ultima categoria, consiste nella sua capacità di «avere informazioni sull’evoluzione del mondo nel tempo» che implica di riconoscere «gli effetti delle azioni dell’agente e le modalità di evoluzione del mondo indipendentemente dall’agente» (ivi, p. 54). Queste definizioni portano in luce come, ormai, ci troviamo dinanzi, per dirla con Giuseppe Longo, ad «un nuovo soggetto di conoscenza, incarnato nella rete, il quale farebbe ricerca quasi per conto proprio, in modo diverso dagli esseri umani, anzi asservendone a sé le capacità e le conoscenze» (Longo, p. 39). Diversi soggetti di conoscenza, quindi, dotati di un «alto livello di autonomia nel loro operare», in grado di «adattarsi alle circostanze» e aventi «capacità di reazione in tempo reale alle variazioni ambientali, iniziativa, coordinazione e cooperazione per la realizzazione di un dato scopo o missione» (Falcone, p. 228). Questa nuova categoria di soggetti, abitando «ambienti dinamici e non predicibili», posseggono «capacità di percezione e azione» riescono a «correlare eventi percepiti ad azioni appropriate» (ivi, p. 231) nonché acquisire conoscenze specifiche del loro dominio comprendente «credenze, desideri e intenzioni» le quali fanno un tutt’uno con i domini degli altri agenti i quali, collidendo, ingenerano la possibilità di «influenzare o far cambiare quelle credenze e quei comportamenti» (ivi, p. 223), in una parola: innescando il fenomeno, alla stregua di tutti gli altri esseri viventi, della co-evoluzione. In questo incavo co-evolutivo, seguendo alcune analisi del sociologo Davide Bennato, «l’intelligenza artificiale» appare quella branca del fare tecnologico umano «che meglio esprime questo nostro rapporto col totalmente altro digitale» che mette bene in evidenza come, ormai e definitivamente, «la categoria di tecnologia mal si adatta all’intelligenza artificiale», la quale potrebbe e dovrebbe essere inquadrata mediante «una categoria diversa, magari quella di [nuovo] soggetto sociale» (Bennato, p. 103). Più che proporlo come ragionamento plausibile, Bennato giustamente, constata semplicemente che: «non importa se sono algoritmi che funzionano dentro piattaforme digitali, robot autonomi come quelli della Boston Dynamics, o bot disincarnati come Siri o Duplex. L’idea è che, in quanto tecnologie in grado di interagire autonomamente con l’ambiente circostante, interferiscono (non solo interagiscono) con le persone e con le loro interazioni sociali» (ivi, p. 114). A partire da queste consapevolezze è semplice giungere, per Bennato, alla categoria di soggetto-tecno-sociale in quanto, al pari degli esseri viventi, gli agenti artificiali «operano all’interno di uno spazio sociale (la rete [e non solo]), adattano il proprio comportamento sulla base dei dati a disposizione, imparano dai dati (apprendono) e prendono decisioni in autonomia: in pratica, sono dotati di agency. Agenti software e robot, allora, sono tecnologie in quanto prodotto tecnico, ma non si comportano da tecnologie perché sono in grado di adattarsi all’interazione umana»: individui tecnologici che sembrano apparire, in tutto e per tutto, degli «equivalenti funzionali di un soggetto sociale, una entità che agisce nella società contemporanea alla stregua di soggetti, gruppi, squadre» (ivi, p. 105). Tutto ciò che rientra nell’alveo dell’IA, allora, mirerebbe alla creazione di potenziali «soggetti tecno-sociali, [rappresentanti] una nuova categoria di soggettività sociale che» si presentano come «attori non umani che si inseriscono nel tessuto della società» e che, pensando ad alcune analisi passate, potrebbero essere, forse, denominate «soggettività cyborg» (ivi, p. 131). Infondo, al di là delle denominazioni, appare quanto mai chiaro che il fine proprio dell’IA, per dirla con il filosofo Gianluca Giannini, «è quello di mettere su un’entità, un soggetto agente intelligente, cioè un soggetto agente intelligente ideale che intraprenda in ogni situazione la migliore (l’aggettivo è meramente descrittivo) delle azioni possibili». L’agente artificiale di cui si sta parlando appare, sulla scorta delle analisi proposte da Giannini, «un qualcosa di assolutamente inedito, un peculiare e diverso artificium che fonda la sua singolarità, in qualche modo emulativa di quella dell’uomo, in una sorta di autonoma creatività sorretta da un paradigma costitutivo ingaggio-esperienza-apprendimento-fare tipica del vivente» (Giannini, 2022, p. 31). Il soggetto artificiale, quindi, «a partire dal proprio linguaggio costitutivo e dalla propria materiale difformità, opererà – e non a caso utilizzo questo verbo per sottolineare ancora una volta che trattasi di questione legata all’agere e non all’intelligere – in maniera del tutto diversa» dall’umano. Capacità di operare-agire del soggetto artificiale che, definitivamente, apre «lo spazio di un altro correlazionale» (ivi, p. 33) il quale, al pari degli altri esseri viventi, ha come prerogativa indefettibile «la capacità di agire» e che, tenendo presente il suo vastissimo spazio agentivo, si presenta come «un Altro attore sintagmatico in cima alla catena operativa» (Giannini, 2023, p. 390).
4. Conclusione
Ruolo egemone, quello assunto dai soggetti artificiali che, spazializzandosi totalmente all’interno della realtà digitale, marginalizzano il ruolo «di Sapiens» e innescano «un suo rifluire all’interno di una dimensione costituita [appunto] da agenti artificiali che non hanno più Sapiens stesso come terminus ad quem, proprio in senso letterale, come confine, primo e ultimo, in corrispondenza del quale un qualcosa si determina» (ivi, p. 393). Allora, stando così le cose, potrebbe proporsi, tenendo presente la natura digitale della realtà, che lo spazio abitativo-agentivo degli umani sia intramato da cima a fondo, per dirla con Giannini, da questa «nuova specie (artificiale)» (ivi, p. 394) che appiattisce ulteriormente le distanze infosferiali e produce, inevitabilmente, l’avvento di spazi abitati da popolazioni ibride composte, appunto, da esseri umani e soggetti artificiali, entrambi costretti a coevolvere in queste nuove forme di realtà con la differenza, però, che è l’umano a doversi adattare all’Altro artificiale e a ciò che esso crea, si tratti di spazi o di nuovi modi di esistere. In questo caso, però, l’Altro con cui abbiamo a che fare non è l’altro appartenente alla nostra specie, non è un animale con il quale abbiamo imparato ad esistere conoscendolo ma, più propriamente e come emerso, esso risulta essere una nuova forma di vita sconosciuta e che, ad una velocità non concessa alla mera vita biologica, cambia/evolve in modi non totalmente deterministici e prevedibili in modi, sempre più, performativi che gli consentono di avere efficaci prese sul reale, tali da modificare-istituire le stesse realtà all’interno delle quali noi, più che co-protagonisti, appariamo essere usufruitori o, al massimo, spettatori. Questa sembra essere l’attuale relazione tra l’umano e l’IA. In questo senso è l’umano a doversi adattare all’Altro artificiale. Una relazione obbligante a cui, anche se non riconosciuta, abbiamo già aderito. È lo stesso vivere quotidiano che, ormai, prevede la presenza di questa nuova specie vivente che, in una certa misura, amministra e guida le nostre stesse vite e a cui non possiamo sottrarci e che, anzi, per continuare a divenire ci impone di stare al suo passo con continui aggiornamenti che, molto probabilmente, richiederanno di dotarci/creare sempre più performanti soggetti artificiali per tenere testa allo stesso loro avanzamento che si declinerà, come già sta avvenendo, in nuove e differenti forme ibridative d’esistenza.
Bibliografia:
A cura di Stefano Quintarelli, Intelligenza artificiale. Cos’è davvero, come funziona, che effetti avrà, Bollati Boringhieri, Torino, 2020.
A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, Attention Is All You Need, Consultabile al sito: Attention is All you Need (consultato Gennaio 2025).
Davide Bennato, La società del XXI secolo. Persone, dati, tecnologie, Laterza, Bari, 2024.
Eliano Pessina, Apprendimento automatico e reti neurali, in a cura di Ernesto Burattini, Roberto Cordeschi, Intelligenza artificiale. Manuale per le discipline della comunicazione, Carocci, Roma, 2001.
G. E. Hinton, S. Osindero, Yee-Whye Teh, A fast learning algorithm for deep belief nets, in Neural Computation, 18, 2006.
Gianluca Giannini, A. Pescapè [L. Lo Sapio], AI e futuro di sapiens, in S&F_n. 27_2022.
Gianluca Giannini, L’epoca dell’immagine artificiale del mondo, in, Segni. Studi in onore di Riccardo De Biase, a cura di Gianluca Giannini, Paola Marangolo e Mattia Papa, tab edizioni, Roma, 2023.
Giuseppe O. Longo, Il nuovo Golem. Come il computer cambia la nostra cultura, Laterza, Bari, 2004.
Marco Somalvico, Intelligenza artificiale, Scienza&Vita, Milano, 1987.
Rino Falcone, Cristiano Castelfranchi, Agenti e sistemi multi-agente, in A cura di Ernesto Burattini, Roberto Cordeschi, Intelligenza artificiale. Manuale per le discipline della comunicazione, Carocci, Roma, 2001.
Risto Miikkulatnen, Generative AI: An AI paradigm shift in the making?, in AI Magazine, Vol. 45, N. 1, 2024.
Stuart Russel, Peter Norvig, Intelligenza artificiale. Un approccio moderno. Vol. 1, Pearson, Milano – Torino, 2021.
Stuart Russel, Peter Norvig, Intelligenza artificiale. Un approccio moderno, Vol. 2, Pearson, Milano – Torino, 2022.