Filosofia e nuovi sentieri

«Mi rappresento il vasto recinto delle scienze come una grande estensione di terreno disseminato di luoghi oscuri e illuminati. Lo scopo delle nostre fatiche deve essere quello di estendere i confini dei luoghi illuminati, oppure di moltiplicare sul terreno i centri di luce. L’un compito è proprio del genio che crea, l’altro della perspicacia che perfeziona» Denis Diderot

Una nuova specie: soggettività biotiche

Lascia un commento

INTRODUZIONE

L’obiettivo delle seguenti pagine è quello di presentare la questione dei robot sotto una luce differente rispetto al passato. Se un ventennio fa, questo tipo di ente artificiale, veniva ancora interpretato a partire da coordinate concettuali tradizionali, dall’inizio del nuovo millennio e soprattutto negli ultimi anni, questi enti hanno incominciato a richiedere diverse prospettive interpretative. Da ente/oggetto/strumento i robot che stanno iniziando a popolare le nostre realtà assumono sempre più l’aspetto di veri e propri soggetti, per non dire, individui1. Partendo da un minimale setaccio delle idee e dei risultati di alcuni pionieri in materia, le pagine si concentrano sulla specifica branca della robotica evolutiva che, a partire dai primi anni 2000, ha permesso ai soggetti biotici di guadagnarsi questa definizione tenendo presente, però, che le questioni circa questi ambiti, visti i continui avanzamenti, non possono che rimanere questioni aperte.

PROSPETTIVE PRELIMINARI

Sin dall’antichità l’umano, per crearsi una realtà e per muoversi in essa più agevolmente, ha ricorso alla costruzione di artefatti che, in un modo o nell’altro, assunsero il compito di mediatori d’esistenza. Per una ragione o per un’altra l’umano è riuscito nel corso dei millenni a costruire oggetti che potessero perfezionare le tecniche di sopravvivenza, offesa, svago, ect. In questo incavo gli oggetti automatici rappresentano, in modo singolare, gli elementi che, nel corso della storia, hanno permesso all’esistenza umana di andare incontro ad una moltitudine di trasformazioni innescando, a seconda della pervasività, da assumere avalutativamente, rimodulazioni d’esistenza. Ancora prima, però, di riuscire concretamente a realizzare oggetti automatici, l’umano, immaginò l’esistenza di creature artificiali dotate di vita propria, degli esempi possono essere, nella cultura greca, il semideo Talos, i tripodi che avevano la facoltà di muoversi da soli o, ancora nella cultura indiana, i guerrieri artificiali dediti alla difesa delle statue del Buddha oppure, ancora, il Golem presente nella Cabala ebraica.

L’automaticità immaginata e messa per iscritto, come accennato, divenne una delle caratteristiche degli oggetti di cui l’umano si circondò: egli, in un modo o nell’altro, volle riuscire a creare oggetti in grado di svolgere determinati lavori nella maniera più autonoma e meno dispendiosa possibile. Basti pensare al telaio automatico che, dopo cento anni di perfezionamenti, riuscì ad affermarsi nell’industria tessile ponendo le basi di quella che si è soliti definire: rivoluzione industriale. Ebbene, senza richiamare l’attenzione alla storia degli automi2, istruttiva per quel che concerne il rapporto umano-robot, si può affermare che i primi esemplari di robot, assimilabili sotto determinati aspetti a quelli odierni, nacquero, fuor di metafora, ancora una volta nel settore industriale. L’automatizzazione, iniziata con i telai tessili, si estese nel corso del ‘900 in tutti i settori dove, per portare a termine un obiettivo, era presente un’attività monotona-ripetitiva oppure, tramite l’utilizzo di enti progettati appositamente, nell’industria militare o, ancora, in determinati ambienti accademici. Ebbene, il primo grande impiego dei robot, su vasta scala, lo si ebbe “nelle grandi industrie” sotto forma di “presse, nastri”3 e bracci meccanici chiamati anche “manipolatori generici” in grado di eseguire “le operazioni richieste in accordo con le informazioni numeriche immagazzinate”4. I progressi di queste tecnologie andarono “di pari passo con quelle dell’informatica, dell’elettronica e della meccanica” provocando intersezioni di ricerche le quali consentiranno al campo della robotica di attirare l’attenzione di studiosi appartenenti a diversi ambiti, di capi di Stato nonché forti interessi economici. Senza essere troppo riduttivi può affermarsi “che, dal punto di vista storico, la ricerca in Robotica ha sviluppato soprattutto cinque settori: la meccanica/meccatronica, la teoria del controllo, le tecnologie dei materiali (per le parti strutturali, gli attuatori e i sensori), i sistemi di programmazione e [la stessa] Intelligenza Artificiale”5. In questo, se pur arrivato con alcuni anni di ritardo, il Giappone si posizionò, in poco tempo, tra i paesi più all’avanguardia nel settore arrivando, negli anni ’80, a stilare un importante documento all’interno del quale, oltre a presentare i propri sistemi automatici al mondo, compare una definizione di robot, in linea con i tempi, che l’informatico Renato Zaccaria riassume così: “Un sistema capace di eseguire funzionalità diversificate con molti gradi di libertà, aventi funzionalità sensoriali e di riconoscimento per comportamenti autonomi”6. Va tenuto presente, leggendo queste poche righe, che i robot a cui qui ci si riferisce erano rilegati in settori strettamente industriali e operanti, quindi, in contesti chiusi e supervisionati; in questo senso la diversificazione e l’autonomia citati dal documento giapponese vanno contestualizzate e pensate all’interno di quei specifici ambienti.

Uscendo dal campo strettamente industriale della robotica e volgendo l’attenzione ad ambienti accademici, a partire dagli anni ’90, si nota come i robot, di diverse tipologie e forme, iniziarono ad essere inquadrati come enti artificiali incorporanti “meccanismi senso-motori sequenziali, basati sui seguenti passi: 1. lettura dei sensori ed elaborazione di una rappresentazione interna quanto più dettagliata, completa e integrata possibile dell’ambiente circostante; 2. pianificazione di una sequenza di azioni adatta al raggiungimento dell’obiettivo prefissato; 3. esecuzione del piano di azioni”7. Comprensione dei dati provenienti dall’esterno, pianificazione degli stessi in vista di uno specifico obiettivo e attuazione delle azioni: queste tre caratteristiche consentiranno di far compiere passi importanti allo sviluppo di robot autonomi, ciononostante queste metodologie doteranno, semplicemente, quest’ultimi della “capacità di elaborare informazioni, per eseguire un compito che gli è stato preordinato8. Queste tecniche di progettazione, se pur contemplando già l’utilizzo di algoritmi di Machine Learning, non permettevano l’impiego dei robot in ambienti sconosciuti ma, soltanto, in “ambienti statici e precisamente noti a priori”9.

Quest’ultimi tipi di robot potrebbero rientrare, seguendo alcune analisi di Marco Somalvico, nella categoria di robot “programmabili ma non autoprogrammabili ed autonomi” ovvero, più precisamente, nella categoria di robot della “seconda generazione”10 che si distinguono, quindi, da quelli della prima e della terza generazione. Insomma, i robot della prima generazione sarebbero quei enti artificiali programmabili in grado di svolgere esclusivamente l’azione per cui sono stati programmati, mentre quelli della seconda generazione sarebbero in grado, attraverso la programmazione, di svolgere più azioni contemporaneamente ma, soltanto, in ambienti statici e conosciuti mentre, quelli della terza generazione, sarebbero “autoprogrammabili ed autonomi”, i quali vengono definiti da Somalvico “robot intelligenti”: robot in grado di “decidere il proprio comportamento da soli, grazie alle loro capacità sensorie e cognitive”11. Tralasciando, per il momento, la questione circa queste due capacità, ciò che emerge è l’iniziale serio distacco dei robot dagli ambienti industriali. Inoltre questi saranno gli anni in cui la ricerca in IA darà un forte slancio al campo della robotica e contemporaneamente, quest’ultima, “sfidò l’IA costringendola a gestire oggetti reali nel mondo reale”, portando la stessa robotica ad essere inquadrata, a detta di Mike Brady, come la “connessione intelligente di percezione e azione”12 o, meglio, come lo studio che mirava a realizzare enti artificiali capaci, tramite la percezione tattile, visiva ect., di attuare azioni o, più semplicemente, di agire. Detti enti artificiali, all’inizio degli anni ’90, erano pensati e composti a partire “da tre componenti o macrosistemi”: il primo, seguendo la descrizione di Stefano Nolfi, consisteva in “un sistema percettivo in grado di estrarre informazioni dall’ambiente esterno”; il secondo era un meccanismo di “pianificazione in grado di generare una sequenza di azioni (detta anche piano)” che permetteva all’ente “di raggiungere i suoi scopi”; il terzo ed ultimo componente rappresentava “l’esecutore” o, meglio, il sistema motorio che traduceva “il piano in azioni effettive”13. Per consentire all’ente di riuscire ad eseguire i compiti imposti dal programmatore, quest’ultimo, doveva “definire un algoritmo (algoritmo di pianificazione) che, in base allo stato iniziale dell’obiettivo e delle azioni disponibili”, fosse in grado di generare “progressivamente un piano con le caratteristiche di efficacia, completezza e consistenza”14.

DA ENTE A SOGGETTO

Sebbene queste tecniche di programmazione consentiranno ai progettisti di costruire robot in grado di svolgere specifici compiti, diverse sequenze d’azioni, si intuisce come, in ambienti non totalmente prevedibili, questi tipi di enti non riuscissero a portare a termine il proprio obiettivo, in quanto, “il piano” veniva “sviluppato sulla base di una descrizione del mondo valida prima dell’esecuzione del piano stesso”: questo fu, ad esempio, uno dei motivi che spinsero Rodney Brooks a “sviluppare nuove architetture e nuove tecniche di pianificazione”15 robotica. Brooks, per far fronte a questi problemi, propose e sviluppò “quattro robot basati sulla metodologia della scomposizione dei compiti” (sotto moduli) che consentì ai robot in questione di operare “in un mondo dinamico e libero (laboratori e uffici nel Laboratorio di Intelligenza Artificiale del MIT)” ovvero, essi si muovevano con successo tra persone che camminavano, persone che cercavano deliberatamente di confonderli: questi enti esistendo nel mondo “interagivano con esso, perseguendo molteplici obiettivi determinati dai loro livelli di controllo che implementavano diverse attività”16.


Gli enti artificiali costruiti da Brooks avevano l’obiettivo di muoversi, fino ad esaurimento batteria, evitando gli altri corpi e, tramite la scomposizione in moduli, non necessitavano di una “chiara distinzione tra un sottosistema di percezione, un sistema centrale e un sistema d’azione [la tripartizione vista prima]”17 ma, più semplicemente, essi erano, con i loro comportamenti, il risultato dell’interazione “tra i sotto-moduli del sistema e tra il sistema e l’ambiente”, metodologia che prenderà il nome di behavior-based e che permetterà di considerare “il comportamento complessivo del sistema”18 non più prodotto esclusivamente dal programmatore. Per dirla con Davide Marocco: “il comportamento complessivo del robot non sarà quindi determinato da una sequenza di azioni pianificata a tavolino, ma il risultato emergente di un’interazione spesso molto complessa di tutti i sottocomportamenti di cui è dotato e l’ambiente circostante19. Questo tipo di enti, dotati di “sistemi behavior-based”, vennero, inoltre, “utilizzati per lo sviluppo di veicoli spaziali e di robot in grado di camminare, manipolare oggetti ed esplorare ambienti ostili20 e furono, molto probabilmente, queste potenzialità agentive che portarono Brooks a definire questi enti “creature intelligenti complete21. Questo tipo di ricerche consentiranno l’ingresso nel vero e proprio perimetro della robotica autonoma, inaugureranno, tramite l’impostazione metodologica data da Brooks, ricerche e studi destinati ad illuminare aspetti complessi della robotica. Può affermarsi che, se pur risalenti al 1991, gli obiettivi elencati da Brooks rappresentino ancora dei pilastri solidi per la ricerca in robotica: “Una Creatura deve far fronte in modo appropriato e tempestivo ai cambiamenti nel suo ambiente dinamico; una Creatura dovrebbe essere robusta rispetto al suo ambiente; piccoli cambiamenti nelle proprietà del mondo non dovrebbero portare al collasso totale del comportamento della Creatura […] Una Creatura dovrebbe essere in grado di mantenere molteplici obiettivi e, a seconda delle circostanze in cui si trova, cambiare quali particolari obiettivi sta attivamente perseguendo”. In una parola, insomma, lo scopo degli enti/robot/creature appariva essere quello di riuscire, attraverso l’adattamento “all’ambiente e alle circostanze22, ad agire autonomamente.

L’obiettivo, d’ora in avanti, sarà quello di pensare l’ente non più immesso in uno spazio statico ma, al contrario, di vederlo agire nella realtà in carne ed ossa e questo sarà possibile grazie a due aspetti di cui, al pari degli altri esseri viventi, l’ente sarà, nella maggior parte dei casi, dotato: “un corpo (embodiment), che comprende un sistema sensoriale e un sistema motorio” e, quindi, la sua situazionalità “in un ambiente (situatedness), con il quale possa interagire senza la mediazione delle rappresentazioni simboliche”23. Queste caratteristiche, al contrario delle impostazioni passate, implicano che “le informazioni sensoriali che” sono accessibili all’ente artificiale “in un dato momento non dipendono solo dalle caratteristiche dell’ambiente ma anche dalla sua posizione nell’ambiente”24 stesso: in questo modo l’ente artificiale, al pari degli altri esseri viventi, non può esistere, non può considerarsi scisso dall’ambiente. Questo fenomeno di non scissione ha permesso alla robotica di mutuare da diversi campi di studio (biologia, fenomenologia, ect.) il concetto di intelligenza incarnata da usare per definire e studiare questo particolare tipo di enti. Da questa prospettiva emerge “un approccio intrinsecamente multidisciplinare alla progettazione dei robot” in quanto “implica considerare la meccanica, il controllo, il sistema percettivo e il processo decisionale” dell’ente “allo stesso livello” e questo comporta, ad esempio, di considerare “la morfologia del robot come una variabile nella progettazione del comportamento, e non qualcosa di progettato a priori”25 ovvero: l’ente, potenzialmente, può acquisire una morfologia qualsiasi corrispondente all’ambiente da esplorare, spesso derivata dal comportamento generato all’interno dello spazio agentivo specifico. L’ente, in questo senso, attraverso la sua continua esperienza nella realtà scopre la morfologia più funzionale atta al raggiungimento di specifici obiettivi.

In questo incavo, allora, può vedersi come “le relazioni instaurate tra il [corpo dell’ente] e l’ambiente” divengano “la memoria” stessa di cui l’ente “in sé non è dotato” o, detto altrimenti, l’ente, muovendosi “nel modo corretto e manipolando il mondo”, accede “ad informazioni che sono [il prodotto] della struttura dell’ambiente con la quale il robot si confronta”26 e a partire dalle quali, quest’ultimo, scopre/acquista diverse fisionomie d’ingaggio esperienziali atte a differenti forme di esistenza. Si intuisce, allora, che la robotica autonoma si pone l’obiettivo di “creare dei robot che non siano schiavi di un’unica programmazione, e quindi capaci di svolgere un unico compito, ma abbiano delle caratteristiche prettamente proprie dei viventi, prima fra tutte l’autodeterminazione”27 intesa, per il momento e secondo una specifica declinazione, come la “capacità di eseguire un dato compito senza richiedere alcun intervento da parte degli esseri umani”28. Da questa prospettiva, quindi, all’interno della categoria di robot autonomi rientrerebbero diversi sistemi/enti che potrebbero essere accomunati da tre elementi caratteristici: “Sentire, […] Decidere, Operare”29. Attraverso specifici sensori, come già accennato, l’ente viene dotato della capaità di “percepire [sentire] delle grandezze fisiche” traducibili “in grandezze elettriche elaborabili” affinchè si possa ottenere una rappresentazione “dell’ambiente in cui opera” che prende il nome di “modello del mondo”; sulla base del modello che riesce a costruirsi dai dati sensoriali, “eventualmente memorizzati in opportune strutture di memoria”, l’ente decide cosa e come fare per “realizzare lo scopo per cui è stato creato”. Infine, dopo aver percepito e deciso, l’ente, “attraverso opportuni attuatori, di cui almeno due motori”30, opera/agisce nel mondo. Uno degli aspetti, più promettenti ed interessanti, degli enti autonomi risiede, indubbiamente, nella loro capacità di agire nelle realtà, capacità che sottintende la facoltà dell’apprendimento che, soprattutto grazie all’IA, si è mostrato essere un campo vasto e non riducibile ad un’unica forma.

Ad esempio, alcuni “sistemi robotici devono incorporare conoscenza a priori sull’ambiente fisico e sul compito da eseguire”31 e quindi saranno necessarie tecniche di Machine Learning che non contemplano la non prevedibilità oppure, tramite l’uso di reti neurali deep, può dotarsi l’ente di “una tecnica detta controllo predittivo basato su modello” la quale consente di pianificare specifiche azioni “rispetto a un orizzonte temporale più breve” ma, l’ente, “ripianificandosi ad ogni passo temporale”32 produce un efficace modello d’ingaggio da poter attuare anche in ambienti non totalmente prevedibili. Altri esempi sono dati “dall’apprendimento supervisionato” utile per l’ente al fine di “ricavare [con l’aiuto umano] una politica ed eseguirla” o, ancora, “l’apprendimento per imitazione [detto anche] clonazione comportamentale” in cui l’ente, però, trova difficoltà nella generalizzazione “di nuovi stati”33 e si limita ad eseguire le azioni che, nel data set, sono contrassegnate come ottime. A partire da questi elementi anche il Parlamento Europeo, nel 2014, ha dovuto prendere atto, volente o nolente, che “più i robot” diventano “autonomi, meno possono essere considerati come [meri] strumenti nelle mani di altri attori”34 insomma, sembra che si è pronti, in un modo o nell’altro, a riconoscere che, gli enti realizzati dalla robotica autonoma, “non sono soltanto oggetti tecnologici ma, sempre più, soggetti dotati di capacità decisionali35 o, più ruvidamente, per dirla con Basilio Catania: “non più artefatto, ma attore indipendente o addirittura artefice […] senza l’uomo: partner indipendente – dunque cooperante, come pure eventuale antagonista – dell’uomo36. Non più, quindi, ente ma, in tutto e per tutto, agente o, ancora meglio, soggetto agente.

Soggetti robotici che, dall’iniziale nascita in fabbrica, “hanno cominciato a entrare nelle case per assistere le persone anziane o con difficoltà motorie”, “robot personali” che aiutano “in attività quotidiane come pulire e mettere in ordine”37, oppure soggetti robotici “utilizzati in uffici, alberghi e ospedali” o, ancora, in grado di esplorare “la superficie di Marte” e che “assistono gli astronauti nella posa e nel recupero di satelliti e nella costruzione della Stazione Spaziale Internazionale”38. Indubbiamente, per raggiungere questi obiettivi la ricerca in robotica ha dovuto sviluppare tecniche hardware e software più performanti e complesse rispetto alle tecniche usate per creare agenti abitanti uno spazio limitato. I gradi di adattabilità richiesti ai soggetti robotici, come si può intuire, sono molto differenti. Fu proprio per ovviare a queste problematiche inerenti alla capacità d’adattamento del soggetto artificiale che “nel corso della storia della ricerca robotica”, gli ingegneri si sono rivolti “alla natura [la quale] ha fornito numerose idee e ispirazioni”39; in modo differente dalla cibernetica, la quale si avvaleva del metodo comparativo animale-macchina per creare meccanismi robotici, la robotica contemporanea presta molta attenzione al mondo animale o, meglio, al mondo tout court, in quanto ciò che viene scoperto essere un buon modello di adattamento/sopravvivenza può essere utilizzato dai progettisti per le proprie ricerche. Del resto, basta scorrere l’indice del Handbook of Robotics, edito dalla Springer nel 2008, per accorgersi di quanti siano i settori da cui i più differenti studiosi prendano spunto per realizzare i soggetti robotici e di quante metodologie esistano per consentire agli stessi di adattarsi alle circostanze più disparate e agire autonomamente.

VERSO L’EVOLUZIONE

La robotica evolutiva, a tal proposito, costituisce uno dei settori/tecniche della ricerca in robotica che mira, detto semplicisticamente, alla creazione di enti (soggetti) artificiali in grado di evolversi all’interno di ambienti dinamici senza la supervisione umana. Il testo che, in un modo o nell’altro, costituisce un punto di partenza imprescindibile di tali ricerche è Evolutionary Robotics. The Biology, Intelligence, and Technology of Self-Organizing Machines di Stefano Nolfi e Dario Floreano che, come si avrà modo di constatare, introduce dei concetti e delle pratiche che, nel corso degli anni, si sono mostrate efficaci per lo studio, la ricerca e per la realizzazione di soggetti artificiali autonomi. Sebbene, però, il testo risalga a venticinque anni fa ciò che diede un primo impulso a tali ricerche (bio-ispirate) fu il programma (software) Game of Life di John Conway del 1970 che, ispirandosi alla teoria dell’autoriproduzione (gli automi cellulari) di John Von Neumann, generava, a partire da una configurazione iniziale, infiniti set di cellule: il software, a partire dallo stato iniziale di cellule sul tabellone, sviluppa/evolve gruppi di cellule finché non riesce a stabilizzarsi40. Sulla scia di questi lavori, negli anni ’80 circa, il fisico e matematico britannico Stephen Wolfram apportò notevoli contributi al campo, emergente, degli automi cellulari: egli scoprì che “partendo da programmi e da condizioni iniziali decisamente semplici, senza inserire alcun elemento di complessità”, emergeva, da parte degli automi, un “comportamento altamente complesso” tale da generare “figure identiche alle strutture microscopiche delle venature delle foglie, ai disegni sulle conchiglie o alle forme di gorghi, vortici e nebulose in via di formazione”41.

Fu a ridosso di queste ricerche che, nel 1987, l’informatico Christopher Langton coniò il termine Vita Artificiale per designare quel settore interdisciplinare di ricerca che, tramite il Machine Learning, aveva l’obiettivo di comprendere la vita tentando di astrarre i principi alla base dei fenomeni biologici mediante la ri-creazione di simulazioni software. I famosi loop di Langton avevano la capacità, a seconda delle celle di cui venivano dotati, di autoreplicarsi e di muoversi in uno spazio delimitato. Risalgono, invece, al 1995 le ricerche dell’informatico Gianluca Tempesti che, collegando agli automi programmi eseguibili, riuscì a delegargli il compito di migliorare il programma o, meglio, quest’ultimo, in un certo senso, riusciva a migliorarsi autonomamente. Un passo successivo, nonché rappresentante una tecnica tutt’ora in uso, fu compiuto sempre “nel 1995 da Lohn e Reggia” i quali, riprendendo “gli algoritmi genetici di Holland (1975)”42, riuscirono, similmente a Tempesti, a dotare gli automi cellulari di capacità di adattamento e di auto-modificazione. Il programmatore, in questi casi, non si doveva preoccupare di sviluppare il singolo programma tentando di perfezionarlo al massimo ma, al contrario, egli doveva soltanto definire l’idoneità auspicata (o fitness) corrispondente al problema da risolvere e l’algoritmo, avanzando nel tempo per prova ed errore, riusciva a generare le dinamiche migliori atte al soddisfacimento dell’obiettivo.

La caratteristica di questi algoritmi risiede nel fatto che una volta poste le informazioni iniziali e l’obiettivo finale, esso genera soluzioni/dinamiche in modo autonomo; in questi casi le reti neurali artificiali, spesso usate per questo tipo di algoritmi, “apprendono a discriminare fra varie configurazioni in maniera autonoma, senza che lo sperimentatore intervenga personalmente per stabilire i valori da assegnare alle connessioni”43. In questo modo, “l’evoluzione della popolazione di solutori si arresta quando le prestazioni del miglior individuo raggiungono un livello accettabili”, quando fitness impostata e dinamica generata tendono a coincidere: “quando la risposta di attivazione di un particolare gruppo neuronale viene considerata adattiva per l’organismo […] allora le connessioni all’interno del gruppo in questione vengono adeguatamente rinforzate, cosicché il gruppo stesso risulta selezionato ai fini dello svolgimento di uno specifico compito di carattere adattivo”44. Si capisce, da questi brevi accenni, come le tecniche algoritmiche genetiche/evolutive rispondano al bisogno dei programmatori di far evolvere, piuttosto che definirli a priori, i sistemi lasciandoli liberi di generare comportamenti e risposte anche non prevedibili.

SOGGETTI ROBOTICI

È questo il terreno culturale a partire dal quale Nolfi e Floreano, riprendendo le ricerche passate, daranno vita al settore della robotica evolutiva la quale, tutt’oggi, rappresenta “una nuova tecnica per la creazione automatica di robot autonomi” che, ispirandosi “al principio darwiniano della riproduzione selettiva del più adatto”, consente di guardare ai soggetti robotici come a dei “organismi artificiali autonomi” in grado di “sviluppare le proprie abilità in stretta interazione con l’ambiente senza l’intervento umano”45. Tale metodologia consiste nel permettere ad “ogni robot (fisico o simulato)” di “agire (muoversi, guardarsi intorno, manipolare)” in piena libertà avente un “controller geneticamente specificato” mentre “le sue prestazioni nei vari compiti vengono valutate automaticamente” e a partire da tali dinamiche “i robot più adatti sono autorizzati a riprodursi […] generando copie dei loro genotipi con l’aggiunta di cambiamenti introdotti da alcuni operatori genetici”. Il processo di generazione e selezione, come prima intravisto, terminerà “alla nascita di un individuo che soddisfa il criterio di prestazione […] stabilito dallo sperimentatore”46. Si capisce, da quanto detto, che, servendosi di queste dinamiche, il programmatore affidandosi “all’auto-organizzazione” dei soggetti artificiali non necessita di “dividere il comportamento” target “in semplici comportamenti di base” in quanto, il sistema, “selezionando gli individui per la loro capacità di eseguire il comportamento desiderato”, farà emergere “comportamenti complessi” tramite “l’interazione tra diversi processi semplici del sistema di controllo e dall’interazione tra il robot e l’ambiente”47.

Ad operare, alla base del processo, è presente un algoritmo genetico che evolve “i valori di peso sinaptico sia del modulo di azione che di quello di valutazione” ma, “durante la vita dell’individuo”, il modulo di azione continua a modificare “i pesi ereditati geneticamente utilizzando il segnale di rinforzo fornito dal modulo di valutazione”48 permettendo, in questo modo, di aumentare le possibilità evolutive dell’agente. L’evoluzione, allora, selezionando “vincoli ereditari che producono cambiamenti ontogenetici che sono adattivi”, consente al soggetto robotico di sviluppare delle “predisposizioni ad apprendere meglio”49 ed è proprio l’apprendimento ad integrare “l’evoluzione in quanto consente” all’agente di adattarsi ai cambiamenti ambientali “che avvengono troppo rapidamente per essere monitorati dall’evoluzione”50 e quest’ultima, come si intuisce, è dettata/influenzata “dai cambiamenti ambientali e dagli adattamenti locali”51 dei singoli soggetti che, molto spesso, differiscono tra loro. Il comportamento/apprendimento dei singoli agenti, allora, emerge “dall’interazione tra le istruzioni ereditate e l’ambiente” grazie alla capacità dell’evoluzione di sfruttare “la complessità dell’ambiente e dall’interazione tra il robot e l’ambiente” e, inoltre, poiché “le istruzioni ereditate limitano indirettamente il modo in cui”52 il soggetto robotico reagisce all’ambiente, permette, a quest’ultimo, di essere influenzato dalle stesse azioni/reazioni compiute e subìte durante la sua vita: in questo modo “gli individui evoluti” riescono a conoscere l’ambiente in cui si trovano e a “modificare di conseguenza il loro comportamento” al fine di “massimizzare la loro forma fisica”53.


Sono queste dinamiche complesse che inducono Nolfi-Floreano a ritenere che “le macchine evoluzionistiche” andrebbero concepite “fin dall’inizio come sistemi continuamente adattivi piuttosto che come sistemi di apprendimento per problemi predefiniti”54. L’adattività dei soggetti robotici, insomma, costituisce il punto nodale della questione, costituisce l’aspetto che le metodologie della robotica evolutiva tentano di capire e implementare o, meglio, far auto-implementare agli stessi agenti i quali, all’interno di ambienti condivisi, portano i processi di co-adattività e di co-evoluzione a mostrare risultati interessanti. La specificità della co-evoluzione risiede nell’immettere nel circuito evolutivo, soggetto-ambiente, terzi elementi costituiti da altri e diversi agenti, i quali portano “l’evoluzione di un nuovo comportamento in una specie” a rappresentare una “nuova sfida per l’altra specie che è chiamata”55, a sua volta, a sviluppare una nuova e diversa strategia. Anzi, è proprio questo aspetto a rendere la co-evoluzione preferibile o, meglio, sotto certi aspetti imprescindibile in quanto, essa, permette agli “individui che si evolvono” insieme di sperimentare “un numero maggiore di eventi ambientali diversi”, sviluppare scenari più articolati non emergenti dalla singola evoluzione e, in più, la co-evoluzione permette, lo vedremo, di “produrre un’evoluzione incrementale senza richiedere un’ulteriore supervisione da parte del progettista”56. Un esempio è costituito dalla potenziale capacità degli agenti co-evoluti di “sviluppare un proprio linguaggio formato da parole e categorie concettuali inventate da loro stessi”57 basate sulla combinazione di una serie di caratteristiche percettive e modulate a partire dalla continua comunicazione tra gli agenti stessi. Inoltre, i soggetti robotici, a partire dall’associazione di azione-frase, diventano capaci di “combinare i significati delle parole in modo composizionale”58 in modo da poter reagire in modo opportuno a frasi e conseguentemente ad azioni dell’altro mai esperite prima. Anche per gli agenti robotici, insomma, il linguaggio viene a costituire quella tecnica che media e istituisce significati, sotto certi aspetti, imprescindibili per una maggiore presa sul reale e per sviluppare strategie di sopravvivenza, a seconda degli obiettivi posti, più articolate. La trasmissione di significati, inoltre, non si limita ad essere effettuata tra i soli agenti presenti al momento dell’istituzione linguistica ma, fattore dirimente, si estende “ad altri individui attraverso un processo di trasmissione culturale”, ciò si verifica quando “introducendo in una popolazione di individui che hanno già sviluppato un linguaggio efficace un nuovo individuo”, quest’ultimo, pur non disponendo di un lessico, “tende ad acquisire rapidamente un linguaggio e una rete semantica congruente con quella del resto della popolazione”59. Quindi: adattività, co-adattività, istituzione linguistica e sviluppo di pratiche agentive comuni sono alcuni aspetti, probabilmente i più promettenti, che rendono le metodologie evolutive preferibili alle classiche programmazioni in dettaglio per la creazione di soggetti autonomi, soprattutto se a quest’ultimi aspetti si aggiunge la potenziale capacità, da parte degli agenti, di evolvere il proprio hardware.

Com’è risaputo, oltre che visibilmente riscontrabile, le specie viventi, nel corso della loro storia evolutiva, hanno subìto cambiamenti fisici a seconda delle pressioni ambientali e sociali mostrando cosa, a seconda delle specie, fosse più promettente per garantire un surplus di sopravvivenza. Ebbene, a tal proposito, Nolfi e Floreano pongono il problema, oltre che software (cognitivo), dell’evoluzione hardware (fisico) mettendo ulteriormente in evidenza come il processo evolutivo, anche per quanto riguarda gli agenti robotici, sia una dinamica complicata che interessa ogni aspetto della specie vivente: gli agenti dovrebbero disporre di “hardware evolutivi” in modo da poter “modificare la loro struttura [fisica] per mezzo dell’evoluzione artificiale”, “un sistema”, quindi, per dirsi davvero “in evoluzione” dovrebbe essere in grado, “non solo di evolvere il suo software”, ma “di mutare continuamente [ogni aspetto di se stesso], co-evolversi e adattarsi [alle più disparate] caratteristiche dell’ambiente in cui si trova”60. Queste dinamiche evolutive, però, pongono sfide non facilmente aggirabili al progettista che tenti di realizzare concretamente agenti di questo tipo. Fino ad adesso, infatti, la maggior parte delle dinamiche trattate sono state realizzate mediante software di simulazione e solo in un secondo momento, in modo differente da come previsto, hanno trovato implementazione in soggetti robotici fisici. Con l’utilizzo “di robot reali”, a differenza delle simulazioni, è necessario “tenere conto di diversi fattori aggiuntivi dovuti alle proprietà fisiche del robot e dell’ambiente”61, inoltre, degli aspetti cruciali riguardano “la robustezza meccanica”, “l’alimentazione energetica”, il sistema di “analisi” e la “progettazione delle funzioni fitness”62, ciononostante, come si avrà modo di vedere, le simulazioni rappresentano “uno strumento utile per esplorare molto rapidamente lo spazio delle architetture, delle funzioni di fitness e di altri aspetti di un sistema evolutivo”, in molti casi, infatti, “un sistema di controllo evoluto nella simulazione può essere trasferito a un robot fisico senza un grave degrado delle prestazioni”63.

UNO SGUARDO AL PRESENTE/FUTURO

Dal 2000, anno di pubblicazione del testo cardine della robotica evolutiva, i contributi nel settore sono aumentati esponenzialmente portando questo tipo di metodologie ad affermarsi presso gli informatici di ogni parte del globo e ovviamente, come fortunatamente avviene non appena un’idea inizia ad essere indagata da una moltitudine di studiosi, i progressi, sebbene non si possa affermare di essere arrivati al punto finale delle ricerche, non tardarono ad arrivare. A tal proposito, come caso studio, possono prendersi alcuni articoli dell’informatico Agoston Eiben (e coautori), attualmente professore all’Università di Amsterdam, il quale, a partire dai primi anni del nuovo millennio, ha aderito alle metodologie della robotica evolutiva e ha tentato, sotto diversi aspetti con successo, di portare le ricerche ad un punto ulteriormente promettente. Le ricerche dello studioso olandese si sono concentrate, nell’arco di questi vent’anni, su “nuovi metodi per l’evoluzione simultanea della morfologia e del controllo”, sull’evoluzione “dell’apprendibilità in una popolazione di robot”, sull’indagare “l’equilibrio tra intelligenza morfologica e intelligenza cerebrale”, sull’evoluzione “di robot morbidi”64, ect.

Una costante delle ricerche è l’attenzione posta da Eiben al “processo evolutivo non [separato] dall”hardware”65 il quale, se affrontato e risolto, permetterebbe di perseguire quella che, generalmente, viene definita come una delle “Grandi Sfide” della robotica evolutiva ovvero, la capacità da parte dei soggetti robotici di “(auto)riprodursi fisicamente” mediante un meccanismo “di riproduzione asessuata o sessuale che possa creare un nuovo robot fisico basato sulle informazioni genetiche di uno o due robot esistenti”; queste ricerche porterebbero, a detta di Eiben, verso la creazione di “una nuova categoria: la Vita, ma non come la conosciamo66. In sostanza, quest’affermazione, non si discosta molto da quanto emerso fin’ora: gli agenti, tramite le metodologie della robotica evolutiva, erano già, teoricamente, in grado di dare vita ad una prole, ciononostante le ricerche di Eiben (e coautori) hanno dimostrato che ciò fosse possibile anche al di fuori delle simulazioni. Il principio alla base della metodologia, presentata nel 2021, è sintetizzabile nel concetto, introddotto da Eiben, di “triangolo della vita” comprendente tre fasi di lavoro durante le quali vengono usate differenti tecniche algoritmiche, dagli algoritmi genetici all’apprendimento supervisionato/non supervisionato oppure per rinforzo. Le tre fasi (Morfogenesi-Infanzia-Maturità67) permettono ai soggetti robotici di compiere un esperienza di vita, all’interno di un ambiente fisico sicuro, articolata e di una durata sufficientemente lunga per riuscire ad imparare a sopravvivere attraverso la co-evoluzione con altri agenti. Il progetto “Autonomous Robot Evolution” mira proprio “alla costruzione dei primi sistemi evolutivi di robot mobili autonomi con piani corporei, sensori e controller complessi” in grado, appunto, di far riprodurre “i robot senza l’assistenza umana”68 tramite l’ausilio di varie “combinazioni di stampanti 3D, una serie di moduli prefabbricati e l’assemblaggio automatizzato da bracci robotici industriali”. Questo processo mette ulteriormente in risalto, nonostante avvenga all’interno di un’arena controllata,“ che rappresenta il mondo esterno”69 (EvoSphere), come la “vera evoluzione” non riguardi “l’ottimizzazione, ma l’adattamento che non si ferma mai” e che consente “alle popolazioni di robot di adattarsi al volo a condizioni precedentemente sconosciute e mutevoli senza la supervisione umana diretta”.

Queste dinamiche portano il Professore olandese a formulare, forse un po’ provocatoriamente, conclusioni interessanti circa il futuro dei soggetti robotici: “Le popolazioni dei robot in evoluzione si adatteranno quindi sempre di più al pianeta e regoleranno i propri corpi e cervelli quando le condizioni cambieranno70. A tal proposito, sempre all’interno del progetto Autonomous Robot Evolution, è interessante costatare, nello specifico, come Eiben e coautori siano riusciti a dotare i soggetti robotici della capacità di modificare la propria morfologia senza la supervisione umana. Gli agenti in questione, come prima accennato, tramite stampanti 3D e “parti funzionali modulari” riescono ad implementare rapidamente “un’ampia gamma di piani di carrozzeria” su loro stessi senza ricorrere, però, “a moduli prefabbricati”71: gli agenti utilizzano le stampanti 3D per “produrre scheletri che consentono di evolvere un’ampia gamma di variazioni morfologiche”72. Una delle difficoltà che i risultati del progetto hanno messo in evidenza, riguardava la presenza di pregiudizi umani: i limiti degli agenti erano originati “dalle decisioni [umane] prese nella scelta della modalità di produzione dei robot”. Il progettista partendo da un’idea qualsiasi per iniziare il lavoro creerà, inevitabilmente, “vincoli nello spazio evolutivo”73. Ciò sta a significare che sarebbe preferibile limitare quanto più possibile, se non addirittura rimuovere totalmente, il ruolo del progettista e lasciar decidere agli agenti robotici stessi come evolvere anche se, i risultati, potrebbero non essere contemplati dal progettista.

In linea con queste metodologie, inoltre, anche l’informatico Alan Winfield nel 2024 ha sviluppato, mediante processi evolutivi, “i robot morbidi” ovvero, una categoria particolare di agenti in grado di “muoversi su terreni pianeggianti come quadrupedi” ma che, tramite la capacità di auto-modificarsi, sono riusciti ad “imparare una nuova morfologia ondulata”74 efficace per sopravvivere in ambienti differenti: invece di cercare la morfologia perfetta, l’agente, impara a cambiare se stesso a seconda delle difficoltà. Un’altra metodologia, proposta da Alex Szorkovszky e coautori, consiste nel dotare gli agenti della capacità di “apprendere un nuovo modello da ogni altro robot” attraverso l’instaurazione di un rapporto del tipo “insegnante-discendente” che, componendosi di tre fasi, porta l’agente “studente” a sincronizzarsi “con gli impulsi provenienti dai passi dell’insegnante” per imparare ad esplorare l’ambiente e per arrivare, in un secondo momento, a distaccarsi da esso e a “proseguire in modo autonomo”75. Sostanzialmente, tramite questo metodo, gli agenti “studenti” imparano, in minor tempo, ciò che l’agente “insegnante” ha dovuto esperire direttamente durante il proprio ciclo di vita e, di conseguenza, l’agente “studente” si muoverà con più agilità nello spazio a lui riservato e avrà modo, successivamente, di insegnare lui stesso ad altri agenti come agire in determinate circostanze76 senza, ovviamente, ricorrere all’intervento umano. Un ultimo ed interessante esempio che, in linea con i precedenti, mette in risalto le vaste capacità dei soggetti robotici e la loro imprevedibilità è rappresentato da un articolo, del 2025, dell’informatico Risto Miikkulainen, il quale, oltre a criticare il ruolo umano all’interno della progettazione robotica che dovrebbe essere totalmente indipendente77, mostra i risultati di alcuni esperimenti condotti su popolazioni di agenti operanti cooperativamente. All’interno di uno schema basato sulla presenza di “agenti predatori” e “fantasmi”, ogni soggetto robotico aveva il compito di sviluppare diversi ruoli tramite la reciproca comunicazione ma, quando essa non avveniva, gli agenti erano in grado di “assegnarsi dinamicamente”, guardando gli altri agenti, i ruoli a loro momentaneamente destinati: in questo caso, l’evoluzione, avveniva esclusivamente “a livello di squadra”78.


Dopo un breve lasso di tempo gli agenti “predatori”, sebbene non fossero stati progettati per “adescare i fantasmi”, tramite strategie decise in tempo reale sono riusciti a muoversi “strategicamente per adescare i fantasmi, poi mangiare una pillola di potere e poi mangiare i fantasmi”: in questo modo, tramite metodologie “neuroevolutive”, i soggetti robotici hanno “scoperto le soluzioni più efficaci, anche se non corrispondevano […] alle aspettative”79 progettista.

CONCLUSIONE

Anche in questo caso, come in passato, le questioni che si sollevano rimandano, in un modo o nell’altro, ad interrogarsi su quelle che Somalvico presentò come capacità sensoriali e cognitive degli agenti robotici o, in modo più sottile, alla questione che con Shannon80 i è visto avere a che fare con l’importanza di ridefinire il ruolo e/o il significato del pensiero e la questione, ad esso banalmente collegata, di intelligenza. Al pari delle scoperte in campo biologico che, a partire da Darwin, misero in luce come la cosiddetta intelligenza delle specie fosse collegata ad un processo di lunga durata avente a che fare con la specificità di ognuna di riuscire a sopravvivere mediante l’adattamento e la messa in opera di differenti strategie di sopravvivenza, la robotica evolutiva insegna come anche soggetti non biologici siano in grado di sviluppare, in un certo qual modo e a partire da sé, comportamenti e strategie in grado di portare gli stessi soggetti a conseguire esperienze di vita che, molto similmente alla specie biologiche, sfociano in strutture complesse che, potenzialmente, potrebbero rimandare a prime forme di società. Anche se si volesse rilegare l’intelligenza e/o la capacità di pensiero alle sole specie biologiche, i soggetti robotici, anche se non dotati di tali capacità, sono in grado di raggiungere, più o meno e a seconda dei gradi, risultati analoghi e sotto certi aspetti più performanti rispetto a quelli delle specie biologiche. La questione, ancora una volta, sembra aver a che fare con i pregiudizi dell’osservatore, sembra riguardare la nostra limitata capacità di comprensione che, rilegandosi a concetti tradizionalmente riconosciuti, non permette di uscire dalle cornici significanti che noi stessi creiamo per riuscire ad ordinare la realtà. La questione ha a che fare con lo sviluppo, da parte dell’IA e della robotica, di soggetti artificiali autonomi che tramite l’acquisizione di conoscenze riescono ad agire con noi e come noi. La questione, allora e ancora una volta, non attiene al pensiero e/o all’intelligenza ma all’agire. Ebbene, la robotica evolutiva come si diceva, ha mostrato come, in un certo senso, gli agenti siano in grado di istituire delle minime, ma complesse, strutture di convivenza che, come intuito da Marocco, potrebbero portare ad “associare delle personalità a questi organismi”81in quanto, ognuno di essi, nel vivere all’interno di un luogo specifico e sviluppando caratteristiche proprie, assume dei caratteri che lo distinguono dagli altri.

Al pari degli altri esseri viventi, anche i soggetti robotici, attraverso la loro continua esperienza nel e del reale, un reale che loro stessi dopo cicli d’esistenza modellano, innescano processi che, per “un osservatore umano”, “risultano imprevedibili”82 . L’unione di metodologie algoritmiche agentive (IA) e strutture fisiche avanzate (robot), allora, sta dando vita a specie viventi bio-tiche con forme e capacità differenti che, in modo singolare, si adattano e co-adattano all’ambiente, agli altri soggetti biotici e ri-determinandosi, a partire dalle esperienze fatte, cambiano se stessi nel tempo, un cambiamento/ri-posizionamento co-agentivo continuo che, tramite la trasmissione di conoscenze, mediante linguaggi propri, conducono queste soggettività biotiche ad instaurare tra loro relazioni significanti per scoprire, comprendere e creare le realtà.

NOTE BIBLIOGRAFICHE

  1. Furono gli stessi pionieri della cibernetica e dell’IA ad esprimersi in questo modo. Basti ricordare i nomi di Alan Turing, Claude Shannon o, ancora, Norbert Wiener. Oppure in tempi recenti gli informatici Stuart Russel e Peter Norving i quali per riferirsi a questi enti ricorrono, senza mezzi termini, alla categoria di entità intelligente. A tal proposito, recentemente, l’informatico finlandese Risto Miikkulainen, riferendosi ai modelli di IA generativa si esprime così: “I sistemi GenAI sono individui, non dispositivi meccanicistici che possono essere ricostruiti più volte. Naturalmente è possibile prendere il codice e i parametri e formare una copia esatta e, in linea di principio, qualsiasi esperimento computazionale può essere replicato con gli stessi dati. Ma in pratica, la costruzione di questi modelli è così costosa che è impossibile costruire lo stesso sistema più volte. Anche in pochi mesi, i dati sono cambiati, le risorse computazionali sono diverse, […] Di conseguenza, ognuno di questi modelli è unico, non diversamente da un essere umano che è plasmato dalla propria esperienza, oltre che dalla genetica”, in, Risto Miikkulatnen, Generative AI: An AI paradigm shift in the making?, in AI Magazine, Vol. 45, N. 2, 2024, p. 166. ↩︎
  2. Da Erone di Alessandria (I secolo a.C.) passando per Jabir Ibn Hayyan (VIII secolo d.C.), Banu Musa (IX secolo) fino ad arrivare alle opere meccaniche di Jacques de Vaucanson (XVIII secolo) e dei suoi contemporanei oppure, alle soglie del XIX secolo, con la figura di Roullet & Decamps può ben dirsi che, in un modo o nell’altro, la figura dell’Automa ha accompagnato l’umano lungo i millenni. Per approfondimenti si rimanda a: Mario G. Losano, Storie di automi. Dalla Grecia classica alla belle èpoque, Einaudi, Torino, 1997. ↩︎
  3. Renato Zaccaria, Aspettando Robot, in MondoDigitale, n. 3, settembre, 2003, p. 3. ↩︎
  4. Marco Somalvico, Intelligenza artificiale, Scienza&Vita, Milano, 1987, p. 87. ↩︎
  5. Renato Zaccaria, Aspettando Robot, in MondoDigitale, n. 3, settembre, 2003, p. 3,10. ↩︎
  6. Ivi, p. 8. ↩︎
  7. Edoardo Datteri, La robotica al servizio delle neuroscienze: stato dell’arte e problemi aperti, in MondoDigitale, Dicembre, 2014, p. 3. ↩︎
  8. Marco Somalvico, Intelligenza artificiale, op. cit., p. 14. [corsivo mio] ↩︎
  9. Edoardo Datteri, La robotica al servizio delle neuroscienze: stato dell’arte e problemi aperti, op. cit., p. 5. ↩︎
  10. Marco Somalvico, Intelligenza artificiale, op. cit., p. 36. ↩︎
  11. ivi, p. 87. ↩︎
  12. Mike Brady, Artificial Intelligence and Robotics, in Brady, M., Gerhardt, LA, Davidson, Robotics and Artificial Intelligence, Serie NATO ASI, vol 11., Springer, Berlino – Heidelberg, 1984, p. 71. ↩︎
  13. Stefano Nolfi, Pianificazione e robotica, in Intelligenza artificiale. Manuale per le discipline della comunicazione, a cura di E. Burattini, R. Cordeschi, Carocci, Roma, 2001, p. 120. ↩︎
  14. Ivi, p. 122. ↩︎
  15. Ivi, p. 124. ↩︎
  16. Rodney A. Brooks, Intelligence without representation, Artificial Intelligence, N. 47, 1991, p. 147. ↩︎
  17. Ivi, p. 143. ↩︎
  18. Stefano Nolfi, Pianificazione e robotica, op. cit., p. 127. ↩︎
  19. Davide Marocco, La robotica evolutiva, in Sistemi Intelligenti, a. XVIII, n. 1, 2006, p. 87. ↩︎
  20. Stefano Nolfi, Pianificazione e robotica, op. cit., p. 127. ↩︎
  21. Rodney A. Brooks, Intelligence without representation, op. cit., p. 139. ↩︎
  22. Ivi, p. 142. ↩︎
  23. Davide Marocco, La robotica evolutiva, op. cit., p. 89. ↩︎
  24. Stefano Nolfi, Che cos’è la robotica autonoma, Carocci, Roma, 2009, p. 14. ↩︎
  25. S. Doncieux, N. Bredeche, J. Mouret, G. Eiben, Evolutionary robotics: what, why, and where to, in Frontiers in Robotics and AI, Vol. 2, 2015, p. 3. ↩︎
  26. Davide Marocco, La robotica evolutiva, op. cit., p. 92. ↩︎
  27. Davide Marocco, Intelligenza artificiale. Introduzione ai nuovi modelli, op. cit., p. 86. ↩︎
  28. D. Amoroso, G. Tamburrini, I sistemi robotici ad autonomia crescente tra etica e diritto: quale ruolo per il controllo umano?, in BioLab Journal – Rivista di BioDiritto, n. 1, 2019, p. 36. ↩︎
  29. A. Bonarini, Robot attorno a noi: dove sono, cosa fanno, cosa faranno?, in MondoDigitale, Aprile, 2018, pp. 2-3. ↩︎
  30. Ivi, p. 4. ↩︎
  31. Stuart Russel, Peter Norvig, Intelligenza artificiale. Un approccio moderno. Vol. 2, Pearson, Milano, 2022, p. 284. ↩︎
  32. Ivi, p. 315. ↩︎
  33. Ivi, p. 325. ↩︎
  34. Parlamento Europeo, Norme di diritto civile sulla robotica, P8_TA0051, (2014-2019), 2017, p. 8. ↩︎
  35. F. Operto, G. Veruggio, A dieci anni dalla nascita della Roboetica, in MondoDigitale, Ottobre, 2014, p. 3. ↩︎
  36. Basilio Catania, L’estensione della mente, in a cura di Jader Jacobelli, Aspettando Robot. Il futuro prossimo dell’intelligenza artificiale, Laterza, Bari, 1987, p. 48. ↩︎
  37. Stuart Russel, Peter Norvig, Intelligenza artificiale. Un approccio moderno. Vol. 2, op. cit., p. 329. ↩︎
  38. Ivi, p. 331. ↩︎
  39. Fumiya Lida, Auke Jan Ljspeert, Biologically inspired Robotics, in a cura di Bruno Siciliano, Oussama Khatib, Handbook of Robotics, Springer, Berlin – Heidelberg, 2008, p. 2027. ↩︎
  40. Una versione gratuita del programma è testabile all’indirizzo: https://playgameoflife.com ↩︎
  41. Giuseppe O. Longo, A. Vaccaro, La nascita della filosofia digitale, Mondo Digitale, Luglio, 2014, p. 10. ↩︎
  42. Eliano Pessa, Apprendimento automatico e reti neurali, in A cura di Ernesto Burattini, Roberto Cordeschi, Intelligenza artificiale. Manuale per le discipline della comunicazione, Carocci, Roma, 2001., p. 113. ↩︎
  43. Davide Marocco, Intelligenza artificiale. Introduzione ai nuovi modelli, op. cit., p. 33. ↩︎
  44. Eliano Pessa, Apprendimento automatico e reti neurali, op. cit., pp. 114-115. ↩︎
  45. Stefano Nolfi, Dario Floreano, Evolutionary Robotics, The Biology, Intelligence, and Technology of Self-Organizing Machines, Bradford Books, The MIT Press, Cambridge – London, 2000, p. 9. Per approfondimenti in merito si veda p. 130. ↩︎
  46. Ivi, p. 10. ↩︎
  47. Ivi, p. 27. ↩︎
  48. Ivi, p. 179. ↩︎
  49. Ivi, p. 190. ↩︎
  50. Ivi, p. 159. ↩︎
  51. Ivi, p. 34. ↩︎
  52. Ivi, p. 177. ↩︎
  53. Ivi, p. 189. ↩︎
  54. Ivi, p. 99. ↩︎
  55. Ivi, p. 193. ↩︎
  56. Ivi, p. 214-215. ↩︎
  57. Stefano Nolfi, Che cos’è la robotica autonoma, op. cit., p. 84; Per approfondimenti si rimanda a: S. Nolfi, J. Bongard, P. Husbands, D. Floreano, Evolutionary Robotics, in A cura di Bruno Siciliano, Oussama Khatib, Handbook of Robotics, Springer, Berlin – Heidelberg, 2008, p. 2070, dove può leggersi, ad esempio, come: “l’evoluzione della comunicazione è fortemente interconnessa con l’evoluzione di altre capacità comportamentali. Infatti, dopo tutto, i robot devono sviluppare comportamenti appropriati per accedere e/o generare le informazioni da comunicare e/o per reagire in modo appropiato ai segnali rilevati”. ↩︎
  58. Ivi, p. 50 ↩︎
  59. Ivi, p. 87. ↩︎
  60. Stefano Nolfi, Dario Floreano, Evolutionary Robotics. The Biology, Intelligence, and Technology of Self-Organizing Machines, op. cit., pp. 262-263. ↩︎
  61. Ivi, p. 15. ↩︎
  62. Ivi, p. 57. ↩︎
  63. Ivi, p. 76. ↩︎
  64. Agoston Eiben, Andy M. Tyrrell, Emma Hart, Alan Winfield, Jon Timmis, Autonomous (re) production, learning and bio-inspired robotics workshop, in Frontiers in Robotics and AI, Editorial, 2024, p. 1. ↩︎
  65. Ivi, p. 2. ↩︎
  66. Agoston E. Eiben, Grand challenges for evolutionary robotics, in Frontiers in Robotics and AI, Vol. 1, Article 4, 2014, pp. 1-2. ↩︎
  67. Per approfondire: “1) Morfogenesi: il processo di creazione di un fenotipo robotico basato su un genotipo […] 2) Infanzia: il periodo in cui il robot neonato sta imparando a ottimizzare le sue prestazioni su una serie di compiti o abilità dipendenti dalla morfologia, come la locomozione, l’evitamento degli ostacoli, la negoziazione del terreno e l’afferramento di oggetti. [Tale processo si conclude] con un esame che verifica le prestazione del robot e ne calcola l’idoneità. Se il robot supera con successo questo esame, viene dichiarato un adulto fertile e può iniziare la sua vita matura […] 3) Maturità: La fase in cui il robot adulto opera normalmente, cioè cerca di sopravvivere, svolge i suoi compiti e si riproduce, iniziando così un nuovo ciclo”, in Agoston, E. Eiben, Real-World Robot Evolution: Why Would it (not) Work?, in Frontiers in Robotics and AI, Vol. 8, 2021, p. 5. ↩︎
  68. Ivi, p. 2. ↩︎
  69. Ivi, p. 9. ↩︎
  70. Ivi, p. 4. ↩︎
  71. A. Eiben, M. De Carlo, J. Timmis, et. al., Practical hardware for evolvable robots, in Frontiers in Robotics and AI, Vol. 10, 2023, p. 2. ↩︎
  72. Ivi, p. 4. ↩︎
  73. Ivi, p. 12, 18. ↩︎
  74. Alan F. T. Winfield, Evolutionary robotics as a modeling tool in evolutionary biology, in Frontiers in Robotics and AI, Vol. 11, 2024, pp. 8-9. ↩︎
  75. Alex Szorkovszky, Frank Veenstra, Kyrre Glette, From real-time adaptation to social learning in robot ecosystems, in Frontiers in Robotics and AI, Vol. 10, 2023, pp. 4-5. ↩︎
  76. Ivi, p. 8. ↩︎
  77. Risto Miikkulainen, Neuroevolution insights into biological neural computation, Science, Vol. 387, N. 6735, 2025, p. 2. ↩︎
  78. Ivi, p. 7. ↩︎
  79. Ivi, p. 8. ↩︎
  80. Nel 1948, Claude Shannon, attraverso la sua teoria dell’informazione, creò progetti logici (software) per “grandi calcolatori”, in grado di eseguire “un’abile partita a scacchi”, risultato che, portò il giovane studioso, ad affermare che: “o si deve affermare che un tale calcolatore «pensa», oppure bisogna sostanzialmente modificare il modo convenzionale di intendere il verbo pensare”, in, C. Shannon, W. Weaver, La teoria matematica delle comunicazioni, Fabbri-Bompiani, Milano, 1983, p. IX. ↩︎
  81. Davide Marocco, Intelligenza artificiale. Introduzione ai nuovi modelli, op. cit., p. 75. ↩︎
  82. Stefano Nolfi, Che cos’è la robotica autonoma, op. cit., p. 115. ↩︎

Lascia un commento