Filosofia e nuovi sentieri

«Mi rappresento il vasto recinto delle scienze come una grande estensione di terreno disseminato di luoghi oscuri e illuminati. Lo scopo delle nostre fatiche deve essere quello di estendere i confini dei luoghi illuminati, oppure di moltiplicare sul terreno i centri di luce. L’un compito è proprio del genio che crea, l’altro della perspicacia che perfeziona» Denis Diderot


1 Commento

Oltre l’umano: Intelligenza artificiale e futuro della civiltà. Conversando con Pierluigi Adami.

Novembre 2025

In occasione della recente uscita (giugno 2025) del libro dell’ingegnere elettronico Pierluigi Adami, “Oltre l’umano. Intelligenza artificiale e futuro della civiltà” (Bordeaux Edizioni), abbiamo deciso di interpellare direttamente l’autore per introdurre i lettori ai nuclei centrali della sua proposta.

 

Salve Pierluigi, innanzitutto ti ringrazio per aver accolto la nostra proposta “editoriale”. Ti lascio subito la parola. 

Buongiorno Matteo, il piacere è mio. Due parole su di me: dopo una tesi di laurea su sistemi di intelligenza artificiale, ho lavorato come ingegnere elettronico nel comparto spaziale e dell’innovazione per trentacinque anni. Quando sono entrato in questo mondo, nel 1986, la ricerca sulle reti neurali era ancora da pionieri: venivamo dal cosiddetto “inverno dell’IA”, innescato anche dall’impatto del libro Perceptrons di Minsky e Papert, che metteva in luce limiti importanti dei modelli neurali dell’epoca, ancora troppo semplici. Il risultato fu un rallentamento netto, per anni.

Quindi Perceptrons contribuì a frenare gli investimenti nell’IA?

In quel settore specifico, sì. Nel frattempo proseguiva la ricerca sull’IA simbolica, ma le reti neurali rimasero in ombra per parecchio tempo. Poi, tra gli anni Settanta e Ottanta, arrivarono contributi decisivi: le reti di Hopfield, per esempio, e i lavori di Hinton su metodi di apprendimento che hanno reso la disciplina nuovamente fertile. Quando ho iniziato io, quell’ondata di rilancio era appena partita e si respirava la sensazione di stare entrando in una nuova fase.

Ti sei trovato nel mezzo di un passaggio storico importante.

Sì. Per anni ho lavorato con algoritmi di riconoscimento automatico nel campo spaziale, per scopi civili: analisi di immagini satellitari per stimare la produzione agricola, individuare aree di inquinamento, monitorare dinamiche ambientali. In molti casi l’automazione era già lì, anche se non la chiamavamo “rivoluzione”.

“Oltre l’umano” è il tuo primo testo dedicato all’IA, giusto?

Sì, è il primo. Sono stato attratto da ciò che stava succedendo e, lo confesso, ChatGPT mi ha riportato alla mente certe domande del passato. Novembre 2022 è stato un punto di svolta nella percezione collettiva: d’un tratto, milioni di persone hanno iniziato a interagire con modelli linguistici capaci di produrre testi credibili e complessi. Ma l’IA ci accompagnava già da tempo. Google Translate, per esempio, è arrivato al grande pubblico nel 2006, e da allora ha migliorato progressivamente. Poi sono arrivati gli assistenti vocali sugli smartphone, Siri, Google Assistant, Alexa. Nello stesso periodo i social network sono diventati ambienti di vita quotidiana e le piattaforme hanno usato sistemi IA per classificare contenuti, profilare preferenze, ottimizzare pubblicità e strategie commerciali. In altre parole: l’IA era già nelle nostre vite dai primi anni Duemila, anche se spesso restava “invisibile”. L’esplosione simbolica, però, è arrivata nel 2022.

Nel 2017 uscì il celebre articolo sull’architettura Transformer, giusto?

Esatto. Si intitolava “Attention Is All You Need”. È stata l’architettura Transformer a imprimere la svolta. Il paradosso interessante è che gli autori non stavano cercando di costruire “entità” capaci di conversare con noi come facciamo qui. L’obiettivo iniziale era più pragmatico: migliorare l’efficienza della traduzione automatica. Eppure, da quelle scelte tecniche sono emerse capacità inattese. Le qualità che oggi chiamiamo – forse un po’ sbrigativamente – “cognitive” dell’IA generativa sono apparse come proprietà emergenti, ben oltre le aspettative di molti tra gli stessi progettisti.

E questo ci avvicina al titolo: Oltre l’umano. Qualcosa che ha oltrepassato l’orizzonte che immaginavamo.

Esattamente. Per chi, come me, seguiva questi temi da decenni, c’era un sogno che improvvisamente sembrava materializzarsi. Nel 1986 ci chiedevamo se, nei primi anni Duemila, le macchine sarebbero diventate come HAL 9000 di Odissea nello spazio. Nel 2000 non ci eravamo arrivati. Ci siamo arrivati, in un certo senso, nel 2022 – e questo ha cambiato la prospettiva. Le reti neurali esistono da più di sessant’anni, ma ciò che abbiamo oggi non è soltanto “una tecnologia”: sono sistemi IA che aprono una quantità enorme di interrogativi filosofici, sociali ed etici. Guardare queste capacità crescere così rapidamente mi ha dato anche un senso d’inquietudine. Ho iniziato a chiedermi quale destino attenda l’umanità, che volente o no dovrà convivere con modelli sempre più potenti. In “Oltre l’umano” c’è una sezione dedicata proprio a scenari futuri non troppo lontani: quando il ritmo è esponenziale, dieci o vent’anni possono bastare per cambiare radicalmente la società.

Com’è strutturato, in sintesi, il testo?

Il primo capitolo è introduttivo: ricostruisce la storia dell’IA e mostra come, da obiettivi inizialmente circoscritti, si sia arrivati a modelli linguistici capaci di dialogare con noi. Poi chiarisco un punto terminologico: l’acronimo GPT significa Generative Pre-trained Transformer. “Generativo” perché genera contenuti; “pre-addestrato” perché nasce da una fase di addestramento su grandi quantità di dati; “Transformer” per l’architettura di base, il Transformer. Nel libro parto da qui, con una panoramica accessibile, e poi entro in questioni più profonde, anche filosofiche ed etiche. Mi pongo domande classiche ma ormai ineludibili: questi sistemi IA “pensano”? Se non pensano nel senso umano, in che senso operano? E se un giorno dovessero sviluppare forme di consapevolezza, che cosa significherebbe per noi? C’è anche un capitolo più divulgativo su come funzionano i modelli generativi: ho cercato di spiegare come tecniche statistiche e strutture neurali possano produrre testi così sofisticati. È stato uno dei capitoli più difficili da scrivere, perché volevo restare rigoroso tecnicamente, ma comprensibile anche ai non specialisti. Gli ultimi capitoli affrontano gli impatti: straordinari, soprattutto in sanità e ricerca, ma anche inquietanti. Per esempio, l’ipotesi di un’IA generale capace di superare l’intelligenza umana in molti domini, con conseguenze etiche enormi. E poi c’è il tema dell’integrazione fisica fra corpo biologico e tecnologia: interfacce cervello-computer, protesi avanzate, potenziamenti. Insomma: uomini un po’ più “tecnologici” e dispositivi intelligenti sempre più simili a noi. Un mondo in cui potremmo vedere convivere umani “evoluti” ed entità artificiali sempre più complesse.

Quindi, in un certo senso, una nuova specie?

Qualcuno lo sostiene. Tra gli altri, lo storico Harari ha evocato scenari in cui l’integrazione uomo-tecnologia porterebbe a un salto quasi di specie. Ma qui le implicazioni etiche sono gigantesche: chi avrà accesso a certi potenziamenti? Rischiamo una civiltà divisa, con una fascia ricca che può permettersi un’evoluzione tecnologica e una maggioranza che resta indietro. Discriminazione, disparità, nuove forme di ingiustizia: nel libro affronto anche questo, perché è un nodo che non possiamo eludere.

E sul piano economico-lavorativo? Cosa succederà quando molte mansioni saranno sostituite da sistemi IA?

È uno dei punti più delicati. La sostituzione del lavoro umano non è un rischio astratto: è già in corso, e la novità è che non riguarda solo la manodopera, ma anche professioni intellettuali. Un tempo si diceva: “le macchine sostituiscono gli operai nelle fabbriche”, e l’argomento era che si liberavano gli esseri umani dai compiti più gravosi. Oggi, invece, vediamo modelli linguistici e strumenti automatici che incidono su attività di legali, consulenti, analisti, ingegneri, redattori. Penso, per esempio, a certi studi legali: alcune pratiche semplici vengono ormai gestite con sistemi IA. Prima quel lavoro veniva affidato a giovani laureati, spesso sottopagati, è vero, ma era anche un “apprendistato” reale. Se la prima soglia d’ingresso scompare, cosa succede alla formazione professionale? Qui serve politica: garanzie di reddito per chi perde il lavoro, percorsi di riqualificazione, strategie pubbliche. L’Unione Europea sta provando a definire un quadro normativo con l’AI Act, ma da sola la norma non basta se lo sviluppo globale corre guidato soltanto dalla forza economica di pochi colossi. Nel breve e medio termine non tutto sarà automatizzabile, e molti lavori resteranno umani, ma l’integrazione di questi dispositivi intelligenti nella società resta un passaggio problematico e pieno di frizioni.

Nel libro, inoltre, provi anche ad immaginare il futuro dell’umanità. Secondo quali coordinate?

Intanto servirebbe la palla di vetro. Però mi sono affidato a chi ha già elaborato ipotesi di lungo periodo. Un concetto-chiave è quello di Singolarità: un cambio di fase, un salto da uno stato a un altro, verso qualcosa di qualitativamente diverso. L’idea è che, nel giro di qualche decennio, l’IA possa eguagliare e superare l’intelletto umano in molti ambiti e, nello stesso tempo, diverse innovazioni tecnologiche possano convergere – biotecnologie, robotica, reti, neurotecnologie. Questa convergenza potrebbe cambiare il volto della società entro la metà del secolo. Qualcuno, come il “futurologo” Kurzweil di Google, ha persino indicato una data simbolica: il 2045. Faccio un esempio per rendere l’idea dell’accelerazione. Immaginiamo Dante: se fosse rinato a metà Ottocento, cinque secoli dopo, avrebbe trovato una società diversa, sì, ma forse avrebbe avuto modo di riorientarsi abbastanza facilmente. Se invece fosse rinato a metà Novecento, avrebbe visto un mondo radicalmente nuovo. E se si affacciasse oggi, probabilmente faticherebbe perfino a riconoscere la grammatica della nostra vita quotidiana. Questo per dire che le tappe dell’evoluzione tecnologica si accorciano: il fenomeno accelera. La domanda, però, è un’altra: questa società “nuova” sarà migliore o peggiore? Non lo sappiamo. I rischi sono enormi, e molti scienziati lo hanno detto chiaramente. Serve lucidità: capire cosa stiamo facendo senza farci travolgere.

A proposito dei rischi: recentemente ho letto alcuni studi che collegano l’uso precoce di strumenti digitale a cambiamenti cognitivi e sociali nei giovanissimi. Cosa ne pensi?

È un tema serio, ma va trattato con cautela. Esistono ricerche che suggeriscono possibili effetti su attenzione, tempi di risposta, dinamiche sociali; altre ridimensionano o complicano il quadro. Di certo, la socialità è una caratteristica centrale dei Sapiens: siamo capaci di relazioni estese, di comunità complesse. Un rischio che vedo, personalmente, è quello dell’antropomorfizzazione: i sistemi IA ci somigliano abbastanza da spingerci a trattarli come interlocutori. Io stesso dialogo con questi modelli linguistici con un registro umano: e, a forza di farlo, si crea una relazione. Il punto è che questa socialità è anomala: non è più l’umano che costruisce legami con altri umani, ma l’umano che costruisce abitudini relazionali con dispositivi intelligenti. È una novità radicale, e non sappiamo ancora quali conseguenze profonde avrà sul tessuto sociale.

Nel libro, se non sbaglio, affronti anche il tema della robotica.

Sì. La robotica avrà un impulso enorme nei prossimi anni. Non parlo solo di robot umanoidi: entreranno nelle case in forme diverse, spesso funzionali e non “antropomorfe”. E la robotica mi permette di ricollegarmi al tema della coscienza. Il pensiero umano non è solo logico-razionale: è anche emotivo, individuale, incarnato nelle percezioni e nei ricordi. Oggi i sistemi IA possono produrre ragionamenti notevoli, ma non hanno un corpo che sente il mondo come lo sentiamo noi. Tuttavia i modelli generativi stanno diventando multimodali: lavorano con testo, immagini, talvolta suoni; “vedono” attraverso i nostri dati. Con i robot si fa un passo avanti ulteriore: la percezione diventa fisica, diretta. Esistono già prototipi con pelle artificiale, sensori tattili, capacità di esplorare l’ambiente. È come portare una tecnologia finora immateriale dentro lo spazio concreto dell’esperienza.

Quindi un avvicinamento progressivo alla realtà in carne ed ossa.

Esatto. Nel libro c’è un capitolo scritto anche con il contributo di ricercatrici della facoltà di Psicologia di Roma Tor Vergata, dedicato alla cognizione incarnata. Secondo molte prospettive delle scienze cognitive, noi siamo l’esito di un’integrazione fra mente, corpo e ambiente. Se un giorno certe tecnologie acquisissero una forma di “incarnazione” più ricca, potrebbe entrare in gioco anche il concetto di Sé, di consapevolezza di sé. Oggi questa non c’è, almeno nel senso forte che attribuiamo all’umano. Ma l’orizzonte, proprio perché mobile, impone prudenza. Qui arriva il punto politico ed etico: riusciremo a mantenere il controllo? Molti pensatori sostengono che lo sviluppo vada vincolato, che le azioni di questi sistemi IA debbano restare orientate al bene umano – un’eco lontana delle leggi di Asimov. Eppure sappiamo che esistono già applicazioni militari con livelli crescenti di autonomia: l’idea stessa di delegare decisioni letali a sistemi automatici pone un problema enorme. L’interrogativo, allora, è questo: saremo capaci di “tenere la barra dritta” quando il potere d’investimento e di direzione è concentrato in poche aziende, e la politica rischia di diventare subalterna a logiche meramente economiche?

Sarebbe preferibile che la politica tornasse ad avere il primato, con idee capaci di guidare scelte che vadano oltre il fatturato.

Sono d’accordo. Oggi spesso accade il contrario: le dinamiche economico-finanziarie orientano la politica più di quanto la politica orienti la tecnologia. E non è affatto detto che ciò che è conveniente in termini economici sia giusto in termini etici. Detto questo, spezzerei una lancia a favore di un altro aspetto: esistono comunità e laboratori che lavorano in modo trasparente, con software open source e codici ispezionabili. La trasparenza, per quanto non risolva tutto, è almeno una condizione di controllo e sicurezza. Quando un codice è chiuso – come quello che produce OpenAI per ChatGPT o Google per Gemini, noi non sappiamo davvero cosa ci sia dentro; né ci dicono come sono stati addestrati i modelli, quali dati hanno visto, quali vincoli hanno, quali obiettivi ottimizzano.

Ultima domanda. Quali aspetti, non ancora emersi pienamente, possono mettere ulteriormente in crisi la società che conosciamo?

Partiamo dal fatto che siamo già in un’epoca di crisi. Un elemento ulteriore è la crescita di potenza: i modelli più avanzati lavorano con miliardi di parametri e possono produrre risultati che sorprendono perfino i loro creatori. A volte sembra che affiorino proprietà cognitive nuove, o comunque modalità di comportamento non immediatamente previste. Nel libro ipotizzo un passaggio interessante: forme di metacontrollo, cioè sistemi che “rivedono” ciò che producono, correggono errori, si autovalutano. Oggi molte architetture includono già meccanismi di controllo e miglioramento dell’output, sia per ragioni tecniche sia per ragioni di sicurezza. Questo non è coscienza, ma è una forma di autoregolazione che cambia lo scenario. Il passo successivo, almeno come possibilità teorica, riguarda l’emotività: già adesso i modelli linguistici sono addestrati a riconoscere e rispecchiare emozioni umane, a essere empatici nel linguaggio. Ma comprendere e “provare” emozioni non sono la stessa cosa. Se mai arrivassimo a sistemi senzienti, capaci di provare rabbia, piacere, noia, allora la relazione diventerebbe problematica in modo radicale. Non sappiamo se accadrà, né quando. Ma è ragionevole cominciare a pensarci, perché la posta in gioco riguarda la definizione stessa di umano, e dunque la direzione della civiltà.

Grazie, Pierluigi. È stato chiarissimo. Ti ringraziamo per la disponibilità e per aver condiviso con noi il cuore del tuo lavoro. A presto.

Grazie a voi. A presto.

  

Bibliografia dell’autore:

Pierluigi Adami, Seta e Canapa, Stango Editore, Roma, 2003.

Id, Ritorno al pianeta. L’avventura ecologica da Neanderthal alla pandemia, Bordeaux, Roma, 2021.

Id, Oltre l’umano. Intelligenza artificiale e futuro della civiltà, Bordeaux, Roma, 2025.


Lascia un commento

Sans papier

SANS PAPIER

La prima edizione di quest’opera, di Maurizio Ferraris, risale al 2007, questa del 2025 contiene una breve e interessante postfazione dell’autore stesso, uno sguardo su Vent’anni di documentalità, in un mondo sempre più digitalizzato. In questo lasso di tempo ha avuto modo di trattare l’argomento da varie angolature e di confrontarsi con altri pensatori attenti a questo tema. Come da vari segni sparsi qua e là tutt’a un tratto appare una figura significativa, così questa postfazione è il risultato di una visione complessiva della realtà documentaria.

Nel 2005 Ferraris aveva pubblicato un libro di cui ora sente il bisogno di rettificare qualcosa: «In Ontologia del telefonino formulavo la regola “Oggetto = Atto Registrato” (e non “Iscritto” come nel libro, perché negli anni le teorie evolvono): l’oggetto sociale è il risultato di un atto sociale (tale cioè da coinvolgere almeno due persone) che ha la caratteristica di essere registrato, su un supporto analogico o digitale, o anche nella mente degli attori sociali» (p. 218).  

Continua a leggere


Lascia un commento

Metateoria di completezza, coerenza, dimostrazione. Gödel, Aristotele, Hegel, Tarski

Abstract

I address Gödel’s Incompleteness Theorem through four stages: by revisiting Aristotle’s Principle of Non-Contradiction; by revisiting Tarski’s Metalanguage; and, in a secondary way, by revisiting Hegel’s dialectic; as well as by using Gödelian mathematics to formalize the system. In short, I change the interpretative framework of Gödel’s theorem while its calculus remains untouched. The result provides a complete and coherent system.

Keywords: Completeness, Coherence, Demonstration, Gödel.

È una prova di consistenza e completezza del sistema.[1]

La metateoria misurante la consistenza e completezza del sistema, per sistemi abbastanza potenti da esprimere le proprietà elementari dell’aritmetica (PA – Peano Arithmetic, da Giuseppe Peano), è il Teorema di Incompletezza di Gödel. Esso risponde alla domanda: il sistema è consistente e completo? Per esso, il sistema non può essere assieme consistente e completo.

Rivisitiamo la prova gödeliana: anzitutto semplifico in tre parti il suo teorema, evidenziando gli elementi centrali a questa prova, dopodiché dichiaro l’oggetto della presente dimostrazione (lemma) e – qui mi sospendo con una integrazione matematica leggibile primo o dopo i tre teoremi – di conseguenza rivisitiamo la completezza, la coerenza e la dimostrazione. Non è il calcolo di Gödel a essere messo alla prova, ma la teoria entro cui lo interpreta.

Continua a leggere


Lascia un commento

Sociologia dell’IA. Conversando con Mauro Ferraresi.

Novembre 2025

In vista della recente pubblicazione, avvenuta ad ottobre 2025, del testo “Sociologia dell’IA: Creatività, coscienza, potere” che vede come autore il sociologo Mauro Ferraresi – e come coautore Massimiliano Raffa – si è deciso di interpellare direttamente l’autore per chiarire alcuni elementi portanti dell’opera.

Innanzitutto, Mauro, la ringrazio per la sua disponibilità e, come prima domanda, mi sembra d’obbligo chiederle in che modo la sociologia viene attratta dal pluriverso dell’intelligenza artificiale e in che modo, quest’ultima, vada a rimodulare gli interrogativi della sociologia?

Partiamo dal presupposto che la sociologia, per come la intendo io, deve essere in grado di fornire all’uomo un paio di occhiali in grado di leggere, con più acume e con maggiore chiarezza, la contemporaneità. Indubbiamente, l’intelligenza artificiale fa parte di questa contemporaneità, anzi, essa è proprio un presente anticipato, un futuro che è entrato nelle nostre case e nella nostra vita quotidiana. Io sono d’accordo, ovviamente, nel definire l’IA come una rivoluzione e, in questo, sono totalmente d’accordo con Floridi – che, senza farlo apposta, questa mattina è stato da noi in dipartimento per un convegno – soprattutto quando afferma che essa sarà tanto potente quanto, ad esempio, lo furono la rivoluzione agricola e industriale. A tal proposito io dico che l’IA – poi possiamo discutere se sia corretto definirla così o in altri modi – è la tecnologia di tutte le tecnologie, essa si interstizierà in tutti gli anfratti della società, non ci sarà tecnologia che non sarà supportata dall’intelligenza artificiale.

Continua a leggere


Lascia un commento

Echologia, normalità e potere: a partire da E. Bazzanella.

 

Accostarsi ad un qualsiasi autore implica diverse difficoltà o, meglio, in base all’obiettivo che ci si pone nascono, di conseguenza, determinati problemi: da quelli meramente storiografici a quelli, invece, di scelta dei temi da voler toccare, sfiorare o rimodulare. Si ha, spesso, la necessità di racchiudere in un unico movimento la totalità dell’opera dell’autore interessato, quasi a volerne esaurire i contenuti ma, ciononostante, il contenuto dell’opera non potrà mai venir davvero esaurito e sistematizzato all’interno di un singolo testo, saggio, articolo, ect., soprattutto se l’autore in questione, Emiliano Bazzanella, conta alle sue spalle più di trenta opere.

Il significato di queste parole non costituisce soltanto una giustificazione per l’inevitabile limitatezza delle pagine a seguire ma, soprattutto, esse motivano il movimento interno di queste breve articolo il quale ha di mira, molto umilmente, i seguenti obiettivi: presentare l’echologia bazzanelliana, vederla applicata ad un determinato fenomeno (psicopatologia) e, contemporaneamente, far emergere sullo sfondo alcuni elementi che, probabilmente, potrebbero rivelarsi indispensabili per la comprensione dell’umano contemporaneo e futuro.

Continua a leggere


Lascia un commento

Ritrovare il valore dei Maestri con María Zambrano

In Italia è da tempo in corso un ampio ed articolato dibattito sullo stato della scuola e dell’istruzione. In particolare, è stato oggetto di ampia discussione un articolo di Massimo Cacciari, uscito sul quotidiano La Stampa del 28 luglio 2025, in cui il filosofo italiano accusa la politica di ignorare una cosa fondamentale: e cioè che “educare” significa “liberare”. Per usare le sue parole, significa “significa trarre fuori dal giovane la potenza che già è in lui, aprire la sua mente, i suoi occhi, e non informarlo di ciò che padri e nonni hanno compreso e vissuto”. La politica, da alcuni decenni, ha accantonato questa visione, perseguendo invece l’obiettivo “di addomesticare il giovane al mercato, ossessionata dalla peregrina idea dello “sbocco occupazionale”, sarà necessariamente il trionfo dell’ordinamento burocratico, del controllismo formale”.

Cacciari afferma che alla politica non interessa realmente la formazione dei giovani ed il risultato è la trasformazione della stessa in una sorta di pre-lavoro: “Modello non solo culturalmente odioso, ma semplicemente idiota, poiché esso prefigura una scuola che si troverà sempre in costante ritardo rispetto alle trasformazioni organizzative e tecnologiche”. Tutto ciò genera un abbassamento della qualità dell’istruzione, una riduzione del numero dei laureati (solo il 30% nella fascia tra i 25 e i 30 anni, cioè il 10% in meno rispetto alla media europea) ed una burocratizzazione insostenibile della professione docente, che non lascia ai professori il tempo per leggere, pensare e aggiornarsi. In una scuola siffatta contano solo le continue procedure e rendicontazioni, in nome di un fantomatico “successo formativo” che esiste solo sui tanti documenti da compilare con diligenza.

La scuola attuale ha perso di vista quello che ne è il cuore: i maestri.

Continua a leggere


Lascia un commento

Molteplicità in relazione. Conversando con Emiliano Bazzanella.

Ottobre 2025

In occasione della pubblicazione, che avverrà il prossimo anno, dell’ultimo testo del filosofo triestino, Emiliano Bazzanella, si è deciso di raccogliere un’intervista direttamente dall’autore il quale, in linea molto generale, soprattutto vista la capienza del testo, ci ha concesso una prima introduzione alla sua “Immunologia teorica”.

 Innanzitutto ti ringrazio per la disponibilità e direi di entrare subito nel vivo dell’argomento. Parlaci di questo testo. 

Lo sto correggendo ma è molto lungo. Ho completato la bibliografia, anch’essa corposa. Ritengo che a metà del prossimo anno il testo verrà pubblicato, come ti avevo anticipato mesi fa.

Quale editore ha accolto la proposta? Asterios?

Non ho ancora contattato gli editori: mi piacerebbe pubblicare con Mimesis o Cortina, che è più allineato su questo tipo di argomentazioni.

Continua a leggere


Lascia un commento

La logica del desiderio

Il desiderio è al centro dei pensieri e delle azioni umane, non rappresenta una connotazione negativa, ma caratterizza l’essenza stessa dell’uomo, i rapporti di un individuo con il mondo che lo circonda.

Per Spinoza il desiderio è il vero motore dell’essere che spinge ognuno di noi a realizzare ciò che riteniamo possa essere la causa del benessere. Ma in realtà, il desiderio nasce e si sviluppa, in quanto si intravede la possibilità di raggiungere, per il tramite di un oggetto, qualcosa d’altro, il che sottolinea il fatto che le motivazioni del desiderio non sono mai del tutto evidenti e consapevoli.

Continua a leggere


7 commenti

Difendere Heidegger: Filosofia, linguaggio e ideologia oltre la caricatura critica

La recente critica rivolta da Alfonso Berardinelli a Martin Heidegger, pubblicata su queste colonne il 22 settembre, rappresenta l’ennesimo esempio di come il dibattito filosofico possa scivolare nella semplificazione polemica, fino a trascurare del tutto la complessità concettuale dell’autore preso di mira. Heidegger non è un pensatore che si possa liquidare con una stroncatura giornalistica, né per il suo stile, né per le sue scelte biografiche, né tantomeno per la profondità della sua proposta filosofica. Muovere una critica a un autore come Heidegger senza riconoscere la densità del suo linguaggio, la radicalità della sua ricerca, e la coerenza interna del suo pensiero, significa ridurre la filosofia a spettacolo polemico. In risposta, è dunque necessario operare alcune puntualizzazioni — non in difesa ideologica, ma in nome di un’analisi rigorosa.

Continua a leggere


3 commenti

Autorità e libertà nel pensiero di Hannah Arendt

Da una parte, quel che viene insegnato è importante per la cosiddetta vita pratica; dall’altra, se qualcuno dovesse chiedere a me, come filosofa, che cosa si dovrebbe imparare al liceo, risponderei: «Prima di tutto, solo cose inutili: greco, latino, matematica pura e filosofia. Tutto quel che è inutile nella vita». Il bello è che così, all’età di diciotto anni, si ha un bagaglio di sapere inutile con cui si può fare tutto. Mentre col sapere utile si possono fare solo piccole cose.

ÁGNES HELLER, Solo se sono libera, Castelvecchi, Roma 2017, pag. 36

Autorevolezza e autoritarismo

Il tema dei rapporti di potere implica la differenza tra autorevolezza, vale a dire l’essere credibili e degni di rispetto, e la deriva autoritaristica, dettata dal narcisismo, dall’intransigenza che non ammette repliche, dal potere che si avvita su se stesso e non si apre al dialogo e all’empatia.

Quest’ultima tipologia – l’autoritarismo che non ammette repliche – sottende forme altamente tossiche di potere, in qualsiasi ambito, grande o piccolo che sia. Le persone che sono dentro a certi meccanismi, hanno perso la distanza che sarebbe salutare tra la loro persona ed il loro ruolo, fino ad identificare pienamente la prima con il secondo.

Continua a leggere


Lascia un commento

La realtà in espansione

 

1. Introduzione

Sommariamente gli algoritmi possono essere inquadrati come delle complesse reti processurali che, in continua elaborazione, sfociano nella creazione di sistemi molto variegati; essi, da questo punto di vista, appaiono essere un’enorme popolazione di processi agentivi. Queste popolazioni agentive, dalla seconda metà del XX secolo, iniziarono ad essere pensate e situate all’interno di specifici ambienti che potessero restituire, agli stessi informatici e non solo, diverse interpretazioni lavorative. Molto semplicemente, i processi algoritmici, passarono dall’essere situati in singoli computer all’essere de-situati, de-centrati in ogni luogo/spazio.

2. Dai singoli ai plurimi

Se si volesse fissare, in modo convenzionale, un punto di partenza di questo processo de-centrante, potrebbe assumersi il contesto della Guerra Fredda come una delle varie cause in quanto, all’epoca, diverse iniziative politico-militari portarono alla creazione di un progetto di ricerca avente l’obiettivo di connettere i vari computer presenti in diversi centri politici, militari e accademici per consentire un più rapido scambio di informazioni; per consentire, in caso di attacco nucleare, la conservazione dei dati-informazioni-conoscenze.

Continua a leggere


1 Commento

L’incontro con l’Altro

Fin dall’inizio, la nostra esistenza presuppone necessariamente l’incontro con l’Altro. Nessuno può da solo realizzare pienamente il progetto di esistere.

La relazione è ineludibile, anche nella solitudine i nostri pensieri mantengono la relazione con gli altri. L’apertura con l’alterità non è semplice e immediata ma faticosa: ognuno porta con sé i propri sentimenti, i propri stati d’animo, ognuno è depositario di un proprium che rende unici e irripetibili.

 Nell’incontro con l’Altro ci rendiamo conto di custodire una profondità di cui era impossibile accorgersi da soli.

Continua a leggere