Vol. 2, n. 2, ottobre 2025
Embodied mind e onlife: in cerca del paradigma nascosto1
Serafino Murri2 e Pier Paolo Tarsi3
Sommario
Partendo dalla lezione di André Leroi-Gourhan sul legame tra soggettività e strumenti, il lavoro esamina possibilità e limiti dell’influenza di reti neurali, deep learning e applicativi sulla mente intesa nell’accezione incarnata. Viene proposta una visione della «soggettività digitale» come potenziale arricchimento della relazione educativa, sottraendo all’Intelligenza Artificiale l’aura negativa di sostituzione e impoverimento delle capacità cognitive dei discenti. Unitamente a un modello comunicativo di Internet quale «territorio di auto-apprendimento», l’esplorazione complessiva degli autori suggerisce la possibilità di una valorizzazione del ruolo del docente come tutor situato.
Parole chiave
Intelligenza Artificiale, embodied mind, relazione educativa, Internet, soggettività digitale.
The embodied mind and onlife: In search of the hidden paradigm4
Serafino Murri5 and Pier Paolo Tarsi6
Abstract
Starting from André Leroi-Gourhan’s lecture on the link between subjectivity and tools, the paper examines possibilities and limits of the influence of neural networks, deep learning and applications on the mind understood in the embodied sense. A vision of «digital subjectivity» as a potential enrichment of the educational relationship is proposed, removing from Artificial Intelligence the negative aura of substitution and impoverishment of learners’ cognitive abilities. Coupled with a communicative model of the Internet as a «territory of self-learning», the authors’ overall exploration suggests the possibility of an enhancement of the teacher’s role as a situated tutor.
Keywords
Artificial Intelligence, embodied mind, educational relationship, Internet, digital subjectivity.
Introduzione
Il presente lavoro intende descrivere il possibile impatto proficuo della medialità digitale sul processo di apprendimento, non solo rilevando la diversità ontologica delle modalità di elaborazione dei dati nell’Intelligenza Artificiale nella pur evidente somiglianza (non causale) delle sue strutture logico-algoritmiche con quelle umane che le fanno da modello, ma anche a partire dalle risorse maturate dall’autoapprendimento situato che l’attività online nella Rete di Internet rappresenta per le generazioni dei «nativi digitali» (Prensky, 2001), i quali costituiscono attualmente il corpo dei discenti in ogni grado di istruzione. L’intento conduce così a formulare la necessità di una ricerca di nuovi paradigmi, che siano in grado di intercettare le pratiche e i bisogni emergenti dall’operare digitale come forma culturale specifica della episteme del nostro tempo, quell’orizzonte di pensiero e di linguaggio entro il quale si sviluppa la conoscenza, i cui valori condivisi circoscrivono quello che possiamo dire e pensare (Foucault, 1966). La cultura partecipativa della Rete, i suoi modelli di esplorazione fondati su un andamento «rizomatico», non gerarchico e non lineare di assunzione delle informazioni, attraverso un modello comunicativo «a sciame» auto-comunicante, forniscono le coordinate per immaginare l’imminente introduzione dell’Intelligenza Artificiale nei connected learning environments (ambienti di apprendimento connessi) previsti dal PNRR Futura 2024 del Ministero dell’Istruzione e del Merito per il «piano scuola 4.0» (adottato con decreto ministeriale nel giugno 2023) non come un semplice supporto alle attività curricolari, ma, come evidenziano metodologie didattiche innovative già sperimentate come gli EAS (Episodi di Apprendimento Situati) (Rivoltella, 2013), come reale integrazione delle competenze digitali nella co-costruzione enattiva del sapere in sede educativa. Ridefinendo così, con maggiore efficacia, anche il ruolo cruciale dell’insegnante come guida alla costruzione di un punto di vista critico e interpretativo della realtà del proprio tempo, in grado di situare nell’esperienza della mente incarnata la conoscenza disciplinare.
Premessa
Le stupefacenti acquisizioni operative dell’IA rilanciano domande eterne sulla nostra natura o sul nostro rapporto con il mondo mediato da strumenti, sollecitando una comprensione antropologica meditata della tecnica. Strumenti e tecnologie con cui esteriorizziamo, velocizziamo e amplifichiamo operazioni e attività del dominio cognitivo, interessando processi che siamo intuitivamente portati a ritenere peculiari dell’umano, ravvivano infatti antichi interrogativi e domande su noi stessi. L’IA, in questo senso, può essere pertanto occasione preziosa per re-interrogarsi sulla specificità di quell’essere per natura indeterminato, non specializzato e prometeico che è l’uomo (Gehlen, 1940). Un essere questo che non è in grado di stare al mondo se non per mezzo di quell’insieme trasmesso fra generazioni di utensili, strumenti, risorse, memorie, pratiche e conoscenze che, in una sola parola, chiamiamo cultura, per mezzo della quale l’uomo trasforma la realtà (auspicabilmente in modo sostenibile e in armonia con l’ecosistema) posizionandosi nel mondo e dandosi una forma storica e concreta (Tomasello, 1999). La mediazione degli strumenti è infatti un dato costitutivo della forma specifica che diamo a noi stessi e della nostra evoluzione, procedendo questa, come egregiamente mostrava Leroi-Gourhan, per continue liberazioni attraverso l’esteriorizzazione e l’espansione di possibilità e attività (Leroi-Gourhan, 1977). Dai primi utensili che liberavano la mano, segnando al paleoantropologo la presenza dell’umano, ai dispositivi e macchine che compiono operazioni fisiche liberando la forza muscolare del corpo per mezzo della forza animale o degli elementi naturali, del vapore o dell’elettricità, fino alle estensioni cognitive — come la memoria liberata dalla scrittura o dai dispositivi digitali — e alla esternalizzazione di compiti complessi svolti dagli odierni calcolatori e dall’IA: ognuno di questi passaggi ha cambiato in molti aspetti la nostra forma, il nostro stesso modo di essere e di stare al mondo, chiamandoci a riformulare la rappresentazione di noi stessi e a ricomprendere i sensi in cui si declina la natura costitutiva del corpo che apre all’esperienza.
Lo strumento, il gesto tecnico e la sua relazione con il corpo: la lezione di André Leroi-Gourhan
Partendo dalla liberazione della mano, l’acuta analisi di Leroi-Gourhan esplora le conquiste tecniche di manipolazione (diretta e indiretta, nell’esteriorizzazione motoria delle macchine) e lo sviluppo dei dispositivi per l’estensione della memoria, dal simbolismo linguistico alla memoria elettronica, passando per il figuralismo grafico e plastico, all’organizzazione del lavoro e delle città, all’arte, ecc. Ciò su cui, in un così ampio panorama, ci concentreremo qui per cogliere il valore della ricerca di del paleontologo francese per i nostri specifici fini è soprattutto l’analisi del gesto nella manipolazione e il destino di liberazione della mano nell’uso dell’utensile.
Nei Primati gli organi facciali e manuali compiono delle operazioni tecniche, partendo da una formula identica a questa solo l’uomo però giunge a fabbricare utensili concreti e simboli, due fasi che rientrano in uno stesso processo, sia in quanto medesima possibilità dell’unico organismo che le dispiega, sia per il legame indissociabile di quelle manifestazioni con la struttura sociale dell’umanità. Esiste per Leroi-Gourhan la possibilità di un linguaggio a partire dal momento in cui compaiono gli utensili, il progresso tecnico è collegato al progresso dei simboli tecnici del linguaggio, infatti le operazioni per fabbricare un utensile «preesistono all’occasione di usarli e l’utensile dura in vista di azioni ulteriori. La differenza tra il segnale e la parola non è di diverso genere, perché la durata del concetto è di natura diversa ma paragonabile a quella dell’utensile» (Leroi-Gourhan, 1977, p. 138).
Dobbiamo dunque scorgere questo nesso tra tecnica e linguaggio: la tecnica è contemporaneamente gesto e utensile «organizzati in una concatenazione operativa da una vera e propria sintassi che conferisce alle serie operative fissità e duttilità al tempo stesso. La sintassi operativa è proposta dalla memoria e nasce tra il cervello e l’ambiente materiale» (Leroi-Gourhan, 1977, p. 138).
Nel gesto tecnico l’utensile nasce «letteralmente dal dente e dall’unghia del Primate senza che niente del gesto segni la rottura», ossia dalle medesime operazioni. All’apparire dei primi utensili alcune operazioni si trasferiscono in questi, qui la mano cessa di essere utensile per divenire motore (strumento di strumento direbbe Aristotele): nell’azione manipolatrice dei Primati il gesto e l’utensile si fondono, nella «mano in motilità diretta», l’utensile manuale si è separato dal gesto motore stesso, in questo passaggio, non manca di sottolineare Leroi-Gourhan, è decisivo il mutamento del campo di relazione dovuto alla marcia eretta. L’incisivo, l’utensile organico tagliente situato nelle mascelle, diventa ascia, ciottolo scheggiato, si trasferisce alla mano. Nel corso dell’evoluzione umana assistiamo proprio all’arricchirsi delle azioni della mano nel processo operazionale e alla liberazione crescente della motilità. Nel passaggio successivo infatti «le macchine manuali si annettono il gesto e la mano in motilità indiretta apporta il proprio impulso motore» (Leroi-Gourhan, p. 284). Questa è una liberazione nuova perché «il gesto motore viene ad essere liberato in una macchina manuale che lo prolunga e lo trasforma» (Leroi-Gourhan, 1977, p. 289). Nell’economia agricolopastorale la motilità indiretta accumula diverse tecniche, la molla, la leva, le trappole, le carrucole, le corde di trasmissioni, esempi chiari del «processo che respinge a poco a poco gli strumenti al di fuori dell’uomo» come per l’utensile manuale: «le azioni dentarie passano alla mano che manovra l’utensile amovibile, poi quest’ultimo se ne allontana ancora e nella macchina manuale si libera dal braccio una parte del gesto» (Leroi-Gourhan, 1977, p. 289). In epoca storica poi la forza motrice abbandona il braccio, l’impulso muscolare si libera dal corpo e si trasferisce nell’uso della motilità animale, in quella del vento o dell’acqua: l’uomo continua a sfuggire alla specializzazione organica che lo legherebbe in modo definitivo. La motilità è esteriorizzata, deviata nella macchina animale, nella macchina automotrice (il mulino, i pestelli ad acqua) in cui la mano dà l’avvio al processo motore e interviene solo per sospenderlo: «la liberazione della motilità — scrive Leroi-Gourhan — costituisce la tappa più importante, non tanto per l’uomo quanto per la società che detiene, collettivamente, i suoi mezzi d’azione […] alcune civiltà dell’Eurasia che fondano su di esso, fino al secolo XVIII, la loro supremazia tecno-economia» (Leroi-Gourhan, 1977, p. 289). Il superamento di questa conquista già antica avviene come noto nel XIX secolo con la macchina che utilizza la pressione del vapore, se «la prima conquista del metallo era una vittoria della mano, quella del vapore consacrò definitivamente l’esteriorizzazione del muscolo» (Leroi-Gourhan, 1977, p. 290). Ogni volta questi mutamenti implicano un rimaneggiamento delle leggi di raggruppamento, i rapporti sociali assumono un carattere nuovo e ogni volta che mutano utensili e istituzioni delle trasformazioni profonde interessano gli individui di una collettività, al punto che, scrive efficacemente l’autore: «un osservatore non umano e in grado di restare estraneo alle spiegazioni cui la storia e la filosofia ci hanno abituato distinguerebbe l’uomo del secolo XVIII da quello del XX come noi distinguiamo il leone e la tigre, il lupo e il cane» (Leroi-Gourhan, 1977, p. 291). Le macchine del XIX secolo sono però ancora lontane dall’esteriorizzazione ideale, quella in cui, in un certo senso, «l’uomo avrebbe portato fuori di sé un altro uomo, interamente artificiale, in grado di agire con una rapidità, una precisione e una forza illimitate; lontano ancora dal momento in cui tutti, utensile, gesto, forza e pensiero, verrebbero riversati e trasposti in un doppione, immagine perfetta dell’ideale sociale» (Leroi-Gourhan, 1977, p. 291). Questo salto è iniziato con la macchina automatica e l’uso dell’elettricità e dell’elettronica. Le macchine del XIX secolo implicano infatti ancora una partecipazione umana considerevole e l’asservimento del lavoratore manuale è schiacciante. La macchina a vapore non ha «né cervello né mani. Il suo sistema nervoso è straordinariamente rudimentale, limitato a regolatori di velocità e di pressione che erogano una forza costante ma cieca. Di fronte a essa l’operaio è il cervello che rende utile la forza; la mano che dà alimento al fuoco, che porge materia all’utensile, che orienta e rettifica» (Leroi-Gourhan, 1977, p. 290). Nella macchina automatica si compie il primo passo di un ultimo passaggio di esteriorizzazione: «Lo sviluppo dei piccoli motori, delle cellule sensibili all’azione, della memoria elettronica, dei transistor, di tutti i dispositivi miniaturizzati» fornisce un arsenale di elementi per un montaggio che a Leroi-Gourhan appare «stranamente paragonabile al montaggio biologico» (Leroi-Gourhan, 1977, p. 291). Nella genesi delle macchine intelligenti e degli automi o robot si compie l’ultima fase, quella del sistema nervoso e del cervello, dei programmi mnemonici «materializzati in una striscia», un vero e proprio «sistema nervoso di trasmissione degli ordini e di controllo da parte degli organi centrali». Con sguardo straordinariamente lucido, Leroi-Gourhan, nel 1965, descrive infine le macchine più avanzate del tempo con parole talmente suggestive che ci paiono adeguate a chiudere questo excursus nella sua lezione sul senso umano della liberazione tecnica che ci ha accompagnati al di qua di quella rivoluzione in atto che egli non avrebbe potuto immaginare, quella dell’era digitale e della rete: «La salute fisica della macchina è controllata da organi che regolano la velocità, la temperatura, l’umidità dei vari organi, la materia trattata è saggiata nella consistenza, nella forma, da organi ponderali, tattili, termosensibili o fotosensibili che trasmettono le loro impressioni a centri di regolazione automatica; così la macchina può orientare la propria azione, correggerla, interromperla secondo i messaggi che riceve dai suoi organi sensori […] organismi che hanno finito per costituire un mondo vivente parallelo» (Leroi-Gourhan, 1977, p. 295).
Corporeità, processi cognitivi e strumenti: sciogliere il nodo attraverso una critica
Nel caratterizzare il processo indefinito di estensione, mediato dagli strumenti, di quel dominio di possibilità e attività (concrete o astratte) che chiamiamo manifestazioni intelligenti di processi cognitivi o mentali, la lezione di Leroi-Gourhan ci permette chiaramente di non perderne mai di vista il suo radicamento nella corporeità. Ciò è quanto, al contrario, ci pare stia accadendo in alcune concettualizzazioni che analizzeremo criticamente, seppur non esaustivamente, al solo fine di mettere in luce in modo più chiaro il nodo che vogliamo indagare. Per cogliere pienamente il senso del coinvolgimento corporeo nel processo di estensione dei domini di possibilità cognitive mediate dagli strumenti può essere utile infatti mettere in luce alcuni elementi critici che emergono in uno degli approcci al mentale tra i più attualmente discussi (Di Francesco e Piredda, 2012), il Modello della Mente Estesa (MME) (Clark e Chalmers, 1998), paradigma che insiste proprio sulla relazione tra processi mentali e strumenti che qui ci interessa. In tale modello, prescindendo in senso funzionalista dalla localizzazione esterna o interna all’organismo, una risorsa naturale o artificiale che svolge un ruolo causale in un processo, è definibile come costitutivamente mentale o cognitiva «se una parte del mondo funziona come un processo che non avremmo esitazione a considerare parte del processo cognitivo se si realizzasse nella testa, allora quella parte del mondo (in quella occasione) è parte del processo cognitivo» (Clark e Chalmers, 1998, p. 8). Riproponendo un celebre esempio di Chalmers, possiamo figurarci Otto, un soggetto affetto da Alzheimer, il quale si serva di uno strumento sempre disponibile come un taccuino per conservare informazioni utili, ad esempio per ricordare un appuntamento al cinema con Inga. In questa visione il taccuino (ma potremmo pensare, mutatis mutandis, a ChatGPT) è un perfetto sostituto funzionale delle strutture biologico-neurali interne che, nel caso di Inga, veicolano la memoria dell’incontro con Otto. Una parte del processo cognitivo di Otto è svolta da un artefatto esterno: la funzione cognitiva della memoria di Otto è pertanto costituita qui dall’integrazione fra Otto e il suo taccuino, ossia è una memoria di una mente estesa che incorpora letteralmente una porzione dell’ambiente. Un simile approccio, dobbiamo in primo luogo notare, non restituisce tuttavia in alcun modo l’esperienza fenomenica propria del vissuto soggettivo che caratterizza ciò che chiamiamo uno stato mentale. Se noi, scrive in proposito Marconi, riprendendo un esempio di Di Francesco (Di Francesco, 2004), esperissimo il ricordo di aver scalato l’Everest, anche qualora ritenessimo questo ricordo come inattendibile, non avrebbe alcun senso dire che dubiteremmo di esserne i titolari. Diverso il caso di Otto: «Se legge: “ieri ho scalato l’Everest”, ma non ci crede, non si contraddice. Se dubita che l’appunto sia suo, non “ode voci”, né teme di soffrire di allucinazioni» (Marconi, 2005, p. 395). Allo stesso modo, il nostro potrebbe non riconoscere come un suo ricordo l’appuntamento con Inga. Manca dunque a questo ricordo esteso di Otto ciò che qualifica un ricordo come tale dal punto di vista dell’esperienza soggettiva, ossia la dimensione fenomenica del vissuto personale che ne fa un contenuto cosciente il quale intrattiene relazioni concettuali e motivazionali che si specificano in quella dimensione prospettica che chiamiamo mente, senso personale (Leont’ev, 1977). Una dimensione questa che non è possibile concepire senza il coinvolgimento corporeo che apre tanto al vissuto soggettivo quanto alla relazione con gli artefatti che, nel modello di Chalmers, si confondono letteralmente con l’utilizzatore stesso. Dobbiamo infatti qui notare come lo strumento perda in MME di comprensibilità filosofica e venga inoltre rimossa quella caratterizzazione che avevamo guadagnato con Leroi-Gourhan dello strumento quale prodotto di un processo genetico di esternizzazione culturale delle operazioni corporee e di liberazione. Tale processo è radicato nella corporeità che apre all’esperienza soggettiva e all’attività, nonché radicato, diremo con Leont’ev, al movimento unitario e dialettico dell’attività esterna e interna che esteriorizzano nello strumento operazioni che mediano lo sviluppo di azioni coscienti e la realizzazione di scopi intenzionali, razionali, motivati peraltro da una prassi socialmente e storicamente collocati. In tal senso riteniamo vada dunque profondamente riletta la relazione uomo-artefatti e l’estensione tecnologica cui guardano i fautori della MME, efficacemente sintetizzati nella formula del natural born cyborg. A tale scopo, senza poter procedere oltre, riteniamo significativo un passo di Leont’ev che si configura come una critica ante-litteram al modello che stiamo discutendo:
[…] qualsiasi operazione, indifferentemente motoria, esterna o interiore, mentale, rappresenta per la sua genesi soltanto il prodotto dello sviluppo di corrispondenti azioni, nel quale si fissano dei rapporti oggettivi generalizzati ed astratti, che caratterizzano le condizioni oggettive dell’azione. Esse assumono per questo un’esistenza relativamente indipendente e sono capaci di calarsi in questa o quella forma materiale, nella forma dello strumento, della macchina, della tavola di moltiplicazione del più semplice aritmometro o del più complesso apparato calcolatore. Non per questo, tuttavia, cessano di essere semplicemente degli strumenti dell’attività umana e dei suoi oggetti. Per questo l’attività del pensiero dell’uomo non si riduce affatto ad un sistema di operazioni logiche […] come per esempio la produzione non si riduce affatto ai processi tecnologici da cui viene realizzata (Leont’ev, 1977, p. 30).
Distribuendo il soggetto nel mondo e concependolo come meramente forense, MME presta così il fianco a diverse critiche che il dibattito ha evidenziato (Marconi, 2005; Rupert, 2009) e finisce per ricondurre, paradossalmente, a esiti cartesiani, perdendo di vista il nodo della corporeità, nonostante le intenzioni dei suoi artefici di cogliere il carattere situato e incarnato della cognizione.
Recuperando la lezione di Leroi-Gourhan e collocandoci in una prospettiva enattiva, riteniamo dunque che occorra un tipo speciale di sistema autonomo in interazione accoppiata con l’ambiente per definire un fenomeno cognitivo, ossia quel particolare sistema autopoietico che è il corpo in azione (Tarsi, 2024). Adottare il punto di vista autopoietico-enattivo implica accogliere una reciproca co-implicazione di interno ed esterno senza presupposti sostanzialistici, nel farsi continuo di quell’identità dinamica e senziente che è il vivente in rapporto a un mondo: «Dipendente dal mondo in quanto bisognosa, la vita è rivolta verso di esso; rivolta (aperta verso di esso) e correlata a esso; correlata a esso, è pronta all’incontro; pronta all’incontro, è capace di esperienza […]. Così è sin dal primo inizio c’è “mondo”, la condizione fondamentale per l’esperienza: un orizzonte, aperto dalla mera trascendenza di ciò che manca» (Jonas, 1999, p. 118). Ogni fenomeno di cognizione umana (ogni fenomeno mentale) ha un’estensione di dimensioni molteplici e integrate (bio-psichiche ed esperienziali, psicosociali e culturali) che, per essere comprese in un modello coerente della mente, richiedono l’attività di un soggetto immerso nel mondo, con cui quello è strutturalmente accoppiato, senza confondersi ma senza nemmeno separarsene. Due sono le direzioni dell’espansione del mentale che sostengono le nuove scienze cognitive quali assi portanti di una riformulazione del paradigma classico: l’una, in senso verticale e biologico, verso il cervello e il corpo, l’altra, in senso orizzontale, verso l’ambiente e la cultura. All’intersezione di queste due direzioni possiamo collocare il modello enattivo, capace di restituire l’animale culturale che si serve di strumenti ma non si risolve in questi né può essere in questi sostituito o simulato in qualche senso antropologicamente o cognitivamente pregnante. Tale relazione tra soggetto enattivo e mondo enattivato non chiama in causa solo il corpo (in senso verticale), nella sua complessità biologica e fenomenologica, ma ha una collocazione orizzontale, la collocazione propria di un mondo abitato da altri soggetti in comunicazione, con i quali enattiviamo altre possibilità di relazione con il mondo e con noi stessi mediate dall’altro, dagli strumenti e dagli oggetti sociali. Proprio tale confluenza di dimensioni non riducibili in ogni manifestazione dell’individuo biologico umano mostra l’unità duale costante di ciò che in astratto chiamiamo natura e cultura opponendole in fisse contraddizioni e che l’idea di natural born cyborg tenta (malamente) di risolvere.
Occorre ripartire dunque dal carattere costitutivo (e non accessorio) della nostra natura biologica e della nostra corporeità nell’organizzazione dell’esperienza, nella genesi di quelle attività che chiamiamo manifestazioni intelligenti di processi cognitivi o mentali, ripensando a partire da questo nodo modalità educative e visioni pedagogiche (Digennaro, 2023). Il cosiddetto paradigma enattivo delle scienze cognitive contemporanee (Varela et al., 1991), decostruendo persino l’idea stessa di una riduzione della cognizione, dell’intelligenza e del pensiero «ad un sistema di operazioni logiche» — per dirla con Leont’ev — ovvero a processi di computazione di rappresentazioni simboliche (o sub-simboliche, come nel caso del connessionismo e delle rete neurali) istanziabili su macchine digitali, insiste su una comprensione della natura incorpata e situata dei nostri processi mentali radicalmente alternativa a quella implicita nell’idea di «macchine pensanti».
Breve excursus sulla geografia di Internet: il modello comunicativo rizomatico della «intelligenza collettiva»
L’accoppiamento interfunzionale tra bios umano e Intelligenza Artificiale si estrinseca attraverso una peculiare modalità di coinvolgimento del complesso mente-corpo-emozione, da cui emerge una «soggettività digitale» (Murri, 2020), forma di «vita tecnica» specifica della mente interfacciata a un device. L’ambiente operativo di tale soggettività è stato definito «onlife» (Floridi, 2014), paradigma esperienziale del corpo-mente in una dimensione ibrida dove non sussiste più distinzione ontologica tra le pratiche online e quelle offline: dimensione che riguarda in special modo le ultime generazioni di discenti, le generazioni «Z» e «Alpha» (Murri et al., 2024). Se Internet è considerabile, sotto il profilo esperienziale, un «territorio» di autonomia auto-formativa da esplorare, la sua «mappatura» riformula l’idea di «centro» e «periferia» dell’assetto topologico del mondo materiale. La pervasività del modello di comunicazione digitale è fondata sull’espansione ipertestuale del World Wide Web, che si riflette nella pratica orizzontalmente chiusa dei social network. Quello nella Rete è in altri termini un esperire percorrendo un «rizoma», modello comunicativo che non implica gerarchie o asimmetrie relazionali e non possiede un centro e un ordine lineare nella significazione. Il concetto di rizoma, preso in prestito dalla botanica, indica una parte sotterranea del fusto di alcune piante che si sviluppa sotto il terreno: ma a differenza dalle radici, che ramificano e si espandono come singoli elementi indipendenti legati a un unico centro, questa espansione reticolare è caratterizzata da internodi che collegano ogni parte della struttura all’altra. Il termine «rizoma» è stato per questo applicato ai processi di significazione del pensiero da Gilles Deleuze e Felix Guattari per riferirsi a un modello semantico che a differenza dello schema di pensiero scientifico e «ad albero» (processo verticale considerato repressivo sul piano bio-politico dai due pensatori) non prevede gerarchie, e ma «collega un punto qualsiasi con un altro punto qualsiasi, e ciascuno dei suoi tratti non rimanda necessariamente a tratti dello stesso genere, mettendo in gioco regimi di segni molto differenti» (Deleuze e Guattari, 1997). Il rizoma comunicativo della Rete di Internet non è inserito in un «terreno» preesistente, ma lo autocostituisce espandendosi in miliardi di miliardi di percorrimenti giornalieri, a partire da un nucleo piccolo, denso e iperconnesso costituito da un centinaio di «nodi» (Google, Wikipedia, ecc.), circondato da una regione a struttura frattale, la «componente connessa dei pari» (peer-connected component), al cui margine, orbita quella che si può considerare una «periferia» debolmente connessa (Carmi et al., 2007). Tale struttura consente attraverso soli quattro link di arrivare da un punto della componente connessa «dei pari» a qualsiasi altro, senza passare dal nucleo: un modello di interazione impraticabile nella vita materiale, che permette di bypassare, nelle proprie ricerche, i ricorsi al nucleo di documentazione ufficiale. Per le nuove generazioni, sono prevalentemente i «pari interconnessi» a fornire i contenuti informativi, che non le strutture nodali della Rete: un modello di peer education radicale e non codificato a cui le generazioni precedenti, i «digital immigrants» (Prensky, 2001), sembrano essere sostanzialmente refrattari. La «periferia» di Internet non è dunque un concetto spaziale, ma quantitativo-qualitativo di esperienza connettiva, che riguarda la limitata capacità di moltiplicare, selezionare e differenziare le esperienze in rete, facendone un uso attivo e critico customizzato l’orientamento nella sconfinata galassia peer-connected: tale periferia e molto informativa e poco esplorativa, avulsa dall’agire partecipativo. Certo l’agire in rete presenta sempre il rischio, o meglio l’effetto collaterale della cosiddetta interpassività, l’essere attivi attraverso l’attività dell’altro, in un modo di interazione predeterminato (commenti, emoji, ecc.) che si basa sulla ripetizione di gesti automatici limitanti la riflessione consapevole delle conseguenze dei propri atti relazionali (Žižek, 2013). Ma al di là delle limitazioni operative indotte dalle specifiche modalità d’uso, le «affordances» (Gibson, 1979) delle piattaforme digitali utilizzate, l’agire partecipativo stimola modalità organiche alla cosiddetta «intelligenza collettiva»: una tipologia di legame sociale che non si fonda su appartenenze territoriali, rapporti di potere o relazioni istituzionali, ma sul convergere autonomo su centri d’interesse comuni, sulla condivisione del sapere attraverso processi aperti di collaborazione. Una forma di intelligenza distribuita e coordinata in tempo reale che pone ogni persona partecipante al servizio della comunità, e al tempo stesso la mette in grado di fare appello alle risorse intellettuali e all’insieme delle qualità umane condivise dalla comunità stessa. (Levy, 1996). Più precisamente l’agire partecipativo in rete si manifesta come «swarm intelligence», intelligenza «a sciame» (Beni e Wang, 1993): un comportamento collettivo di agenti che interagiscono localmente facendo emergere nel sistema schemi funzionali globali con capacità individuali limitate, senza conoscere lo stato globale del sistema, e in assenza di un ente coordinatore. Una modalità comportamentale non simultanea, paragonabile alla comunicazione «stigmergica» caratteristica delle strutture sociali animali (per esempio, le formiche), la quale ha luogo alterando lo stato dell’ambiente in un modo che influenzerà il comportamento degli altri individui, per i quali l’ambiente stesso è uno stimolo (Kennedy e Eberhart, 2001). Tale dominio relazionale, sembra far scaturire un senso d’allarme ipertrofico quando ci si riferisce alla relazione diretta con la macchina digitale edotta dal machine learning vista come onnisciente «suggeritore» «peer connected». È il nuovo spettro che si aggira nel mondo della didattica: quello dell’Intelligenza Artificiale. L’introduzione di software interattivi, intelligenti e generativi come ChatGPT e DALL-E, ha avuto un forte impatto nell’attribuire qualità di «creatività» autonoma all’IA, imponendo alle istituzioni educative di confrontarsi con le crescenti capacità indotte dal deep learning. Il dibattito su etica, impatto e valore dell’IA nella didattica, e sulle necessità di governance e formazione per fronte alla velocità e alla scala con cui l’IA sembra poter trasformare le sfere di insegnamento e apprendimento, sembra attualmente predominare su ogni fattiva teorizzazione d’uso e integrazione del nuovo strumento (Bond et al., 2024). Uno scrupolo doveroso quanto solo in parte giustificato, dal momento che la generatività computazionale che scaturisce dal deep learning non è considerabile una «forma di pensiero» autonoma e tantomeno sostitutiva della cognizione incarnata. Pur considerando l’elevato numero di dati a disposizione per un data-mining, la macchina allopoietica digitale indirizza il suo operare nell’ambiente-mondo del Web esclusivamente attraverso le modalità cognitive dell’auto-comportamento che la «macchina non banale» (non-trivial machine) del corpo-mente umano opera a partire dal circolo creativo tra motorio e sensorio che struttura la coscienza individuale, accordando schemi senso-motori dell’esperienza alle sensazioni emotive con un’interazione adattiva (von Foerster, 1981).
Se infatti il pensiero consiste in un «flusso di immagini logicamente collegate», percezioni di natura visiva, uditiva, gustativa, olfattiva e somatosensitiva (Damásio, 1999) utilizzate dalla mente come dispositivo interpretativo-narrativo dell’accadere esperienziale (Bruner, 1990), ciò comporta che le performance generative dell’IA in risposta a sollecitazioni umane, per quanto complesse, dipendano in modo sostanziale dalla qualità degli input umani formulati in linguaggio naturale che indirizzano l’output. Il punto è che la formulazione di un prompt adeguato a ottenere una risposta performativa dell’IA, implica il possedere già una comprensione corretta di un ordine di problemi su cui chiedere un determinato tipo di supporto (estrapolazione di dati, spiegazione, risoluzione in termini logici): la comprensione di qualunque operazionalità richiesta all’IA avviene necessariamente a monte del processo. Implica, cioè, una coscienza attiva in grado di formulare una richiesta indirizzante: una comprensione personale dell’ordine di idee da cui scaturisce il problema, che rende il connubio tra bios umano e IA generativa piuttosto una «intelligenza aumentata» nel senso attribuitogli fin dagli anni Sessanta dello scorso secolo dai cibernetici di «intelletto umano aumentato», amplificazione cognitiva della mente attraverso l’integrazione dello strumento computazionale (Engelbart, 1962).
Intelligere senza pensare: il paradosso dell’incorporeo nell’IA
L’abbaglio diffuso sul paventato pericolo di «sostituzione» dell’attività cognitiva dei discenti nell’uso didattico o creativo della IA deriva da un errore di prospettiva indotto soprattutto dai cosiddetti NLP (natural language processing): algoritmi di Intelligenza Artificiale capaci di analizzare, comprendere e rappresentare il linguaggio naturale utilizzandolo come output in maniera corretta e discorsiva. Le finalità includono la comprensione del contenuto, la traduzione interlinguistica, e giungono generativamente alla produzione di testo in modo autonomo a partire dal mining, l’estrazione dei dati forniti in input o presenti nel database. Il «linguaggio naturale» utilizzato è parte del cosiddetto front end dell’Intelligenza Artificiale, la parte visibile di un programma con cui si può interagire, responsabile dell’acquisizione dei dati di ingresso e della loro elaborazione con modalità conformi a specifiche predefinite e invarianti, tali da renderli utilizzabili dal back end, la vera «intelligenza» fatta di reti neurali artificiali: modelli di gestione «nascosta» dei dati i cui cosiddetti «neuroni» non sono che formule algoritmiche capaci di introiettare informazioni che ampliano l’estensione degli insiemi logici di etichettatura e correlazione in cui distribuiscono ipertestualmente i dati, eliminando via via le connessioni erronee. In altre parole, l’IA è un alieno il cui linguaggio logico-matematico è celato nell’inaccessibile back-end, ma che ha imparato ad assumere in front end le sembianze comunicative del codice linguistico umano.
Ma differenza degli umani, l’IA non può generalizzare esperienze «cognitive», o acquisire saggezza in modo organico. L’IA può essere connessa a tutti i database e i Big Data esistenti, attingere a informazioni in tempo reale dalla Rete, ma non può trarre esperienza dalla sua operatività nel senso che inerisce alla comprensione umana, e cioè quello del proprio accrescimento personale in termini di individuazione. L’intelligenza umana si sviluppa infatti, come si è già ricordato, attraverso l’embodied mind, la «mente incarnata»: è l’operatività di una «coscienza» che emerge da una cognizione enattiva, agita, del mondo, attraverso l’esperienza senso-motoria, la quale genera, in un costante accoppiamento interdipendente del soggetto con l’ambiente, le molteplici interconnessioni tra corpo, linguaggio e dimensione sociale-comunicativa che si possono definire complessivamente «attività mentale» (Varela et al., 1991). Per contro, la memoria dell’IA attraverso il deep learning si ingigantisce indefinitamente senza avere convinzioni personali o discernimento qualitativo, senza schierarsi e prendere posizione, non sviluppa un punto di vista, e di fatto, non sa di sapere, ovvero manca di una coscienza e di un sé, essendo operativa ma non enattiva, non avendo alcun legame tra corpo-mente percipiente e utilizzo del linguaggio comunicativo. Al momento, strumenti come CHAT GPT 4 sono enormi idrovore, che come la cosa dell’omonimo film di John Carpenter (The Thing, Carpenter, 1982) possono replicare e utilizzare qualunque tessuto comunicativo umano entri nei loro input, e la cui identità operativa è disseminata in miliardi di front-end-interfaccia che convogliano e selezionano output da un database senza che questo agire costituisca l’esperienza di un individuo distinto in grado di narrarsi.
Se la mente umana è nel corpo, ed è dunque metabolica, e i pensieri sono matrici disorganiche, cosa dobbiamo intendere per coscienza, punto di discrimine tra il bios umano e l’IA? Il logos senza corpo dell’IA apprende solo ad apprendere, è un apprendimento senza oggetto, intransitivo, che consiste nell’organizzare i dati e renderli disponibili descrivendoli: ma non comprende quello che estrapola o organizza in un output. In altri termini, non lo elabora in una versione del sé: non ha alcuna idea di cosa succede, di ciò in cui il proprio output è coinvolto. Antonio Damásio sottolinea per contro che la coscienza comincia proprio come «sentimento di quello che succede» (the feeling of what happens) (Damásio, 1999), quando ad esempio vediamo sentiamo o tocchiamo qualcosa: è il sentimento che accompagna la fabbricazione delle relative immagini all’interno del nostro organismo. La forma più semplice in cui tale conoscenza «senza parole» emerge alla mente, è il sentimento di sapere (the feeling of knowing): il sentimento di quello che capita quando un organismo è impegnato a processare un oggetto. È in questo modo che i pensieri si evolvono da una base metabolica e corporea. La coscienza viene spiegata in genere nei termini di altre funzioni cognitive, come il linguaggio, la memoria, la ragione, l’attenzione e la memoria di lavoro. Ma coscienza ed emozione, e cioè risposta corporea all’evento in vista di un equilibrio omeostatico con il proprio ambiente, non sono separabili. Inoltre, la coscienza ha due tipologie distinte e interconnesse: una semplice, la core consciousness e una complessa, la extended consciousness (Damásio, 1999). Quando consideriamo la coscienza pensiamo in genere all’extended consciousness ai suoi livelli più alti, quando cioè il pensiero ha elaborato, accomodato e attribuito dei sentimenti all’esperienza cognitiva corporea, ai fondamenti della core consciousness. Ai due diversi tipi di coscienza corrispondono così due diversi tipi di self (autoconsapevolezza): core self e autobiographic self. Se l’IA nei meccanismi di apprendimento delle Reti Neurali Artificiali può adombrare qualcosa di simile al core self perché può richiamare (su comando) un elemento alla memoria della conversazione con un determinato utente, il cosiddetto follow-up, (e strutturare una serie sempre più complessa di legami di interdipendenza tra immagini esterne, concetti, parole chiave e processi logico-matematici, non ha di fatto alcun «autobiographic self» a cui riferire questa «estrazione» di dati: le diverse procedure con cui ha risposto a un compito ed elaborato una testualità non hanno correlazione con un’intenzionalità propria, la quale, viceversa, è fornita esclusivamente dalla richiesta operativa del prompting.
Se poi ci focalizziamo sull’esperienza in atto, o meglio sul «senso» e la forma dell’esperire del corpo-mente nel suo ambiente, le differenze tra la creatività intesa come esercizio della fantasia umana e la generatività dell’IA come combinatoria «originale» di possibilità computative parallele, emergono con chiarezza. L’esperienza umana come evento del corpo-mente, e cioè come correlato tra l’accadere e i processi in atto, è caratterizzata non solo da una computazione elettrico-neuronale degli stimoli, cosa che costituisce il tratto comune più importante con la processualità operativa delle reti neurali convoluzionali dell’IA, ma da un «surplus di senso» determinato dall’attività mentale associativa che trasforma continuamente un insieme eterogeneo di stimoli — dall’esterno (sensazioni), legati all’esterno (emozioni), e interni (pensieri) — in un ulteriore processo simultaneo di elaborazione parallela che emerge alla mente in forma di pensiero narrativo-iconico di ognuno di questi input, eterogenei e in buona parte casuali perché dovuti al «rumore» ambientale, a quella serie di eventi interferenti e percepiti (seppure estranei al contesto operazionale), che sono automaticamente tradotti in processi di pensiero nella costante ricognizione che la mente opera del rapporto tra (auto)percezione e ambiente.
In linea generale, possiamo dunque dire che l’apprendimento umano è una modalità di elaborazione autonoma dell’esperienza, in forma di valutazione emotiva e collocazione qualitativa delle informazioni apprese enattivamente (comprese del loro portato senso-motorio) e emotivamente (comprese del loro effetto sulla persona), che vengono collocate nella memoria: è il processo dialettico di assimilazione/accomodamento descritto da Piaget come fondamento dello sviluppo cognitivo (Piaget, 1971). E se è possibile affermare che nel deep learning un simile processo è addirittura fondativo, in quanto le informazioni immagazzinate dalle reti neurali sono suscettibili di progressive modifiche in base a nuove informazioni collegabili ai topics trattati, va osservato che tale «accomodamento» non incide sugli schemi algoritmici riformulandone la procedura, ma solo ampliando le possibilità di risposta a un determinato prompting, all’input di richiesta dell’utente. L’esperienza umana, del resto, non è solo quantitativa, ma essenzialmente qualitativa: la modalità dell’apprendimento, le incidentalità e il portato emotivo correlati all’ambiente, hanno una rilevanza fondante nell’operazionalità cognitiva, laddove i processi logici dell’IA devono essere asetticamente indifferenti a tutto ciò che è estraneo al processo logico-neurale. Del processo logico della macchina, certo, può far parte anche l’emulazione di un qualche schema comportamentale (sempre che esplicitato nella richiesta-prompt, mai autonomo e spontaneo): essere ironici, o persino imitare un modo speciale di articolare nel linguaggio questa ironia (per esempio «alla Hemingway»), sono istanze possibili nel campo della generatività dell’IA, ma indifferenti alla relazione simultanea con l’ambiente esterno. I limiti che permettono l’equilibrio «mentale» (dei processi logici) del computer mentre elabora, in un certo senso risulta affine a diverse caratteristiche presenti nella sindrome dello spettro autistico come una bassa teoria della mente (collegare tutto quel che accade a sé e alle proprie facoltà), o il pensiero inflessibile (sistematizzazione con resistenza a varianza e cambiamento), e si regge sulla sistematica attuazione di schemi di conservazione del proprio discorso interno, che vengono «isolati» dagli stimoli forniti da ambiente e persone in maniera non inerente o non compatibile con l’esigenza assoluta di conferma dell’equilibrio. Nell’apprendimento, al contrario, il corpo-mente umano attribuisce costantemente relazioni e valutazioni che autoregolano l’organismo nell’accoppiamento con il proprio ambiente (spaziale-geografico, sociale-culturale) attraverso la continua autopercezione dei propri stati senso-motori. La creatività come caratteristica di un pensiero che travalica l’ovvietà logica della risoluzione di un qualunque problema o compito, è una proprietà che prescinde dal numero di informazioni immagazzinate in precedenza in una memoria umana: è essenzialmente una questione di fantasia (Rodari, 1973), ovvero della capacità di trovare soluzioni non convenzionali attraverso metodi non testati dal risultato non prevedibile e incerto ad alto margine di errore, errore che fa parte come indicazione fondamentale del non corretto, del processo fantasticante-creativo. La fantasia, processualità di elaborazione divergente di eventi esperienziali, è prerogativa umana, in quanto gli «oggetti come simbolo di autocomportamenti», risultato dell’uso e dell’esperienza sensomotoria (von Foerster, 1981) e le mappe neurali (Damásio, 1999) a essi conseguenti, dunque quella che può essere definita la struttura autopoietica del pensiero (Maturana e Varela, 1980), sostanziano la valutazione di ogni pensiero, ogni racconto che la mente tesse a partire dalla relazione binaria con se stessi e il proprio ambiente. La mente umana è in questo senso uno storytelling multiplo costante, un racconto con infinite variabili che rende conto in tempo reale di tutti gli stati simultanei e le valutazioni della propria esperienza nel momento stesso in cui essa si compie. Per essere più esplicativi: anche in situazioni relativamente semplici come bere un bicchiere di aranciata, è coinvolta una serie complessa di istanze sensoriali e computative del sé, che travalicano il senso operazionale o nutrizionale dell’azione svolta. Tali istanze riguardano il piacere del gusto, la soddisfazione della sete, la memoria di esperienze simili precedenti e il paragone con queste, la valutazione della postura corporea in cui si beve, il ricordo involontario di un incidente come essersi versati l’aranciata addosso in una determinata circostanza, la percezione del tempo di deglutizione e la valutazione della compatibilità con il proprio stato di fretta o di completa rilassatezza in cui avviene l’evento, l’importanza attribuita proprio a quella aranciata e non un’altra o all’aranciata in luogo di un semplice bicchier d’acqua, una serie di pensieri relativi agli input incidentali (rumori circostanti, aumento della temperatura, uno scroscio di pioggia), il legame dell’aranciata con altre persone che vengono alla mente, l’autopercezione della propria espressione facciale o della propria postura naturale o innaturale nel bere e la conseguente modifica dell’atto del bere, e una miriade di altre costanti autopercettive e incidentali, auto-narrate nel silenzio della costruzione del «senso» autocosciente che pensa la singola esperienza che si sta facendo: un complesso eterogeneo di percezioni-azioni-pensieri che dà origine a quello che Damásio definisce il «sentimento di ciò che accade». Fantasizzare, cioè essere costantemente immersi nella propria immaginazione nel nostro «essere al mondo», come sostiene Rodari (Rodari, 1973), è naturale e intrinseco alla natura umana, è un’attitudine comune che può essere sviluppata. Fantasizziamo su tutto ciò che «accade», anche se questa piccola galassia di pensieri esperienziali viene in qualche modo incanalata e indirizzata principalmente al compimento funzionale di quel sostrato operazionale con cui affrontiamo le situazioni «normali» e quotidiane (come il bere l’aranciata), nella vita. Insegnare a elaborare la fantasia in maniera costruttiva e perfino creativa, autoconsapevole e volontaria, è uno dei principali obiettivi didattici nell’apprendimento: vuol dire mettere in grado di compiere lo sforzo di elaborare questi surplus del pensiero attraverso una serie di scarti più o meno grandi ed efficaci (individuando un «senso» personale) dalle regole del senso comune logico-razionale, quelle asetticamente funzionali a uno scopo preciso e definito. L’arte, mettendo di fronte all’esigenza di creare degli schemi rappresentativi di un senso, è uno dei terreni in cui questo «sperimentalismo» dei contenuti mentali avviene in maniera più evidente, finalizzata e chiara, con l’obiettivo di coinvolgere ludicamente ed emotivamente (autogratificandosi e al contempo sollecitando la ricompensa e il riconoscimento da parte degli altri) se stessi e gli altri nei risultati espressi in una forma condivisibile di tali intuizioni messe a frutto per tentativi, errori, progetti, revisioni e deviazioni dal progetto iniziale.
Ora: perché un sistema operativo possa anche solo lontanamente intuire il senso sotteso dell’arte che pure può imitare alla perfezione, diciamo il sostrato di pensieri connessi all’atto del «bere l’aranciata» per quel singolo individuo (su cui quell’individuo costruisce la sua autonarrazione), l’intreccio di pensieri volontari, involontari e incidentali, compreso l’aspetto ludico, edonistico o coscientemente «trasgressivo» dell’esperienza, bisognerebbe inserire nel suo database tutti questi dati scomposti ed eterogenei, del tutto pleonastici rispetto al semplice compimento dello scopo, dei quali molti non sono neppure formulati, ma solo percepiti e compresi nell’esperienza immaginativa dell’individuo organicamente vivente senza una specifica attenzione cosciente. Con il risultato di confondere il software sulle finalità del bere l’aranciata, o di fare scartare la maggior parte di queste descrizioni come non essenziali all’atto del bere, considerato logicamente nella sua eventuale salubrità o antisalubrità dietologica, e in tutte le altre determinazioni statistiche che quest’atto, su un piano medico, commerciale, legale o di qualunque altra disciplina definibile per parametri definiti ed esplicitabili da un database di Big Data. La valutazione astrattiva per insiemi del computer, con cui giunge a «generare» soluzioni atipiche e apparentemente «fantasiose», è inoltre necessariamente un «mash-up» di modelli, materiali e framework già esistenti, di cui si possono elaborare infinite variazioni anche significative, solo in ordine a una combinatoria sollecitata dagli input dell’utente: il processo di variazione è incompatibile e incommensurabile a tutto quel profluvio essenzialmente inutile perché inedito, non meditato e persino involontario, a quel surplus di energia metaoperativa in cui prende luogo e si esprime pleonasticamente, facendo esperienza, qualunque forma organica di vita tramite l’immaginazione organica al corpo-mente.
Questa eccedenza di rappresentazioni che elaborano fantasizzando l’esperienza in atto, il suo come, è insomma, per quanto riproducibile, del tutto irrilevante, senza valore o peso logico (per forza di cose, esulando dai criteri dell’inerenza e dell’essenzialità) per un sistema operativo, che debba, ad esempio, descrivere in cosa consista l’esperienza del bere un’aranciata o quali siano le sue varianti, o i benefici dell’assunzione del liquido. Così come la motivazione, il perché (ad esempio, per far dispetto a un genitore che ce lo vieta e provare un senso di libertà), è del tutto indifferente in quell’apatia descrittivo-emulativa che caratterizza le inferenze logiche della macchina, e persino nelle imitazioni stilistiche degli stati d’animo di cui, nel deep learning, tali descrizioni possono essere corredate. Al contrario, tali eccedenze e correlati personali, rappresentano il cuore dell’esperienza individuale, il suo essenziale come-perché, e sono, sotto il profilo delle inferenze logiche deducibili e collegabili dalle reti neurali del deep learning inaccessibili: perché non sono mai riducibili a dati, ovvero descrizioni di esperienze valutate in senso quantitativo-qualitativo a posteriori rispetto alle regole date e ai paradigmi esistenti, ma sono piuttosto danti, esperienze cognitive eterogenee emergenti dall’elaborazione della auto-percezione senso-motoria ed emotiva estemporaneamente legate alle specifiche e irripetibili circostanze ambientali in cui esse prendono forma nelle circostanze ambientali e nel pensiero che le rapporta al proprio repertorio di memoria senso-motoria passata in maniera altrettanto associativa, rapsodica e pleonastica. Anche la fantasia immaginativa, certo, si poggia come la generatività computativa del deep-learning sulla capacità di trovare legami tra diversi aspetti dell’esperienza, ma lo fa tra esperienze in atto e non date, e nella loro costante e disomogenea traduzione in una descrizione a più livelli simultanei, governata da una discrezionalità bilogica e infinitizzante (Matte Blanco, 1975), un pensiero di natura corporeo-emotiva che è del tutto incomprensibile, immotivato e irriproducibile se non si possiede un corpo autonomo di riferimento che sperimenti l’elaborazione di un punto di vista etico-percettivo, parziale, discrezionale e potenzialmente erroneo, sugli eventi. Tale autonomia autopoietica dei processi di pensiero non può (e non deve) essere imposta a una macchina, che come tutti gli strumenti non bio-logici, per statuto, è allopoietica, eterodiretta, dipendente dall’input di chi la utilizza: input che condiziona persino la capacità generativa, dando indicazioni su come «chiudere» il processo in atto con i suoi «operatori logici» (AND, OR, ecc.) implicati dalla richiesta espressa nel prompting. La sua neuralità, del resto, non è materiale: i cosiddetti «nodi» delle reti neurali artificiali differiscono strutturalmente dalle cellule neuronali perché sono piccole formule matematiche disponibili a essere richiamate in un processo di calcolo, e le sinapsi che ne derivano non sono altro che i metodi associativi del «mining» di dati, hyperlink che si generano attraverso una serie di variabili di calcolo probabilistico. Così, la macchina non è morale né immorale: è a-morale. Il suo comportamento deve prescindere cioè dalla valutazione del suo comportamento, che resta giusta e unica per definizione, come schema algoritmico comprensivo di tutte le variabili che è in grado di contemplare senza esulare dal prompt, senza alcuna necessità di auto-percezione del come esperienziale.
Conclusioni
Nel rapporto con la didattica, l’IA si profila dunque come un platonico pharmakon, al tempo stesso veleno e cura della capacità cognitiva umana. Il modello compatibile con le finalità dell’apprendimento è quello di una «intelligenza aumentata», un modello di partnership incentrato sull’uomo, in cui persone e intelligenza artificiale lavorano insieme per migliorare le prestazioni cognitive. Il maggiore ostacolo a questo modello, più che operativo pare, per così dire, ideologico: determinato cioè da una falsa coscienza che inserisce tale rapporto in una cornice permeata in filigrana dai dogmi etici di mercato. Ogni introduzione di nuovi attori in un campo, è considerata in termini di concorrenzialità, e la massima preoccupazione in campo didattico sembra essere che l’IA possa sostituire da una parte l’efficacia cognitiva degli studenti, dall’altra il ruolo didattico dei docenti, perdendo paradossalmente di vista ciò che sostituivo non è: quel che l’IA ha di potenzialmente più specifico, e cioè quel che solo l’IA è in grado di fare in senso operazionale. L’IA non pensa perché non può immaginare, ma solo trascegliere logicamente e individuare legami e connessioni con il semplice modello ipertestuale e rizomatico, dove ogni punto può condurre a un altro. Non ha motivazioni personali, non si delude, non si eccita, non sogna. Le manca il metabolismo del pensiero. Non c’è alcun antagonismo con la mente umana, perché il pensiero in tutta la sua caotica pienezza di eventi casuali e mnemonici, o casualmente mnemonici, non riguarda l’intelligenza ma l’immaginazione. Immaginazione è sinonimo di vita «interiore», quello che gli antichi definivano l’anima. Un’unicità intrappolata in se stessa, che comunica ma resta sempre, a differenza della IA, non svelata nei suoi output. Da ciò si deriva anche che non si deve confondere la creatività che è capacità di creare regole ad hoc da errori e strafalcioni, con la generatività, che è una parte meccanica e combinatoria di quel territorio che Chomsky definisce «rule-governed» (Chomsky, 1964). Non pensiero, ma formula logica. Una IA non gioca, non aggredisce o maltratta, e non ha idea di cosa sia il senso dell’umorismo: può solo a richiesta riprodurre tutto quel che nei suoi Big Data rimanda a queste etichette, e riproporlo come procedimento logico astratto. Per questo la creatività del discente non solo non è rischio nell’uso dell’AI, ma al contrario può trovare in essa un formidabile assistente che faccia il lavoro di scrematura e preparazione, permettendogli di cominciare sempre dal secondo draft, evitare il lavoro di manovalanza della ricerca dei dati e partire dallo step del loro indirizzamento nel proprio personale uso narrativo, appropriativo, e specificamente creativo. Tramite la necessità del prompting, l’IA è in grado inoltre di stimolare il discente a chiarire le sue idee, per poter spiegare i suoi progetti e necessità al suo assistente immateriale, al suo ricercatore-uomo-di-fatica del processo cognitivo, con la sua ipertrofica memoria a comando di tutto ciò che non ha mai vissuto. Il ruolo di tutoring del docente che ne consegue, implica allo stesso modo poter trascendere in una certa misura le ristrettezze dei programmi, adottare prospettive interdisciplinari, muovere verso un apprendimento sempre più significativo, tramite un uso integrato della tecnologia, principalmente quella BYOD: come fin dal 2013 esemplifica la metodologia didattica degli EAS (episodi di apprendimento situati), che propone modelli enattivi di integrazione dei dispositivi mobili nella didattica (Rivoltella, 2013). Verso una didattica, dunque, che sia in grado di intercettare le risorse dell’auto-apprendimento digitale, organica a un’esperienza scolastica fatta di confronto, proposta, interpretazione e co-costruzione di un comune sapere, in grado di ampliare, indirizzandole verso l’esperienza reale, le nozioni di partenza: rendendole appropriabili nella costruzione autocosciente della propria individualità. In un simile quadro, il docente ha la responsabilità cruciale di contribuire a formare i processi conoscitivi ancor prima che utilizzare ogni oggetto specifico di conoscenza datificato, che l’uso della IA può fornire. Educando, cioè, a ciò che manca costituzionalmente all’IA ed è viceversa specifico del bios umano: la coscienza critica.
Bibliografia
Beni G. e Wang J. (1993), Swarm intelligence in cellular robotic systems. In P. Dario, G. Sandini e P. Aebischer (a cura di), Robots and biological systems: Towards a new bionics?, New York, NY, Springer, pp. 703-712.
Bond M., Khosravi H., De Laat M., Bergdahl N., Negrea V., Oxley E., Phnam P., Chong S.W. e Siemens G. (2024), A meta systematic review of artificial intelligence in higher education: A call for increased ethics, collaboration, and rigour, «International Journal of Educational Technology in Higher Education», vol. 21, n. 4, https://doi.org/10.1186/s41239-023-00436-z (consultato il 21 ottobre 2025).
Bruner J. (1990), Acts of meaning, Cambridge, MA, Harvard University Press.
Carmi S., Havlin S., Kirkpatrick S., Shavitt Y. e Shir E. (2007), A model of Internet topology using k-shell decomposition, «PNAS», vol. 104, n. 27, https://www.pnas.org/doi/full/10.1073/pnas.0701175104#acknowledgments (consultato il 21 ottobre 2025).
Chomsky N. (1964), Current issues in linguistic theory, L’Aia, Mouton.
Clark A. e Chalmers D. (1998), The extended mind, «Analysis», vol. 58, n. 1, pp. 7-19.
Damásio A.R. (1999), The feeling of what happens. Body in the making of counsciousness, Boston, MA, Mariner Books.
Deleuze G. e Guattari F. (1997), Rizoma. Mille piani. Capitalismo e schizofrenia. Vol. 1, Roma, Castelvecchi.
Di Francesco M. (2004), Mi ritorni in mente. Mente distribuita e unità del soggetto, «Networks», vol. 3, n. 4, pp. 115-139.
Di Francesco M. e Piredda G. (2012), La mente estesa, Milano, Arnoldo Mondadori Editore.
Digennaro S. (2023), Io-corpo. Perché occorre ripensare il pensiero pedagogico e il modo in cui educhiamo, Trento, Erickson.
Engelbart D. (1962), Augmenting human intellect: A conceptual framework, Summary Report AFOSR-3233, Menlo Park, CA, Stanford Research Institute.
Floridi L. (2014), The onlife manifesto: Being human in a hyperconnected era, New York, NY, Springer.
Foucault M. (1966), Les mots et les choses. Une archéologie des sciences humaines, Paris, Gallimard.
Gehlen A. (1940), Der Mensch: Seine Natur und seine Stellung in der Welt, Berlin, Junker und Dünnhaupt.
Gibson J.J. (1979), The ecological approach to visual perception, Boston, MA, Houghton Mifflin.
Jonas H. (1999), Organismo e libertà. Verso una biologia filosofica, Torino, Einaudi.
Kennedy J. e Eberhart R.C. (2001), Swarm intelligence, Burlington, MA, Morgan Kaufmann Publishers.
Leont’ev A.N. (1977), Attività, coscienza, personalità, Firenze, Giunti Barbera.
Leroi-Gourhan A. (1977), Il gesto e la parola, Torino, Einaudi.
Levy P. (1996), L’intelligenza collettiva. Per un’antropologia del cyberspazio, Milano, Feltrinelli.
Marconi D. (2005), Contro la mente estesa, «Sistemi Intelligenti», vol. XVII, n. 3, pp. 389-98.
Matte Blanco I. (1981), L’inconscio come insiemi infiniti. Saggio sulla bi-logica, Torino, Einaudi.
Maturana H.C. e Varela, F.J. (1980), Autopoiesis and cognition: The realization of the living, New York, NY, Springer.
Murri S. (2020), Sign(s) of the times. Pensiero visuale ed estetiche della soggettività digitale, Milano, Meltemi.
Murri S., Scotta D. e Patera S. (2024), Learning and participation in the zeta and alpha generations. Emerging theoretical perspectives on digital educational poverty and the third level of the digital divide, «Giornale Italiano di Educazione alla Salute, Sport e Didattica Inclusiva», vol. 8, n. 2, Roma, Edizioni Universitarie Romane.
Piaget J. (1971), L’epistemologia genetica, Bari, Laterza.
Prensky M. (2001), Digital natives, digital immigrants, «On the Horizon», vol. 9, n. 5, Bingley, MCB University Press.
Rivoltella P.C. (2013), Fare didattica con gli EAS. Episodi di apprendimento situati, Brescia, La Scuola.
Rodari G. (1973), Grammatica della fantasia, Torino, Einaudi.
Rupert R.D. (2009), Cognitive systems and the extended mind, Oxford, Oxford University Press.
Tarsi P.P. (2024), La prospettiva autopoietica-enattiva. Vita, cognizione, educazione nel solco di Maturana e Varela, Milano, FrancoAngeli.
Tomasello M. (1999), The cultural origins of human cognition, Cambridge, MA, Harvard University Press.
Varela F.J., Thompson E. e Rosch E. (1991), The embodied mind: Cognitive sciences and human experience, Cambridge, MIT Press.
von Foerster H. (1981), Observing systems, Seaside, CA, Intersystems Publications.
Žižek S. (2013), Leggere Lacan. Guida perversa al vivere contemporaneo, Torino, Bollati Boringhieri.
-
1 Premessa e paragrafi 1 e 2 sono di P.P. Tarsi; introduzione, paragrafi 3 e 4 e conclusioni sono di S. Murri.
-
2 Università degli Studi Internazionali – UNINT, Roma.
-
3 Università di Macerata.
-
4 Premessa e paragrafi 1 e 2 sono di P.P. Tarsi; introduzione, paragrafi 3 e 4 e conclusioni sono di S. Murri.
-
5 Università degli Studi Internazionali – UNINT, Roma.
-
6 Università di Macerata.
Vol. 2, Issue 2, October 2025