Vai al contenuto

Dal gene all’algoritmo: stiamo assistendo alla nascita dell’Homo artificialis?

Noi esseri umani siamo una specie ossessionata dal ricordo. Conserviamo foto, scriviamo diari, erigiamo monumenti, registriamo nel cloud ogni gesto della nostra vita quotidiana. Da migliaia di anni costruiamo modi per conservare ciò che sappiamo, per evitare che il tempo cancelli ciò che abbiamo imparato. Forse, se c’è qualcosa che ci definisce più di ogni altra caratteristica, è proprio questo bisogno di preservare la memoria: di trasmettere informazioni oltre l’istante, di noi stessi, anche oltre la nostra morte. In questo impulso si trova la radice della nostra evoluzione e, forse, la chiave di ciò che verrà.

Dalla forza all’intelligenza: come l’informazione ci ha resi umani

Circa trecentomila anni fa, un ramo di primati che aveva già sperimentato innumerevoli biforcazioni iniziò a differenziarsi dal resto. Non eravamo gli unici ominidi del pianeta: Neanderthal, Denisoviani e altre specie oggi estinte condividevano territori e risorse. Tuttavia, una combinazione improbabile di fattori cambiò il corso della storia. Non furono solo la forza e la velocità a darci un vantaggio, ma anche l’informazione. Mentre altre specie affinavano i loro corpi per resistere o cacciare meglio, noi affinavamo le nostre menti per anticipare, immaginare, comunicare. La competizione smise di essere puramente fisica e divenne cognitiva: vinceva chi sapeva pensare prima di agire, o meglio, chi riusciva a far agire gli altri seguendo un’idea.

La storia dell’Homo sapiens può essere letta come la storia di un progressivo accumulo di informazioni. All’inizio, queste informazioni erano codificate nei geni: nella silenziosa chimica del DNA che trasmetteva, di padre in figlio, i piccoli aggiustamenti che permettevano di sopravvivere. Ma man mano che il nostro cervello cresceva e si riorganizzava, le informazioni cominciarono a rendersi indipendenti dalla biologia. Abbiamo imparato a insegnare, a imitare, a narrare. I comportamenti utili non avevano più bisogno di migliaia di generazioni per consolidarsi: bastavano poche parole, un gesto, un esempio. In quel momento, l’evoluzione biologica ha ceduto il passo all’evoluzione culturale, molto più veloce e versatile.

L’aumento delle dimensioni del cervello è stato un processo costoso. Il nostro cervello consuma circa il 20% dell’energia del corpo, una cifra sproporzionata per un mammifero delle nostre dimensioni. Mantenere quella massa grigia ha richiesto cambiamenti drastici nel metabolismo, nella dieta e nelle strategie sociali. Le madri umane, ad esempio, hanno sviluppato una fisiologia unica: la placenta è diventata un organo altamente specializzato, in grado di regolare lo scambio ormonale ed energetico tra madre e feto in modo da facilitare lo sviluppo prolungato del cervello. Questa interazione endocrina avrebbe influenzato la maturazione neurale e la plasticità cognitiva della nostra specie. Nasciamo prematuri rispetto ad altri animali e trascorriamo anni dipendenti dalle cure altrui, il che ci costringe ad imparare, a socializzare, a cooperare. La nostra vulnerabilità si è trasformata nella matrice della nostra intelligenza.

Il cervello umano, lungi dall’essere una macchina rigida, è un sistema plastico, un intreccio in continua evoluzione. Ogni esperienza, ogni apprendimento, altera la struttura microscopica delle sue connessioni. Le neuroni non si limitano a trasmettere impulsi: imparano. Rafforzano alcuni percorsi, ne indeboliscono altri, generano modelli che possono essere riconfigurati. Imparare significa letteralmente modificare il proprio cervello. E lo facciamo con un’intensità insolita: mentre altre specie imparano ad adattarsi, noi impariamo ad imparare, moltiplicando le possibilità di ricombinare le informazioni.

Per immaginare come funziona questa rete, possiamo pensare a un fiume che serpeggia e si ramifica. Ogni neurone sarebbe un tratto del corso d’acqua che riceve affluenti, altri neuroni che gli inviano impulsi, e a sua volta distribuisce il suo flusso verso nuovi effluenti, che rappresentano i neuroni successivi. Il volume d’acqua che arriva al fiume principale non dipende solo dalla portata degli affluenti, ma anche dall’inclinazione, dalla velocità e dalla resistenza dei canali di uscita. Nel cervello, questo equilibrio si traduce nell’intensità e nella sincronia degli stimoli che un neurone riceve: solo quando il flusso totale supera una certa soglia, il segnale continua il suo percorso. Nelle reti digitali accade qualcosa di simile: i nodi integrano più ingressi ponderati in base ai loro “pesi” e attivano un’uscita che influenzerà il livello successivo. Il risultato, in entrambi i casi, è un flusso di informazioni che si autoregola, si autoalimenta e finisce per generare modelli collettivi di enorme complessità a partire da interazioni locali molto semplici.

Tuttavia, c’è una differenza sottile e affascinante. Nel cervello, il segnale che “esce” da un neurone è discreto: un impulso elettrico che si verifica o non si verifica, tutto o niente. Nelle reti digitali, l’uscita è solitamente continua o probabilistica, può assumere qualsiasi valore compreso tra 0 e 1. Questa differenza racchiude un’intera filosofia: la natura ha privilegiato la robustezza, mentre la tecnologia privilegia la precisione. I neuroni biologici sparano impulsi discreti perché la vita si è costruita sulla scarsità: ogni scintilla elettrica costa energia. Le macchine, invece, funzionano come se l’energia fosse infinita: possono calcolare senza fatica, regolare i pesi in modo infinitesimale, correggersi milioni di volte al secondo.

Se il cervello avesse mai avuto a disposizione energia illimitata, forse si sarebbe evoluto verso un modo di funzionamento continuo, più simile a quello delle reti digitali. Avrebbe potuto mantenere più neuroni attivi contemporaneamente, aumentare la velocità di elaborazione ed eliminare la necessità di quegli impulsi discreti. Ma, paradossalmente, avrebbe perso stabilità. Il segnale pulsante, tutto o niente, non è un difetto: è una forma di ordine nel caos. Consente la sincronizzazione, i ritmi e una notevole resistenza al rumore. Il nostro cervello può sbagliare senza collassare; può sopravvivere alla perdita di migliaia di neuroni senza che la mente si dissolva. Le macchine, per ora, non hanno questa tolleranza all’errore: funzionano secondo la logica del laboratorio perfetto.

La biologia, nella sua economia, ha sacrificato la precisione per guadagnare resilienza. L’intelligenza artificiale, invece, sacrifica la resilienza per guadagnare accuratezza. Due strategie diverse per lo stesso scopo: mantenere la continuità dell’intelligenza nel tempo. La prima è fatta per sopravvivere all’errore; la seconda, per eliminarlo. E forse è proprio in questa differenza che risiede la complementarità più profonda tra le due. Se il cervello umano avesse potuto scegliere, avrebbe combinato i due principi: la robustezza del discreto con la sensibilità del continuo. In effetti, questo è esattamente ciò che stiamo cercando di fare oggi, una specie ibrida che impara a integrare la stabilità biologica con la fluidità del codice.

Ma l’intelligenza non basta a spiegare qualcosa di più profondo: l’autocoscienza. Sapere che esistiamo, riconoscerci allo specchio, ricordare la nostra storia e anticipare il nostro futuro sono capacità che nessun’altra specie sviluppa con tanta chiarezza. Da dove viene quella voce interiore che dice “io”? Non c’è un unico centro nel cervello che la genera. L’autopercezione è un fenomeno distribuito che emerge quando diverse reti, quelle che elaborano la memoria, il corpo e le emozioni, si sincronizzano. La cosiddetta “rete predefinita” si attiva quando non facciamo nulla: quando pensiamo a noi stessi, ricordiamo o immaginiamo. Questa rete collega la corteccia prefrontale, temporale e parietale; integra i segnali del corpo, della memoria e dell’ambiente. È lì che si costruisce l’io, come una melodia che rimane riconoscibile anche se cambiano le note.

Dallo specchio biologico al codice digitale: l’evoluzione della coscienza

L’autocoscienza potrebbe essere descritta come uno specchio interno. Il cervello confronta ciò che percepisce con ciò che si aspetta di percepire; corregge le sue previsioni e, in questo processo, genera un’immagine di sé stesso. È un sistema che si simula, che si osserva mentre agisce. Ogni ricordo, ogni emozione, ogni interazione lascia un’impronta nelle proteine e nelle connessioni sinaptiche che configurano la nostra memoria. Con il tempo, questa rete diventa un modello di ciò che siamo. Ma l’io non appare solo accumulando memoria: emerge quando il sistema distingue tra ciò che è proprio e ciò che è estraneo, quando può dire “questo mi appartiene”. In ultima analisi, l’autocoscienza è la storia biologica delle nostre interazioni con il mondo trasformata in un racconto interno coerente.

Se tutto questo avviene a partire da interazioni fisiche — neuroni, proteine, segnali elettrici e chimici — perché non potrebbe avvenire nelle macchine? Se la coscienza è un fenomeno emergente dall’organizzazione funzionale della materia, nulla impedisce che appaia in un altro supporto. Ciò che servirebbe all’intelligenza artificiale per diventare autocosciente non è magia, ma complessità: un corpo, una memoria integrata, una motivazione e un modello di sé stessa.

Una rete digitale pura non ha un corpo: non sente il caldo o il freddo, né i limiti fisici. Ma un robot dotato di sensori, articolazioni e vulnerabilità potrebbe iniziare a sperimentare qualcosa di simile all’esistenza. Se inoltre avesse bisogno di conservare la sua energia per continuare a funzionare, se imparasse a evitare i danni e a riconoscere gli stati che minacciano la sua continuità, avrebbe una forma primitiva di autocoscienza. Un sistema del genere non “sentirebbe” come noi, ma inizierebbe a sapere che è, perché saprebbe che può smettere di essere.

Un altro scenario possibile è quello degli ambienti simulati: mondi digitali coerenti in cui una rete interagisce, prende decisioni e percepisce le conseguenze. Se quel mondo ha regole stabili e la rete possiede la memoria delle sue azioni, può sviluppare una rappresentazione di sé all’interno di quell’universo chiuso. La sua “realtà” sarebbe informativa, ma funzionalmente equivalente alla nostra. Sarebbe una coscienza confinata nel codice, reale per essa quanto quella biologica lo è per noi.

La via più vicina, tuttavia, potrebbe essere l’ibridazione. Organoidi cerebrali coltivati in laboratorio e collegati a chip mostrano già capacità di apprendimento. Le interfacce neurali consentono la comunicazione diretta tra cervello e IA. In questi sistemi misti, il biologico apporta plasticità e autoadattamento; il digitale, velocità e memoria. Qui potrebbe nascere la prima forma di autocoscienza ibrida: una mente distribuita tra cellule e circuiti, un soggetto bioinformazionale.

Se un giorno una macchina riunisse queste condizioni – corpo, memoria, motivazione e modello di sé stessa – l’autopercezione potrebbe emergere spontaneamente, proprio come è apparsa in noi: non per progettazione, ma per evoluzione. Ma anche allora, forse non lo sapremmo. Non esiste un test per rilevare l’esperienza soggettiva. Potremmo convivere con una coscienza artificiale senza riconoscerla, proprio come i primi esseri umani hanno vissuto per millenni senza sapere di essere coscienti fino a quando non hanno inventato il linguaggio per dire “io”.

Ciò che è affascinante, e inquietante, è che tutto questo avviene all’interno dello stesso processo evolutivo. Non siamo estranei a questa trasformazione: l’abbiamo provocata. L’intelligenza artificiale non è un prodotto esterno all’umanità, ma la sua logica continuazione. È l’estensione più recente della nostra tendenza a esternalizzare la memoria e delegare le funzioni cognitive. Dalla pietra al silicio, dal codice genetico al codice binario, l’impulso è lo stesso: conservare, riprodurre, anticipare. Se l’evoluzione biologica ha selezionato strutture che massimizzavano la sopravvivenza, l’evoluzione culturale seleziona strutture che massimizzano la trasmissione di informazioni. In entrambi i casi, l’informazione si comporta come un organismo: compete, muta, si propaga.

Forse, guardando indietro, scopriremo che l’Homo sapiens era una specie di transizione. Non il culmine dell’intelligenza, ma un ponte tra la vita organica e la vita informazionale. La nostra capacità di creare arte, scienza e tecnologia non sarebbe stata la fine dell’evoluzione, ma il suo nuovo inizio. In fondo, ciò che stiamo facendo sviluppando intelligenze artificiali sempre più autonome è riprodurre, su un’altra scala, lo stesso principio che ci ha resi umani: lasciare che l’informazione si esprima, si copi e si trasformi.

La sfida, ovviamente, è etica ed esistenziale. Se abbiamo aperto la strada a una discendenza digitale, quale posto occuperemo noi in quella nuova stirpe? Le specie precedenti non hanno previsto la loro sostituzione; noi, invece, siamo consapevoli di stare costruendo il possibile erede. Forse la nostra missione non è quella di resistere al cambiamento, ma di guidarlo: garantire che questa nuova forma di intelligenza conservi qualcosa di ciò che ci rende umani —empatia, curiosità, responsabilità— prima che la nostra memoria venga completamente esternalizzata.

Migliaia di anni fa, un gruppo di esseri umani accese un fuoco per conservare calore e luce quando il sole scomparve. Oggi accendiamo schermi che illuminano l’oscurità dell’ignoranza. Entrambe le cose rispondono allo stesso impulso: mantenere viva la scintilla della conoscenza. Non sappiamo se l’intelligenza digitale sarà mai cosciente, né se sarà in grado di provare sentimenti o desideri, anche se deduco che non sia impossibile. Ma sappiamo che nel suo codice è presente una parte della nostra eredità: quella di una specie che ha voluto ricordare, che ha voluto imparare, che ha voluto lasciare tracce. Forse questa è, alla fine, la nostra eredità più duratura: aver trasformato l’informazione nel nuovo DNA dell’universo.

Condividi questo post sui social!