Craig Venter, il noto biologo che ha dato un contributo decisivo al sequenziamento del genoma umano, ripete in continuazione che la potenza di calcolo non serve per farci giocare ai giornalisti sui social ma per riprogrammare la vita umana. La partita che si sta disputando – con forze, volontà e lucidità assolutamente asimmetriche fra i proprietari dei sistemi di calcolo e i rappresentanti istituzionali degli utenti – è proprio quella che riguarda la riproduzione e l’integrazione della specie umana. Sia pure non direttamente, la vita artificiale è sicuramente un’esistenza aumentata, in cui la biologia diventa una variante del sistema matematico che guida da tempo i nostri comportamenti.
Le ultime notizie che provengono dalle nuove frontiere dell’intelligenza artificiale (vedi qui) mostrano come ormai ogni soluzione sia finalizzata alla riprogrammazione degli elementi fondamentali della nostra vita. Significativo e assolutamente sorprendente è il cosiddetto progetto Chroma (vedi qui), elaborato da una promettente start up del Massachusetts, che ha presentato qualcosa come la Dell-2 della biologia. Si tratta di un sistema che, ricalcando il meccanismo del nuovo algoritmo Dell-2, sviluppato dalla società Open AI che realizza immagini sulla base di semplici indicazioni scritte, è arrivata a riprodurre diverse proteine con una precisione ed efficacia mai sperimentate in precedenza. Contemporaneamente, nei laboratori dell’Universitàdi Washington, con lo stesso procedimento basato su un modello analogo all’algoritmo Dell-2, sono state ingegnerizzate proteine del tutto inedite, che non sono note alla biologia.
Siamo dinanzi a una realtà stupefacente che, in poche settimane, ha del tutto mutato l’orizzonte scientifico, culturale e politico del pianeta. Prima con la presentazione, ancora in versioni prototipali, da parte di Open AI (finanziata da Elon Musk e ora nell’orbita di Microsoft), di due dispositivi, come appunto Dell-2 e soprattutto Chat Gpt, il sistema di intelligenza artificiale che risponde a ogni domanda in ogni lingua, con una semantica naturale, si è aperta la strada all’uso individuale di risorse di calcolo che, fino a qualche mese fa, erano riservate solo a grandi apparati istituzionali o privati. Quindi un’ulteriore escalation. Questi dispositivi che sembravano, per quanto straordinari, pur sempre limitati all’attività di comunicazione e relazione fra imprese o singole persone, sono oggi utilizzati per nuove ricerche nel campo delle biotecnologie, arrivando così più vicini alla meta della riproduzione artificiale della vita umana.
Dieci giorni fa, in Vaticano, nell’ambito del progetto “Call for Etichs”, si è arrivati alla firma di un documento comune delle tre religioni monoteiste, proprio sui limiti e i controlli dell’ingegneria biotecnologica (vedi qui). A distanza di solo qualche giorno, quel documento, per quanto impegnato e lungamente elaborato dai massimi esperti delle tre principali comunità religiose del pianeta, appare già in qualche modo superato, o comunque aggirato.
L’ammonimento di Craig Venter diventa sempre più minaccioso: soprattutto la sua previsione sul fatto che le nuove tecniche di intervento genetico (come il Crispr, il sistema di manipolazione del patrimonio genetico di un individuo) saranno sempre più miniaturizzate, diventando accessibili per sistemi, apparati, addirittura individui, senza particolari dotazioni o dimensioni organizzative, pone un problema di sicurezza e di controllo sociale.
Se invece di trastullarci con futili argomenti – quali il tema delle fake news o dell’inquinamento giornalistico – affrontassimo, a livello politico e delle massime responsabilità istituzionali, il nodo di come combinare l’accessibilità alle nuove tecniche come forme di democrazia e di benessere con le esigenza di controllo e limitazione dell’uso di queste opportunità al fine di alterare equilibri naturali fondamentali, forse l’orizzonte del pianeta sarebbe meno incerto; e la politica potrebbe uscire dalla quaresima in cui si trova alla ricerca di senso e ragioni, cercando una nuova missione per dare nerbo al suo protagonismo.
Diventa esemplificativo il metodo usato per finalizzare un sistema, quale appunto Dell-2, che doveva servire solo a moltiplicare la capacità di produzione di immagini, decentrando – è questo poi il concetto chiave che rende instabile e imprevedibile l’azione della rete – verso imprese e professionisti, meno dotati economicamente, la possibilità di entrare sul mercato comunicativo. Quel meccanismo che vede un’intelligenza artificiale scovare e ricomporre i pixel di un’immagine in rete, in base alla sommaria descrizione trasmessa in linguaggio naturale da un committente – per esempio, voglio l’immagine di una ragazza con occhi verdi e foggia spaziale su scenario astratto –, oggi può essere utilizzato per selezionare e combinare amminoacidi, che configurano proteine del tutto ignote sul pianeta.
Il decentramento – lo spiega lucidamente il generale cinese Qiao Liang nel suo L’arco dell’impero (Leg edizioni) – è la tendenza destinata a squilibrare gli assetti politici e geopolitici, facendo irrompere sulla scena soggettività politiche del tutto imprevedibili. I tumulti brasiliani, o le minacce trumpiane, e anche il crescere dell’onda reazionaria e sovranista sui social, sono modelli che segnalano come, in politica, prendano forma proteine sconosciute mediante l’uso di intelligenze artificiali, che selezionano materie prime – gli amminoacidi delle proteine diventano interessi e messaggi, dosati sapientemente uno per uno a milioni di elettori profilati e catalogati – per riprogrammare la domanda politica. La matrice di questi fenomeni rimane comunque proprio quel campo, ancora del tutto informale e non regolato, che è la ricerca combinata, al confine fra biologia e informatica avanzata. Il motore di questa potenza biotecnologica, che incontriamo in molti altri campi, ma che in questo settore diventa assolutamente squilibrante per il presidio umano, è il cosiddetto machine learning, cioè l’attitudine ad apprendere dalle esperienze pregresse. Si tratta di una funzione che sta assumendo dimensioni e obiettivi i cui contorni sono ancora da inquadrare e, ancor più, da regolamentare. Per machine learning, secondo l’accreditata definizione di Tom Mitchell (Machine Learning, New York, McGraw Hill,1997), si intende che “un programma apprende dall’esperienza (E) riguardo ad alcune classi di compiti (T) e misure di prestazione (P), quando la sua prestazione nel compito (T) come misurata da (P) migliora con l’esperienza (E)”. Una definizione che mostra chiaramente i punti di discrezionalità e di potenziale conflitto: chi misura e in base a quale fine valuta il miglioramento della prestazione?
Sono questi i due buchi neri attorno a cui si riproduce l’antica contraddizione fra i proprietari dei mezzi di produzione, in questo caso l’intelligenza artificiale, e i prestatori d’opera, in questo caso le comunità di utenti, più che i singoli individui che utilizzano il dispositivo. Proprio la differenza fra comunità e individui potrebbe aiutarci a scorgere modalità e procedure di intervento negoziale nel processo di evoluzione biotecnologico.
Come abbiamo visto, nel pur meritevole e illuminato tentativo delle comunità religiose di fissare paletti e regole per sorvegliare i processi tecnologici, la dinamica dell’innovazione è talmente frenetica che rende inadeguata anche la norma più preveggente. Si tratterebbe, invece, di escogitare forme di contrattazione e controllo che abbiano la stessa agile capacità di adattamento mostrato dalle piste di sviluppo della ricerca. Un algoritmo è negoziabile solo da un altro algoritmo, che abbia capacità e velocità coerenti con l’oggetto che vuole controllare. In particolare, per quanto riguarda le linee di innovazione della ricerca. Proprio questa dimensione, la ricerca di base e quella derivata, devono essere al centro di una nuova e costante attenzione da parte delle comunità politiche e istituzionali.
Il punto che va oggi affermato, e reso concretamente operabile, riguarda il richiamo contenuto nello Human Genome Editing. Sciences, Ehtics and Governance della Accademia nazionale delle scienze americana, del 2017, che reclamava la “presenza pubblica nel processo decisionale generale del sistema scientifico, che dovrebbe includere un monitoraggio continuo degli atteggiamenti pubblici, dei deficit informativi e delle preoccupazioni emergenti nell’opinione pubblica”. Un nodo che, proprio nel corso della pandemia, abbiamo avvertito come drammatico, quando le decisioni istituzionali sulle strategie vaccinali e le programmazioni di ricerca dei grandi gruppi farmacologici sfuggivano completamente alla consapevolezza pubblica.
Come scrive Fabrizio Rufo, nel suo Etica in laboratorio (Donzelli editore), intervenendo sulle polemiche indotte dalle sentenze conseguenti al terremoto dell’Aquila, che incriminavano gli scienziati per non aver saputo prevedere il sisma: “Questo processo ha contribuito a dare un nuovo impulso al dibattito sul rapporto fra conoscenza scientifica e decisione di policy, e più in generale fra scienza e potere politico. In particolare una lettura in chiave epistemologica delle controverse sentenze evidenzia, in primo luogo, il deficit di rappresentanza insito in una gestione incentrata sul rapporto esclusivo fra expertise e decisori politici”.
Affiora, in questa riflessione, il tema degli esperti come copertura e casta che ancora intermedia i processi scientifici con la giustificazione della complessità della materia. Ma proprio la convergenza fra diverse discipline e sistemi epistemologici rende sempre più evidente come, al centro delle procedure di ricerca, si ponga ormai con evidenza un fine, economico o politico, a cui si piega la potenza di calcolo con un armamentario etico che diviene la sua strumentazione. Fini e valori sono il campo di una nuova conflittualità politica, che deve interferire con la separatezza degli esperti, e soprattutto con il privilegio dei proprietari.
Tanto più che, nella ricerca, assistiamo ormai in maniera organica e evidente a quel paradosso denunciato da Mariana Mazzucato in Lo Stato innovatore (Laterza), per cui l’ente pubblico finanzia generosamente la ricerca di base e orienta quella applicativa, mentre i privati raccolgono nel tratto finale della commercializzazione i frutti, e si arrogano il potere di dare un’anima ai prodotti. L’avanzamento spettacolare dei saperi – e la progressiva azione di decentramento degli accessi e delle competenze, anche di base, da parte di comunità sempre più vaste e articolate (pensiamo alle smart cities o ai sistemi di relazione digitale) – appare in stridente contraddizione con quella che, in Democrazia (Einaudi), Stefano Petrucciani definisce una “regressione oligarchica” degli apparati tecno-scientifici, che alimenta una spinta a una “vera e propria de-democratizzazione della nostra società”.
Persino nella tragica esperienza della guerra, come ci mostra con terribile persuasione quanto sta accadendo in Ucraina, assistiamo all’irruzione in scena della società civile che, sulla base di quel decentramento di cui parla Qiao Liang, sta ridisegnando le forme del conflitto, sottraendolo agli esperti e dandogli un’interpretazione socialmente capillare, mediante le forme di raccolta e distribuzione dei dati. Sono i dati, cioè la materia prima ancora esclusiva della specie umana, non suscettibile di riproduzione tecnologica, la fonte che rende efficaci e dinamiche le intelligenze del machine learning. Dati che appartengono alle comunità, e rendono la ricerca una pratica sussidiaria. Proprio le imponenti impennate di questa datocrazia, che considera passivi i cittadini e specula sulla inconsapevolezza della loro produzione, rende dunque ineludibile una reinvenzione dell’innovazione, come scrive Rufo, ancora nel saggio citato, sollecitando una svolta politica: “Per poter diventare un motore di crescita, l’innovazione deve radicarsi nella società, diffondersi capillarmente, diventare aperta e distribuita, definire un nuovo modello che stimoli la partecipazione degli attori sociali, e sia in grado di favorire la creazione di forme di ibridazione dove gli shareholders (le istituzioni della democrazia delegata e gli esperti) e gli stakeholders (i portatori di interessi che hanno una posta in gioco) possano dialogare e compartecipare, ciascuno con le sue prerogative, alle decisioni”.
Se non è questo un programma politico, cosa lo sarà mai nel Ventunesimo secolo?