
(di Milena Gabanelli e Francesco Tortora – corriere.it) – Si chiama «lungotermismo» il concetto filosofico che ha conquistato i miliardari della Silicon Valley. Lanciato nel 2017 da due giovani studiosi dell’Università di Oxford, William MacAskill e Toby Ord, per promuovere la solidarietà intergenerazionale, spiegando che non bisogna pensare solo al benessere delle generazioni di oggi, ma anche a quelle che vivranno in un futuro molto lontano. Questo movimento culturale nato con lo scopo di sensibilizzare l’opinione pubblica per la sopravvivenza del pianeta, e con il quale non possiamo che essere tutti d’accordo, nel corso di pochi anni ha via via definito le strade da percorrere e oggi è accusato di essere il veicolo di un’ideologia molto pericolosa. Perché?
Perché le generazioni future sono più importanti
I lungotermisti partono da un assunto: grazie allo sviluppo tecnologico ci troviamo in una fase cruciale, e le scelte fatte in questo secolo potrebbero plasmare il futuro della storia dell’umanità. Come precisa il filosofo scozzese MacAskill, siamo solo agli albori: i mammiferi vivono in media sulla Terra un milione di anni e visto che la nostra specie, l’Homo sapiens, si è evoluta «solo» 300 mila anni fa, ha davanti a sé altri 700 mila anni. Significa che la maggior parte degli esseri umani vivrà nei prossimi millenni: un potenziale di 80 mila miliardi di persone contro i 100 miliardi che sono già transitati sul pianeta. Dunque per garantire alle generazioni che verranno, pur molto lontane, i nostri stessi diritti, occorre prendere oggi decisioni che tengano conto anche del loro benessere. Anzi, per i fautori più radicali del movimento filosofico (lungotermismo forte) bisogna dare priorità al benessere di chi vivrà dopo di noi, perché saranno molti di più. E invece, secondo MacAskill, l’umanità si comporta come un «adolescente imprudente» che guarda esclusivamente al contingente, mentre occorre cambiare la traiettoria della civiltà per migliorarla. Siamo tutti consapevoli di questo, ma in concreto qual è la strada da percorrere?
I rischi esistenziali
Prima di tutto bisogna evitare quelle catastrofi permanenti che secondo il filosofo svedese Nick Bostrom possono determinare la fine della «vita intelligente originata sulla Terra». Il pericolo maggiore arriva dall’intelligenza artificiale avanzata. Per i lungotermisti il rischio più grande dei prossimi 50 anni è la possibilità che le macchine si dotino di autocoscienza e diventino incontrollabili imponendo una società che non contempli i valori umani. Va dunque tenuta sotto controllo, e in casi estremi occorre rallentare alcune aree della ricerca. In una lettera pubblica firmata da studiosi e magnati delle big tech tra cui Bill Gates, Sam Altman e l’ex co-fondatore di Facebook Dustin Moskovitz, si legge che «mitigare il rischio di estinzione causato da intelligenza artificiale, pandemie, e guerra nucleare, dovrebbe essere una priorità globale». Tra i rischi esistenziali i lungotermisti segnalano anche il riscaldamento climatico, ma in questo caso il pericolo può essere mitigato attraverso la conquista di altri pianeti.
La conquista dello spazio
La conquista dello spazio e il dominio delle galassie è un tema prioritario. Bisogna puntare su crescita economica e progresso tecnologico, fare scelte radicali secondo una rigida logica matematica di costi-benefici che potrebbe comportare anche grossi sacrifici. Ad esempio, parafrasando il lungotermista pentito Émile P. Torres, tra salvare oggi le 733 milioni di persone che nel 2024 soffrono la fame e investire risorse pubbliche e private in una tecnologia innovativa, i lungotermisti non avrebbero dubbi. La tecnologia sarebbe quella che, in un futuro lontano, permetterebbe agli esseri umani di «colonizzare il Superammasso della Vergine», il supercluster nello Spazio che contiene anche la nostra galassia. Insomma, rendere abitabili altri pianeti ci consentirebbe non solo di eliminare il problema della sovrappopolazione, ma anche di allungare l’aspettativa di vita della nostra specie di centinaia di milioni, se non miliardi di anni.
I finanziatori
Il destino dell’umanità, quindi, non può che essere affidato ai giganti delle big tech, gli unici in grado di mettere dei paletti all’intelligenza artificiale essendone gli inventori, di colonizzare il cosmo perché conoscono la tecnologia e in generale di orientare gli investimenti – beneficenza compresa – sulle «vere» priorità. Irene Doda nel libro L’utopia dei miliardari, ha elencato i finanziatori del lungotermismo, tra questi tanti magnati della Silicon Valley. Elon Musk ha elargito un milione di dollari al Future of Humanity Institute, centro di ricerca dell’Università di Oxford. Lo stesso istituto nel 2018 ha ricevuto dal co-fondatore di Facebook Dustin Moskovitz 13,3 milioni di sterline attraverso Open Philanthropy. Il Future of Humanity Institute è stato improvvisamente chiuso dall’Università di Oxford ad aprile 2024, senza comunicazioni ufficiali sui fondi raccolti. Sempre Elon Musk è consulente e finanziatore di un’altra fondazione lungotermista, il Future of Life Institute che nel corso degli anni ha ricevuto contributi da oltre 1.500 donatori. Tra i più generosi Vitalik Buterin, fondatore della criptovaluta Ethereum che all’inizio del 2024 ha versato 665,8 milioni di dollari in moneta virtuale. Altre fondazioni sostengono la stessa causa, come il Global Priorities Institute e Effective Ventures che si presenta come «una federazione di organizzazioni che si impegna per avere un impatto positivo sul mondo». Le idee lungotermiste stanno mettendo radici anche nella politica, e gli scritti dei filosofi che le hanno ispirate sono stati citati dagli ex premier britannici Boris Johnson e Rishi Sunak, e nelle organizzazioni internazionali. Alla stesura di un documento firmato dal Segretario generale dell’Onu dal titolo La nostra comune agenda, nel quale sono indicati «i rischi esistenziali» da scongiurare (Qui pag.65), ha contribuito il filosofo Tony Ord (ex consigliere dell’Organizzazione Mondiale della Sanità, della Banca Mondiale, del World Economic Forum). Holden Karnofsky, ex co-amministratore delegato di Open Philanthropy, collabora con l’Ocse come esperto di intelligenza artificiale. Prima di essere condannato a 25 anni di carcere per frode e associazione a delinquere, l’imprenditore di criptovalute e grande sostenitore del lungotermismo Sam Bankman-Fried aveva collaborato con Bill Clinton e Tony Blair.
La versione di Federico Faggin
Il lungotermismo, nato come filosofia «altruista» che mette al centro la giusta battaglia per il benessere intergenerazionale, è presto diventato uno strumento del mondo tecnologico per legittimare i propri interessi. Infatti i suoi obiettivi non contemplano le questioni cruciali del nostro tempo come le diseguaglianze economiche e tantomeno il riscaldamento climatico, a cui le aziende tecnologiche contribuiscono in modo impressionante: il consumo energetico annuo (proveniente da fonte fossile) delle 6 principali big tech è superiore a quello del Belgio, ed è destinato ad aumentare. Ne è convinto il fisico Federico Faggin, uno dei più grandi scienziati della Silicon Valley e inventore dei microchip: «Si tratta di un movimento materialista – dichiara a Dataroom – il suo fine è preservare il potere di un gruppo di miliardari che controllano lo sviluppo tecnologico, e distogliere l’attenzione dai veri problemi dell’umanità. L’idea di trascurare i nostri simili oggi in nome di un presunto benessere futuro è paurosamente egoista».
AI: «di intelligente non ha nulla»
Faggin frena anche sulla minaccia esistenziale dell’intelligenza artificiale: «Il concetto di intelligenza applicato a macchine create da noi è un inganno. La vera intelligenza non è l’infinita capacità di calcolo, ma la creatività. Anche il computer più all’avanguardia non sarà mai creativo, e non farà che imitare l’essere umano senza capire quello che fa. Quella che chiamiamo “intelligenza artificiale” sarà sempre una tecnologia programmata dagli esseri umani, gli unici dotati di autocoscienza e libero arbitrio. La macchina non ha etica e non è senziente. Il solo modo per regolamentare efficacemente l’AI è quello di dover dichiarare quando la si usa, e di non darle il potere di decidere per noi. Ma se si considera la macchina depositaria di una conoscenza superiore, l’uomo sceglierà di fare come ha deciso la macchina e in caso di errore sarà esonerato dalla colpa. Se facciamo così diventeremo appendici dell’AI, controllati da coloro che controllano l’AI. Quindi il vero pericolo per l’umanità non è la macchina, ma l’uomo stesso».
Alla fine, se ai magnati tecnologici stessero realmente a cuore le sorti dell’umanità c’è una cosa che potrebbero fare subito: attraverso le loro piattaforme mobilitare l’opinione pubblica di tutte le piazze del mondo per chiedere un cessate il fuoco in Medio Oriente e Ucraina, dove si sta consumando il rischio esistenziale più imminente. Ma finora da parte loro c’è stato solo un indifferente silenzio.
dataroom@corriere.it