Permette un salto di qualità, ma l’algoritmo non dice quanti civili morti sono un “danno” accettabile. Sappiamo che la scienza è un’arma a doppio taglio. La scienza aumenta il potere […]

(DI GIORGIO PARISI – ilfattoquotidiano.it) – Sappiamo che la scienza è un’arma a doppio taglio. La scienza aumenta il potere dell’uomo, che può scegliere la direzione in cui usare tale potere. Ogni volta che si compiono grandi progressi è necessaria una profonda riflessione.
Una profonda riflessione su cosa sia lecito fare e su cosa non si debba fare. L’intelligenza artificiale (IA) non sfugge a queste considerazioni. Nel 2019 le accademie dei Paesi del G7, le cui delegazioni erano riunite a Parigi, hanno firmato all’unanimità una dichiarazione su intelligenza artificiale e società (Artificial Intelligence and Society). Personalmente sono affezionato a questa dichiarazione in quanto come Presidente dell’Accademia Nazionale dei Lincei guidavo la delegazione italiana. Nella premessa il documento dichiara che l’intelligenza artificiale è una delle tecnologie che sta trasformando la nostra società e molti aspetti della nostra vita quotidiana. (…) Ma l’intelligenza artificiale solleva anche questioni relative all’occupazione, alla riservatezza dei dati, alla privacy, alla violazione dei valori etici e alla fiducia nei risultati ottenuti.
Tra i vari punti sollevati c’è una dichiarazione estremamente importante che riguarda proprio le armi autonome. Cito testualmente: “L’intelligenza artificiale apre nuove possibilità per le applicazioni militari, in particolare per quanto riguarda i sistemi d’arma con significativa autonomia nelle funzioni critiche di selezione e attacco dei bersagli. Tali armi autonome potrebbero portare a una nuova corsa agli armamenti, abbassare la soglia della guerra o diventare uno strumento per oppressori o terroristi. Alcune organizzazioni chiedono un divieto sulle armi autonome, simile alle convenzioni in materia di armi chimiche o biologiche. Tale proibizione richiederebbe una definizione precisa di armi e di autonomia. In assenza di un divieto di sistemi di armi autonome letali (Lethal Autonomous Weapons Systems, LAWS), dovrebbe essere garantita la conformità di qualsiasi sistema d’arma al Diritto internazionale umanitario. Queste armi dovrebbero essere integrate nelle strutture di comando e controllo esistenti in modo tale che la responsabilità e la responsabilità legale rimangano associate a specifici attori umani. C’è una chiara necessità di trasparenza e di discussione pubblica delle questioni sollevate in questo settore”.
Si tratta di un problema estremamente delicato che deve essere affrontato con grande energia per essere risolto. Non è facile. La guerra si basa sul disegno, sulla fabbricazione e sullo schieramento, virtuale o attuale, di armamenti sempre più sofisticati. In questa prospettiva un autentico salto di qualità che potrebbe cambiare i connotati dei conflitti, sarebbe rappresentato dalle armi autonome, cioè da sistemi dotati di una IA in grado di “ragionare” e agire in assenza dell’uomo che li ha “istruiti”.
L’interesse dei militari ad espandere l’uso di armi autonome ha delle motivazioni chiarissime e giustificate dal loro punto di vista. Tuttavia, non possiamo permettere che un algoritmo debba risolvere problemi etici delicatissimi come per esempio:
– Uccidere o non uccidere persone che sembrano combattenti nemici, ma forse non lo sono?
– Quanti civili morti sono un danno collaterale accettabile (espressione usata specialmente quando i morti non sono nostri o dei nostri alleati)?
– Come evitare in particolare danni gravissimi a bambini?
I trattati internazionali sono fondamentali per evitare catastrofi future. È una storia di insuccessi, di successi e di successi parziali. L’insuccesso più clamoroso è stato il trattato dell’Aia del 1899 in cui si vietavano i gas asfissianti (non ratificato dagli Stati Uniti), tra i tanti successi ricordiamo il Comprehensive Test Ban, ovvero il divieto assoluto di fare test di bombe nucleari, mentre tra i successi parziali metterei il trattato di non proliferazione (1968). (…) Purtroppo, un trattato sul disarmo generale e completo è ancora molto lontano. (…) Queste difficoltà sui trattati concernenti le armi nucleari non ci devono far pensare che sia impossibile un trattato internazionale che vieti armi autonome letali. Un simile trattato è possibile ma è assolutamente necessario fare una riflessione chiara su tutti gli aspetti connessi. (…) Bisogna anche mobilitare l’opinione pubblica che sta assistendo rassegnata, come ad un fatto ineluttabile, alla progressiva introduzione di queste armi letali. Gli scienziati hanno una grande responsabilità nel comunicare questi aspetti delicati in maniera comprensibile a una opinione ignara. Ma un compito estremamente importante spetta ai mezzi di informazione in maniera che venga esercitata una pressione sui decisori politici, che devono farei passi concreti per proteggere l’umanità dai danni più crudeli delle guerre.