SOCIETÀ

Mettiamo al bando le armi autonome

“L’esistenza di una vita umana non dovrebbe mai essere delegata a una macchina”. La dichiarazione è il cuore stesso del Lethal Autonomous Weapons Pledgel’impegno pubblico a mettere al bando – e dunque a rinunciare a progettare e costruire – le “armi autonome letali”, firmato da 2.400 ricercatori e rappresentanti di 150 aziende operanti nel campo dell’IA, intelligenza artificiale, nell’ambito della International Joint Conference on AI, la conferenza internazionale sull’intelligenza artificiale che si è chiusa a Stoccolma nei giorni scorsi.

La lettera d’impegno, che è nata su iniziativa di The Future of Life Institute di Cambridge (Massachusetts), è stato sottoscritto, tra gli altri, dai tre co-fondatori della Google DeepMind – Demis Hassabis, Shane Legg, Mustafa Suleyman – e dal fondatore di SpaceX e di innumerevoli altre aziende che guardano al futuro, Elon Musk. Centinaia, tra i firmatari, sono i ricercatori impegnati nello sviluppo dell’intelligenza artificiale.

Il documento è di notevole importanza, perché quella delle armi autonome è considerata la nuova frontiera delle tecnologie militari, capace sia di scatenare una nuova corsa al riarmo sia di destabilizzare, più di quanto non facciano gli arsenali nucleari, chimici e biologici, gli equilibri planetari, rendendo più vicina una guerra catastrofica.   

Una guerra in cui macchine – computer, robot – uccidono uomini senza alcun controllo significativo da parte di altri uomini. Senza dover chiedere e rispondere a nessuno. In maniera autonoma, appunto. E con una velocità senza precedenti.

Queste armi ancora non esistono. O, almeno, ne esistono già, ma in forma ancora limitata e provvisoria. Ma presto potrebbero essere la forma d’arma dominante a disposizione degli eserciti, delle marine e delle aviazioni delle potenze in grado di sviluppare intelligenza artificiale.

I ricercatori e anche molte aziende che operano in questo settore ne sono pianamente consapevoli. E già un anno fa The Future of Life Institute ha proposto con successo la lettera d’impegno a mettere al bando le armi autonome, raccogliendo centinaia di firme. Ora le firme sono diventata migliaia. 

È un ottimo segno. Raramente la comunità scientifica e, soprattutto, le industrie di punta hanno agito in maniera preventiva per la messa al bando di possibili strumenti di distruzione di massa. Non lo fecero i fisici, all’alba dell’era nucleare. Non lo fecero i chimici prima della Grande guerra, quella del 1914-1918. 

La prese di posizione potrebbe (dovrebbe) avere concrete possibilità di successo nel rendere consapevoli del pericolo i governi e l’opinione pubblica. 

Da questo punto di vista, non c’è dubbio: quella del Lethal Autonomous Weapons Pledgeè un’iniziativa tempestiva e importante

E tuttavia la lettera d’impegno non manca di qualche (inevitabile?) difetto, che conviene sottolineare. Proprio perché la consapevolezza dell’opinione pubblica sia piena e critica. Dunque, forte.

Forse i lettori lo avranno già notato. Non abbiamo ancora detto cos’è, esattamente, un’arma autonoma. È una definizione che tutto sommato manca anche nel Lethal Autonomous Weapons Pledge. Nessuno, forse ne ha una precisa. Secondo alcuni, la migliore, delle tante definizioni possibili, è quella proposta dal dipartimento della Difesa degli Stati Uniti: un’arma è autonoma se è in grado di “selezionare e attaccare un obiettivo senza ulteriori interventi da parte di operatori umani”. In questa definizione possono cadere fucili o mitragliatrici dotati di sistema di IA capaci di individuare un nemico e una situazione di pericolo e fare fuoco, senza alcun intervento umano. Allo stesso modo, sono armi autonome aerei e razzi capaci di fare altrettanto, con effetti più devastanti. O ancora, sono armi autonome e altrettanto destabilizzanti sistemi di monitoraggio sistematico degli oceani capaci di individuare sottomarini nemici. Questa possibilità, sostiene il Movimento Pugwash – un gruppo di scienziati, nato sull’onda delle proposte di Bertrand Russell e Albert Einstein, che offre la propria expertiseper costruire la pace – sarebbe altamente destabilizzante, perché le potenze atomiche affidano proprio ai sommergibili non individuabili il mantenimento dell’”equilibrio del terrore” fondato sulla dottrina del “mutua distruzione assicurata”. Se si rompe l’equilibrio del terrore, la guerra nucleare preventiva può diventare un’opzione (tragicamente) praticabile.

Ma c’è qualcuno che immagina un futuro ancora più inaccettabile: con sistemi d’arma autonomi che scatenano una guerra nucleare totale senza un significativo intervento umano. Macchine che distruggono l’umanità senza chiedere il parere a nessun uomo

Questo scenario è inaccettabile anche nella logica militare, alla cui base c’è la possibilità della distruzione altrui, ma la salvezza del proprio paese. È anche per questo che, finora, alla richiesta di mettere al bando le armi autonome non si sono sottratti – non esplicitamente almeno – gli stati maggiori. 

Gli eserciti, invece, lavorano non a sistemi d’armi autonome così totalizzanti, ma ad armi che, pur essendo autonome, hanno una sfera d’intervento limitata. Ma anche in questo caso i problemi non mancano, anche accettando il paragone con le terribili armi, convenzionali e non, oggi esistenti. Un sistema d’arma completamente autonomo pone il problema della responsabilità.

Se un fucile, un aereo, un robot autonomo uccide una persona o un gruppo di persone e sbaglia, chi paga? O, detto in altri termini, cosa impedisce a una macchina di attuare l’azione più drastica (uccidere un uomo, un gruppo di uomini, scatenare una guerra) anche in una condizione ambigua?  

Ancora, le armi autonome creano situazioni di asimmetria inaccettabili tra gli eserciti che ne dispongono e quelli che non ne dispongono. Che è in possesso di queste armi ed entra in conflitto con chi non le possiede si troverebbe nella inedita posizione di chi va in guerra senza avere, letteralmente, nulla da perdere. Non una vita di un proprio soldato è a rischio. L’unica perdita possibile è quella di una macchina.

In una condizione simile, anche una residua etica bellica verrebbe meno. Aprendo a scenari davvero inquietanti.

Riassumendo, come notano Daniele Amoroso, docente dell’università di Cagliari, e Guglielmo Tamburrino, docente dell’università Federico II di Napoli, l’appello reiterato a Stoccolma non mette nel giusto rilievo una serie di principi già presenti nel diritto che regola (che tenta di regolare) i conflitti armati: quello di distinzione e proporzionalità; quello di non contrastare l’impunità per crimini internazionali; quello, che dovrebbe essere un assoluto, della dignità umana.

Ebbene, hanno ragione Amoroso e Tamburrini: senza una definizione precisa e stringente di “armi autonome” è difficile stabilire dei negoziati per limitarle e metterle completamente al bando. Ma è anche vero che il Lethal Autonomous Weapons Pledge, l’impegno sottoscritto a Stoccolma, non costituisce una base tecnica e giuridica per avviare concreti negoziati per la messa al bando delle armi autonome. È soprattutto un grido di allarme. Nella speranza che raggiunga le giuste orecchie e svegli chi governa le 200 e più litigiose nazioni del mondo. E, soprattutto, raggiunga le orecchie e svegli la grande potenza appisolata: l’opinione pubblica mondiale.

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012