SOCIETÀ

Intelligenza Artificiale e città: la Artificially Intelligent City

In questa breve nota affrontiamo alcuni aspetti relativi all’utilizzo dell’Intelligenza Artificiale (IA) in ambito urbano. Mostriamo come si stia passando dal concetto di Smart City, che ha caratterizzato l’ultima decina d’anni, a quello di Artificially Intelligent City, città in grado di gestirsi autonomamente, senza necessità dell’intervento umano.

Questo passaggio richiede lo sviluppo di nuovi e più raffinati livelli di IA, ponendo profondi quesiti di natura tecnologica, sociale ed etica.

Vengono discussi alcuni dei principali rischi dei nuovi livelli di IA, giungendo alla conclusione che vi sia la forte esigenza di investire significativamente nella formazione specialistica ed etica, rafforzando l’integrazione tra scuola, università ed impresa, ed il ricorso ai saperi interdisciplinari, i soli capaci di generare e gestire correttamente l’innovazione.

Intelligenza Artificiale

Un gruppo di esperti di IA di alto livello, promosso dalla Commissione Europea, nel documento “Una definizione di IA: principali capacità e discipline” – aprile 2019, così definisce l’IA:

«Sistemi software (ed eventualmente hardware) progettati dall’uomo che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il proprio ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza o elaborando le informazioni derivate da questi dati e decidendo le migliori azioni da intraprendere per raggiungere l’obiettivo dato.

I sistemi di IA possono utilizzare regole simboliche o apprendere un modello numerico e possono anche adattare il loro comportamento analizzando gli effetti che le loro azioni precedenti hanno avuto sull'ambiente.

Come disciplina scientifica, l’IA include diversi approcci e tecniche, come il machine learning (di cui il deep learning ed il reinforcement learning sono esempi specifici), il machine reasoning (che include pianificazione, schedulazione, rappresentazione della conoscenza e del ragionamento, ricerca e ottimizzazione) e robotica (che include controllo, percezione, sensori e attuatori, nonché l’integrazione di tutte le altre tecniche dei sistemi cyber-fisici).»

L’uomo, come essere intelligente, è caratterizzato dalla capacità di pensare e dalla presenza di una coscienza. Sappiamo ancora poco su come si formi il pensiero e, meno ancora, la coscienza umana.

Per parlare a ragion veduta di IA, dovremmo dapprima colmare le lacune sopraddette e, solo successivamente, tentare un trasferimento dei meccanismi intellettivi umani ai sistemi digitali.

Ci sembra, quindi, eccessivo utilizzare il termine di IA. Ciononostante, continueremo ad usarlo in questo contesto, con tutta la prudenza e l’accortezza necessarie.

Oggi abbiamo a disposizione enormi quantità di dati (i cosiddetti “big data”), dai quali è possibile estrarre informazioni e “addestrare” nuovi algoritmi di calcolo, che imparano dai dati in modo iterativo. Si tratta dell’approccio machine learning, cioè l’apprendimento automatico. Tale apprendimento può essere di tre tipi: supervisionato (supervised learning), non supervisionato (unsupervised learning) e per rinforzo (reinforcement learning). Le principali componenti dell’apprendimento supervisionato sono i modelli di regressione (per i dati quantitativi) ed i classificatori (per i dati qualitativi), dell’apprendimento non supervisionato i motori di ricerca (clustering) e dell’apprendimento per rinforzo gli agenti autonomi in grado di discriminare azioni future.

Vi sono tre livelli di IA in letteratura:

  • Intelligenza artificiale stretta (Artificial Narrow Intelligence – ANI): si tratta dell’IA come la intendiamo oggi, cioè di sistemi che possono svolgere autonomamente un dato compito basandosi sulla programmazione realizzata dall’uomo;
  • Intelligenza artificiale generale (Artificial General Intelligence – AGI): dove gli agenti mostrano la stessa intelligenza di un essere umano e si comportano esattamente come lui;
  • Superintelligenza artificiale (Artificial Superintelligence – ASI): è un’intelligenza più elevata, tuttora non esistente al mondo. Essa non solo si comporterebbe come un essere umano, ma, grazie alla capacità di elaborare un’enorme quantità di dati e alla sua gigantesca memoria, sorpasserebbe le capacità intellettive, analitiche e decisionali dell’uomo.

Analizzeremo nel seguito l’incidenza sulla città dell’IA nei suoi vari livelli, evidenziando le potenzialità, ma soprattutto i rischi.

Città artificialmente intelligente (Artificially Intelligent City)

Definiamo una città artificialmente intelligente «Un sistema urbano che funziona come un sistema di sistemi, le cui attività economiche, sociali, ambientali e governative si basano su pratiche sostenibili guidate da tecnologie di intelligenza artificiale, che consentono di raggiungere il bene sociale ed altri risultati utili a tutti gli esseri umani e non umani» (Yigitcanlar T. et al., 2020, Can Building “Artificially Intelligent Cities” Safeguard Humanity from Natural Disasters, Pandemics, and Other Catastrophes? An Urban Scholar’s Perspective, Sensors, 20(10), 2988).

La città artificialmente intelligente è un’evoluzione della cosiddetta Smart City. Questo termine è stato coniato nel 2009 a Rio de Janeiro in occasione del primo piano che impiegava l’innovazione tecnologica per la gestione dei rifiuti e degli sprechi al fine di migliorare la qualità di vita urbana.

In estrema sintesi, possiamo dire che la Smart City è una città caratterizzata da reti di sensori, smart grid, Internet of Things (IoT) e big data.

Il passaggio da Smart City a città artificialmente intelligente aggiunge alle caratteristiche tecnologiche sopraddette (reti di sensori, ecc.) la possibilità per la città di gestirsi autonomamente, cioè senza necessità dell’intervento umano. Potremmo, quindi, parlare di città autonoma (la cosiddetta autonomous city).

Per essere più concreti, citiamo due interventi in grado di trasformare progressivamente una Smart City in una città artificialmente intelligente: i robot (compresi i veicoli a guida autonoma) e il city brain (cervello urbano) (Cugurullo F., 2020, Urban Artificial Intelligence: From Automation to Autonomy in the Smart City, Front. Sustain. Cities).

I robot possono essere di diversi tipi e di diverse dimensioni: droni per la sorveglianza o la consegna, robot per la produzione industriale, nano-robot per la chirurgia, robot per rispondere nei call center, robot per operazioni militari, robot per la guida autonoma dei veicoli e altri ancora.

Il problema principale dei robot sembra essere quello della corretta interazione con l’uomo. Nuovamente, si pone la questione di come gestire da parte dei robot l’incertezza e l’imprevedibilità del comportamento umano e dell’ambiente circostante. È in corso, inoltre, un ampio dibattito sugli impatti sull’occupazione e sulla distribuzione del reddito dovuti a un massiccio utilizzo dei robot (Korinek A., Stiglitz J.E., 2017, Artificial intelligence and its implications for income distribution and unemployment (No. w24174). National Bureau of Economic Research).

Con riferimento ai robot per la guida autonoma dei veicoli, siamo ancora lontani dal massimo livello di autonomia (il cosiddetto livello 5), dove il veicolo non richiederà più alcun controllo da parte del guidatore. Il problema principale della guida autonoma odierna è rendere il veicolo in grado di gestire correttamente ed autonomamente situazioni di incertezza. Si apre qui un discorso estremamente interessante sulla necessità, per il veicolo, di prendere, a volte, decisioni di carattere etico. Nel caso in cui, ad esempio, un incidente stradale risulti inevitabile, a causa di fattori esterni non controllabili dal veicolo, come si deve comportare il veicolo stesso nella distribuzione del danno tra i vari attori dell’incidente? Viene privilegiata la sicurezza dei passeggeri o quella degli altri automobilisti o dei pedoni, e tra questi come gioca la loro età, il livello di salute, ecc.?

Mentre per la Smart City l’enfasi è sulla raccolta di dati e sull’estrazione di conoscenza dagli stessi, la città robotica automatizzata riguarda essenzialmente l’introduzione di nuovi elementi (i robot) aventi la capacità di modificare il design, il layout ed il funzionamento stesso della città. La robotica urbana solleva interrogativi sulla possibile coesistenza tra esseri umani e robot: quali infrastrutture e quali normative si rendono necessarie per consentire una simbiosi uomo-robot e l’evoluzione congiunta dell’uomo e del robot?

Infine, city brain è una piattaforma digitale, nota anche come “platform urbanism” (Barns S., 2020, Platform Urbanism. Negotiating Platform Ecosystems in Connected Cities, Springer, Berlin). Un esempio di city brain è Alibaba’s City Brain, un’applicazione di IA nata per la gestione autonoma del traffico urbano e poi estesa all’analisi ambientale ed alla pianificazione urbana. È stata applicata in diverse realtà, tra cui Hangzhou, Suzhou, Shanghai, Macau. Ulteriori nascenti applicazioni di questo city brain interesseranno la sanità, la sicurezza e la governance urbana.

È molto interessante l’aspetto della governance urbana attraverso l’IA, in quanto mette in gioco la sostenibilità del sistema urbano nel suo senso più ampio: ambientale, sociale ed economico (Floridi L. et al., 2018, AI4People – An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations, Minds & Machines, 28(4), 689-707; Floridi L. et al., 2020, How to Design AI for Social Good: Seven Essential Factors, Sci Eng Ethics 26, 1771-1796).

 

L’assunzione forte che sta alla base del city brain è che la città possa essere vista come un sistema controllabile ed ottimizzabile in maniera autonoma. Si pongono interessanti quesiti sulla capacità di questi sistemi di pianificare la città a lungo termine e di trattare l’incertezza dei dati, incertezza che diventa ancora più significativa quanto più l’orizzonte temporale di pianificazione è ampio. Alla base di queste problematiche ve ne è, però, una di maggiore importanza: la questione etica. Come è possibile trasferire a una intelligenza artificiale i concetti di bene/male, di giusto/ingiusto e di tutti quei valori morali che sono i fondamenti della vita umana e sociale? È possibile trasformare i principi etici in entità computabili, cioè in algoritmi? Rischieremmo davvero di trovarci, come sostiene il teologo Paolo Benanti, in una situazione di algo-crazia, dove la necessità di sviluppare un’etica degli algoritmi, quella che lui chiama un’algor-etica, diventerebbe irrinunciabile?

Sono domande di grande portata, le cui risposte sono di là da venire. Seguendo sempre Paolo Benanti, ciò che possiamo, però, dire con certezza oggi è che l’IA deve essere in grado di rispettare alcune regole fondamentali dell’agire umano:

  • Capacità di mettere in dubbio le proprie certezze
  • Intuizione
  • Intelligibilità (sapere comunicare l’oggetto della decisione)
  • Adattabilità
  • Adeguatezza (sapere individuare l’importanza relativa di obiettivi conflittuali).

Ritornando a considerazioni più generali sull’IA, un’altra avvincente questione è quella dell’interdisciplinarità e multidisciplinarità dell’IA. Essa interessa non solo le tecnologie dell’informazione, ma anche la filosofia, la psicologia, le neuroscienze, la sociologia e il management. Un quesito comune a tutte queste discipline è il seguente: è corretto trasferire tout court i parametri che utilizziamo per l’intelligenza umana all’intelligenza artificiale e attenderci che un’IA si comporti, in un futuro, esattamente come un’intelligenza umana? Lo sviluppo di tecnologie intelligenti sempre più evolute quali nuove responsabilità conferisce all’uomo?

La sociologa Elena Battaglini sostiene che «La pervasività della tecnologia implica un aumento di responsabilità da parte dell’uomo in cui la dimensione del linguaggio e delle parole è fondamentale nell’innesto e nello sviluppo di processi inclusivi a beneficio dell’umanità intera».

Inoltre, fa notare che l’avvento dell’IA caratterizza la quarta rivoluzione industriale (Schwab K., 2016, La quarta rivoluzione industriale, Franco Angeli, Milano; Floridi L., 2017, La quarta rivoluzione. Come l'infosfera sta trasformando il mondo, Raffaello Cortina, Milano), dove non solo cambiano le tecnologie di produzione, ma anche gli schemi mentali ed il modo di apprendere dell’uomo. Nell’ambito di tale rivoluzione, diventa sempre più importante l’integrazione scuola-università-impresa e il ricorso ai saperi interdisciplinari che generano l’innovazione. Occorre ripensare la città come motore dell’innovazione e luogo di apprendimento, dove sviluppare sempre più l’apprendimento creativo, applicando i principi del paradigma costruzionista delle quattro P (Projects, Peers, Passion, Play) (Resnik M., 2017, Lifelong Kindergarten. Cultivating Creativity through Projects, Passion, Peers, and Play, The MIT Press, Cambridge, Massachusetts).

L’importanza dell’IA urbana è stata recentemente ribadita dal World Economic Forum, che ha individuato le seguenti nove aree come ambiti strategici per l’innovazione (i cosiddetti game changer): «(a) veicoli elettrici autonomi e interconnessi; (b) reti energetiche decentralizzate; (c) sistemi agricoli e alimentari intelligenti; (d) previsioni meteorologiche e climatiche di nuova generazione; (e) interventi intelligenti in caso di calamità; (f) ottimizzazione della gestione delle risorse idriche; (g) città intelligenti, connesse e vivibili progettate dall’IA; (h) una digitalizzazione trasparente del pianeta; (i) un apprendimento potenziato per le scoperte nel campo delle scienze della terra». Sottolineiamo l’importanza, si veda (g), dello sviluppo di città artificialmente intelligenti, accompagnato dalla interconnessione tra le stesse città, salvaguardando, nel contempo, la sostenibilità degli interventi e la vivibilità dei nuovi sistemi urbani.

Potremmo anche noi porci la domanda che sta alla base dello studio di Yigitcanlar T. et al. (Can Building “Artificially Intelligent Cities” Safeguard Humanity from Natural Disasters, Pandemics, and Other Catastrophes? An Urban Scholar’s Perspective, Sensors, 20(10), 2988 ): una città artificialmente intelligente sarà capace di proteggere l’umanità da calamità naturali, pandemie e catastrofi? La risposta data dagli autori è ancora interlocutoria e dipende da come verrà affrontata tutta una serie di aspetti critici dell’IA, alcuni dei quali sono stati qui discussi.

Qualunque sia lo sviluppo e la capacità di operare della città artificialmente intelligente, vi è un aspetto che riveste un ruolo fondamentale: la generazione, la raccolta e la messa a disposizione dei dati urbani. Enormi quantità di dati sono nelle mani di società private e, sovente, questi dati vengono commercializzati o utilizzati in modo improprio e talvolta illecito (ad esempio, mediante tecnologie di deepfake, con lo scopo di diffondere disinformazione ed influenzare il comportamento delle persone). Per ovviare a questo inconveniente, occorre fare un convinto investimento sull’accessibilità pubblica ai dati (open access) e sul loro utilizzo a scopi sociali. Con riferimento al corretto utilizzo dei dati, valgono le questioni etiche che sono state prima evidenziate. Aggiungiamo qui che l’utilizzo dei dati dovrebbe essere fatto da esperti ed in un ambito pubblico o, almeno, sotto il controllo pubblico.

Non è, però, sufficiente avere dati accessibili ed utilizzati correttamente, occorre anche che essi siano di elevata qualità e seguano opportuni standard di codifica e memorizzazione. Vi è una forte esigenza di investire significativamente nella formazione per il reperimento ed il trattamento dei dati, coniugando formazione specialistica ed etica.

Alcuni rischi dell’IA nella città artificialmente intelligente

Mentre i potenziali benefici dell’IA sono facilmente immaginabili (ad esempio, migliore assistenza sanitaria, prevenzione dei crimini, ecc.), vogliamo concludere la nostra analisi con alcune considerazioni sui principali rischi dell’IA nella città artificialmente intelligente (più in generale, con riferimento alle  questioni di interpretazione ed applicazione del diritto internazionale relativamente agli impieghi civili e militari dell’IA ed all’autorità dello Stato, si rimanda alla recente risoluzione del Parlamento Europeo del 20 gennaio 2021).

A nostro avviso, i principali rischi dell’IA nella città artificialmente intelligente sono:

• La sorveglianza di massa.

Nella sorveglianza di massa, il rischio principale risiede nell’uso della tecnologia come strumento per conservare la stabilità sociale. Ad esempio: «Durante l’emergenza sanitaria, in centinaia di città della Cina i cittadini sono stati monitorati da un’app che classifica automaticamente ogni persona con un codice di diverso colore in base al rischio di contagio. Il software determinava quali persone dovessero essere messe in quarantena o autorizzate a entrare in luoghi pubblici come le metropolitane». Un altro esempio di sorveglianza di massa è il riconoscimento facciale, che potrebbe essere utilizzato per fini non eticamente corretti, affetti da bias discriminatori basati sul colore della pelle, sul sesso e sull’età (si veda, a tal proposito, anche il punto successivo).

• La discriminazione automatica delle caratteristiche personali e delle preferenze dell’individuo (politiche, religiose, sessuali, ecc.).

Una volta che un metodo di apprendimento automatico sia stato opportunamente addestrato e validato su dati storici, esso viene sovente utilizzato anche a fini predittivi. La situazione che ne deriva è particolarmente delicata per il seguente motivo. I metodi di apprendimento automatico a volte contengono bias cognitivi, perché addestrati su dati a loro volta affetti da pregiudizi. Di conseguenza anche le previsioni di questi metodi sono affette da pregiudizi. Si pensi, ad esempio, ai rischi che possono derivare agli individui con riferimento alla valutazione della loro affidabilità economica, lavorativa e morale. L’impatto negativo sulla dignità umana costituisce, quindi, un rischio oggettivo, che andrebbe maggiormente considerato e analizzato.

Siamo di fronte a problemi etici e sociali molto rilevanti, che richiedono di sviluppare una maggiore consapevolezza sul corretto utilizzo di queste nuove tecnologie. In particolare, chi si occupa di ricerca, formazione e divulgazione dovrebbe porre questo obiettivo ai primi posti della propria attività professionale.

• La mancata certificazione dei metodi di apprendimento automatico.

I metodi di apprendimento automatico vengono oggigiorno utilizzati senza conoscere completamente il loro livello di qualità ed il rischio d’errore. Vi è l’impellente necessità di una loro certificazione, cioè di definire standard di qualità, individuare gli errori, conoscere gli effetti collaterali. Dobbiamo giungere a dare maggiori certezze all’utilizzatore dei metodi di apprendimento automatico.

• La lesione della privacy. 

Facciamo riferimento non solo alla privacy personale, com’è oggi comunemente intesa, cioè la salvaguardia dei dati sensibili dell’individuo, ma anche la privacy dei propri modelli comportamentali, modelli che potrebbero essere facilmente tracciabili e memorizzabili da una città artificialmente intelligente ed utilizzati per condizionare l’agire degli individui. Vi è, inoltre, un’altra privacy che dobbiamo iniziare a considerare, la privacy mentale. Dovremo, cioè, consentire ad ogni persona di impedire il controllo non consenziente del proprio dominio neuro-cognitivo da parte di terzi, dominio acquisibile attraverso interfacce cervello-computer (BCI – Brain Computer Interfaces), di cui esistono già alcune prime realizzazioni.

Concludiamo, ricordando che vi è un aspetto molto critico comune a tutte le tecnologie dell’informazione, noto come digital divide, cioè il divario tecnologico sempre più ampio e problematico che si crea tra gli individui, dovuto al rapido sviluppo tecnologico. L’importanza di questo aspetto risiede nel fatto che tale divario tecnologico porta con sé l’aumento di disuguaglianze socioeconomiche. Un accesso socialmente equo

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012