SOCIETÀ

Io, robot. Il diritto di fronte alle intelligenze artificiali

Si dice spesso che se un uomo dell'antichità si trovasse catapultato ai nostri giorni, troverebbe cambiamenti tanto grandi da rendergli il mondo contemporaneo pressocché incomprensibile in ogni campo, tranne che in uno: la politica, perché il modo di regolare gli affari umani è, in fondo, rimasto molto simile.

Ma c'è almeno un altro campo nel quale vale una situazione analoga: il diritto. Anche un avvocato, e non solo un politico, del tempo di Cesare o Traiano dopo il primo momento di spaesamento non avrebbe troppe difficoltà a raccapezzarsi, nella sua professione. Guardando più a fondo, però, le analogie si attenuano e di molto. Gli Stati moderni sono qualcosa di profondamente diverso dalle strutture antiche, e così il diritto, nel quale i cambiamenti, anche prima della rivoluzione tecnologica degli ultimi lustri, sono stati ingenti.

Oggi, le frontiere avanzate della scienza e della tecnologia come bionica, robotica e intelligenze artificiali pongono a questa disciplina domande che non sono né univoche, né di agevole risposta. A entrare in tensione sono infatti alcuni dei suoi fondamenti.

Robotica e bionica: soltanto strumenti, per quanto complessi?  Nelle protesi sempre più avanzate della bionica essere umano e macchina non sono separati ma integrati fra loro e l'interazione non è gestita in modo cosciente. L'impatto su chi subisce l'impianto è grande, con conseguenze anche sulla percezione di sé e l'identità personale, né è possibile tracciare un confine inequivoco fra recupero di facoltà perse a seguito di incidenti, o mai avute, e trasformazione delle potenzialità del fisico.

Come procedere, allora, in caso di controversie? Siamo, in gran parte, nel campo dei diritti indisponibili, come l'integrità fisica. Occorrerà delineare a partire da una situazione completamente nuova, ben diversa dal trapianto di organi, natura e limiti del consenso all'intervento bionico. Un terreno dove le possibilità tecniche di trasformazioni radicali e non reversibili e la volontà del singolo possono entrare in conflitto con la vita, l'integrità fisica, la libertà personale e la riservatezza. Alimentando così tutta una serie di problemi ermeneutici attorno alla definizione di "disponibile" e "indisponibile" come necessaria discriminante.

Questioni, nota Paolo Moro, docente di filosofia del diritto dell'università di Padova, che incidono in maniera potenzialmente profonda sulla struttura della soggettività umana, sia nell'accezione filosofica che in quella, più specifica, di soggetto di diritto. E non solo nel senso della possibile violazione di diritti fondamentali. Se per la bionica parliamo dei limiti della disponibilità del sé e della sua possibile mutazione (problema che si porrà, in prospettiva, anche per alcuni sviluppi della genetica), sempre di "soggettività" si tratta nel caso della robotica e, più in generale, dell'intelligenza artificiale.

La prospettiva che sta alla base dello sviluppo delle intelligenze artificiali porta a ricondurre a schemi comuni di origine algoritmica le macchine e i sistemi biologici capaci di comportamenti finalizzati, rendendo concettualmente sfumati i confini fra le caratteristiche distintive del vivente e dell'artificiale. Una volta sviluppate sufficientemente le capacità di apprendimento automatico, di auto-organizzazione e di riproduzione autonoma, le differenze apprezzabili fra pensiero umano e intelligenza artificiale sarebbero destinate via via ad annullarsi. Un passo deciso nella direzione dell'emulazione e dell'avvicinamento, non verso la definizione e distinzione reciproca.

Su questa linea di sviluppo, l'esistenza di programmi - dagli agenti software dotati di capacità di decisione autonoma per lo svolgimento del loro compito a quelli in grado di apprendere fino, in un futuro non remoto, alle intelligenze artificiali vere e proprie - pone con modalità inedite il problema della responsabilità. Di possibili azioni, cioè, in grado di produrre danni, e dunque rilevanti ai sensi del diritto, ma non integralmente riconducibili ad un agente umano. Qualcosa che, almeno in parte, ci riporta al diritto del mondo antico, con la particolarissima condizione rispetto alla giustizia degli schiavi e delle loro azioni quando non conseguenti alla volontà del padrone.

Il focus delle norme attuali è quello della sicurezza e della conformità agli standard tecnici per la produzione di macchine complesse. A rimanere insoddisfatta è la necessità di regolamentazioni specifiche per dispositivi intelligenti e con gradi di autonomia crescente già ora disponibili o in fase di sperimentazione: basti pensare a navette senza pilota, robot-assistenti, automobili e veicoli industriali self-driving.

Per quanto gli spettacolari successi di automi e intelligenze artificiali nell'emulare (e sfidare) le capacità umane sembrino confermare la validità dell'analogia uomo-macchina posta da Turing e Wiener alla base della cibernetica, dal punto di vista del diritto, però, questa prospettiva non cambia le cose. Perché si possa parlare di responsabilità l'azione deve essere libera, non obbligata: e ciò vale ancor più per dispositivi che replicano determinate capacità del pensiero umano. La responsabilità, in caso di azioni uscite di controllo, rimane in capo a produttore, operatore o proprietario come per macchine e dispositivi non autonomi in genere.

Le cose dal punto di vista concettuale potrebbero cambiare nel momento in cui le intelligenze artificiali arrivassero al punto di formalizzare e riprodurre procedimenti come l'intuizione – la capacità di cogliere l'intero prima delle parti - e l'autocontrollo – la consapevolezza dei propri limiti. Significherebbe però, essere alle soglie dell'autocoscienza: una condizione che porterebbe l'uomo, per la prima volta, a fare i conti con agenti non umani, ma ugualmente liberi e autonomi nella determinazione dei propri moventi. Forme di vita, o più propriamente di non-vita, molto diverse da noi: qualcosa di finora immaginato solo dalla più grande fantascienza, come Arthur C. Clarke e Kubrick oppure William Gibson, e che potrebbe avere risvolti pericolosi, oltre che di grande complessità.

Al di là delle illusioni dell'antropologia razionalistica, ricorda Paolo Moro, il pensiero umano, alla base del comportamento consapevole, è una forma di vita originaria e irriducibile ai modelli di emulazione delle intelligenze artificiali. La sua è una struttura relazionale e capace di ridefinire costantemente se stessa, una capacità infinita e dunque sottratta a ogni calcolabilità. Essa sola coniuga nella reciprocità il pensiero conoscitivo e l'azione morale, facendone a pieno titolo soggetto di diritti e responsabilità. Perlomeno, finché le caratteristiche delle intelligenze artificiali saranno quelle che conosciamo.

M.R.

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012