SOCIETÀ

Neurodiritti. Tutelarli è una sfida (anche) filosofica

In questo periodo stiamo assistendo alla progettazione di ambiziose tecnologie che mirano non semplicemente a monitorare l'attività del cervello, ma anche a stabilire una sorta di connessione tra uomo e macchina, per scopi non solo terapeutici ma legati anche al potenziamento delle capacità cognitive.
Uno degli ambiziosi progetti di Elon Musk, ad esempio, consiste nella realizzazione di un piccolo dispositivo, dalla forma di una moneta, chiamato Neuralink, che una volta introdotto chirurgicamente nel cranio di una persona dovrebbe essere in grado di monitorarne lo stato di salute e creare un collegamento diretto tra la sua mente e un dispositivo elettronico, come un pc o uno smartphone.
Una tecnologia in grado di leggere e interpretare i nostri pensieri, per quanto possa sembrare frutto della fantascienza, esiste già da anni. Ma se pensiamo che il passo successivo, per quella tecnologia, sarà assumere la capacità di interagire con i nostri pensieri, influenzandone il corso, allora diventa ancora più evidente perché sia necessaria una riflessione sulle ripercussioni etiche dell'uso di dispositivi tanto potenti.

Eppure, non è così facile stabilire come andrebbero tutelati i neurodiritti a livello normativo. Si tratta di una grande sfida concettuale che pone dei problemi anche filosofici: quale sarà esattamente l'oggetto da tutelare? Che ruolo dovrebbero avere le entità non umane all'interno dei contratti sociali? È davvero possibile prevedere tutti i problemi quotidiani che ci troveremo a dover affrontare quando le tecnologie in grado di connettersi con il nostro cervello saranno potenzialmente alla portata di tutti?

Ne abbiamo discusso con i professori Stefano Fuselli e Paolo Sommaggio, docenti di filosofia del diritto rispettivamente all'università di Padova e di Trento. A loro abbiamo domandato, prima di tutto, quali sono le questioni principali da affrontare quando ci si interroga su come tutelare i neurodiritti.

“Il problema è che resta ancora da capire quale sia esattamente l'oggetto della tutela”, spiega il professor Fuselli. “Grazie alle neuroscienze, conosciamo con sempre maggior precisione il modo in cui le nostre attività psichiche e mentali sono supportate dall'attività neuronale. Inoltre, grazie a una tecnologia sempre più sofisticata, sappiamo decodificare questa attività e trasformarla: ad esempio, se indossiamo un visore che registra l'attività neuronale, questa viene trasformata in un segnale in uscita. Qual è allora il bene da tutelare? Il pacchetto di informazioni che viene inviato? Oppure l'attività neuronale che è associata all'emissione di quel segnale? Quando pensiamo al tracciamento dei dati e della attività neuronale, in che misura questi rappresentano un bene da proteggere? Si tratta di questioni che non possono essere affrontate solamente dal punto di vista giuridico, perché sollevano anche domande fondamentalmente antropologiche.
In altre parole, ci chiediamo se l'integrità neurologica vada tutelata come bene primario, oppure come un bene secondario rispetto alla libertà di sviluppare completamente la propria attività mentale. Sono due visioni che prospettano politiche di tutela che potrebbero essere profondamente diverse”.

“Pur volendo tutelare la cosiddetta integrità psichica, ovvero quella libertà mentale e cognitiva che ha a che fare con la coscienza, il pensiero e la capacità di decisione, si pone un altro problema: a chi appartiene questa libertà cognitiva?” riflette il professor Sommaggio. “Se è una proprietà del singolo individuo, allora può essere ceduta, venduta, noleggiata? Al contrario, possiamo considerare l'integrità mentale di ciascuno di noi, indipendentemente dai contenuti, come un bene comune, che appartiene, in un certo senso, alla collettività. Se si accetta questa idea, allora diventa giusto impedire al singolo di modificare artificialmente la sua capacità cognitiva, così come ad esempio viene vitato il doping nello sport.
Un altro tema che va preso in considerazione, poi, è quello della responsabilità. Pensiamo a delle interfacce tra uomo e computer che potenziano la dinamica cerebrale, con sistemi di intelligenza artificiale sviluppati in modo tale che la macchina aiuti il soggetto a prendere decisioni. Di chi è la responsabilità di queste “decisioni assistite”? Parliamo di una serie di problemi, anche prettamente giuridici, che possono essere molto difficili da risolvere, e che richiederebbero forse di cambiare le modalità in cui siamo soliti pensare a un sistema giuridico, o una formula giuridica. Probabilmente è anche il momento di iniziare a pensare a delle forme di contratto sociale che possano avere a che fare anche con entità non umane.

Dal punto di vista internazionale, gli interventi normativi non sono molti, anche se c'è stato qualche tentativo di sviluppare una dichiarazione universale dei neurodiritti analoga a quella redatta per i diritti genetici. Perciò è assolutamente importante aprire un dibattito etico e giuridico sull'argomento, perché questi problemi dovranno sicuramente essere affrontati tra cinque o dieci anni, anche per stabilire se i neurodiritti abbiano effettivamente le caratteristiche per essere considerati diritti umani.
In questi ultimi anni si è sviluppato un vivace dibattito su questi temi a livello internazionale, di cui i maggiori esponenti sono Roberto Andorno (università di Zurigo) e Marcello Ienca (ETH di Zurigo). In Italia, invece, se ne parla ancora molto poco”.

Il progresso neurotecnologico non dovrebbe essere accompagnato, se non preceduto, da una riflessione etica e giuridica sull'argomento?

“Quello del nostro paese è un sistema giuridico di civil law, caratterizzato dalla produzione di codici e leggi astratte da applicare ai casi concreti”, chiarisce il professor Sommaggio. “Il limite di questo modello di ordinamento giuridico è che talvolta la regola non riesca a risolvere il problema, bensì concorre ad aumentarlo. Per questo, forse, per affrontare questi temi, sarebbe bene prendere spunto dai modelli di common law, tipici dei paesi anglofoni, dove non si cerca di fissare la realtà in rigidi codici normativi, ma si pensa al diritto come uno strumento che aiuta a risolvere i problemi quando si pongono e nei modi in cui si presentano. Credere che normare significhi prevedere tutti i casi possibili vuol dire distruggere il diritto”.

Credere che normare significhi prevedere tutti i casi possibili vuol dire distruggere il diritto

“Dobbiamo tenere conto che il nostro codice civile ha alle spalle una bimillenaria esperienza giuridica”, aggiunge il professor Fuselli. “Inoltre, non si può pensare di legiferare astraendosi dalla concretezza dell'esperienza. Solo la valutazione dei contenziosi che effettivamente sorgeranno consentirà di individuare gli interessi meritevoli di tutela, in che misura proteggerli e secondo quali modalità.
È comprensibile però la necessità di avere delle linee guida (soft law) che consentano non tanto di prevedere la realtà, ma di accompagnarla verso certe forme di sviluppo piuttosto che altre, evitando quindi l'insorgenza di alcuni specifici problemi”.

È difficile allora prevedere quali saranno le ripercussioni concrete sulla nostra vita quotidiana e i pericoli da cui dovremo difenderci?

“Quando si discute di queste tecnologie, si pensa sempre alla necessità di difendersi dall'imposizione del loro utilizzo e dall'hacking”, afferma il professor Fuselli. “Probabilmente, i problemi da affrontare non riguarderanno pericoli così estremi, per i quali sarà più facile attivare forme di attenzione preventiva, anche senza bisogno di particolari regolamentazioni.

Al contrario, le applicazioni che queste tecnologie consentono, a costi relativamente bassi, avranno conseguenze molto più pervasive di quelle che attualmente percepiamo.
Immaginiamo, ad esempio, che venga immessa sul mercato una cuffietta da indossare durante la guida, che registra il grado di attenzione di chi sta al volante, e che emette un segnale nel caso in cui ci sia un calo di attenzione tale da poter compromettere la sicurezza stradale. Potrebbe trattarsi di una tecnologia abbastanza banale: un semplice registratore dell'attività elettrica.
Ebbene, una compagnia assicurativa potrebbe offrire al suo cliente la possibilità di pagare una tariffa ridotta, a patto che alla guida indossi la cuffietta. Ma come si comporterà la compagnia se il guidatore viene coinvolto in un incidente e il segnalatore aveva rilevato un calo di attenzione? E se i dati raccolti mediate quel device fossero impiegati anche dalla polizia stradale come uno strumento di controllo, simile all'alcol test?

Naturalmente, bisognerà pensare anche a come difendersi dagli attacchi degli hacker, ma i problemi più difficili da affrontare li troveremo laddove le neurotecnologie diventeranno parte del nostro quotidiano. Stiamo parlando infatti di dispositivi che saremo noi a scegliere di indossare. L'aspetto più dirompente di questo brave new world non sarà uno sconvolgimento della realtà, ma l'affermazione di una nuova normalità.
Quali sono i limiti che non si dovrebbero valicare, e perché? Questa è la sfida concettuale che ci aspetta, che rende affascinante questo mondo, e che prevede un tipo di esercizio concettuale non propriamente giuridico, ma filosofico. Sarebbe importante, infatti, che in un'eventuale commissione che volesse proporre delle linee guida ci fossero anche degli studiosi di filosofia della mente”.

L'aspetto più dirompente di questo brave new world non sarà uno sconvolgimento della realtà, ma l'affermazione di una nuova normalità

È necessario incentivare un dibattito pubblico su questi temi, promuovendo un dialogo tra scienziati, giuristi, bioeticisti e cittadinanza?

“Ci sono delle associazioni che si occupano di questi temi, come ad esempio la Società italiana di neuroetica e filosofia delle neuroscienze, ma effettivamente si avverte la mancanza di un luogo capace di coinvolgere un più vasto pubblico, in cui svolgere un dialogo consapevole e costruttivo sull'argomento”, afferma il professor Fuselli.

“L'università potrebbe assumere un ruolo centrale nella promozione di questo dibattito, molto più delle big companies e della società civile, invitando neuroscienziati, filosofi e giuristi ad esprimersi su queste problematiche, con le quali avremo a che fare nei prossimi anni”, conclude il professor Sommaggio.

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012