SCIENZA E RICERCA
Avatar e baby Goldrake
Immaginate se una persona disabile, o completamente paralizzata a letto, potesse visitare un museo, interagire da casa con i compagni di scuola o dall’ospedale con i familiari. O ancora, se usando solo il “pensiero” riuscisse a muovere un braccio robotico o una gamba. Contrariamente a quanto si potrebbe pensare, la possibilità non è così remota e si muove sul terreno della neurorobotica. Sistemi di “brain computer interface” (interfaccia cervello-computer) associati a strumenti robotici stanno infatti dimostrando potenzialità interessanti, come sembrano indicare studi condotti negli ultimi anni cui anche Padova contribuisce.
Note ormai da un paio di decenni, le tecniche di brain computer interface propongono un canale di comunicazione alternativo a quelli tradizionali e possono rivelarsi strumenti particolarmente utili nel caso di pazienti colpiti da ictus che non possono utilizzare i canali muscolari o con lesioni alla spina dorsale. Il metodo permette infatti di captare e decodificare le intenzioni del soggetto e di trasformarle in azioni per dispositivi esterni, da software per la scrittura a device robotici. “Dal punto di vista ingegneristico – spiega Luca Tonin dell’Intelligent Autonomous System Laboratory (Ias-Lab) del dipartimento di Ingegneria dell’informazione di Padova – il cervello viene considerato come una sorta di scatola nera”. Quando una persona immagina di compiere un movimento si attivano specifiche aree del cervello. Dunque, attraverso la registrazione dell’attività cerebrale con elettroencefalogramma, è possibile capire quale tipo di movimento il soggetto stia immaginando di svolgere. I segnali cerebrali vengono acquisiti, processati e utilizzati per controllare un dispositivo esterno.
Tecniche di brain computer interface vengono già impiegate in ambito clinico. Si pensi ai software di spelling o di scrittura che permettono la comunicazione a persone con sclerosi laterale amiotrofica ad esempio, a pazienti completamente paralizzati che non sono in grado di parlare ma sono vigili. Si tratta di sistemi che nel tempo sono diventati sempre più sofisticati, sottolinea Tonin, ma che non hanno ancora raggiunto una fase matura per la commercializzazione. Questa metodologia viene invece utilizzata, anche se non ancora come metodo standard, per la riabilitazione motoria dei pazienti. “È come se avessimo una porta di servizio per entrare nel cervello e cercare di capire cosa sta succedendo. Nei pazienti che hanno subito un ictus e riportano un danno cerebrale, con conseguente incapacità di muovere un braccio ad esempio, si può adottare questo metodo per allenarli a muovere l’arto”. Uno strumento in più dunque, oltre al lavoro del fisioterapista.
Ora però si va anche oltre. Si è riusciti infatti a elaborare un sistema per la telepresenza per persone con gravi disabilità motorie, che integra sistemi di brain computer interface con un piccolo robot mobile. “L’idea di base – spiega Tonin che negli ultimi anni ha lavorato al progetto e firma uno studio pubblicato recentemente su Proceedings of the Ieee – è di permettere a persone con disabilità, che non possono alzarsi dal letto, di interagire con il resto del mondo. Sia con i familiari, che magari vivono in un’altra abitazione o in un’altra città, che con altre persone e ambienti”. Nel caso specifico è stato realizzato un piccolo robot (simile per intenderci ai robot per pulire la casa), montato su una struttura in ferro su cui è appoggiato un computer e una telecamera ad altezza uomo. Nove pazienti con diversi gradi di disabilità sparsi in tutta Europa sono riusciti a telecomandare a distanza il robot, facendogli fare un percorso all’interno di un laboratorio in Svizzera. “Il paziente in questo modo – spiega Tonin – può immedesimarsi come avatar nel robot. Può avere il controllo sull’ambiente circostante e seguire l’interlocutore durante la conversazione a distanza”. È facile intuire che se questi robot venissero collocati in un museo, ad esempio, il disabile potrebbe facilmente collegarsi e manovrarlo all’interno delle sale. E lo stesso potrebbe valere per molti altri ambienti. Ma le ricadute sul piano clinico sono anche altre. Su tutte si immagini la possibilità di pilotare direttamente con il cervello arti robotici attaccati al corpo, di modo che a un’intenzione corrisponda direttamente un movimento.
“Nel campo della neurorobotica – spiega Tonin – stiamo ora lavorando a un’integrazione sempre maggiore tra componente umana e artificiale, per giungere a un controllo via via più performante”. Il risultato potrebbe essere la realizzazione di robot in grado di contestualizzare i comandi ricevuti ed eseguirli solo se realmente possibile.
Anche al dipartimento di Salute della donna e del bambino di Padova c’è chi si muove in questa direzione. È in programma infatti per il prossimo anno un progetto che valuterà la possibilità di utilizzare tecniche di brain computer interface nelle primissime fasi di risveglio dal coma, quando comincia a riemergere la coscienza, ma manca ancora qualsiasi interazione con l’ambiente, anche per la momentanea paralisi dei muscoli volontari. L’idea è di verificare se i bambini, attraverso questo sistema, possano essere in grado di telecomandare un dispositivo esterno, in questo caso un robot, un “corpo di cortesia”, con cui magari iniziare una precoce riabilitazione. Il programma rappresenta la seconda fase di un progetto, Baby Goldrake, condotto in collaborazione con il liceo Fermi di Padova che ha portato alla realizzazione di un piccolo robot umanoide da utilizzare in clinica per tranquillizzare e distrarre i bambini durante operazioni dolorose, come ad esempio un’iniezione, o quando i piccoli pazienti sono in isolamento. Si tratta della cosiddetta robot theraphy, già praticata in ospedali del nord America come all’Alberta Children’s Hospital e in questi giorni in fase di sperimentazione anche a Padova.
Monica Panetto