
23 Set brain computer interface
BRAIN COMPUTER INTERFACE
ROBOT CHE TRASFORMANO IL PENSIERO IN AZIONI
La parola comunica il pensiero, il tono le emozioni… Ezra Pound aveva ragione,ma non è più cosi, la tecnologia della Brain Computer Interface si sviluppa, si evolve, si irrobustisce giorno dopo giorno nell’ombra dei laboratori di ricerca e sviluppo, e alla fine ti legge nel pensiero.
Di cosa stiamo parlando?
Brain Computer Interface o BCI è una tecnologia che permette la comunicazione diretta tra l’attività neuronale ed un dispositivo esterno: si tratta essenzialmente di una tecnologia basata sull’abilità di leggere l’attività neuronale, processare i segnali ed inviare comandi al mondo esterno.
Negli anni varie attività di ricerca sperimentale hanno permesso a persone con serie disabilità motorie di eseguire azioni che non erano più un grado di svolgere, con lo sviluppo di applicazioni legate alla tecnologia BCI si è traguardato un obiettivo importante, con la sola “forza del pensiero” è ora possibile comandare un braccio robotico per spostare un oggetto, per bere da una bottiglia o semplicemente per comporre frasi e mostrarle su un terminale video.
I ricercatori hanno già allargato gli orizzonti. In breve tempo potremmo vedere persone disabili controllare un’intera smart-house, dalla macchina del caffè alla luce, dalla porta alla tv o combattere battaglie di droni, aumentare la sicurezza alla guida, il controllo dei danni cerebrali in sports di contatto, la predizione di crisi epilettiche, brain-fitness, musica, neuromarketing, videogames… insomma non c’è limite all’immaginazione l’importante è continuare a pensare!
Nel laboratorio Robotics Research group of the DIEI dell’università di Cassino e del Lazio meridionale anche se in piccolo si cerca di dare ancora speranza a quelle persone che l’hanno persa, quella speranza di poter comunicare, di farsi capire, di non fermarsi dove sono stati fermati.
Nel video è mostrato un esperimento di Tesi Universitario dell’ Ing. Mangiapelo che grazie all’utilizzo di un manipolatore (7DOF Kinova Jaco2), di un casco indossabile a 16 elettrodi (Emotiv Epoc+) e un sensore RGB-D (Kinect one) esegue operazioni consecutive trasformando il pensiero in azioni. L’utilizzatore grazie a un ‘interfaccia grafica (sulla parte bassa del video) seleziona un elemento del menu ponendo l’attenzione su di esso e contando quante volte viene illuminato, seguendo questa logica di scelta è in grado di interagire con gli oggetti presenti sulla scena.