martes, 30 de junio de 2009

La tecnología de Toyota mueve una silla de ruedas con un interfaz cerebral

Hoy escribo esta entrada para todos aquellos que tengan curiosidad por la noticia que ha saltado a la prensa sobre la silla de ruedas de Toyota. Realmente, el revuelo ha sido considerable y varios medios y personas me han preguntado sobre mi opinión sobre la noticia (Heraldo de Aragón, TVE, radio local, prensa de la Universidad, prensa del I3A, el director del CPS, compañeros de trabajo, amigos…). Básicamente todos querían contrastar la noticia: “Toyota ha sacado una silla como la vuestra … ¿es verdad?”

He leído la noticia en un titular de yahoo y (muy propio de los científicos) rápidamente me he puesto a buscar el trabajo científico que avala el desarrollo tecnológico. La verdad es… ¡¡¡que me ha costado!!! . Además de tiempo, he tenido que pagar 29$, dado que la publicación está en un sitio al que no está suscrito la universidad :(. Todo lo que voy a contar a continuación pertenece al trabajo de Choi Kyuwan (el investigador de Toyota) titulado “Control of a wheelchair by motor imagery in real time” 2008.

Este trabajo, contado para no expertos (para los que guste el “hard-tech”, leed la sección de “desarrollo tecnológico”, al final de esta entrada) consiste en un prototipo de silla controlada por los bien conocidos ritmos mu. En pocas palabras: cuando piensas en hacer una acción motora se te desincroniza una banda de frecuencia en la corteza motora. En este trabajo utilizan tres estrategias: pensar en apretar la mano izquierda, derecha y mover los dos pies. Esta actividad cerebral se recoge con el EEG, se procesa y se detecta en cual de las tres acciones está pensando la persona. Después se le manda la información a la silla que se mueve en una de estas direcciones. En el artículo citan que la ventaja de la tecnología es que son capaces de dar un nuevo comando en 125 milisegundos.

Vayamos por partes:

Lo primero de todo debo decir que la clasificación de los ritmos en tiempo real es algo que se hace desde bastante tiempo (y más rápido que 125 milisegundos). Por ejemplo, en el video siguiente (del grupo de BCI de Berlin) hay dos personas jugando al “pong” mucho más rápido: fijaos en la velocidad a la que mueven los bloques!




De hecho, el trabajo de Berlin es en lo que se ha basado Choi Kyuwan para su interfaz cerebro-computador.

En segundo lugar, Choi Kyuwan cita textualmente que, además de reconocer los ritmos en 125 milisegundos, es capaz de proporcionar feedback visual en también 125 milisegundos. Una vez más, el grupo de Berlín tienen algo mejor, como se ve en este video:



Lo que se ve es un sistema para escribir “con la mente” y, a la izquierda de la pantalla, se ve el feedback visual. ¡Fíjaos la rapidez con la que sube la barra de la izquierda cuando el usuario se concentra!

Finalmente, sólo por centrarme en la silla, esta no está equipada de ningún sistema de navegación automatizada para compensar los “delays” (retrasos) y las imprecisiones/errores. Esto es realmente importante cuando se controlan sistemas con BCI donde la seguridad es crítica (por ejemplo, la silla lleva personas de verdad a bordo!). En este sentido, esto es algo que se viene teniendo en cuenta, por ejemplo, el profesor del Millán hizo la primera silla controlada por la mente y ya la equipó con sensores y una capa de inteligencia artificial para mejorar el movimiento y compensar los errores del sistema (ver artículo ¡os lo recomiendo!). Aquí tenéis un video de su trabajo:



Por nuestra parte, hicimos el segundo desarrollo funcional con un protocolo distinto para el interfaz cerebro computador y una tecnología de navegación inteligente para mover la silla (ver artículo). Aquí tenéis el vídeo de nuestro trabajo:



En resumidas cuentas, creo que hay que recibir estas bombas mediáticas con mucha prudencia. Está muy bien que Toyota esté también trabajando los interfaces cerebro-computador y se sume a Honda (a mis alumnos: chicos... ¡espabilad y coged mis PFCs! :-)), me parece fantástico que la tecnología empiece a ser conocida más allá de los laboratorios de investigación, pero desde un punto estrictamente científico, el proyecto de Toyota no es tan espectacular como se ha visto reflejado en los medios.

Sección: Desarrollo Tecnológico (sigue sólo a tu propio riesgo!!!)

Choi Kyuwan ha implementado AMUSE que es un Blind Decomposition Source que se puede ejecutar en tiempo real (puede verse como dos PCAs consecutivos). Esto lo usa sobre la señal de EEG para eliminar artefactos (desafortunadamente no dice cómo “the undesired components corresponding to the artifacts were removed and the remaining useful (significant) …” -> esto es difícil de hacer y me recuerda el trabajo de mi amigo Halder). Después aplica un common spatial pattern CSP sobre el nuevo EEG resultante del AMUSE y usa las características del CSP como entradas a una máquina de soporte vectorial SVM. De esta forma consigue clasificar las tres clases que tiene. Una vez obtenidas las clases, simplemente manda un comando en rotación a la derecha, a la izquierda o en traslación a la silla. Para detener la silla usa una señal de EMG (no cerebral sino muscular).
A mis alumnos: No os asustéis! En aproximadamente un mes hablaréis este lenguaje sin problemas!

No hay comentarios: