Desarrolla CICESE interfaz cerebro-computadora

En entrevista con la Agencia Informativa Conacyt, el investigador informó que como primera aplicación se contempla que esta tecnología, que innova en el área de software, sea utilizada por personas con discapacidad motriz, sensorial y de comunicación oral.

Gustavo Olague Caballero, investigador del Departamento de Ciencias de la Computación del Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE), desarrolla una interfaz cerebro-computadora que será capaz de «leer» los impulsos eléctricos generados por la actividad de las neuronas a través del pensamiento.

En entrevista con la Agencia Informativa Conacyt, el investigador informó que como primera aplicación se contempla que esta tecnología, que innova en el área de software, sea utilizada por personas con discapacidad motriz, sensorial y de comunicación oral.

Mediante la ampliación del proyecto titulado Programación cerebral aplicada al estudio del pensamiento y la visión, Gustavo Olague y sus estudiantes consideran la adquisición de tecnología que permita a la interfaz leer los pensamientos en cualquier parte del cerebro.

- Advertisement -

“La tecnología que tenemos ahorita únicamente lee lo que está cerca de la parte exterior del cerebro”, precisó, y agregó que con la interfaz buscan aportar a los tratamientos médicos que no utilizan fármacos.

El desarrollo de la interfaz es la continuación del proyecto Evolución de cerebros artificiales en visión por computadora, financiado por el Consejo Nacional de Ciencia y Tecnología (Conacyt).

Leer estados de ánimo

Dedicado principalmente al desarrollo de inteligencia artificial, Gustavo Olague explica que se ha propuesto lograr la colaboración entre cerebros artificiales y cerebros reales, con el objeto de poder leer los estados del pensamiento.

Para ello, se usarán electrodos que se conectan en el cuero cabelludo del usuario y al tener un pensamiento la computadora se encargará de expresarlo.

“La idea es que a partir de esas señales se puedan deducir estados de ánimo, vamos a empezar con cosas sencillas como con 10 estados de ánimo, para que la persona pueda decir si no le gusta o si le gusta lo que está comiendo, si quiere que la bañen, si quiere salir, si está molesta, si siente dolor, etcétera”, detalló.

Subrayó que actualmente el proyecto se encuentra en la fase teórica para el desarrollo del software, posteriormente trabajarán en la factibilidad y, finalmente, diseñarán un prototipo para comenzar con su primera aplicación.

Dado que una de sus primeras aplicaciones serán los tratamientos médicos no invasivos, han entablado acuerdos de colaboración con el Sistema para el Desarrollo Integral de la Familia (DIF) a nivel nacional, para que a través de esta institución cuenten con pacientes para hacer las primeras pruebas.

ARTÍCULOS RELACIONADOS
- publicidad -

Otras noticias de interés