"El hombre encuentra a Dios detrás de cada puerta que la ciencia logra abrir." EINSTEIN


viernes, 9 de diciembre de 2011

Una nueva interfaz cerebro-ordenador regula el estado de ánimo con música

Investigadores desarrollan un sistema que interpretará señales neuronales para conocer el humor del usuario, y producirá el sonido que éste necesite


Un equipo de científicos de dos universidades británicas está desarrollando una interfaz cerebro-ordenador capaz de reconocer el estado anímico de una persona y de reproducir una música que se ajuste a dicho estado y lo regule. El sistema registrará las señales neuronales del cerebro de los usuarios y, a partir de ellas, interpretará su estado de ánimo. Como respuesta, emitirá una música sujeta a determinados patrones que se sabe provocan emociones específicas. En un futuro, este sistema podría ser utilizado para tratar la depresión, afirman sus desarrolladores. 

U
n equipo de científicos de dos universidades británicas están desarrollando una interfaz cerebro-ordenador (BCI) capaz de reconocer el estado anímico de una persona, y de reproducir una música que se ajuste a dicho estado o que lo regule.
Los investigadores, de la Universidad de Reading y de la Universidad de Plymouth, creen que este sistema podría usarse como herramienta terapéutica, en el caso de pacientes que sufren ciertas formas de depresión.
Reconocimiento del estado de ánimo
Una interfaz cerebro-computadora es un dispositivo que funciona como medio de comunicación entre las funciones mentales humanas y los ordenadores.
Nuestras funciones mentales son generadas por el cerebro mediante actividad eléctrica. Esta actividad puede ser captada y clasificada para comunicarla a un medio externo, en este caso un ordenador o un hardware.
Tal y como explica el director del proyecto, el profesor de cibernética de la Universidad de Reading, Slawomir Nasuto, en la revista The Engineer: "Cuando desempeñamos alguna función cognitiva, nuestro cerebro produce mucha actividad eléctrica que, mediante técnicas no invasivas, puede ser reconocida como fluctuaciones de potenciales eléctricos diminutos".
"Si se pueden registrar estas fluctuaciones y reconocer que tipo de actividad están llevando a cabo, se podría establecer a partir de ellas un comando de control para los ordenadores".
En las interfaces cerebro-computadora tradicionales, el usuario es el que ejerce el control completo sobre el sistema BCI, que responde a dicho control.
En el caso del sistema desarrollado por Nasuto y sus colaboradores, la situación es distinta.
"En nuestro caso, no se pregunta al usuario si está feliz o infeliz. Lo que queremos es reconocer su estado de ánimo para que el sistema le proporcione el estímulo adecuado. Por tanto, el usuario no controla el sistema. Ésta es una característica única", explica Nasuto.
El científico añade que el proyecto aplicará la electroencefalografía o EEG (técnica de exploración neurofisiológica que registra la actividad bioeléctrica del cerebro), para transferir las señales eléctricas neuronales desde el cráneo de los pacientes a través de una serie de cables, hasta una caja amplificadora, a su vez conectada a un ordenador.
Este ordenador será el que genere su propia música sintética, basándose en el estado mental del usuario y en sus necesidades.
Aprovechar las características de la música
Otro de los científicos implicados en el proyecto, el profesor de música computacional de la Universidad de Plymouth,Eduardo Miranda, explica que: "hemos desarrollado una serie de métodos basados en reglas para generar música con los ordenadores".
Además, "vamos a emplear un programa informático para tratar de identificar las normas que gobiernan los patrones musicales que producen ciertas emociones. Después, incorporaremos estas reglas al sistema, para que éste genere la música adecuada", añade Miranda.
En música ya se sabe que, por ejemplo, una clave menor evoca tristeza, mientras que una clave mayor evoca felicidad. Los compositores han aprovechado estas características de los efectos de la música durante siglos.
Por otro lado, la música que genere el sistema se ajustará a los gustos de los usuarios, aunque tendrá siempre un sonido similar al de la música producida por el piano, añaden los investigadores.
Miranda y Nasuto creen que esta adaptación a los gustos personales será el principal desafío del sistema, porque la gente tiene gustos muy variados y lo que puede hacer que un individuo se aburra, a otro puede emocionarle.
Con todo, los científicos esperan que su desarrollo sirva para regular los estados de ánimo de los usuarios. El proyecto, financiado por el Engineering and Physical Sciences Research Council (EPSRC) del Reino Unido tendrá cuatro años de duración.

No hay comentarios:

Publicar un comentario