23 abril 2012

Grabar los sueños como videos, coleccionarlos y hasta compartirlos: ¿un sueño posible?

BERKELEY - Imagine viendo un sueño propio en YouTube. Con una mezcla vanguardista de imágenes del cerebro y de simulación por ordenador, los científicos de la Universidad de California, Berkeley, están provocando estos escenarios futuristas a su alcance.

Utilizando resonancia magnética funcional (fMRI) y modelos computacionales, investigadores de UC Berkeley han tenido éxito en la decodificación y la reconstrucción de experiencias visuales dinámicas - en este caso, ver trailers de películas de Hollywood.Hasta el momento, esta tecnología solo puede reconstruir los clips de una película que ya ha visto. Sin embargo, el avance abre el camino para la reproducción de las películas dentro de nuestra cabeza que nadie más ve, como los sueños y recuerdos, según los investigadores.
"Este es un gran paso hacia la reconstrucción de las imágenes internas", dijo el profesor Jack Gallant, un neurocientífico de la Universidad de Berkeley y coautor del estudio publicado en línea (22 de septiembre 2011) en la revista Current Biology. "Estamos abriendo una ventana a las películas en nuestras mentes."

Con el tiempo, las aplicaciones prácticas de la tecnología podría incluir una mejor comprensión de lo que sucede en las mentes de las personas que no pueden comunicarse verbalmente, como víctimas de accidentes cerebrovasculares, los pacientes en coma y las personas con enfermedades neurodegenerativas.También puede sentar las bases para la interfaz cerebro-máquina para que las personas con parálisis cerebral o parálisis, por ejemplo, puede guiar a los equipos con sus mentes.Sin embargo, los investigadores señalan que la tecnología está a décadas de permitir a los usuarios leer los pensamientos de los demás.Anteriormente, Gallant y colaboradores registraron la actividad cerebral en la corteza visual, mientras que un sujeto veía fotografías en blanco y negro. Entonces construyeron un modelo computacional que les permitió predecir con una exactitud abrumadora, la imagen que el sujeto estaba mirando.En su último experimento, los investigadores dicen que han resuelto un problema mucho más difícil mediante la decodificación de señales cerebrales generadas por imágenes en movimiento."Nuestra experiencia visual natural es como ver una película", dijo Shinji Nishimoto, autor principal del estudio e investigador post-doctoral en el laboratorio de Gallant. "Para que esta tecnología pueda tener una amplia aplicación, debemos entender cómo el cerebro procesa estas experiencias visuales dinámicas."Leer la mente a través de la tecnología de imágenes cerebrales es todavía un campo común de la ciencia-ficción.Nishimoto y otros dos miembros del equipo de investigación sirvieron como sujetos para el experimento, ya que el procedimiento requiere de los voluntarios el permanecer inmóviles en el interior del escáner de resonancia magnética para una hora a la vez.Vieron dos conjuntos separados de trailers de películas de Hollywood, mientras que la fMRI se utilizó para medir el flujo sanguíneo a través de la corteza visual, la parte del cerebro que procesa la información visual. En el equipo, el cerebro se divide en pequeños cubos tridimensionales conocidos como píxeles volumétricos, o "voxels"."Hemos construido un modelo para cada voxel que describe cómo la forma y la información de movimiento en la película se asigna a la actividad del cerebro", dijo Nishimoto.La actividad cerebral registrada mientras que los sujetos vieron la primera serie de clips se introducen en un programa de ordenador que aprende, segundo a segundo, a asociar patrones visuales de la película con la actividad cerebral correspondiente.La actividad cerebral evocada por el segundo conjunto de clips se utilizó para probar el algoritmo de reconstrucción de la película. Esto se hizo alimentado el software con 18 millones de segundos de videos al azar de YouTube para que pueda predecir la actividad cerebral que cada clip de película en evocar en cada tema.Por último, los 100 clips que el programa informático decidió eran lo más parecido a los video clips que el sujeto había visto, se fusionaron para producir una reconstrucción borrosa pero continua de la película original.La reconstrucción de las películas que utilizan escáneres cerebrales ha sido un desafío debido a que el flujo de sangre medido pór resonancia magnética funcional cambia mucho más lentamente que las señales neuronales que codifican la información dinámica en las películas, dijeron los investigadores. Por esta razón, los intentos anteriores para decodificar más actividad cerebral se han centrado en las imágenes estáticas."Hemos abordado este problema mediante el desarrollo de un modelo de dos etapas que se describen por separado: la población subyacente neuronal y las señales de flujo de sangre", dijo Nishimoto.En última instancia, Nishimoto, dijo, los científicos necesitan entender cómo el cerebro procesa los eventos dinámicos visuales que experimentamos en la vida cotidiana."Tenemos que saber cómo funciona el cerebro en condiciones naturales", dijo. "Para eso, tenemos que entender primero cómo funciona el cerebro cuando estamos viendo películas".Otros co-autores del estudio son Thomas Naselaris con Helen UC Berkeley Instituto de Neurociencia de Testamentos; Un Vu T. con Grupo Mixto de Graduado de UC Berkeley en Bioingeniería, y Yuval Benjamini y el profesor Yu Bin con el Departamento de la Universidad de Berkeley de Estadística.

Referencia:
Curr Biol. 2011 Oct 11;21(19):1641-6. Epub 2011 Sep 22. 
Reconstructing visual experiences from brain activity evoked by natural movies.
Source
Helen Wills Neuroscience Institute, University of California, Berkeley, Berkeley, CA 94720, USA.

No hay comentarios.: