Los científicos usan imágenes cerebrales para revelar las películas en nuestra mente

Los científicos usan imágenes cerebrales para revelar las películas en nuestra mente

ERKELEY — Imagínese acceder a la mente de un paciente en coma o ver su propio sueño en YouTube. Con una combinación de vanguardia de imágenes cerebrales y simulación por computadora, los científicos de la Universidad de California, Berkeley, están poniendo estos escenarios futuristas al alcance de la mano. Usando imágenes de resonancia magnética funcional (fMRI) y modelos computacionales, los investigadores de UC Berkeley han logrado decodificar y reconstruir las experiencias visuales dinámicas de las personas, en este caso, ver avances de películas de Hollywood.

Hasta el momento, la tecnología solo puede reconstruir fragmentos de películas que la gente ya haya visto. Sin embargo, el avance allana el camino para reproducir las películas dentro de nuestras cabezas que nadie más ve, como los sueños y los recuerdos, según los investigadores.

«Este es un gran paso hacia la reconstrucción de imágenes internas», dijo el profesor Jack Gallant, neurocientífico de UC Berkeley y coautor del estudio publicado en línea hoy (22 de septiembre) en la revista Current Biology. “Estamos abriendo una ventana a las películas en nuestras mentes”. Eventualmente, las aplicaciones prácticas de la tecnología podrían incluir una mejor comprensión de lo que sucede en la mente de las personas que no pueden comunicarse verbalmente, como las víctimas de accidentes cerebrovasculares, los pacientes en coma y las personas con enfermedades neurodegenerativas.

La reconstrucción aproximada (derecha) de un clip de película (izquierda) se logra a través de imágenes cerebrales y simulación por computadora.

También puede sentar las bases para la interfaz cerebro-máquina para que las personas con parálisis cerebral o parálisis, por ejemplo, puedan guiar las computadoras con sus mentes.

Sin embargo, los investigadores señalan que la tecnología está a décadas de permitir a los usuarios leer los pensamientos e intenciones de los demás, como se muestra en clásicos de ciencia ficción como «Brainstorm», en el que los científicos registran las sensaciones de una persona para que otros puedan experimentarlas.

Anteriormente, Gallant y sus colegas investigadores registraron la actividad cerebral en la corteza visual mientras un sujeto veía fotografías en blanco y negro. Luego construyeron un modelo computacional que les permitió predecir con una precisión abrumadora qué imagen estaba mirando el sujeto.

En su último experimento, los investigadores dicen que han resuelto un problema mucho más difícil al decodificar las señales cerebrales generadas por imágenes en movimiento.

“Nuestra experiencia visual natural es como ver una película”, dijo Shinji Nishimoto, autor principal del estudio e investigador postdoctoral en el laboratorio de Gallant. “Para que esta tecnología tenga una amplia aplicabilidad, debemos entender cómo el cerebro procesa estas experiencias visuales dinámicas”.

Nishimoto y otros dos miembros del equipo de investigación sirvieron como sujetos para el experimento, porque el procedimiento requiere que los voluntarios permanezcan inmóviles dentro del escáner de resonancia magnética durante horas seguidas.

Vieron dos conjuntos separados de avances de películas de Hollywood, mientras que la resonancia magnética funcional se utilizó para medir el flujo sanguíneo a través de la corteza visual, la parte del cerebro que procesa la información visual. En la computadora, el cerebro se dividió en pequeños cubos tridimensionales conocidos como píxeles volumétricos o «vóxeles».

“Construimos un modelo para cada vóxel que describe cómo la información de forma y movimiento en la película se asigna a la actividad cerebral”, dijo Nishimoto.

La actividad cerebral registrada mientras los sujetos veían el primer conjunto de clips se introdujo en un programa de computadora que aprendió, segundo a segundo, a asociar patrones visuales en la película con la actividad cerebral correspondiente.

La actividad cerebral evocada por el segundo conjunto de clips se utilizó para probar el algoritmo de reconstrucción de películas. Esto se hizo alimentando 18 millones de segundos de videos aleatorios de YouTube en el programa de computadora para que pudiera predecir la actividad cerebral que cada clip de película probablemente evocaría en cada sujeto.

Finalmente, los 100 clips que el programa de computadora decidió que eran más similares al clip que el sujeto probablemente había visto se fusionaron para producir una reconstrucción borrosa pero continua de la película original.

Reconstruir películas usando escáneres cerebrales ha sido un desafío porque las señales de flujo sanguíneo medidas usando fMRI cambian mucho más lentamente que las señales neuronales que codifican la información dinámica en las películas, dijeron los investigadores. Por esta razón, la mayoría de los intentos anteriores de decodificar la actividad cerebral se han centrado en imágenes estáticas.

“Abordamos este problema mediante el desarrollo de un modelo de dos etapas que describe por separado la población neuronal subyacente y las señales de flujo sanguíneo”, dijo Nishimoto.

En última instancia, dijo Nishimoto, los científicos deben comprender cómo el cerebro procesa los eventos visuales dinámicos que experimentamos en la vida cotidiana.

“Necesitamos saber cómo funciona el cerebro en condiciones naturales”, dijo. “Para eso, primero debemos entender cómo funciona el cerebro mientras vemos películas”.

Otros coautores del estudio son Thomas Naselaris del Instituto de Neurociencia Helen Wills de UC Berkeley; un T. Vu con el Grupo Conjunto de Graduados en Bioingeniería de UC Berkeley; y Yuval Benjamini y el profesor Bin Yu del Departamento de Estadística de UC Berkeley.

Fuentes: newscenter.berkeley.edu

Share This

COMMENTS

Wordpress (0)
Disqus ( )