Para los que no pilléis bien el inglés hablado, podéis saltar a 1:47, donde se muestran las imagenes. A la izquierda está el vídeo que el sujeto está viendo y a la derecha la reconstrucción.
La técnica usada parece sorprendentemente simple: muestran vídeos al sujeto durante unas horas mientras graban la actividad en el precórtex visual. Después realizan un análisis de correlación entre ambos. Finalmente muestran al sujeto otro vídeo (supuestamente diferente a los usados para obtener la correlación) y son capaces de reconstruir imágenes similares a las que el sujeto está viendo. El investigador explica en el vídeo que el sistema funciona mejor cuando lo que el sujeto está viendo son cosas simples, como caras y objetos fijos.
Esta investigación ha sido publicada en Nature, con lo cual no es probable que se trate de un hoax. Sin embargo, cuando uno se pone a mirar las reconstrucciones, asaltan las dudas.
La primera curiosidad es que aparecen textos en las imágenes:
Supongo que esto es debido a que los vídeos iniciales que se le mostraron durante el proceso de entrenamiento del sistema incluían texto; pero me da la impresión de que hay demasiadas. No sé que relevancia tiene esto, pero me llama la atención.
La segunda cosa que me llama la atención es que muchas imágenes parecen estar compuestas por las superposición de unas pocas imágenes:
No sé vosotros, pero yo ahí veo un plato en un lavavajillas, superpuesto a un par de imágenes más. Imagino que parte de lo que hacen es buscar las imágenes del proceso de entrenamiento que mejor correlacionan con las medidas obtenidas en la resonancia y combinarlas entre sí, quizás con un peso dado por lo bien que se correlacionan. No está mal, pero posiblemente esto haga que los resultados parezcan más espectaculares de lo que son. El caso anterior se beneficia de que es más común encuadrar objetos centrados en la imagen. Pero éste no es el caso más claro, los hay peores:
En este caso, está claro que la reconstrucción está basada en un 83% (siempre uso 83% cuando me invento porcentajes, lo cual ocurre menos de un 83% de las veces) en imágenes de un tío con camiseta negra. El hecho de que esté borroso es debido a que es la suma de varias imágenes en diferentes posiciones, y no a que la reconstrucción es imperfecta (bueno, aunque también puede verse así).
Es decir, las imágenes son tan buenas porque para la reconstrucción usan imágenes previas que ya tienen gran parte de los detalles necesarios.
En resumen, el sistema es interesante; pero probablemente es por el momento menos espectacular de lo que puede parecer por el vídeo. De todas formas, démosle unos años para mejorar, supongamos que podemos construir escáneres de resonancia magnética portátiles y se me ocurren un par de aplicaciones interesantes para este sistema (de las cuales sólo dos están relacionadas con el porno).
Para los que tengáis tiempo y ganas, podéis intentar experimentar con ello. Dicen que sólo dan los datos a los que investigan en neurociencia, pero desde una universidad casi seguro que es posible obtener los datos.