Sponsor

Recent

¿CÓMO RECONOCEN LOS CIEGOS LOS ROSTROS A TRAVÉS DEL SONIDO?

Un nuevo estudio revela que las personas ciegas pueden reconocer rostros utilizando patrones auditivos procesados ​​por el área fusiforme de la cara, una región del cerebro importante para el procesamiento facial en personas videntes.

Ascención Bustillos 


El estudio utilizó un dispositivo sensorial alternativo para traducir imágenes en sonido, lo que demuestra que el reconocimiento facial en el cerebro no depende únicamente de la experiencia visual. Los participantes ciegos y videntes se sometieron a resonancias magnéticas funcionales, que mostraron que el área fusiforme de la cara codifica el concepto de cara, independientemente de la información sensorial.

Este descubrimiento desafía la comprensión de cómo se desarrolla y funciona el reconocimiento facial en el cerebro.

Hechos clave: 
El estudio muestra que el área fusiforme de la cara del cerebro puede procesar el concepto de cara a través de patrones auditivos, no solo visualmente.
Las resonancias magnéticas funcionales revelaron que esta región está activa tanto en personas ciegas como en personas videntes durante las tareas de reconocimiento facial.
La investigación utilizó un dispositivo especializado para traducir información visual en sonido, lo que permitió a los participantes ciegos reconocer configuraciones faciales básicas.

Fuente: Centro médico de la Universidad de Georgetown

Utilizando un dispositivo especializado que traduce imágenes en sonido, neurocientíficos y colegas del Centro Médico de la Universidad de Georgetown han demostrado que las personas ciegas reconocen rostros básicos utilizando una parte del cerebro conocida como área fusiforme de la cara, una importante área del cerebro para el procesamiento de rostros. Personas videntes.

Los resultados aparecieron en uno más El 22 de noviembre de 2023.Actualmente, las personas ciegas, utilizando sus dispositivos, pueden reconocer una cara básica de “dibujos animados” (como una cara feliz con un emoji) cuando se convierte en patrones de audio. Crédito: Noticias de neurociencia

«Se sabe desde hace algún tiempo que las personas ciegas pueden compensar su pérdida de visión, hasta cierto punto, utilizando sus otros sentidos», dice Joseph Raushecker, Ph.D., profesor del departamento. en neurociencia en la Universidad de Georgetown y autor principal de este estudio.

«Nuestro estudio probó hasta qué punto existe esta plasticidad, o compensación, entre la visión y la audición codificando patrones visuales básicos en patrones auditivos con la ayuda de un dispositivo técnico al que nos referimos como dispositivo de sustitución sensorial. Usando imágenes de resonancia magnética funcional ( fMRI), podemos determinar dónde se produce esta plasticidad compensatoria en el cerebro.

La percepción facial en humanos y primates no humanos se produce a través de una mezcla de áreas corticales especializadas. La forma en que se desarrollaron estas regiones sigue siendo controvertida. Dada su importancia en el comportamiento social, muchos investigadores creen que los mecanismos neuronales del reconocimiento facial son innatos en los primates o dependen de la experiencia visual temprana con los rostros.

«Nuestros hallazgos en personas ciegas sugieren que el desarrollo del área fusiforme de la cara no depende de la experiencia con rostros visuales reales, sino más bien de la exposición a la geometría de las configuraciones faciales, que pueden transmitirse a través de otras modalidades sensoriales», añade Raushecker.

«Nuestro estudio muestra que el área fusiforme de la cara codifica el ‘concepto’ de la cara independientemente del canal de entrada o la experiencia visual, lo cual es un hallazgo importante», dice Paola Plaza, Ph.D., una de las autoras principales del estudio. en la Universidad Andrés Bello de Chile.

Seis personas ciegas y 10 personas videntes, que sirvieron como grupo de control, se sometieron a tres rondas de exploraciones por resonancia magnética funcional para ver qué partes del cerebro se activaban durante la traducción de imagen a sonido.

Los científicos descubrieron que la activación cerebral por sonido en personas ciegas se encontraba principalmente en el área fusiforme izquierda de la cara, mientras que el procesamiento facial en personas videntes se producía principalmente en el área fusiforme derecha de la cara.

«Creemos que la diferencia izquierda-derecha entre personas ciegas y no ciegas puede tener algo que ver con cómo se procesan los lados izquierdo y derecho del área fusiforme, ya sea como patrones conectados o como partes separadas, lo que podría ser una pista importante. ”, dice Rauschecker, quien también es codirector del Centro de Arquitectura Neural de la Universidad de Georgetown: “Para ayudarnos a mejorar nuestro sistema de sustitución sensorial”.

Actualmente, las personas ciegas, utilizando sus dispositivos, pueden reconocer una cara básica de “dibujos animados” (como una cara feliz con un emoji) cuando se convierte en patrones de audio. Reconocer rostros a través de voces fue un proceso que llevó mucho tiempo y requirió muchas sesiones de capacitación.

Cada sesión comenzó haciendo que los sujetos identificaran formas geométricas simples, como líneas horizontales y verticales; Luego, la complejidad de los estímulos aumentó gradualmente, de modo que las líneas formaron formas, como casas o caras, que luego se volvieron más complejas (casas altas frente a casas anchas, caras felices frente a caras tristes).

Con el tiempo, los científicos quieren utilizar imágenes de rostros y casas reales con su dispositivo, pero los investigadores señalan que primero tendrán que aumentar significativamente la precisión del dispositivo.

«Nos gustaría poder ver si es posible que las personas ciegas aprendan a reconocer individuos a partir de sus imágenes. Esto puede necesitar más entrenamiento en nuestras máquinas, pero ahora que hemos identificado el área del cerebro donde se realiza la traducción lugar, es posible que tengamos una mejor manera de ajustar mejor nuestros procesos”, concluye Roschecker.

Además de Rauschiker, los otros autores de Georgetown son Laurent René y Stephanie Roseman. Anne J. de Volder, quien falleció durante la preparación de este manuscrito, se encontraba en el Laboratorio de Neurorrehabilitación del Instituto de Neurociencia de la Universidad Católica de Lovaina, Bruselas, Bélgica.

Financiación: Este trabajo fue apoyado por una subvención del Instituto Nacional del Ojo (#R01 EY018923).

Los autores no declaran ningún interés financiero personal relacionado con el estudio.

Acerca de las noticias de investigación en neurociencia visual y auditiva.

Autor: Karen Tepper
comunicación: Karen Tepper – Centro médico de la Universidad de Georgetown
imagen: Imagen acreditada a Neuroscience News.

Un resumen

Los rostros codificados por voz activan el área fusiforme izquierda de la cara en la etapa temprana de ceguera

La percepción facial en humanos y primates no humanos se produce a través de una mezcla de áreas corticales especializadas. La forma en que se desarrollaron estas regiones sigue siendo controvertida. En las personas videntes, la información facial se transmite principalmente a través de la modalidad visual. Por otro lado, las personas con ceguera temprana pueden reconocer formas mediante señales auditivas y táctiles.

Aquí mostramos que estos individuos pueden aprender a discriminar entre caras, casas y otras formas utilizando un dispositivo de sustitución sensorial (SSD) que presenta caras esquemáticas como estímulos codificados fonológicamente en la modalidad auditiva.

Usando fMRI, a continuación preguntamos si una región del cerebro selectiva para la cara, como el área fusiforme de la cara (FFA), muestra selectividad para las caras en los mismos sujetos y, de hecho, encontramos evidencia de activación preferencial del área selectiva para la cara izquierda por la voz. caras codificadas.

Estos hallazgos sugieren que el desarrollo de FFA no depende de la experiencia con rostros visuales per se, sino que puede depender de la exposición a la geometría de las configuraciones faciales.


Ascención Bustillos

__________
Fuente:

Entradas que pueden interesarte

EMANCIPACIÓN DE YOUTUBE, OTRA MANERA DE VER LA ACTUALIDAD

ENTRADA DESTACADA

NEUROBOTS: LOS ROBOTS BIOLÓGICOS AHORA TIENEN SISTEMAS NERVIOSOS

NEUROBOTS: LOS ROBOTS BIOLÓGICOS AHORA TIENEN SISTEMAS NERVIOSOS

Nadie los programó, nadie los diseñó. Sin embargo, los neurobots se mueven, cambian de forma y acti…

LO MÁS VISTO

EMANCIPACIÓN N° 1033

LEER REVISTA N° 1033 Leer en Línea :  https://n9.cl/91v01 *** DESCARGAR REVISTA :  https://n9.cl/c8kdkp *** CANAL DE YOUTUBE : https://www.youtube.com/channel/UCwGTi9Ni-rSZlR0j-SpqZTA ÚNATE AL CANAL DE WHATSAPP EMANCIPACIÓN:  ¡LA VOZ DE LA VERDAD!:  https://whatsapp.com/channel/0029VbC6QCiFsn0YY8YCUj0g *** VISITE BIBLIOTECA EMANCIPACIÓN LEER Y COPIAR EN LÍNEA DIRECTAMENTE: https://bibliotecaemancipacion.blogspot.com/ DESCARGUE 25 LIBROS EN PDF CON CADA ENTREGA HACIENDO CLIC EN CADA TÍTULO ANTES QUE PIERDA EL ENLACE NO OLVIDE DESCOMPRIMIR LOS ARCHIVOS 14926 México En Las Exposiciones Universales. Construyendo Una Nación Moderna. Tenorio-Trillo, Mauricio. Emancipación. Marzo 21 de 2026 14927 La Vida En El Misisipi. Twain, Mark. Emancipación. Marzo 21 de 2026 14928 Morir En La Arena. Padura, Leonardo. Emancipación. Marzo 21 de 2026 14929 El Camino Inesperado. Monreal Landete, Alejandro. Emancipación. Marzo 21 de 2026 14930 Avaricia. Norris, Frank. Emancipación. Marz...

TECNOLOGÍA DIGITAL Y FANTASÍAS DE UN MUNDO ADMINISTRADO

Cuando la política se presenta como una cuestión puramente técnica, la decisión no desaparece; se oculta. La tecnocracia no elimina el poder: lo vuelve opaco La inteligencia artificial basada en inferencia algorítmica ocupa el lugar que en el siglo XX tuvo el experto tecnocrático y que, mucho antes, Platón había reservado al rey-filósofo. (Imagen de www.vpnsrus.com Vía Wikimedia Commons) Jorge Orovitz jacobinlat.com/09/03/2026 El 23 de enero de 2025, Trump firmó una orden ejecutiva titulada Removing Barriers to American Leadership in Artificial Intelligence, que instruye a las agencias federales a revisar, debilitar o eliminar regulaciones existentes sobre inteligencia artificial consideradas como obstáculos para la innovación. Meses más tarde llegaba el siguiente movimiento. Una nueva orden ejecutiva concentraba la regulación de la inteligencia artificial en el nivel federal y creó una task force destinado a bloquear, e incluso litigar, contra cualquier intento de los estados para imp...

¿QUIÉN ESTÁ MÁS CERCA DEL COLAPSO?

Todo lo que Trump ha dicho sobre la guerra con Irán es pura mentira o, al menos, una grave distorsión de los hechos En apariencia, incluso podría parecer que Irán está perdiendo la guerra. Pero en el fondo, la derrota de Estados Unidos ya está asegurada © Foto IA: https://lens.usercontent.google.com/banana? Eduardo Vasco strategic-culture.su/14 de marzo de 2026 Todo lo que Trump ha dicho sobre la guerra con Irán es pura mentira o, al menos, una grave tergiversación de los hechos. A mediados de esta semana, alardeó de haber destruido prácticamente toda la infraestructura de defensa del país, incluyendo su flota naval, su fuerza aérea y su capacidad misilística. Incluso llegó a declarar que Estados Unidos había ganado la guerra. Solo los periodistas hipócritas de la maquinaria propagandística del Pentágono —los mismos que se presentan como imparciales e incluso críticos con las políticas internas de Trump— pueden fingir creerlo e intentar lavar el cerebro de su audiencia con esta fa...

Revista Pedagógica Nueva Escuela