Investigadores descubren que la audición influye en la percepción visual de distancia

937

Un equipo de investigadores de la Universidad Nacional de Quilmes (UNQ) realizó un estudio que muestra que para determinar la distancia a la que se halla un objeto visual, nuestro cerebro combina información proveniente de los sentidos de la visión y la audición.

El estudio fue publicado recientemente en la prestigiosa revista Scientific Reports de Nature Publishing Group, y tiene como realizadores al equipo del Laboratorio de Acústica y Percepción Sonora (LAPSo) que funciona en la Escuela Universitaria de Artes de la UNQ, en colaboración con miembros del Laboratorio de Acústica y Luminotecnia (LAL) de la Comisión de Investigaciones Científicas de la Provincia de Buenos Aires (CIC-BA).

Los responsables del mismo fueron Ramiro Vergara, Pablo Etchemendy, Ezequiel Abregú, Esteban Calcagno y Manuel Eguía por parte del LAPSo, y Nilda Vechiatti y Federico Iasi por parte del LAL. El resultado es relevante por su potencial aplicación al desarrollo de entornos virtuales audiovisuales que, en los últimos tiempos, ha cobrado gran impulso. También es importante para comprender los procesos cerebrales que participan en el procesamiento y la combinación de la información proveniente de los diferentes sentidos.

Desarrollo de la Investigación

Cuando vemos un objeto, nuestro cuerpo dispone de varias fuentes de información que permiten al cerebro determinar a qué distancia se encuentra el objeto observado. Por ejemplo, los músculos del globo ocular se tensionan o se relajan según la lejanía del objeto observado, para permitir que los rayos de luz se enfoquen nítidamente en la retina. A su vez, cada ojo se inclina levemente de forma que cada uno se halle de frente al objeto observado, y de este modo mejorar la imagen detectada por cada uno. El cerebro tiene control muy fino de estos cambios en los órganos visuales, y es capaz de utilizar dicha información para calcular con gran precisión la distancia a la que se halla el objeto observado. Y todo esto ocurre de manera natural, sin que nos percatemos de los procesos involucrados.

Dada la gran precisión del sentido de la visión, hasta hace pocos años se pensaba que los demás sentidos cumplían poco o ningún rol en el procesamiento de la información proveniente de nuestros ojos. Sin embargo, recientemente diversos grupos de investigación comenzaron a hallar evidencia de que esto es falso. Diversas relaciones multisensoriales (o, en la jerga científica, multimodales) han sido descubiertas y documentadas en los últimos años. El estudio llevado a cabo en la UNQ sirve, además, como confirmación de la existencia de este tipo de relaciones, en un aspecto de nuestra percepción que no había sido previamente abordado bajo esta perspectiva.

Los investigadores realizaron experimentos en dos cámaras del LAL. Una, en una cámara “anecoica”: una habitación diseñada para absorber por completo las ondas sonoras en las paredes, el piso y el techo. La otra, en una cámara “reverberante”: una recubierta con materiales altamente reflectantes para el sonido, con lo cual un golpe o un aplauso fuerte pueden quedar sonando durante varios segundos antes de extinguirse.

En el estudio, cuyo responsable fue el doctor Ramiro Vergara, investigador del CONICET en la UNQ, 80 voluntarios fueron invitados a participar en un experimento de percepción visual en el que debían estimar la distancia a objetos brillantes (unos rectángulos de acrílico iluminados mediante LEDs) en posiciones fijas en ambas salas y en completa oscuridad. La mayor parte de los participantes estimó que las distancias eran mayores en la sala reverberante. Durante el experimento los sujetos escuchaban una voz que daba instrucciones por un parlante y su propia voz, sonidos que en la sala reverberante tardaban más tiempo en extinguirse. Además, una vez finalizado el experimento, los sujetos debían reportar las dimensiones de la sala donde habían realizado la experiencia. Como la misma se desarrolló en total oscuridad, solo disponían de la información auditiva para poder “imaginar” el lugar donde se hallaban, el cuál tampoco conocían con anterioridad. Los sujetos reportaron sistemáticamente que el tamaño de la sala reverberante era mayor que el de la sala anecoica.

Estos resultados llevaron a los investigadores a concluir, en primer lugar, que un observador puede formar una imagen mental del espacio que lo rodea solo a partir de la información auditiva, en este caso proveniente de la reverberación; y, en segundo lugar, que dicha imagen mental del espacio circundante puede influir en el procesamiento de la información visual relativa a la posición del objeto observado, incrementando o disminuyendo la distancia percibida según el entorno se percibida como un espacio grande o pequeño. Es decir, que la información provista por la visión (dada por la posición de los ojos, la tensión de los músculos, etc.) puede ser interpretada en función de la “imagen” del entorno formada auditivamente.

Fuente-Universidad Nacional de Quilmes

Más notas sobre el tema