Utilize este identificador para referenciar este registo: https://hdl.handle.net/1822/19669

TítuloAudiovisual perception of biological motion
Outro(s) título(s)Percepção audiovisual de movimento biológico
Autor(es)Mendonça, Ana Catarina Macedo
Orientador(es)Santos, Jorge A.
Castelo-Branco, Miguel
Data13-Jan-2012
Resumo(s)This thesis comprises three experimental sections: a) Locating Auditory Sources with Non-Individualized HRTF-Based Auralizations; b) The Effect of Auditory Cues on Biased Biological Motion; and c) The Multisensory Integration of Biological Motion. In the first experimental section, the accuracy and adaptation to auralized sounds was tested. Auralization is a powerful tool to increase the realism and sense of immersion in Virtual Reality environments. The Head Related Transfer Function (HRTF) filters commonly used for auralization are nonindividualized, as obtaining individualized HRTFs poses very serious practical difficulties. It is therefore important to understand to what extent this hinders sound perception. In this section, we addressed this issue from a learning perspective. In a set of experiments, we observed that mere exposure to virtual sounds processed with generic HRTF did not improve the subjects’ performance in sound source localization, but short training periods involving active learning and feedback led to significantly better results. We proposed that using auralization with non-individualized HRTF should always be preceded by a learning period. In the second experimental section we addressed the effect of auditory cues on bistable biological motion representations. Perceiving humans in motion is a frequent and crucial task. However, visual stimuli alone are might be poorly informative and often result in a face forward bias. In this section, we intended to explore if related and meaningful sounds would reduce those visual biases. Participants were presented with visual, auditory or audiovisual walkers, which could be moving forward or away from the perceiver. The task was to discriminate walking motion direction. Overall, results in the audiovisual condition were significantly better than those of the visual condition, with more correct estimates and a lower bias, but similar to the auditory results. We concluded that step sounds are a relevant cue, able to diminish the perceptual error and break the face forward illusion. In the last experimental section, we explored the multisensory integration of cues of walking speed. After testing for audiovisual asynchronies (visual signals led auditory ones by 30 ms in simultaneity temporal windows of 76.4 ms), in the main experiment, visual, auditory and bimodal stimuli were compared to a standard audiovisual walker in a velocity discrimination task. Results in variance reduction conformed to optimal integration of congruent bimodal stimuli across all subjects. Interestingly, the perceptual judgements were still close to optimal for stimuli at the smallest level of incongruence. Comparison of slopes allowed us to estimate an integration window of about 60 ms, which is smaller than that reported in audiovisual speech. We conclude that the audiovisual interactions of biological motion stimuli allow accuracy improvement and uncertainty reduction. These multisensory integration processes might be predicted by optimal mechanisms.
A presente tese contempla três secções experimentais: a) Localização de fontes sonoras com auralizações baseadas em HRTFs não individualizados; b) O efeito de pistas auditivas em representações enviesadas de movimento biológico; e c) A integração multimodal de movimento biológico. Na primeira secção experimental, testou-se a precisão e adaptação a sons auralizados. A auralização é uma ferramenta poderosa para melhorar o realismo e a sensação de imersividade em ambientes de realidade virtual. Os filtros de HRTF (Head Related Transfer Functions), frequentemente utilizados no processo de auralização, não são individualizados, uma vez que obter HRTF individualizados coloca sérias dificuldades práticas e elevados custos. Como tal, é importante compreender de que forma é que estes filtros genéricos afectam a percepção dos sons auralizados. Nesta secção, abordámos este tema numa perspectiva de aprendizagem. Num conjunto de experiências, constatámos que a mera exposição aos sons virtuais processados com HRTF genéricos não melhorava a performance dos sujeitos experimentais na localização de fontes sonoras. Contudo, curtos períodos de treino envolvendo aprendizagem activa e feedback conduziram a resultados significativamente melhores. Como conclusão, propomos que todo o uso de sons auralizados com HRTF não individualizados seja precedido de um período de aprendizagem. Na segunda secção experimental, abordámos o efeito de pistas auditivas em representações bi-estáveis de movimento humano. Perceber humanos em movimento é uma tarefa frequente e crucial. Contudo, a visão pode ser pouco informativa e frequentemente leva a um viés frontal. Nesta secção, pretendemos analisar se sons relacionados e congruentes poderiam reduzir este viés. Apresentaram-se estímulos visuais, auditivos e audiovisuais de movimento biológico, que podiam mover-se em aproximação ou afastamento do observador. A tarefa consistiu em identificar a direcção do movimento do estímulo. Os resultados da condição audiovisual foram significativamente melhores que os da condição visual, com mais estimativas correctas e menos viés, mas foram semelhantes aos resultados da condição auditiva. Concluímos que os sons de passos são uma pista relevante, capaz de diminuir o erro perceptivo e eliminar o viés frontal. Na última secção experimental, abordou-se a integração multimodal de pistas de movimento biológico. Depois de se testar as assincronias percebidas (o estímulo visual deve ser apresentado antes do estímulo auditivo em 30 ms), na experiência principal, compararam-se estímulos visuais, auditivos e bimodais com um estímulo standard, numa tarefa de discriminação de velocidade. Os resultados de redução de variância dos estímulos audiovisuais congruentes foram bem previstos pelo modelo de integração óptima. Surpreendentemente, os julgamentos perceptivos dos estímulos ao nível mais baixo de incongruência também estiveram muito próximos das previsões óptimas. A comparação de curvas de ajustamento permitiu-nos estimar uma janela de integração multimodal de cerca de 60 ms, que é mais pequena que aquela reportada para a integração multimodal de estímulos verbais. Conclui-se que as interacções audiovisuais de estímulos de movimento biológico permitem o aumento de precisão e a redução de incerteza. Estes processos de integração multissensorial podem ser explicados por mecanismos óptimos.
TipoTese de doutoramento
DescriçãoTese doutoramento em Psicologia (ramo de conhecimento em Psicologia Experimental e Ciências Cognitivas)
URIhttps://hdl.handle.net/1822/19669
AcessoAcesso aberto
Aparece nas coleções:BUM - Teses de Doutoramento
CIPsi - Teses de Doutoramento

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
Ana Catarina Macedo Mendonça.pdf1,78 MBAdobe PDFVer/Abrir

Partilhe no FacebookPartilhe no TwitterPartilhe no DeliciousPartilhe no LinkedInPartilhe no DiggAdicionar ao Google BookmarksPartilhe no MySpacePartilhe no Orkut
Exporte no formato BibTex mendeley Exporte no formato Endnote Adicione ao seu ORCID