在婴儿语言发展关键期,准确感知语音对后续能力发展至关重要。
传统研究多依赖注视测量,却难全面捕捉婴儿复杂反应。本研究聚焦婴儿语音感知中面部情感变化,引入自动化面部表情分析,探究了婴儿在面对母语与非母语时的面部变化与感知调谐能力之间的关系,旨在挖掘面部表情分析作为注视测量补充的潜力,为早期语言发展研究提供更丰富、精准的工具与视角(Tsuji et al., 2025)
婴儿语言的感知调谐发展
婴儿在出生后的第一年内,其语言能力的发展经历了从广泛感知到精细区分的显著变化。最初,婴儿能够区分世界各种语言中的广泛音素对比,但随着年龄的增长,他们对非母语音素的敏感性逐渐下降,而对母语音素的区分能力则显著增强。这一过程被称为感知调谐(Perceptual Attunement),它反映了神经可塑性和突触修剪在关键发展期的作用,并与后期的语言技能正相关。
传统的感知调谐研究主要依赖于注视时间测量,即通过测量婴儿对新颖声音和熟悉声音的注视时间差异来判断其区分能力。然而,感知调谐并非一个统一的过程,它受到语言和社会环境丰富性的影响。例如,双语婴儿可能比单语婴儿需要更长的时间来调谐其语音类别,而社会互动丰富的环境则能增强婴儿对语音对比的习得。
鉴于这些多方面的影响,仅依赖注视时间这一单一测量指标可能无法全面捕捉婴儿在感知调谐过程中的丰富反应。而面部表情能提供关于婴儿情感状态和认知参与的额外信息,这些信息可能揭示感知调谐过程中更复杂的机制。
因此,本研究旨在探索将面部表情分析作为注视时间测量的补充工具,以更全面地理解婴儿在语音感知过程中的情感和认知反应。