-
生物通官微
陪你抓住生命科技
跳動的脈搏
自閉癥青少年自發性面部表情的積極情緒效價:揭示社交誤解的神經機制
《Scientific Reports》:Positive emotional valence in spontaneous facial expressions of autistic adolescents
【字體: 大 中 小 】 時間:2025年05月03日 來源:Scientific Reports 3.8
編輯推薦:
本研究針對自閉癥譜系障礙(ASD)患者面部表情識別困難的社會溝通難題,通過分析青少年對幽默/惡心視頻刺激的自發反應,首次發現ASD組會產生更長時間的積極效價(positive valence)表情(包括對負面視頻),且表達時長顯著長于神經典型發育(NT)組。該成果發表于《Scientific Reports》,揭示了ASD-NT社交誤解可能源于表情效價感知偏差,為跨神經類型社交互動提供了客觀依據。
在社交互動中,面部表情如同無聲的語言,承載著復雜的情感信息。然而對于自閉癥譜系障礙(Autism Spectrum Disorder, ASD)群體而言,這種"語言"的編碼和解碼似乎總存在某種錯位。自1943年Kanner首次描述自閉癥特征以來,大量研究表明ASD個體的面部表情常被感知為"難以解讀"——可能是表情稍縱即逝、與情境不符,或是被誤讀為消極情緒。這種溝通障礙究竟源于表情產生的本質差異,還是旁觀者的認知偏差?傳統研究多依賴刻意模仿或情境想象的表情誘發方式,但Emerson College的Ruth B.Grossman團隊獨辟蹊徑,選擇YouTube視頻這種自然刺激來捕捉青少年最真實的面部反應。
研究團隊招募了17名ASD和18名神經典型發育(Non-Typical, NT)青少年,通過標準化評估確保兩組在年齡、性別、智商和語言能力上無顯著差異。參與者觀看拼接的26個YouTube視頻序列(含4個惡心內容和4個可愛/搞笑內容),研究人員截取每個視頻最具情緒沖擊力的6秒片段,采用雙盲框架編碼(frame-by-frame coding)分析面部特征運動。為確?陀^性,所有編碼員均不知曉參與者診斷信息,且通過ELAN軟件記錄特定肌肉動作(如嘴角上揚為積極效價,皺眉為消極效價),爭議數據需經三重校驗。
主要結果呈現三個關鍵發現
技術方法亮點
研究采用紅外運動捕捉(infrared motion capture)記錄32個面部標記點動態,結合半結構化社交環境設計消除任務干擾。通過臨床評估(ADOS-2、SCQ)嚴格分組,使用KBIT-2和CELF-5控制認知偏差。數據分析采用R語言的lme4包構建混合線性模型,處理缺失值并納入視頻/參與者隨機效應。
討論與意義
這項研究顛覆了早期"ASD負面表情偏倚"假說,用客觀數據證實現代研究提出的"積極效價偏倚"理論:當ASD個體面對負面刺激時,其面部肌肉運動模式可能同時激活"微笑肌群"和"厭惡肌群",導致非自閉癥觀察者主要依據顯性的嘴角上揚判定為積極情緒。這種感知偏差可能解釋為何ASD兒童在玩具被奪走時會"笑著拍桌"——并非情緒體驗不同,而是表情編碼系統存在神經類型差異。
研究局限性在于編碼員均為非自閉癥人群,未來需納入ASD編碼者對比;且樣本以男性為主。但該成果為理解"雙重共情問題"(double empathy problem)提供了新視角:社交障礙不僅是ASD個體"表達異常"的結果,更是兩種神經類型在情感外化方式上的根本差異。正如作者強調,面部表情絕非情緒狀態的可靠指標,這項研究警示臨床和教育領域應避免僅憑表情判斷ASD個體的真實感受,為開發跨神經類型的溝通培訓提供了重要理論基礎。
知名企業招聘