-
生物通官微
陪你抓住生命科技
跳動的脈搏
面向移動機器人的多域室內視覺位置識別與異常檢測數據集MDDRobots構建及驗證
《Scientific Data》:Multi-Domain Indoor Dataset for Visual Place Recognition and Anomaly Detection by Mobile Robots
【字體: 大 中 小 】 時間:2025年05月20日 來源:Scientific Data 5.8
編輯推薦:
針對室內移動機器人視覺位置識別(VPR)和異常檢測(AD)領域缺乏多域場景數據的問題,波蘭熱舒夫理工大學團隊開發了包含89,550張RGB圖像的MDDRobots數據集,涵蓋9個房間、5種攝像頭和2類機器人平臺。研究采用ResNet-50特征提取結合隔離森林(IF)、單類支持向量機(OCSVM)和自編碼器(AE)等方法,實現了最高84.18%的序列異常檢測準確率,為復雜環境下的機器人自主導航提供了標準化評估基準。
在自主機器人技術快速發展的今天,室內環境中的精準定位和異常感知能力成為制約機器人實用化的關鍵瓶頸。傳統視覺位置識別(VPR)系統常因光照變化、動態障礙物和硬件差異導致性能驟降,而現有數據集往往局限于單一傳感器或靜態場景,難以反映真實世界的復雜性。更棘手的是,當機器人遭遇未知環境或異常情況時,缺乏有效的檢測機制可能導致導航失敗甚至安全事故。這些挑戰催生了波蘭熱舒夫理工大學Piotr Wozniak團隊在《Scientific Data》發表的突破性研究。
研究團隊創新性地構建了名為MDDRobots的多域室內數據集,通過融合人類手持設備和機器人平臺采集的89,550張圖像,覆蓋9種室內場景、5類攝像頭(Pi Camera/Xtion/GoPro/iPhone/P40Pro)和2種移動機器人(輪式/NAO人形機器人)。技術路線上,采用ResNet-50卷積神經網絡提取2048維圖像特征,對比測試了隔離森林(IF)、單類支持向量機(OCSVM)和自編碼器(AE)三種異常檢測算法,其中AE通過余弦距離計算原始特征與重建特征的差異,展現出最優性能。
研究結果部分,"Background & Summary"揭示了現有數據集的局限性:KTH-IDOL2等7個主流數據集平均僅覆蓋2.3種協變因素,而MDDRobots首次整合了環境異常、序列圖像、多機器人、人類活動等全部6類干擾因素。"Methods"章節顯示,AE在單幀檢測中達87.44%準確率,顯著高于IF(75.20%)和OCSVM(77.37%);當采用序列中值濾波后,性能進一步提升至84.18%。"Data Records"詳述了數據集結構,包含171個序列,圖像分辨率從640×360到960×540不等,特別標注了人臉模糊等倫理處理。"Technical Validation"通過225組對比實驗證實,光照變化使檢測準確率下降12.7%,而人類活動干擾導致最大17.9%的性能波動。
這項研究的意義在于建立了首個支持多域評估的機器人視覺基準,其提出的"環境異常-設備差異-人為干擾"三級測試框架為VPR算法提供了嚴格驗證標準。配套開源的MATLAB代碼和34.3GB數據集(CC BY 4.0許可)將加速自適應導航算法的研發。正如作者Piotr Wozniak指出,該工作填補了復雜場景下機器人認知系統評估工具的空白,特別是對服務機器人在醫院、商場等動態環境中的安全部署具有重要指導價值。未來研究可進一步探索多模態數據融合和在線學習機制,以應對更極端的異常場景挑戰。
知名企業招聘