近日,中國科學院合肥物質(zhì)科學研究院安光所光電子中心計算機視覺團隊研發(fā)出適用于大場景的多機器人協(xié)同定位新技術(shù)。相關(guān)研究成果發(fā)表在機器人領(lǐng)域國際Top期刊IEEE Robotics and Automation Letters (IEEE RA-L)上。
在智能機器人領(lǐng)域,基于視覺的同步定位與地圖構(gòu)建技術(shù)(SLAM)因
視覺傳感器具有成本低、部署靈活、信息量豐富等優(yōu)勢,成為行業(yè)研究熱點。在大規(guī)模環(huán)境中,通過共享地圖數(shù)據(jù)實現(xiàn)協(xié)同作業(yè)可大幅提升工作效率。然而,實現(xiàn)多機器人系統(tǒng)中不同機器人間的全局定位(Multi-Robot Global Localization, MR-GL)依然面臨諸多挑戰(zhàn)。特別是在機器人初始位姿未知、環(huán)境動態(tài)變化劇烈的情況下,不同機器人間視角差異造成的數(shù)據(jù)數(shù)據(jù)匹配困難,動態(tài)場景對算法的實時性與魯棒性(一個系統(tǒng)在面臨著內(nèi)部結(jié)構(gòu)或外部環(huán)境的改變時也能夠維持其功能穩(wěn)定運行的能力)提出了更高要求。此外,如何在保障精度的同時快速完成多機協(xié)同定位,是影響協(xié)同任務能否成功執(zhí)行的關(guān)鍵因素之一。
針對上述難題,研究團隊創(chuàng)新性地提出了一種融合語義與幾何三重約束的圖匹配多機器人全局定位方法——SGT-MGL。該方法首先提取場景中對象的語義與幾何特征,并通過拓撲結(jié)構(gòu)刻畫其空間分布關(guān)系。為增強對象的區(qū)分性,研究人員基于語義信息與相對距離構(gòu)建了三角形描述符,進一步提升了特征辨識度??紤]到語義與幾何信息的互補特性,創(chuàng)新性提出了一種融合語義標簽、空間夾角及相對距離信息的三維直方圖描述符,有效提升了三角形描述符的穩(wěn)定性與不變性。為進一步降低噪聲干擾,研究團隊采用"由粗到精"的匹配策略,提出了一種由全局幾何結(jié)構(gòu)篩選關(guān)鍵點位,并結(jié)合局部與全局圖匹配方法,實現(xiàn)了多機器人間的高精度六自由度(6-DoF)(三維位置+三維朝向)姿態(tài)估計。實驗結(jié)果表明,該方法在提升全局定位精度方面具有顯著優(yōu)勢。
實驗數(shù)據(jù)顯示,該技術(shù)在復雜動態(tài)環(huán)境中的定位精度較傳統(tǒng)方法提升顯著。其創(chuàng)新性的三重約束機制,既保證了算法在視角差異下的魯棒性,又通過分級處理兼顧了運算效率,為未來智能醫(yī)院、智能工廠等場景的多機器人協(xié)同作業(yè)提供了關(guān)鍵技術(shù)支撐。
該項工作的第一作者為王凡博士后,通訊作者為張文副研究員和劉勇研究員。本研究得到了國家自然科學基金、合肥物質(zhì)院院長基金和國家重點研發(fā)計劃的支持。
所提出的多機器人全局定位方法在KITTI08序列數(shù)據(jù)集上的應用
昵稱 驗證碼 請輸入正確驗證碼
所有評論僅代表網(wǎng)友意見,與本站立場無關(guān)