日本在线观看不卡,国产成人免费观看,国产gaysex男同视频chinese,欧美一级www

樹人論文網(wǎng)一個(gè)專業(yè)的學(xué)術(shù)咨詢網(wǎng)站?。?!
樹人論文網(wǎng)

基于PDR輔助的視覺室內(nèi)定位算法的研究

來源: 樹人論文網(wǎng)發(fā)表時(shí)間:2019-10-28
簡(jiǎn)要:【摘 要】GPS信號(hào)對(duì)建筑物的穿透能力有限,無法滿足人們室內(nèi)定位精度的需求。為了彌補(bǔ)這一不足,通過對(duì)現(xiàn)有室內(nèi)定位技術(shù)進(jìn)行研究,對(duì)比分析各種技術(shù)在不同室內(nèi)環(huán)境下的優(yōu)缺點(diǎn),

  【摘 要】GPS信號(hào)對(duì)建筑物的穿透能力有限,無法滿足人們室內(nèi)定位精度的需求。為了彌補(bǔ)這一不足,通過對(duì)現(xiàn)有室內(nèi)定位技術(shù)進(jìn)行研究,對(duì)比分析各種技術(shù)在不同室內(nèi)環(huán)境下的優(yōu)缺點(diǎn),提出了基于PDR輔助視覺室內(nèi)定位的方法。首先對(duì)光照條件不足和誤差累積對(duì)于定位精度的影響進(jìn)行獨(dú)立評(píng)價(jià),然后綜合考慮多種因素融合算法性能進(jìn)行分析,并給出了復(fù)雜室內(nèi)環(huán)境下應(yīng)用該算法進(jìn)行定位的可行性。最后通過實(shí)驗(yàn)證實(shí)了該算法的可靠性和魯棒性。

  【關(guān)鍵詞】室內(nèi)定位;視覺定位;PDR;融合算法

影像視覺

  推薦閱讀:《影像視覺》(月刊)創(chuàng)刊于1973年,由科學(xué)技術(shù)部和新聞出版署批準(zhǔn),國(guó)內(nèi)外公開發(fā)行,全國(guó)感光材料信息站主辦。

  1 引言

  由于室內(nèi)環(huán)境復(fù)雜多變,人們對(duì)于室內(nèi)位置服務(wù)的要求也越來越高。一系列的定位技術(shù)如Wi-Fi定位、藍(lán)牙定位、慣性導(dǎo)航系統(tǒng)(INS, Inertial Navigation System)、基于視覺的定位等技術(shù)得到了研究人員的高度關(guān)注。然而,每種技術(shù)都有自己的優(yōu)勢(shì)和局限性。目前室內(nèi)定位研究的熱點(diǎn)方向是如何結(jié)合不同的技術(shù)實(shí)現(xiàn)高精度定位。

  文獻(xiàn)[1]中提出的新方案是將行人航跡推算(PDR, Pedestrian Dead Reckoning)和Wi-Fi指紋技術(shù)結(jié)合起來。這種方案的主要優(yōu)勢(shì)在于,它只依賴于少部分建筑參數(shù)和智能手機(jī)中的加速度計(jì)、指南針和Wi-Fi卡。但隨著手機(jī)攜帶方式的改變,慣性傳感器定位系統(tǒng)很難從多個(gè)復(fù)雜的疊加運(yùn)動(dòng)中提取出完整、準(zhǔn)確的運(yùn)動(dòng)軌跡。在文獻(xiàn)[2]中,利用檢測(cè)到的目標(biāo)像素的變化率來說明PDR在未標(biāo)定相機(jī)中的有效性,這有助于提高PDR的定位性能。Ashish Gupa和Alper Yilmaz的研究表明,使用視覺和慣性傳感器進(jìn)行室內(nèi)定位只需要在移動(dòng)設(shè)備上安裝一個(gè)平面建筑信息模型(BIM, Building Information Modeling)和廉價(jià)的傳感器套件[3]。綜上所述,多源定位系統(tǒng)的定位性能得到了很大的提升。

  基于視覺的定位和基于PDR的定位是兩種常用的室內(nèi)定位方法。文獻(xiàn)[4]-文獻(xiàn)[7]中提出了許多室內(nèi)定位系統(tǒng),其共同優(yōu)點(diǎn)是成本低、能耗低。但智能手機(jī)相機(jī)受光照條件、圖像分辨率和相機(jī)自動(dòng)對(duì)焦速度的影響[8],采集到的視覺圖像具有不穩(wěn)定性。ARCore是谷歌提出的AR增強(qiáng)現(xiàn)實(shí)項(xiàng)目。ARCore的區(qū)域?qū)W習(xí)功能可以讓智能手機(jī)尋找和記憶物理空間的關(guān)鍵特征,比如邊緣、角落等。ARCore有自己的參照系,提取目標(biāo)特征的方法比其他基于視覺的定位系統(tǒng)更加精確。但在光照條件不足的情況下,其提取結(jié)果會(huì)有很大偏差。如果想要實(shí)現(xiàn)無論何種光照條件下都能達(dá)到精確定位的效果,就需要選擇其他室內(nèi)定位技術(shù)來彌補(bǔ)這一不足。

  如文獻(xiàn)[9]中所描述的,PDR是相對(duì)定位技術(shù),即從已知的位置出發(fā),對(duì)行走距離和行走方向進(jìn)行估計(jì)的技術(shù),其對(duì)光照沒有任何要求。雖然PDR定位可以實(shí)現(xiàn)連續(xù)的位置跟蹤,但隨著行走距離和行走方向的改變,誤差累積是主要問題[10]。此外,在運(yùn)動(dòng)模式復(fù)雜的室內(nèi)環(huán)境中,PDR定位系統(tǒng)需要進(jìn)行不斷更新,這就給室內(nèi)定位提出了更大的挑戰(zhàn)。

  本研究提出了一種基于PDR的輔助視覺室內(nèi)定位新算法,通過融合基于視覺的定位和基于PDR定位的優(yōu)勢(shì),實(shí)現(xiàn)了高精度的定位,并且同時(shí)保證了定位的魯棒性。

  2 系統(tǒng)描述

  本文提出了一種基于視覺和慣性傳感器相融合的多源室內(nèi)定位系統(tǒng)。系統(tǒng)框圖如圖1所示?;贏RCore的定位算法用于提供視覺定位測(cè)量?;趹T性的定位結(jié)果由智能手機(jī)內(nèi)置的加速度計(jì)和陀螺儀進(jìn)行計(jì)算。這兩個(gè)系統(tǒng)獨(dú)立工作。然后分別對(duì)定位結(jié)果的有效性進(jìn)行評(píng)估,并采用松耦合的方法進(jìn)行融合。

  2.1 基于ARCore視覺定位算法

  基于ARCore的視覺定位算法進(jìn)行定位的過程是篩選、識(shí)別特征點(diǎn)、匹配特征點(diǎn)、濾除錯(cuò)誤匹配、轉(zhuǎn)換坐標(biāo)。在其運(yùn)動(dòng)跟蹤中,攝像機(jī)的加速度和運(yùn)動(dòng)方向由6軸慣性傳感器(加速度和陀螺儀)進(jìn)行捕捉。然后將上述兩個(gè)傳感器的數(shù)據(jù)進(jìn)行整合,通過區(qū)域?qū)W習(xí)來解決運(yùn)動(dòng)跟蹤中積累的誤差,從而實(shí)現(xiàn)三維運(yùn)動(dòng)跟蹤?;贏RCore的視覺定位算法提供的坐標(biāo)位于一個(gè)自定義的虛擬框架中。為了與視覺定位的數(shù)據(jù)融合,PDR幀中的坐標(biāo)在基于ARCore的視覺幀中的映射方法如下所示:

  2.3 基于ARCore的視覺定位和基于PDR定位的

  融合算法

  基于ARCore的視覺定位在光照充足的大多數(shù)環(huán)境下都能進(jìn)行精準(zhǔn)的定位。但是當(dāng)行人移動(dòng)到光線較差、反光度較大的室內(nèi)環(huán)境時(shí),其定位精度會(huì)隨之變低。雖然PDR的定位結(jié)果必然會(huì)隨著時(shí)間的累積而產(chǎn)生誤差,進(jìn)而影響定位精度,但慣性測(cè)量單元(IMU, Inertial Measurement Unit)在各點(diǎn)的估計(jì)誤差范圍是可靠的。因此本文將使用IMU來判斷基于ARCore的輸出點(diǎn)的有效性。如果輸出點(diǎn)在誤差范圍內(nèi),表明其輸出有效,否則輸出無效。誤差范圍ε的判定如圖3所示:

  3 研究結(jié)果

  通過現(xiàn)場(chǎng)實(shí)驗(yàn)對(duì)所提出的融合算法性能進(jìn)行了測(cè)試。實(shí)驗(yàn)地點(diǎn)為黑龍江大學(xué)物理實(shí)驗(yàn)樓七樓。測(cè)試軌跡持續(xù)時(shí)間約為15分鐘。本文利用校驗(yàn)點(diǎn)表示地面真值,分析了該方法的定位誤差,并與傳統(tǒng)方法進(jìn)行了比較。

  3.1 基于ARCore視覺定位的結(jié)果

  基于ARCore的視覺定位結(jié)果如圖4所示,其中紅點(diǎn)表示預(yù)設(shè)路徑中的檢查點(diǎn),黑線為輸出的軌跡,藍(lán)線表示實(shí)驗(yàn)樓七樓的墻面。

  3.2 PDR定位結(jié)果

  PDR的定位結(jié)果如圖5所示。PDR定位的軌跡在很多地方偏離了指定的區(qū)域。開始時(shí),位移的偏移誤差很小,隨著時(shí)間的推移,誤差逐漸累積,導(dǎo)致圖5中的軌跡與預(yù)設(shè)路徑中的檢查點(diǎn)出現(xiàn)了很大的偏差。

  3.3 融合定位系統(tǒng)的結(jié)果

  圖6表明融合定位系統(tǒng)的輸出軌跡與單獨(dú)基于ARCore的視覺定位系統(tǒng)的輸出相似。但從圖6中可以看出,當(dāng)室內(nèi)環(huán)境中光照條件發(fā)生變化或行人前方墻體太白時(shí),其輸出異常,與融合系統(tǒng)存在明顯的差異。

  通過對(duì)以上定位系統(tǒng)輸出誤差的分析,比較了所有標(biāo)記點(diǎn)輸出誤差的中位數(shù)、平均值、均方根和四分之三值,如表1所示。通過比較可以看出,PDR的定位精度低于基于ARCore的視覺定位的精度。

  三種算法定位結(jié)果輸出的誤差積累分布如圖7所示,其中橫軸為定位誤差,用εd表示,單位為米,縱軸為誤差積累概率Pa。當(dāng)Pa=1時(shí),即誤差積累概率為100%時(shí),對(duì)應(yīng)的橫軸的值為本次實(shí)驗(yàn)的最大定位誤差。當(dāng)Pa=0時(shí),即誤差積累概率為0時(shí),對(duì)應(yīng)的縱軸的值為本實(shí)驗(yàn)的最小定位誤差。

  實(shí)驗(yàn)所得定位誤差εd和定位累計(jì)誤差εa隨定位時(shí)間t的變化情況分別如圖8(a)和圖8(b)所示。通過數(shù)據(jù)對(duì)比不難看出,基于PDR定位的精度遠(yuǎn)低于基于ARCore的視覺定位和融合算法定位系統(tǒng)的精度?;贏RCore的視覺定位誤差與融合系統(tǒng)定位誤差在80%以內(nèi)是相同的,但在光照條件不足的環(huán)境下,基于ARCore的視覺定位出現(xiàn)了較大的誤差,而融合定位系統(tǒng)的定位誤差相對(duì)穩(wěn)定。綜上所述,本文提出的融合定位算法大大提高了室內(nèi)定位系統(tǒng)的定位精度。

  4 結(jié)束語

  本文提出了一種新型融合室內(nèi)定位算法,將基于視覺的定位算法和基于慣性的定位算法融合在一個(gè)松散耦合的體系結(jié)構(gòu)中,利用PDR的輸出值對(duì)基于ARCore的定位獲得的測(cè)量值進(jìn)行分析與測(cè)試。如果基于ARCore的定位給出的步長(zhǎng)可靠,則直接用于融合系統(tǒng)中,否則步長(zhǎng)由倒立擺模型導(dǎo)出。卡爾曼濾波器用于航向融合。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)的室內(nèi)定位系統(tǒng)相比,融合定位系統(tǒng)實(shí)現(xiàn)了更高精度的室內(nèi)定位。

  參考文獻(xiàn):

  [1] Wang B, Liu Xuelin, Yu Baoguo, et al. Pedestrian Dead Reckoning Based on Motion Mode Recognition Using a Smartphone[J]. Sensors, 2018,18(6):1811.

  [2] Li Y, He Z, Nielsen J. Enhancing Wi-Fi based indoor pedestrian dead reckoning with security cameras[C]//Ubiquitous Positioning, Indoor Navigation and Location Based Services (UPINLBS), 2016 Fourth International Conference for IEEE. 2016: 107-112.

  [3] Yilmaz A, Gupta A. Indoor positioning using visual and inertial sensors[J]. SENSORS, 2016: 1-3.

  [4] 李華亮,錢志鴻,田洪亮. 基于核函數(shù)特征提取的室內(nèi)定位算法研究[J]. 通信學(xué)報(bào), 2017(1): 158-167.