煤礦救生機(jī)器人設(shè)計(jì)【四連桿變形履帶式機(jī)器人結(jié)構(gòu)】
煤礦救生機(jī)器人設(shè)計(jì)【四連桿變形履帶式機(jī)器人結(jié)構(gòu)】,四連桿變形履帶式機(jī)器人結(jié)構(gòu),煤礦救生機(jī)器人設(shè)計(jì)【四連桿變形履帶式機(jī)器人結(jié)構(gòu)】,煤礦,救生,機(jī)器人,設(shè)計(jì),連桿,變形,履帶式,結(jié)構(gòu)
1介紹 2
2凸顯當(dāng)?shù)貓D像區(qū)域檢測 3
3場景識(shí)別和定位 5
4基于模糊邏輯的比賽策略 6
5實(shí)驗(yàn),分析 9
6總結(jié) 10
參考 11
基于視覺的場景識(shí)別為煤礦救災(zāi)機(jī)器人定位
文摘:提出了一種新的場景識(shí)別系統(tǒng)提出了基于模糊邏輯的和隱馬爾可夫模型(HMM),可以應(yīng)用在煤礦救災(zāi)機(jī)器人定位在緊急情況下。該系統(tǒng)使用單眼相機(jī)獲取全方位的圖像我的環(huán)境中機(jī)器人定位。采用center-surround差分方法,突出地方形象地區(qū)從圖像中提取天然地標(biāo)。這些指標(biāo)的組織利用HMM代表在現(xiàn)場機(jī)器人、模糊邏輯策略是用來比賽現(xiàn)場,具有里程碑意義的。通過這種方法,定位問題,這是現(xiàn)場識(shí)別問題的系統(tǒng),可以轉(zhuǎn)化為評(píng)價(jià)問題,嗯。這些技能的貢獻(xiàn)的系統(tǒng)有能力應(yīng)付變化的規(guī)模、二維旋轉(zhuǎn)和觀點(diǎn)。實(shí)驗(yàn)結(jié)果也證實(shí)了系統(tǒng)具有較高的識(shí)別和定位比靜態(tài)和動(dòng)態(tài)兩種情況下我的環(huán)境。
關(guān)鍵詞:機(jī)器人位置;場景識(shí)別;突出形象;匹配策略、模糊邏輯、隱馬爾可夫模型
1介紹
搜索和救援災(zāi)區(qū)的領(lǐng)域里機(jī)器人是一個(gè)新興的、富有挑戰(zhàn)性的課題。救援機(jī)器人進(jìn)入礦山開發(fā)過程中緊急逃生路線定位可能對(duì)那些困在里面和確定它是否對(duì)人畜安全進(jìn)入與否。本地化是一個(gè)基本問題這一領(lǐng)域。定位方法基于相機(jī)可主要分為幾何、拓?fù)浠蚧旌系摹R云溆行院涂尚行?場景識(shí)別已成為一個(gè)重要的技術(shù)拓?fù)潢P(guān)系的定位
目前多數(shù)場景識(shí)別方法為基礎(chǔ)的在全球的圖像特征,有兩種截然不同的階段:培訓(xùn)的離線和在線匹配。
在訓(xùn)練階段,機(jī)器人收集圖像它工作的環(huán)境中處理圖像特征提取全球代表場景。一些方法被用來分析的data-set圖像和一些基本特征發(fā)現(xiàn),如主成分分析法(PCA)。然而,主成分分析法(PCA)
不是有效的區(qū)分類別的特征。另一種方法使用外觀特征包括顏色、紋理和邊緣密度代表圖像。例如,周劉哲用多維直方圖來描述全球外觀特征。該方法簡單易行,但敏感的規(guī)模和光照變化。事實(shí)上,各種各樣的國際形象特點(diǎn)是遭受環(huán)境的變化。
LOWE[5]的篩選方法,提出了一種使用相似性描述符所形成的特點(diǎn)。不變?cè)谂d趣點(diǎn)的規(guī)模和方向來獲得特征。具有不變特征圖像縮放,平移、旋轉(zhuǎn)和部分不變光照變化。但篩選可能產(chǎn)生1 000或更多的興趣點(diǎn),這可能減慢處理器戲劇性的。
在匹配階段,最近的鄰居策略(NN)廣泛應(yīng)用于它的設(shè)施和清晰度[6]。但它無法捕捉的貢獻(xiàn)
個(gè)人特征為場景識(shí)別。在實(shí)驗(yàn)中,這個(gè)神經(jīng)網(wǎng)絡(luò)還不足以很好的表達(dá)相似兩種模式之間。此外,所選特征不能代表現(xiàn)場徹底根據(jù)嗎先進(jìn)的模式識(shí)別,使識(shí)別不可靠[7]。
在一個(gè)復(fù)雜的礦山環(huán)境。在這個(gè)系統(tǒng)中,我們通過提取顯著提高變性地方形象地區(qū)創(chuàng)建取代整個(gè)圖像處理與大的變化,規(guī)模、二維旋轉(zhuǎn)和觀點(diǎn)。興趣點(diǎn)的數(shù)量是有效降低,使加工容易。模糊識(shí)別戰(zhàn)略是為了認(rèn)識(shí)論及的地方神經(jīng)網(wǎng)絡(luò)的,可以增強(qiáng)的貢獻(xiàn)個(gè)人特征為場景識(shí)別。因?yàn)樗牟糠中畔⒒謴?fù)能力,隱馬爾可夫模型采用組織這些地標(biāo),可以捕捉結(jié)構(gòu)或他們之間的關(guān)系。所以場景識(shí)別可以轉(zhuǎn)化為評(píng)價(jià)問題,嗯,這使得識(shí)別的魯棒性。
2凸顯當(dāng)?shù)貓D像區(qū)域檢測
研究表明,生物視覺系統(tǒng)生物(像果蠅)經(jīng)常注重一定的特殊的地區(qū),在現(xiàn)場行為的相關(guān)性或地方形象線索,同時(shí)觀察環(huán)境[8]。這些區(qū)域可以被看作是自然的創(chuàng)建有效地表示并區(qū)分不同環(huán)境。靈感來自于那些,我們用center-surround差分方法對(duì)檢測顯著地區(qū)在多尺度圖像空間。opponencies的顏色和紋理計(jì)算到創(chuàng)造凸極地圖。
輸入表格內(nèi)提供靜態(tài)彩色圖像命名為G0期。多尺度圖像空間G1?輪流以G4(1:1 到 1?:?64)是由方程式。(1)和(2)。
Gn0 = w *Gn?1 (1)
Gn0 n∈Gn= Subsampled[1,4] (2)
在w是一個(gè)Gaussion低通濾波器,和“*”表示卷積實(shí)現(xiàn)。讓中心是{ G1,G2 }和環(huán)境都{ G3,輪流以G4 }的定義這些材料的特性是opponency尺度之間的差異中心和環(huán)境之間通過引入“Θ”,這意味著環(huán)境插值和嗎然后減去中心像素。
計(jì)算opponencies呈現(xiàn)出希望的顏色,它是有必要把RGB空間分成RGBY空間為強(qiáng)調(diào)opponencies紅/綠和藍(lán)/黃[9]??臻g計(jì)算
R=r?(g+b)/2
G=g?(r+b)/2
B=b?(r+g)/2
Y=(r+g)/2?|r?g|/2?b
所以,opponencies計(jì)算出的顏色
RG(c, s)=|(R(c)?G(c)) Θ (G(s)?R(s))|
BY(c, s)=|(B(c)?Y(c)) Θ (Y(s)?B(s))|
其中c∈Centers, s∈Surroundings. RG(c, s) 屬于紅和綠的對(duì)立; BY(c, s) 屬于藍(lán)和黃的對(duì)立 計(jì)算紋理opponencies,第十二濾波器因?yàn)槠淠芰x擇獲得局部最優(yōu)無論是在時(shí)間域和頻率域。研究人類心理物理和視覺生理表明,它更像人類的注意力機(jī)制[10]。
Gabor定理被定義為h(x, y)=g(x, y)e2πj(ux+vy). 因?yàn)榈谑^濾是極性的對(duì)稱的頻率領(lǐng)域,方向?yàn)??π能覆蓋所用的頻率空間,一般情況下有4個(gè)過程其方向?yàn)?°, 45°,90° 和 135°紋理4方向計(jì)算為
Tθ(x, y)=|Gn(x, y)*hθ(x, y)|
我們可以完成紋理方向的反方向?yàn)?
T(c, s, θ)=|Tcθ(x, y) Θ Tsθ(x, y)|
其中 c∈Centers, s∈Surroundings, θ∈{0°, 45°, 90°,135°}.
vThen所有opponencies結(jié)合根據(jù)方程式。(3)?(5)創(chuàng)造凸極圖s,定義規(guī)范操作的N(),可以發(fā)現(xiàn),在文獻(xiàn)[9]。
在重量w1及w2為此所指示的意義的顏色和紋理。我們也設(shè)計(jì)算法采用最小均方算法學(xué)習(xí)w1及參與離線。圖1(b)顯示凸極具有里程碑意義的地區(qū)獲得的位置更輕更凸現(xiàn)出來。
隨訪中,sub-image為中心的顯著位置在年代作為這個(gè)具有里程碑意義的地區(qū)。大小的這個(gè)具有里程碑意義的地區(qū)可以自適應(yīng)地確定依據(jù)的變化梯度方向的地方圖像[11]。
移動(dòng)機(jī)器人導(dǎo)航要求自然地標(biāo)應(yīng)及時(shí)發(fā)現(xiàn)當(dāng)環(huán)境穩(wěn)定在某種程度上改變。重復(fù)性驗(yàn)證在具有里程碑意義的檢測我們的方法,我們已經(jīng)做了很多實(shí)驗(yàn)對(duì)這種情況的規(guī)模、二維旋轉(zhuǎn)和觀點(diǎn)變化等。圖2顯示門查它的凸極變化時(shí)的觀點(diǎn)。更多的詳細(xì)分析和研究結(jié)果存在旋轉(zhuǎn)和比例可以被發(fā)現(xiàn)在我們以前的作品[12]。
3場景識(shí)別和定位
不同于其他場景識(shí)別系統(tǒng),我們的系統(tǒng)不需要訓(xùn)練離線。換句話說,我們的場景不是預(yù)先分類。當(dāng)機(jī)器人徘徊,場景捕獲間隔固定的時(shí)間是用來建造它的頂點(diǎn)的拓?fù)涞貓D,代表了機(jī)器人定位的地方。雖然這個(gè)地圖的幾何布局都被定位系統(tǒng),它是有用的可視化和調(diào)試[13]嗎有利于路徑規(guī)劃。所以定位手段搜索最佳匹配的當(dāng)前場景在地圖上。在本文隱馬爾可夫模型是用來組織從當(dāng)前場景中提取的地標(biāo)和創(chuàng)造頂點(diǎn)的拓?fù)涞貓D,其局部信息恢復(fù)能力。
類似的全景視覺系統(tǒng),機(jī)器人看起來讓omni-images周圍。 從每一個(gè)形象,突出局部區(qū)域檢測,構(gòu)成了一個(gè)序列,命名為具有里程碑意義的序列的順序是一樣的圖像序列。然后一個(gè)隱馬爾可夫模型創(chuàng)建基于這個(gè)具有里程碑意義的序列包括k突出地方形象地區(qū),這是作為描述機(jī)器人的地方位于。在我們的系統(tǒng)EVI-D70相機(jī)有±170°的視野??紤]到重疊效果,我們樣品的環(huán)境每45°到8圖像。 讓8圖像作為隱藏狀態(tài)Si(1≤i≤8),創(chuàng)造了HMM可以說明圖。參數(shù)對(duì),aij和bjk,實(shí)現(xiàn)了學(xué)習(xí)、使用Baulm-Welch算法[14]。 的門檻收斂設(shè)置為0.001。至于拓?fù)涞貓D的邊緣,我們將它隨著距離的兩個(gè)頂點(diǎn)之間的信息。這距離可以根據(jù)odometry計(jì)算閱讀資料。
位自身拓?fù)涞貓D,機(jī)器人必須用“眼睛”的環(huán)境和提取具有里程碑意義的序列,那么搜索在地圖上最好的匹配的頂點(diǎn)(現(xiàn)場。不同于傳統(tǒng)概率定位[15],在我們的系統(tǒng)定位問題可以轉(zhuǎn)化為評(píng)價(jià)的問題嗯。頂點(diǎn)以最大的評(píng)價(jià)值,必須大于一個(gè)閾值,作為嗎最佳匹配的頂點(diǎn),表明最機(jī)器人可能的地方。
為評(píng)估,首先我們必須準(zhǔn)備一份觀察序列順序如下。
根據(jù)相似性計(jì)算我們?cè)O(shè)計(jì)了一種新的基于模糊邏輯的比賽策略,可以發(fā)現(xiàn)在接下來的部分里。一旦觀察序列生成、評(píng)價(jià)過程計(jì)算出一個(gè)后概率值P(VT)根據(jù)Eqn。(6),在那里是一套隱藏狀態(tài)嗎序列和r指數(shù)一個(gè)特殊的隱藏狀態(tài)序列[3]。詳細(xì)分析和算法發(fā)現(xiàn)在文獻(xiàn)[4]。
4基于模糊邏輯的比賽策略
一個(gè)重要的問題在圖像匹配問題選擇最有效的特征,或描述代表了原始圖像。由于機(jī)器人運(yùn)動(dòng),那些提取具有里程碑意義的地區(qū)將會(huì)改變像素水平。所以,描述符或特征選擇應(yīng)不變?cè)谀撤N程度上根據(jù)變化的規(guī)模、旋轉(zhuǎn)和觀點(diǎn)等。在本文中,我們利用4一般特點(diǎn),采用社區(qū)簡述如下。GO:梯度方向。已經(jīng)證明照明和旋轉(zhuǎn)的變化可能有更少影響[5]。
ASM和ENT:二階矩和角熵,這是兩個(gè)紋理描述符。
H亨利:色調(diào),用于描述基本信息的圖像。
另一個(gè)關(guān)鍵的問題是要選擇一個(gè)比賽良好的匹配策略和算法。通常最近的鄰居策略(NN)是用來衡量相似兩種模式之間。但是我們發(fā)現(xiàn)了實(shí)驗(yàn)表明,神經(jīng)網(wǎng)絡(luò)不能充分地展現(xiàn)個(gè)人描述符或特征的貢獻(xiàn)相似性度量。圖中所示,輸入圖像圖(a)來自不同的看法圖(b)。但是Figs.4之間的距離(a)和(b)計(jì)算Jefferey差異大于圖(c)。
為了解決這個(gè)問題,我們?cè)O(shè)計(jì)一個(gè)新的比賽給出了一種基于模糊邏輯的微妙的表現(xiàn)每個(gè)特征的變化。該算法描述下面。
使用Jefferey圖計(jì)算相似度的差異:(a)輸入形象;(b)具有里程碑意義的數(shù)據(jù)庫的索引是6和Jefferey分歧d = 7.305 2;(c)具有里程碑意義的數(shù)據(jù)庫的索引14及其Jefferey分歧d = 4.662
1) 首先所有特征fuzzifyid如下。
在這些方程N(yùn)k代表的數(shù)量象素灰度k、Npixels像素的總數(shù)的形象,Nm_GO的像素?cái)?shù)與角度學(xué)位 m 在{ GOij },Nm_H在{}。Aij代表灰色價(jià)值的像素,μk的平均程度由于通過模糊分類灰色水平鉀、μm k角程度相當(dāng)于256個(gè)和m等于360。
2)相似性地標(biāo)是計(jì)算機(jī)使用的個(gè)人特征,分別。這關(guān)于古今特征相似度在模糊設(shè)置{ASM,ENT、GO、H }被定義為
然后我們比較地方形象和每個(gè)人都在數(shù)據(jù)庫。拒絕和rmean記錄。3)所有的相似程度的各具特色,融為一體獲得一個(gè)判斷,可由Eqn形式化(7)。
依據(jù)權(quán)重確定根據(jù)rmean?拒絕各具特色的。經(jīng)分類,然后王是指定的0.4、0.3、0.2、0.1,分別按順序在數(shù)據(jù)庫中,這個(gè)具有里程碑意義的融合相似度高于其他任何作為最好的比賽。這個(gè)比賽結(jié)果的Figs.4(b)和(c)證明了圖。顯示,該方法能測量兩種模式之間相似度的有效。
5實(shí)驗(yàn),分析
定位系統(tǒng)已經(jīng)得到了落實(shí)在一個(gè)移動(dòng)機(jī)器人,它建立在我們的實(shí)驗(yàn)室。視覺系統(tǒng)由CCD相機(jī)和一個(gè)frame-grabber下腔靜脈- 4200。 圖像的分辨率設(shè)置為400×320和采樣頻率將10幀/ s。計(jì)算機(jī)系統(tǒng)由1兆赫處理器和512米的記憶,這是所攜帶的機(jī)器人。目前該機(jī)器人工作的室內(nèi)環(huán)境。同樣的場景圖像區(qū)域和區(qū)分有效。表1顯示靜態(tài)識(shí)別結(jié)果環(huán)境包括5 laneways和筒倉。十個(gè)場景精選每個(gè)環(huán)境和 HMMs創(chuàng)造了每一個(gè)場景中。收集20的場景當(dāng)機(jī)器人進(jìn)入各個(gè)環(huán)境后比賽60 HMMs以上。
在表格上,“真相”意味著情景局部場比賽對(duì)場景的評(píng)價(jià)價(jià)值是30%比HMM第二高評(píng)價(jià))?!安淮_定性”意味著評(píng)價(jià)HMM的價(jià)值大于第二高的評(píng)價(jià)在10%以下?!板e(cuò)誤匹配”意味著情景本地化的比賽,錯(cuò)誤的場景。在桌子上,比錯(cuò)誤匹配是0。但這是不可能的場景本地化無法匹配任何場景和新序列為依據(jù)被創(chuàng)造出來。此外,“比真理“關(guān)于筒倉低,因?yàn)轱@著的球桿是減少這類環(huán)境。
在這個(gè)時(shí)期的自動(dòng)探索,同樣的場景可以結(jié)合。這個(gè)過程可以概括為:
當(dāng)定位成功,當(dāng)前的地標(biāo)序列添加到隨之而來的觀察序列匹配的頂點(diǎn)un-repeatedly照他們的定位(包括角度的圖像從當(dāng)?shù)丶巴怀龅暮较驒C(jī)器人來)。學(xué)習(xí)參數(shù)的HMM再一次。方法相比,使用外觀整幅圖像的特點(diǎn)(方法2,M2),我們的系統(tǒng)(M1)使用當(dāng)?shù)氐娘@著區(qū)域的定位及地圖,這使得它有更多的寬容的規(guī)模、觀點(diǎn)機(jī)器人的運(yùn)動(dòng)引起的變化,性價(jià)比高識(shí)別和更少的金額數(shù)拓?fù)涞貓D。所以,我們的系統(tǒng)具有較好的性能在動(dòng)態(tài)環(huán)境下。這些表2中可以看出。Laneways 1、2、4、5運(yùn)行有些礦工的地方在工作,這拼圖機(jī)器人。
6總結(jié)
1)局部圖像特征明顯,提取取代整個(gè)圖像參與識(shí)別,提高公差的變化在規(guī)模、2 D旋轉(zhuǎn)和觀點(diǎn)的環(huán)境形象。
2)模糊邏輯是用來認(rèn)識(shí)當(dāng)?shù)氐男蜗?并強(qiáng)調(diào)個(gè)體特征的貢獻(xiàn)識(shí)別,提高了可靠性的地標(biāo)建筑。
3)HMM用于捕獲結(jié)構(gòu)或那些當(dāng)?shù)氐膱D像之間的關(guān)系,把場景識(shí)別問題轉(zhuǎn)化為評(píng)價(jià)的問題HMM。
4)從以上實(shí)驗(yàn)結(jié)果表明該煤礦救災(zāi)機(jī)器人場景識(shí)別系統(tǒng)具有較高比率的識(shí)別和定位。
參考
[1] QIAN Shan-hua, GE Shi-rong, WANG Yong-sheng, LIU Chang-qing.
Research status of the disaster rescue robot and its applications to the
mine rescue [J]. Robot, 2006, 28(3): 350?354.
[2] ULRICH I, NOURBAKHSH I. Appearance based place recognition
for topological localization [C]// KHATIB Q. Proc of the IEEE
International Conference on Robotics and Automation. San Francisco,
2000: 1023?1029.
[3] ARTAC M, JOGAN M, LEONARDIS A. Mobile robot localization
using an incremental eigenspace model [C]// DUBEY R V. Proc of
the IEEE International Conference on Robotics and Automation.
Washington, 2002: 1025?1030.
[4] ZHOU C, WEI Y C, TAN T N. Mobile robot self-localization based
on global visual appearance features [C]// LUO R C. Proc of the
IEEE International Conference on Robotics and Automation. Taipei,
2003: 1271?1276.
[5] LOWE D. Object recognition from local scale invariant features [C]//
BOYER K L. Proc of the International Conference on Computer
Vision. Greece, 1999: 1150?1157.
[6] CHEN Yong-sheng, HUNG Yi-ping, YEN Ting-fang, FUH Chioushan.
Fast and versatile algorithm for nearest neighbor search based
on a lower bound tree [J]. Pattern Recognition, 2007, 40(2):
360?375.
[7] RAPTIS S N, TZAFESTAS S G. Fuzzy-probabilistic object
recognition based on edge and texture descriptors fusion [C]// JENG
Mu-de. IEEE International Conference on Systems, Man, and
Cybernetics. Nashville, USA. 2000: 1621?1626.
[8] HEISENBERG M, WOLF R. Studies of brain function [M]. Berlin,
Germany: Springer-Verlag Press, 1984.
[9] EDUARDO T, TORRAS C. Detection of nature landmarks through
multiscale opponent features [C]// LOOG M. Proc of International
Conference on Pattern Recognition. Barcelona, 2000: 3988?3991.
[10] SHENG W, XIA B. Texture segmentation method based on Gabor
ring filtering [J]. Infrared and Laser Engineering, 2003, 32(5):
484?488.
[11] MIKOLAJCZYK K, SCHMID C. Scale and affine invariant interest
point detectors [J]. International Journal of Computer Vision, 2004,
60(1): 63?86.
[12] WANG L, CAI Z X. Saliency based natural landmarks detection
under unknown environments [J]. Pattern Recognition and Artificial
Intelligence, 2006, 1(1): 52?56.
[13] GUILHERME N D, AVINASH C K. Vision for mobile robot
navigation: A survey [J]. IEEE Transaction on Pattern Analysis and
Machine Intelligence, 2002, 24(2): 1?31.
[14] DUDA R, HART P, STORK D. Pattern classification [M]. 2nd ed.
Beijing: China Machine Press, 2004.
[15] VALE A, RIBEIRO M I. A probabilistic approach for the localization
of mobile robots in topological maps [C]// KOVACIC Z. Proc of the
10th Mediterranean Conference on Control and Automation. Lisbon,
Portugal, 2002: 1244?1249.
收藏