久热精品在线视频,思思96精品国产,午夜国产人人精品一区,亚洲成在线a

  • <sub id="y9mkp"></sub>
    <sub id="y9mkp"><ol id="y9mkp"><abbr id="y9mkp"></abbr></ol></sub>

    1. <style id="y9mkp"><abbr id="y9mkp"><center id="y9mkp"></center></abbr></style>
      <legend id="y9mkp"><u id="y9mkp"></u></legend>
      <s id="y9mkp"></s>

      期刊在線咨詢服務(wù),立即咨詢

      400-838-9662 購物車(0)

      融合多層特征的多尺度行人檢測

      曾接賢; 方琦; 符祥; 冷璐 南昌航空大學(xué)軟件學(xué)院; 南昌330063; 南昌航空大學(xué)科技學(xué)院; 共青城332020

      關(guān)鍵詞:目標(biāo)檢測 行人檢測 特征融合 多尺度行人 多層特征 

      摘要:目的行人檢測在自動駕駛、視頻監(jiān)控領(lǐng)域中有著廣泛應(yīng)用,是一個熱門的研究話題。針對當(dāng)前基于深度學(xué)習(xí)的行人檢測算法在分辨率較低、行人尺度較小的情況下存在誤檢和漏檢問題,提出一種融合多層特征的多尺度的行人檢測算法。方法首先,針對行人檢測問題,刪除了深度殘差網(wǎng)絡(luò)的一部分,僅采用深度殘差網(wǎng)絡(luò)的3個區(qū)域提取特征圖,然后采用最鄰近上采樣法將最后一層提取的特征圖放大兩倍后再用相加法,將高層語義信息豐富的特征和低層細(xì)節(jié)信息豐富的特征進(jìn)行融合;最后將融合后的3層特征分別輸入?yún)^(qū)域候選網(wǎng)絡(luò)中,經(jīng)過softmax分類,得到帶有行人的候選框,從而實現(xiàn)行人檢測的目的。結(jié)果實驗結(jié)果表明,在Caltech行人檢測數(shù)據(jù)集上,在每幅圖像虛警率(FPPI)為10%的條件下,本文算法丟失率僅為57.88%,比最好的模型之一——多尺度卷積神經(jīng)網(wǎng)絡(luò)模型(MS-CNN)丟失率(60.95%)降低3.07%。結(jié)論深層的特征具有高語義信息且感受野較大的特點,而淺層的特征具有位置信息且感受野較小的特點,融合兩者特征可以達(dá)到增強深層特征的效果,讓深層的特征具有較為豐富的目標(biāo)位置信息。融合后的多層特征圖具有不同程度的細(xì)節(jié)和語義信息,對檢測不同尺度的行人有較好的效果。所以利用融合后的特征進(jìn)行行人檢測,能夠提高行人檢測性能。

      中國圖象圖形學(xué)報雜志要求:

      {1}引用報刊資料,請注明作者姓名、文章標(biāo)題、刊名、刊期 ;引用書籍資料,請注明作者姓名、書名、出版社、出版時間和頁碼 ;引用互聯(lián)網(wǎng)資料,請注明作者姓名、文獻(xiàn)名、網(wǎng)址和時間。

      {2}文章內(nèi)容要求選題新穎、觀點明確、論證嚴(yán)謹(jǐn)、數(shù)據(jù)真實、引用準(zhǔn)確、文字精煉,有一定的學(xué)術(shù)性、思想性和創(chuàng)新性。

      {3}文題應(yīng)用最少的文字表達(dá)最多的、有價值的信息,盡可能省去“……的研究”,“……的觀察”等無特定意義的詞。

      {4}來稿需準(zhǔn)確標(biāo)注參考文獻(xiàn)。本刊采用文末注(對稿件中特定內(nèi)容的解釋說明可采用頁下注),順序編號。著錄格式依照《信息與文獻(xiàn)參考文獻(xiàn)著錄規(guī)則》GB/T7714—2015執(zhí)行。

      {5}來稿請詳細(xì)注明作者單位、地址、科室、郵編、辦公電話、手機(jī)號碼及E-mail。

      注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社

      中國圖象圖形學(xué)報

      北大期刊
      預(yù)計1-3個月審稿

      期刊主頁
      相關(guān)期刊
      我們的服務(wù)