久热精品在线视频,思思96精品国产,午夜国产人人精品一区,亚洲成在线a

  • <sub id="y9mkp"></sub>
    <sub id="y9mkp"><ol id="y9mkp"><abbr id="y9mkp"></abbr></ol></sub>

    1. <style id="y9mkp"><abbr id="y9mkp"><center id="y9mkp"></center></abbr></style>
      <legend id="y9mkp"><u id="y9mkp"></u></legend>
      <s id="y9mkp"></s>

      基于深度學(xué)習(xí)的手勢(shì)識(shí)別研究

      沈雅婷 南京理工大學(xué)紫金學(xué)院計(jì)算機(jī)學(xué)院; 江蘇南京210046

      關(guān)鍵詞:深度圖像 預(yù)處理 特征提取 深度學(xué)習(xí) 手勢(shì)識(shí)別 

      摘要:目前一些相對(duì)成熟的手勢(shì)識(shí)別算法,如基于模板匹配的方法、基于人工神經(jīng)網(wǎng)絡(luò)的方法以及基于隱馬爾科夫模型的方法,都存在計(jì)算復(fù)雜的劣勢(shì),而基于深度學(xué)習(xí)的手勢(shì)識(shí)別具有一定優(yōu)勢(shì)。通過深度學(xué)習(xí)提取多層網(wǎng)絡(luò)簡(jiǎn)化的高價(jià)值易用特征,通過向量等表示,簡(jiǎn)化算法以實(shí)現(xiàn)良好的識(shí)別效果。通過攝像頭采集室內(nèi)復(fù)雜背景下的手勢(shì)圖像,在計(jì)算能力、存儲(chǔ)能力強(qiáng)大的PC平臺(tái)通過深度學(xué)習(xí)處理圖像,提取特征,然后進(jìn)行分類識(shí)別,能提高識(shí)別準(zhǔn)確率。通過改進(jìn)硬件或算法還可提高識(shí)別效率及安全性。

      軟件導(dǎo)刊雜志要求:

      {1}作者簡(jiǎn)介:文尾附注第一作者簡(jiǎn)介,含姓名(出生年月)、性別、民族、籍貫、學(xué)歷學(xué)位、單位、職務(wù)、職稱、研究方向等,并注明準(zhǔn)確通訊地址、郵政編碼、電話號(hào)碼、E-mail地址。

      {2}本刊只接受word版電子文本。文稿須包括題目、提要、關(guān)鍵詞、正文及作者簡(jiǎn)介。

      {3}題目中除公知公用的縮略語(yǔ)外,盡量不用外文縮略語(yǔ)。

      {4}參考文獻(xiàn)列出的一般應(yīng)限于作者直接閱讀過的、最主要的、發(fā)表在正式出版物上的文獻(xiàn)。

      {5}關(guān)鍵詞應(yīng)有3~5個(gè)。詞與詞之間用分號(hào)分隔。

      注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社

      軟件導(dǎo)刊

      省級(jí)期刊
      預(yù)計(jì)1個(gè)月內(nèi)審稿

      期刊主頁(yè)
      相關(guān)期刊
      我們的服務(wù)