久热精品在线视频,思思96精品国产,午夜国产人人精品一区,亚洲成在线a

  • <sub id="y9mkp"></sub>
    <sub id="y9mkp"><ol id="y9mkp"><abbr id="y9mkp"></abbr></ol></sub>

    1. <style id="y9mkp"><abbr id="y9mkp"><center id="y9mkp"></center></abbr></style>
      <legend id="y9mkp"><u id="y9mkp"></u></legend>
      <s id="y9mkp"></s>

      基于K-Means和時間匹配的位置預(yù)測模型

      胡燕; 朱曉瑛; 馬剛 北京郵電大學(xué)信息網(wǎng)絡(luò)中心; 北京100876

      關(guān)鍵詞:位置預(yù)測 時鬧匹配 聚類 

      摘要:隨著移動服務(wù)的發(fā)展,越來越多的移動端服務(wù)基于對象的位置進(jìn)行推送和推薦。因此位置預(yù)測技術(shù)顯得越來越重要.由于對象位置信息存在采集不連續(xù)或?qū)ο笮袨椴灰?guī)律等因素,導(dǎo)致位置預(yù)測成為一項非常有挑戰(zhàn)的工作.為了提高位置預(yù)測的準(zhǔn)確性,提出一種基于K-MestNs算法和時間匹配的位置預(yù)測模型.該模型使用K—Means算法對歷史位置點進(jìn)行聚類,劃分多個對象運動區(qū)域,針對對象運動區(qū)域進(jìn)行預(yù)測.按照對象的作息時間將一天時間劃分為多個時間段,運用筆者提出的軌跡建模算法和軌跡更新算法形成用戶運動軌跡,形成對象運動軌跡,再使用時間匹配原則進(jìn)行住置預(yù)測.筆者最后利用真實的數(shù)據(jù)實現(xiàn)該模型,實驗證明:未使用該模型的位置預(yù)測準(zhǔn)確率為39.7%;使用該模型后算法和時間匹配的位置預(yù)測模型預(yù)測準(zhǔn)確率達(dá)到60.3%,準(zhǔn)確率提高了20%左右.

      鄭州工業(yè)大學(xué)學(xué)報雜志要求:

      {1}作圖數(shù)據(jù)必須附于圖后。圖片必須反差鮮明,清晰易辨。顯微照片內(nèi)應(yīng)畫長度標(biāo)尺,如1 μm。圖片像素應(yīng)盡量較高,附于相應(yīng)文字下方,并標(biāo)明圖號、圖題和圖注,注意圖片的上下方位。

      {2}論文涉及的課題如為國家或部、省級以上基金或攻關(guān)項目,應(yīng)予以注明。對于有中英文摘要的來稿,基金項目分別以中英文注于中英文關(guān)鍵詞下方。

      {3}參考文獻(xiàn)等要素完整、規(guī)范,按照順序編碼制著錄。

      {4}作者需提供200-300字的內(nèi)容摘要,3-6個關(guān)鍵詞。

      {5}作者信息:作者姓名、單位、職稱、聯(lián)系電話、通訊地址、電郵地址。

      注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社

      鄭州工業(yè)大學(xué)學(xué)報

      省級期刊
      1個月內(nèi)下單

      關(guān)注 2人評論|0人關(guān)注
      相關(guān)期刊
      服務(wù)與支付