English  |  正體中文  |  简体中文  |  全文筆數/總筆數 : 78937/78937 (100%)
造訪人次 : 39817607      線上人數 : 1287
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜尋範圍 查詢小技巧:
  • 您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
  • 若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
  • 進階搜尋


    請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/85090


    題名: Learning Spatial Search and Map Exploration using Adaptive Submodular Inverse Reinforcement Learning
    作者: 吳季潔;Wu, Ji-Jie
    貢獻者: 數學系
    關鍵詞: 空間搜尋;地圖探索;自適應次模;逆強化學習;壓縮感測;Spatial search;Map exploration;Adaptive submodularity;Inverse reinforcement learning;Compressed sensing
    日期: 2021-01-26
    上傳時間: 2021-03-18 17:38:20 (UTC+8)
    出版者: 國立中央大學
    摘要: 找到空間搜尋和地圖探索問題的最佳路徑是NP-hard。由於空
    間搜尋和環境探索是人類日常活動之一, 因此從資料中學習人
    類行為是解決這些問題的其中一種方法。利用兩個問題的自適
    應次模性, 本研究提出了一種自適應次模逆強化學習(ASIRL)
    演算法來學習人類行為。ASIRL方法是在傅立葉域中學習獎勵函
    數, 並在空間域上對其進行重建,近似最佳路徑可以透過學習
    獎勵函數算出。實驗顯示ASIRL演算法的表現優於現有方法(例
    如REWARDAGG和QVALAGG)。;Finding optimal paths for spatial search and map exploration problems are NP-hard. Since spatial search and environmental exploration are parts of human central activities, learning human behavior from data is a way to solve these problems. Utilizing the adaptive submodularity of two problems, this research proposes an adaptive submodular inverse reinforcement learning (ASIRL) algorithm to learn human behavior.
    The ASIRL approach is to learn the reward functions in the Fourier domain and then recover it in the spatial domain. The nearoptimal path can be computed through learned reward functions. The experiments demonstrate that the ASIRL outperforms state of the art approaches (e.g., REWARDAGG and QVALAGG).
    顯示於類別:[數學研究所] 博碩士論文

    文件中的檔案:

    檔案 描述 大小格式瀏覽次數
    index.html0KbHTML153檢視/開啟


    在NCUIR中所有的資料項目都受到原著作權保護.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明