引用本文:张 平 , 斯特凡·卡纽.在加强型学习系统中用伪熵进行不确定性估计[J].控制理论与应用,1998,15(1):100~104.[点击复制]
ZHANG Ping and Stéphane Canu.Uncertainty Estimate with Pseudo-Entropy in Reinforcement Learning[J].Control Theory and Technology,1998,15(1):100~104.[点击复制]
在加强型学习系统中用伪熵进行不确定性估计
Uncertainty Estimate with Pseudo-Entropy in Reinforcement Learning
摘要点击 1124  全文点击 500  投稿时间:1996-02-26  修订日期:1996-10-30
查看全文  查看/发表评论  下载PDF阅读器
DOI编号  
  1998,15(1):100-104
中文关键词  加强型学习  Q-学习  熵估计  不确定性  马尔柯夫过程
英文关键词  reinforcement learning  Q-learning  entropy estmate  uncertainty  Markov deci-sion
基金项目  
作者单位
张 平 , 斯特凡·卡纽  
中文摘要
      加强型学习系统是一种与没有约束的、未知的环境相互作用的系统. 学习系统的目标在于最大可能地获取累积奖励信号.这个奖励信号在有限、未知的生命周期内由系统所处的环境中得到.对于一个加强型学习系统, 困难之一在于奖励信号非常稀疏, 尤其是对于只有时延信号的系统. 已有的加强型学习方法以价值函数的形式贮存奖励信号, 例如著名的Q-学习,本文提出了一个基于状态的不确定性估计模型的方法. 这个算法有效地利用了存贮于价值函数中的奖励信息.它同时适用于带有立即奖励和时延奖励信号两种情况.实验结果表明, 本文的算法具有很好的学习行为.
英文摘要
      A reinforcement learning (RL) system interacts with an unrestricted, unknown en-vironment. Its goal is to maximize cumulative rewards, to be obtained throughout its limited, un-known litetime. One of difficulties for a RL system is that reward signal is sparse, specially for RL system with very delayed rewards. In this paper, we describe an algorithm based on a model of the state's uncertainty estimate. It uses efficiently reward information stored in value function. The experiments show that the algorithm has a very good performance.