大橙子网站建设,新征程启航

为企业提供网站建设、域名注册、服务器等服务

PolicyGradient中不以loss来反向传播的策略梯度方法是怎样的

Policy Gradient中不以loss来反向传播的策略梯度方法是怎样的,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

成都创新互联公司成立于2013年,先为石台等服务建站,石台等地企业,进行企业商务咨询服务。为石台企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。

 

目录

1.前言2.核心算法3.Add a Baseline4.总结

 

1.前言

这次介绍的基于策略梯度的Policy  Gradient的算法属实比之前的算法没那么好理解,笔者看完莫烦教程之后还是有许多细节没搞懂,又看了李宏毅教授的DRL Lecture才弄懂,希望能把他讲清楚。

 

2.核心算法

之前我们所学的DQN,Q-Learning都是通过计算动作得分来决策的,我们是在确定了价值函数的基础上采用某种策略(贪婪-epsilon)的方式去选取价值最大的动作。仔细一想可以得知其实这种方式是间接的,因为还需要通过价值来选取动作。

Policy Gradient就是一种直接的方法,他可以直接输出每种动作的概率进行直接的选择。这里有一点要注意,Policy Gradient没有误差,他不通过误差进行反向传播,它是通过观测信息选出一个行为直接进行反向传播。他利用reward奖励直接对选择行为的可能性进行增强和减弱,好的行为会被增加下一次被选中的概率,不好的行为会被减弱下次被选中的概率。举例如下图所示:输入当前的状态,输出动作的概率分布,选择概率最大的一个action作为执行的操作。

Policy Gradient中不以loss来反向传播的策略梯度方法是怎样的  

而一个完整的策略τ代表的是一整个回合中,对于每个状态下所采取的的动作所构成的  序列,而每个回合episode中每个动作的回报和等于一个回合的回报值
 

 
Policy Gradient中不以loss来反向传播的策略梯度方法是怎样的  

通过以上可知π在参数为θ情况下时 τ 发生的概率:  
 
 

我们可以看到概率是拆分为  我们可以控制的(上图的红色部分,与自身actor有关)与  我们不可控制的(上图的黄色部分,来自环境)

得到概率之后我们就可以根据采样得到的回报值计算出数学期望。

Policy Gradient中不以loss来反向传播的策略梯度方法是怎样的  

得到奖励的数学期望后我们要做的自然就是max这个奖励的数学期望,如何做呢,就是  Gradient Asent(注意是梯度上升不是梯度下降)这个期望。

这里我们要注意两点:首先R这个奖励期望不需要是可微分的,即使是不可微分也是可以做这个运算。另外这里用到一个技巧,就是公式推导的第二步,大家也可以直接看蓝色框背下来。

 

后面那项的梯度由于概率中我们只能控制之前我们说过跟actor有关的部分,所以后面那项就可以简化为:  
 
Policy Gradient中不以loss来反向传播的策略梯度方法是怎样的  

所以最后整个式子就可以化为:  
 
 

最后化出来的整个式子也十分地好理解,假如在某个state下采取的action最后的Reward为正的,那就增加最后一项的概率,反之如果Reward为负的,那就减少这项的概率。所以在这里,如果reward为正,那就最大化这个好的动作的G概率。

 

3.Add a Baseline

Policy Gradient中不以loss来反向传播的策略梯度方法是怎样的  

 
 

我们来考虑一种情况,在游戏中可能我们的期望永远是正的,比如一场游戏某个好的动作可以得20分,而不好的动作也能得1分,这样会导致什么样的后果呢,我们可以看上图。

  • 在理想的情况,考虑某个state下有三个动作a,b,c,每一项的概率加起来为1,每一项的weight(R)是不一样的,可能有的大,有的小,乘起来之后经过Normalize,奖励高的自然概率就高了,这也是我们想要的。

  • 在现实中,由于我们采用的是采样的方法,我们只能是采样到部分的action,我们可能只采样到了b和c,没采样到a的,但是由于采样到的b和c概率在上升,没采样到的a只能下降,这样是非常不科学的。

解决的办法就是让期望减掉一个Baseline,让一些不那么好的行为能得到一个负的反馈,也就是让我们的奖励减去一个b,这个b有很多取法,只要能达到目的就行。

Policy Gradient中不以loss来反向传播的策略梯度方法是怎样的  
 

优点

  • 连续的动作空间或高维空间中更加高效。

  • 可以实现随机化策略

  • 某种情况下,价值函数可能比较难以计算,而策略函数容易

缺点

  • 通常收敛到局部最优而非全局最优

  • 评估一个策略通常低效(这个过程可能慢,但是具有更高的可变性,其中也会出现很多并不有效的尝试,而且方差高)

关于Policy Gradient中不以loss来反向传播的策略梯度方法是怎样的问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注创新互联行业资讯频道了解更多相关知识。


分享文章:PolicyGradient中不以loss来反向传播的策略梯度方法是怎样的
当前地址:http://dzwzjz.com/article/jchoci.html
在线咨询
服务热线
服务热线:028-86922220
TOP