Policy network

"?two branches  for Deep Reinforcement Learning: based on Value or Policy.

based on Value: DQN(Deep Q Network, google)  = NN + Q learning

Q learning : (State , action ) -->Q value, for each state choose the action which lead to the largest Q;是一种策略时间差分方法,核心是异策略,时间差分。

异策略:行动策略(产生数据的策略)和要评估改进的策略是分开的,行动策略是5行的thegma-贪婪,评估和改进的是6行的贪婪(选择对每个状态来说,取值最大的动作)

时间差分:更新行为值函数时是依据时间差分目标。时间差分目标如下


1
2


3
4

DQN benefits from: CNN, Experience replay and Fixed Q-targets

Experience replay makes DQN a off-policy "offline learning" which is able to learn from the experience and others' experience。经验回放对强化学习的学习过程进行训练。Why,因为RL负责收集数据,但上下文数据的关联性很强 V.S. 神经网络训练时要求数据是独立同分布的。所以用经验回放来打破数据的关联性。

解释二:DeepMind创始人Hassabis是伦敦大学神经科学博士:人在睡觉时,海马体会把一天的记忆重放给大脑皮层。

5

如上图,强化学习时,会把数据存到一个DB,then均匀随机采样抽取数据,来训练神经网络。2013NIPS就指出了。

2015nature提出目标网络来进一步减小数据间的关联性。DQN用目标网络Q-targets来单独处理时间差分算法中的TD偏差。

Fixed Q-targets makes DQN owns 2 networks with same structures but different parameters: one for predicting Q real with experience parameters and the other predict Q estimate with the latest parameters.

与表格型传统Qlearning不同,用NN进行值函数逼进时,每一步更新的是网络权值参数,而不是图2第6行的Q值了,换成了梯度下降更新:


6

7是TD目标,用网络参数theta来计算8。

7
8


9动作值函数逼近网络

以往神经网络逼近值函数时,【计算TD目标的动作值函数】用的是网络参数theta,与梯度计算【要逼近的动作值函数】,所用的网络参数一样,这样就容易导致数据关联性,训练不稳定,事实上,这两个操作的更新频率等是不完全一样的。所以单独弄一个TD目标网络来【计算TD目标】,theta-;【逼近值函数】的网络用theta;【计算TD目标的动作函数】每个固定的步数更新一次,【用于逼近的动作值函数网络】每一步都更新。所以值函数的更新变成:

10

DQN伪代码:

11

第[1]行,初始化回放记忆D,可容纳的数据条数为N

第[2]行,利用随机权值theta来初始化动作行为值函数Q

第[3]行,令theta- = theta来计算TD目标的动作行为值Q

第[4]行,循环每次事件

第[5]行,初始化每次事件的第一个状态s1 ,预处理得到状态对应的特征输入

第[6]行,循环每个事件的每一步

第[7]行,利用概率thegma选一个随机动作at

第[8]行,若小概率事件没发生,则用贪婪策略选择当前值函数最大的那个动作,注意,这里选最大动作时用到的值函数网络与逼近值函数所用的网络是一个网络,都对应着theta。

注意:第[7]行和第[8]行是行动策略,即thegma-greedy策略。

第[9]行,在仿真器中执行动作at,观测回报rt与图像xt+1

第[10]行,设置st+1 = st, at, xt+1, 预处理

第[11]行,将转换(,,,)储存在回放记忆D中

第[12]行,从回放记忆D中均匀随机采样一个转换样本数据

第[13]行,判断是否是一个事件的终止状态,若是终止状态则TD目标为rj,否则利用TD目标网络theata- 来计算TD目标

第[14]行,执行一次梯度下降算法

第[15]行,更新动作值函数逼近的网络参数theta

第[16]行,每隔C步更新一次TD目标网络权值即令theta-  = theta

第[17]行,结束每次事件内循环

第[18]行,结束事件间的循环

我们可以看到,在第[12]行,利用了经验回放;在[13]行利用了独立的目标网络theta-。第[15]行,更新动作值函数逼近网络参数;第[17]行更新目标网络参数.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,383评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,522评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,852评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,621评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,741评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,929评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,076评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,803评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,265评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,582评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,716评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,395评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,039评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,798评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,027评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,488评论 2 361
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,612评论 2 350

推荐阅读更多精彩内容