强化学习基础篇(三十五)探索与利用(Exploration and Exploitation)

强化学习基础篇(三十五)探索与利用(Exploration and Exploitation)

1、探索与利用简介

在强化学习中,探索(Exploration )的目的是找到更多有关环境的信息,而利用(Exploitation)的目的是利用已知的环境信息来最大限度地提高奖励。简而言之,探索是尝试还未尝试过的动作行为,而利用则是从已知动作中选择下一步的动作。

探索与利用之间的如何权衡,是强化学习的一个基本的问题。例如在很多情况,为了获得最佳的长期策略,可能需要做一些短期的牺牲。为了能够获得最佳的总体策略,往往需要收集到更多的信息。

有几种方式可以达到探索的目的:

  • 第一种是朴素探索(Naive Exploration),类似\epsilon−greedy算法在一定概率基础下随机选择一些action。
  • 第二种是乐观初始估计(Optimistic Initialization),优先选择当前被认为是最高价值的行为,除非新信息的获取推翻了该行为具有最高价值这一认知;
  • 第三种是不确定优先(Optimism in the Face of Uncertainty):,更加倾向选择更加具有不确定性的状态/动作,这种方法就需要一种方法来衡量这种不确定性
  • 第四种是概率匹配(Probability Matching): 根据当前估计的概率分布采样行为;
  • 第五种是信息状态搜索(Information State Search),将已探索的信息作为状态的一部分联合个体的状态组成新的状态,以新状态为基础进行前向探索。

根据搜索过程中使用的数据结构,可以将搜索分为:

  • 依据状态行为空间的探索(State-Action Exploration),其针对每一个当前的状态,以一定的算法尝试之前该状态下没有尝试过的行为。

  • 参数化搜索(Parameter Exploration)。直接针对策略的函数近似,此时策略用各种形式的参数表达,探索即表现为尝试不同的参数设置。

    其优点是:得到基于某一策略的一段持续性的行为;

    其缺点是:对个体曾经到过的状态空间毫无记忆,也就是个体也许会进入一个之前曾经进入过的状态而并不知道其曾到过该状态,不能利用已经到过这个状态这个信息。

为了较简单的描述各类搜索的原理,下一节将使用一种与状态无关的Bandit来进行讲解。

2、与状态无关的k-bandit问题

k-bandit问题考虑的是如下的学习问题:你要重复地在k个选项或者动作中进行选择。每次做出选择后,都会得到一定数值的收益,收益由你选择的动作决定的平稳概率分布产生。目标是在某一段时间内最大化总收益的期望。

image.png

该问题定义是:

  • multi-bandit可以看成是由行为空间和奖励组成的元组<A,R>,动作空间A是m个动作(即每个arms),每一个行为对应拉下某一个拉杆。奖励\mathcal{R}^{a}(r)=\mathbb{P}[r \mid a]是未知的概率分布
  • 在每个时间步t,智能体会选择动作a_t \in A,然后环境将生成奖励 r_t \sim R^{a_t}, 目标为最大化累计收益\sum_{T-1}^{t}r_{\tau}

3、后悔值(Regret)

为了方便描述问题,我们先给出几个定义:

  • action-value

    一个行为的价值等于该行为能得到的即时奖励期望,即该行为得到的所有即时奖励的平均值。
    Q(a)=E[r|a]

  • optimal value

    我们能够事先知道哪一个bandit能够给出最大即时奖励,那我们可以每次只选择对应的那个拉杆。如果用V^*表示这个最优价值,a^*表示能够带来最优价值的行为,则:
    V^{*}=Q\left(a^{*}\right)=\max _{a \in \mathcal{A}} Q(a)

  • Regret

    事实上我们不可能事先知道拉下哪个拉杆能带来最高奖励,因此每一次拉杆获得的即时奖励可能都与最优价值V^*存在一定的差距,我们定义这个差距为后悔值(regret):
    l_{t}=\mathbb{E}\left[V^{*}-Q\left(a_{t}\right)\right]

  • Total Regret

    每做出一个行为,都会产生一个后悔值,因此随着持续的拉杆行为,将所有的后悔值加起来,形成总后悔值(Total Regret)
    L_{t}=\mathbb{E}\left[\sum_{\tau=1}^{t} V^{*}-Q\left(a_{\tau}\right)\right]

这样,最大化累计奖励的问题就可以转化为最小化总后悔值了。之所以这样转换,是为了描述问题的方便,在随后的讲解中可以看到,较好的算法可以控制后悔值的增加速度。而用最大化累计奖励描述问题不够方便直观。

4、Regret的推导

从另一个角度重写总后悔值。定义N_t(a)为到t时刻时已执行行为A的次数,定义差距(gap)\Delta a为最优动作a^*与行为a之间的差。那么总后悔值可以这样推导:
\begin{aligned} L_{t} &=\mathbb{E}\left[\sum_{\tau=1}^{t} V^{*}-Q\left(a_{\tau}\right)\right] \\ &=\sum_{a \in \mathcal{A}} \mathbb{E}\left[N_{t}(a)\right]\left(V^{*}-Q(a)\right) \\ &=\sum_{a \in \mathcal{A}} \mathbb{E}\left[N_{t}(a)\right] \Delta_{a} \end{aligned}
这相当于把个行为的差距与该行为发生的次数乘起来,随后把行为空间的所有行为的这个乘积再相加得到,只不过这里是期望。

把总后悔值用计数和差距描述可以使我们理解到一个好的算法应该尽量减少那些差距较大的行为的次数。不过我们并不知道这个差距具体是多少,因为根据定义虽然最优价值V^*和每个行为的差距(gap)\Delta a为静态的,但我们并不清楚这两者的具体数值,我们所能使用的信息就是每次行为带来的即时奖励 r。那么我们如何利用每次行为的即时奖励呢?

我们使用每次的即时奖励来计算得到t时刻止某一行为的平均价值:
\hat{Q}_{t}(a)=\frac{1}{N_{t}(a)} \sum_{t=1}^{T} r_{t} \mathbf{1}\left(a_{t}=a\right)
这个方法也叫蒙特卡罗评估, 以此来近似该行为的实际价值 Q(a): \hat{Q}_{t}(a) \approx Q(a)

5、Total Regret的直观理解

我们先直观了解下不同形式的随机策略其总后悔值随着时间的变化曲线:

image.png

(1)对于\epsilon−greedy探索方法,总后悔值会呈线性增长,这是一个好的算法所不能接受的。这是因为每一个时间步,该探索方法有一定的几率选择最优行为,但同样也有一个固定小的几率采取完全随机的行为,如采取随机行为,那将一直会带来一定后悔值,如果持续以虽小但却固定的几率采取随机行为,那么总的后悔值会一直递增,导致呈现与时间之间的线性关系。类似的softmax探索方法与此类似。

(2)对于greedy探索方法,其总后悔值也是线性的,这是因为该探索方法的行为选择可能会锁死在一个不是最佳的行为上。

(3)目标就是找到一种探索方法,使用该探索方法时随着时间的推移其总后悔值增加得越来越少,后续将依次介绍几种较好的探索方法。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,755评论 6 507
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,305评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,138评论 0 355
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,791评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,794评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,631评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,362评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,264评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,724评论 1 315
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,900评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,040评论 1 350
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,742评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,364评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,944评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,060评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,247评论 3 371
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,979评论 2 355

推荐阅读更多精彩内容