机器学习算法优化内部机制.docx

上传人:lao****ou 文档编号:335649 上传时间:2023-09-04 格式:DOCX 页数:10 大小:120.56KB
下载 相关 举报
机器学习算法优化内部机制.docx_第1页
第1页 / 共10页
机器学习算法优化内部机制.docx_第2页
第2页 / 共10页
机器学习算法优化内部机制.docx_第3页
第3页 / 共10页
机器学习算法优化内部机制.docx_第4页
第4页 / 共10页
机器学习算法优化内部机制.docx_第5页
第5页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《机器学习算法优化内部机制.docx》由会员分享,可在线阅读,更多相关《机器学习算法优化内部机制.docx(10页珍藏版)》请在第一文库网上搜索。

1、机器学习算法优化内部机制损失线性组合是正确的选择吗?这篇文章或许能够给你答案在机器学习中,损失的线性组合无处不在。虽然它们带有一些陷 阱,但仍然被广泛用作标准方法。这些线性组合常常让算法难以调整。 在本文中,作者提出了以下论点:机器学习中的许多问题应该被视为多目标问题,但目前并非如此;1中的问题导致这些机器学习算法的超参数难以调整;检测这些问题何时发生几乎是不可能的,因此很难解决这些问题。有一些方法可以轻微缓解这些问题,并且不需要代码。 梯度下降被视为解决所有问题的一种方法。如果一种算法不能解决你的问题,那么就需要花费更多的时间调整超参数来解决问题。损失的线性组合无处不在尽管存在单目标的问题,

2、但通常都会对这些目标进行额外的正则 化。本文作者从整个机器学习领域选择了这样的优化目标。首先来说正则化函数、权重衰减和Lasso算法。显然当你添加了这些正则化,你已经为你的问题创建了多目标损失。毕竟我们关心的是原始损失L_0和正则化损失都保持很低。你将会使用人参数在这二者之间调整平衡。E(O) = &(。) + 入 网L() = L0() + 2因此,损失(如VAE的)实际上是多目标的,第一个目标是最 大程度地覆盖数据,第二个目标是保持与先前的分布接近。在这种情 况下,偶尔会使用KL退火来引入一个可调参数B,以帮助处理这种 损失的多目标性。E(O) = EqMZlH) log刖加)-BDKL

3、(HI)IlP(Z)同样在强化学习中,你也可以发现这种多目标性。在许多环境中, 简单地将为达成部分目的而获得的奖励加起来很普遍。策略损失也通 常是损失的线性组合。以下是PPO SAC和MPO的策略损失及其 可调整参数的燃正则化方法。L(7) = 一 E EMa力r(st,t) + &H(,s“l(7) = IE,。) (Q,4) oDkl 7) 最后,GAN损失当然是判别器损失和生成器损失的和:L() = 1EMIog4(叫-E2 log(l - 4(Ge(Z)所有这些损失都有一些共性,研究者们正在尝试同时针对多个目 标进行高效优化,并且认为最佳情况是在平衡这些通常相互矛盾的力 量时找到的。在

4、某些情况下,求和方式更加具体,并且引入了超参数 以判断各部分的权重。在某些情况下,组合损失的方式有明确的理论 基础,并且不需要使用超参数来调整各部分之间的平衡。一些组合损失的方法听起来很有吸引力,但实际上是不稳定且危险的。 平衡行为通常更像是在走钢丝。样例分析考虑一个简单的情况,我们尝试对损失的线性组合进行优化。我 们采用优化总损失(损失的总和)的方法,使用梯度下降来对此进行 优化,观察到以下行为:Optimising a Multi-Objective LossJax中的代码如下:def loss():return loss-l() + loss-2()loss_derivative - g

5、rad(loss)for gradient_step in range(2): gradient = loss-derivative() - .2 gradient通常情况下,我们对两个损失之间的权衡并不满意,因此在第二 个损失上引入了比例系数,并运行了以下代码:def loss (, Cl) : return loss_l ()+ Q*loss_2( )loss_derivative =grad(loss)for gradient_step in range(200): gradient = loss-derivative(, =0. 5) = - 0. 02 * gradient br我们

6、希望看到:当调整时,可以选择两个损失之间的折衷, 并选择最适合自身应用的点。我们将有效地进行一个超参数调整回路, 手动选择一个来运行优化过程,决定降低第二个损失,并相应地调 整并重复整个优化过程。经过几次迭代,我们满足于找到的解,并 继续写论文。但是,事实并非总是如此。有时,问题的实际行为如下动图所示:看起来无论怎样调整参数 ,都不能很好地权衡两种损失。我们看到了两类解决方案,它们都分别忽略了一种损失。但是, 这两种解决方案都不适用于大多数应用。在大多数情况下,两种损失 更加平衡的点是可取的解决方案。实际上,这种关于训练过程中两种损失的图表几乎从未绘制过, 因此该图中所示的动态情况常常无法观察

7、到。我们只观察绘制总体损 失的训练曲线,并且得出超参数需要更多时间调整的结论。也许我们 可以采取一种早停法(early stopping),以使得论文中的数据是有效 的。毕竟,审稿人喜欢高效的数据。问题出在哪里呢?为什么这种方法有时有效,有时却无法提供可调参 数?为此,我们需要更深入地研究一下以下两个动图之间的差异。它 们都是针对相同的问题,使用相同的损失函数生成的,并且正在使用 相同的优化方法来优化这些损失。因此,这些都不是造成差异的原因。 在这些问题之间发生变化的是模型。换句话说,模型参数对模型输 出的影响是不同的。因此,让我们可视化一下通常不可见的东西,这是两个优化的 帕累托前沿。这是模

8、型可以实现且是不受其他任何解决方案支配的解 决方案的集合。换句话说,这是一组可实现的损失,没有一个点可以 使所有损失都变得更好。无论你如何选择在两个损失之间进行权衡, 首选的解决方案始终依赖帕累托前沿。通常,通过调整损失的超参数, 你通常希望仅在同一个前沿找到一个不同的点。Optimising for Different AlphasLoss #1两个帕累托前沿之间的差异会使得第一种情况的调优效果很好, 但是在更改模型后却严重失败了。事实证明,当帕累托前沿为凸形时, 我们可以通过调整参数来实现所有可能的权衡效果。但是,当帕累 托前沿为凹形时,该方法似乎不再有效。为什么凹帕累托前沿面的梯度下降优

9、化会失败?通过查看第三个维度中的总体损失,可以发现实际上是用梯度下 降优化了损失。在下图中,我们可视化了相对于每个损失的总损失平 面。实际上是使用参数的梯度下降到该平面上,采取的每个梯度下降 步骤也必将在该平面上向下移动。你可以想象成梯度下降优化过程是 在该平面上放置一个球形小卵石,使其在重力作用下向下移动直到它 停下来。优化过程停止的点是优化过程的结果,此处用星星表示。如下 图所示,无论你如何上下摆动该平面,最终都将得到最佳结果。通过调整 ,此空间将保持一个平面。毕竟更改。只会更改该平 面的倾斜度。在凸的情况下,可以通过调整来实现帕累托曲线上的 任何解。大一点会将星星拉到左侧,小一点会将星星

10、拉到右侧。 优化过程的每个起点都将在相同的解上收敛,这对于的所有值都是 正确的。这些线性组合会导致哪些问题?我们列举了使用这种线性损失组合方法的问题:第一,即使没有引入超参数来权衡损失,说梯度下降试图在反作 用力之间保持平衡也是不正确的。根据模型可实现的解,可以完 全忽略其中一种损失,而将注意力放在另一种损失上,反之亦然, 这取决于初始化模型的位置;第二,即使引入了超参数,也将在尝试后的基础上调整此超参数。 研究中往往是运行一个完整的优化过程,然后确定是否满意,再对超 参数进行微调。重复此优化循环,直到对性能满意为止。这是一种费 时费力的方法,通常涉及多次运行梯度下降的迭代;第三,超参数不能针

11、对所有的最优情况进行调整。无论进行多少 调整和微调,你都不会找到可能感兴趣的中间方案。这不是因为它们 不存在,它们一定存在,只是因为选择了一种糟糕的组合损失方法;第四,必须强调的是,对于实际应用,帕累托前沿面是否为凸面 以及因此这些损失权重是否可调始终是未知的。它们是否是好的超参 数,取决于模型的参数化方式及其影响帕累托曲线的方式。但是,对 于任何实际应用,都无法可视化或分析帕累托曲线。可视化比原始的 优化问题要困难得多。因此出现问题并不会引起注意;最后,如果你真的想使用这些线性权重来进行权衡,则需要明确 证明整个帕累托曲线对于正在使用的特定模型是凸的。因此,使用相 对于模型输出而言凸的损失不

12、足以避免问题。如果参数化空间很大 (如果优化涉及神经网络内部的权重,则情况总是如此),你可能会 忘记尝试这种证明。需要强调的是,基于某些中间潜势(intermediate latent),显示这些损失的帕累托曲线的凸度不足以表明你具有可调参 数。凸度实际上需要取决于参数空间以及可实现解决方案的帕累托前 沿面。请注意,在大多数应用中,帕累托前沿面既不是凸的也不是凹的, 而是二者的混合体,这扩大了问题。以一个帕累托前沿面为例,凸块之间有凹块。每个凹块不仅可以 确保无法通过梯度下降找到解,还可以将参数初始化的空间分成两部 分,一部分可以在一侧的凸块上找到解,而另一部分智能在另一侧上 找到解。如下动图所示,在帕累托前沿面上有多个凹块会使问题更加 复杂。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 汇报材料

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服