AI顶会云举行优必选科技论文入选ICLR.docx

上传人:lao****ou 文档编号:220531 上传时间:2023-06-05 格式:DOCX 页数:8 大小:18.76KB
下载 相关 举报
AI顶会云举行优必选科技论文入选ICLR.docx_第1页
第1页 / 共8页
AI顶会云举行优必选科技论文入选ICLR.docx_第2页
第2页 / 共8页
AI顶会云举行优必选科技论文入选ICLR.docx_第3页
第3页 / 共8页
AI顶会云举行优必选科技论文入选ICLR.docx_第4页
第4页 / 共8页
AI顶会云举行优必选科技论文入选ICLR.docx_第5页
第5页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《AI顶会云举行优必选科技论文入选ICLR.docx》由会员分享,可在线阅读,更多相关《AI顶会云举行优必选科技论文入选ICLR.docx(8页珍藏版)》请在第一文库网上搜索。

1、A1顶会“云”举行,优必选科技论文入选IC1R受全球范围疫情爆发的影响,原定于4月25日在埃塞俄比亚首都亚的斯亚贝巴举行的人工智能顶会IC1R2023,宣布取消线下会议,完全改为线上。此前,2月7日在美国纽约举办的人工智能顶级会议AAAI2023,也采取了部分线上模式,让不能到场的学者远程参会。虽然疫情让这些人工智能顶会充满变数,但丝毫不影响全球人工智能学者和研究人员的热情,他们提交了大量重要研究成果的论文。优必选悉尼大学人工智能研究中心今年也有数篇论文被人工智能顶会接收,其中,IC1R2023有2篇,AAAI2023有4篇,CVPR2023有12篇。IC1R(国际学习表征会议)于2013年成

2、立,由1eCUn,Hinton和Bengio三位神经网络的元老联手发起。近年来随着深度学习在工程实践中的成功,IC1R也在短短的几年中发展成为了神经网络的顶会。今年,IC1R共收到了2594篇论文投稿,相比去年的1591篇论文投稿,增加了38.7%,其中687篇论文被接收,优必选悉尼大学人工智能中心有2篇论文被接收。一:分段线性激活实质上塑造了神经网络的损失平面摘要:理解神经网络的损失平面对于理解深度学习至关重要。本文介绍了分段线性激活函数是如何从根本上塑造神经网络损失平面的。我们首先证明了许多神经网络的损失平面具有无限的伪局部极小值,这些伪局部极小值被定义为经验风险比全局极小值更高的局部极小

3、值。我们的结果表明,分段线性激活网络与已被人们充分研究的线性神经网络有着本质区别。实践中,这一结果适用于大多数损失函数中任何具有任意深度和任意分段线性激活函数(不包括线性函数)的神经网络。本质上,基本假设与大多数实际情况是一致的,即输出层比任何隐藏层都窄。此外,利用不可微分的边界将具有分段线性激活的神经网络的损失平面分割成多个光滑的多线性单元。所构造的伪局部极小值以底谷的形式集中在一个单元中:它们通过一条经验风险不变的连续路径相互连接。对于单隐层网络,我们进一步证明了一个单元中的所有局部最小值均构成一个等价类别;它们集中在一个底谷里;它们都是单元中的全局极小值。二:理解递归神经网络中的泛化摘要

4、:在本文中,我们阐述了分析递归神经网络泛化性能的理论。我们首先基于矩阵I-范数和Fisher-Rao范数提出了一种新的递归神经网络的泛化边界。Fisher-Rao范数的定义依赖于有关RNN梯度的结构引理。这种新的泛化边界假设输入数据的协方差矩阵是正定的,这可能限制了它在实际中的应用。为了解决这一问题,我们提出在输入数据中加入随机噪声,并证明了经随机噪声(随机噪声是输入数据的扩展)训练的一个泛化边界。与现有结果相比,我们的泛化边界对网络的规模没有明显的依赖关系。我们还发现,递归神经网络(RNN)的Fisher-Rao范数可以解释为梯度的度量,纳入这种梯度度量不仅可以收紧边界,而且可以在泛化和可训

5、练性之间建立关系。在此基础上,我们从理论上分析了特征协方差对神经网络泛化的影响,并讨论了训练中的权值衰减和梯度裁剪可以如何改善神经网络泛化。今年首场人工智能顶会AAAI2023已于2月份在美国纽约举办,共评审了7737篇论文,最终接收了1591篇,接收率为20.6%,优必选悉尼大学人工智能中心有4篇论文被接收。一:阅读理解中的无监督域自适应学习摘要:深度神经网络模型在很多阅读理解(RC)任务数据集上已经实现显著的性能提升。但是,这些模型在不同领域的泛化能力仍然不清楚。为弥补这一空缺,我们研究了阅读理解任务(RC)上的无监督域自适应问题。研究过程中,我们在标记源域上训练模型,并在仅有未标记样本的

6、目标域应用模型。我们首先证明,即便使用强大的转换器双向编码表征(BERT)上下文表征,在一个域上训练好的模型也不能在另一个域实现很好的泛化能力。为了解决这个问题,我们提供了一种新的条件对抗自训练方法(CASe)。具体来说,我们的方法利用在源数据集上微调的BERT模型以及置信度过滤,在目标域中生成可靠的伪标记样本以进行自训练。另一方面,我们的方法通过跨域的条件对抗学习,进一步减小了域之间的分布差异。大量实验表明,我们的方法在多个大规模基准数据集上实现了与监督模型相当的性能。特征图:方法框架二:GraPy-M1:跨数据集人体解析的图像金字塔相互学习摘要:人体解析,即人体部位语义分割,因其具有广泛的

7、潜在应用前景而成为一个研究热点。在本文中,我们提出一种新的图金字塔互学习(GraPy-M1)方法来解决标注粒度不同的跨数据集的人体解析问题。从人体层次结构的先验知识出发,我们将三层图结构按照粗粒度到细粒度的顺序进行叠加,设计出了一个新的图金字塔模型(GPM)。GPM在每一层都会利用自关注机制对上下文节点之间的相关性进行建模。然后,它采用了自上而下的机制来逐步细化各个层级的特征。GPM还使得高效的互学习成为可能。具体来说,为了在不同的数据集之间交换所学习到的粗粒度信息,我们共享了GPM前两级的网络权值并使用跨数据集的多粒度标签,使得所提出的Grapy-M1模型可以学习到更具区分性的特征表示并获得

8、了最先进的性能。这点在三个流行基准(例如:CIHP数据集)的大量实验中得到了证明。源代码已经对外公开,参见:特征图:提出的Gmpy-M1图三:多元贝叶斯非负矩阵分解摘要:由于具有诱导含有语义的基于部位的表示的能力,非负矩阵分解(NMF)已被广泛应用于各种场景。但是,由于其目标函数的非凸性,部位分解通常不是唯一的,因此可能无法准确地发现数据内在的“部位二在本文中,我们使用贝叶斯框架来处理这个问题。首先,基于有用部位应该是有区别的且覆盖性广的假设,赋予分解中的多个部位多元性先验,从而来诱导分解部位的正确性。其次,包含这种多元性先验的贝叶斯框架被建立了起来。该框架得到的分解部位既有极大似然诱导的较高

9、的数据适合度,又有多元性先验带来的较高的可分离性。具体来说,多元性先验通过行列式点过程(DPP)建模,并无缝嵌入到贝叶斯NMF框架中。推断基于蒙特卡洛马尔可夫链(MCMC)的方法。最后,我们通过一个合成数据集和一个用于多标签学习(M11)任务的实际数据集-MU1AN.展示了该方法的优越性。特征图:提议的架构的图示四:生成-判别互补学习摘要:目前最先进的深度学习方法大多是对给定输入特征的标签的条件分布进行建模的判别法。这种方法的成功在很大程度上依赖于高质量的带标签的实例,此类实例并不容易获得,特别是在候选类别数量增加的情况下。本文研究了互补学习问题。与普通标签不同,互补标签很容易获得,因为注释器

10、只需要为每个实例随机选择的候选类别提供一个“是/否”的答案。我们提出了一种生成-判别互补学习方法。该方法通过对条件(判别)分布和实例(生成)分布的建模,对普通标签进行估计。我们将该方法称为互补条件生成对抗网络(CCGAN)。这种方法提高了预测普通标签的准确性,并能够在弱监督的情况下生成高质量的实例。除了大量的实证研究外,我们还从理论上证明,我们的模型可以从互补标记数据中检索出真实的条件分布。特征图:模型结构计算机视觉顶会CVPR2023将于6月14H-19日在美国西雅图举行,今年的论文录取率降至22.1%(2019年录取率25.1%,2018年录取率29.6%)o虽然论文录取难度逐年增大,但是优必选悉尼大学人工智能中心在CVPR的成绩依旧斐然,后续将会带来12篇录取论文的详细介绍。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 汇报材料

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服