机器学习联合研讨计划(2020-2022)
http://www.smartchair.org/hp/JSML2020      2020年 10月24日 ~ 2022年 6月30日     中国合肥/北京/上海  

机器学习联合研讨计划(2020-2022)

 

本联合研讨计划旨在为国内优秀学生和青年教授,整合国内外优质的教学和科研资源,创造全球顶级的学习和科研环境及科研平台,使其成为机器学习以及相关领域最优秀的青年人才。第一阶段的基础课程请见“历史活动”。

 

当前第二阶段的主要目的是邀请国内外在机器学习领域最活跃的研究人员系统介绍机器学习研究的最新进展和最前沿的科学问题。主要内容包括:机器学习的基础研究、机器学习在科学问题的应用和机器学习在工业领域的应用。研讨班每两周举行一次。每次邀请两位学者给报告。

 

组织委员会:鄂维南,董彬,高卫国,黄忠亿,王涵,许志钦,杨周旺,张林峰。

 

 本活动使用的会议软件:讯飞听见(下载和安装指南

最新版本下载地址:https://meeting.iflyrec.com/download.html

 

2021年4月17日,9:30-11:30

 

报告人:李千骁(新加坡国立大学)

题目: Machine Learning and Dynamical Systems(Slide录屏 提取码:uknh

摘要: In this talk, we discuss some recent work on the connections between machine learning and dynamical systems. These come broadly in three categories, namely machine learning via, for and of dynamical systems, and here we will focus on the first two. In the direction of machine learning via dynamical systems, we introduce a dynamical approach to deep learning theory with particular emphasis on its connections with control theory. In the reverse direction of machine learning for dynamical systems, we discuss the approximation and optimization theory of learning input-output temporal relationships using recurrent neural networks, with the goal of highlighting key new phenomena that arise in learning in dynamic settings. If time permits, we will also discuss some applications of dynamical systems on the analysis of optimization algorithms commonly applied in machine learning.

 

报告人:许志钦(上海交通大学)

题目:理解神经网络的训练过程(Slide录屏 提取码:uknh

摘要:仅从逼近论角度,一个过参数化的神经网络可以有无穷多组解使得训练集的误差最小。而实际训练过程,神经网络似乎总能找到泛化不错的解。为了理解神经网络如何从无穷多种可能中学到一类泛化好的解,我们有必要理解找到解所经历的训练过程。本次报告,我将介绍关于神经网络训练过程的一些进展,比如神经网络在训练过程中的复杂度变化,频率行为以及初始化如何影响训练。最后,我将讨论一些公开问题,探索从训练过程理解神经网络的发展趋势。

 

讯飞听见会议号:914370

讯飞听见会议密码:123456

链接:https://meeting.iflyrec.com/meeting/appoint?JkdATeHQEb11

 

2021年4月3日,9:30-11:30

讲座:利用深度学习求解高维控制问题

主讲:韩颉群(普林斯顿大学)(录屏 提取码:8cjd

摘要:近年来深度学习的蓬勃发展为我们求解高维计算提供了新的强有力工具,其中梯度反向传播和随机梯度下降的算法为我们求解最优神经网络提供了高效的算法。本报告将先以控制论的视角来分析神经网络,探讨求解最优神经网络和最优控制问题的相似点以及上述算法对于我们求解高维控制问题的启发。在此启发下我们会展示两个利用深度学习求解高维控制问题的工作,(1) 求解基于模型的高维随机控制问题;(2) 结合倒向随机方程的变分形式求解抛物类偏微分方程。这些算法相比于以往的受限于维数灾难的传统算法体现出巨大的计算优势,大幅度提高了我们处理一大类高维问题的计算能力。最后我们会讨论一些相关方向的未解决问题帮助大家对这个领域有更好的理解。

讲座:神经网络和高维函数逼近

主讲:吴磊(普林斯顿大学)(录屏 提取码:8cjd

摘要:近年来,以神经网络模型为基础的深度学习方法在不同领域取得了前所未有的成功, 例如计算机视觉、科学计算等。从逼近论的角度来说,这些成功依赖于神经网络强大的逼近高维函数的能力。而我们知道传统方法在逼近高维函数时必然会遭受维数诅咒。 这是否表明神经网络在某种意义下可以避免维数诅咒?如果可以,那么背后的机制又是什么呢? 我们将围绕kernel方法、两层神经网络和深度残差网络三个模型来讨论这些问题。 特别地,我们将刻画每个模型所逼近的高维函数空间。最后,我们会罗列一些公开问题帮助大家对这个领域有个整体理解。

会议号:914370

会议密码:098765

链接:https://meeting.iflyrec.com/meeting/appoint?lkczz1A8N0c5&language=cn


Online Conference Registration         Powered by SmartChair System