首页»首页» 新闻动态

2018-07-02|访问量:|[返回]

北京大学举办首届理论机器学习国际青年学者论坛

2018年6月15日-16日,由北京大学学科建设办公室资助,数学科学学院和信息科学技术学院主办的“理论机器学习国际青年学者论坛”在镜春园82号院甲乙丙楼北京国际数学研究中心报告厅举行。本次研讨会的目的是研究机器学习理论中的挑战,促进该领域专家和研究人员之间的交流合作,特别是促进与海外优秀青年学者之间的合作,提升北京大学在该领域的发展。会议由北京大学鄂维南院士、高文院士和张平文院士担任学术程序委员会主席,信息科学技术学院王立威教授和数学科学学院张志华教授共同组织会议,100位北京大学的师生出席了研讨会。

会议邀请到机器学习领域,来自南加州大学、新加坡高性能计算研究所、爱荷华大学、Google、加州理工学院、康奈尔大学、德克萨斯大学奥斯汀分校、佐治亚理工学院、普林斯顿大学、麻省理工学院等12位海外优秀青年学者参会并作报告分享了他们的最新研究工作。报告内容包括机器学习的参数化非凸优化、深度强化学习、序列建模、Bandit算法、随机梯度下降、变分梯度的可扩展预测推理、有限监督的文本结构、平均场最优控制问题、黎曼优化方法的复杂度分析等领域。报告引起了与会人员的广泛兴趣,并展开了热烈讨论。研讨会还组织了学生报告环节,来自北京大学的2名博士生和2名本科生分别介绍了他们近期的研究工作。

会议召开之前,举行了授予加州大学伯克利分校Michael I. Jordan北京大学名誉教授仪式。北京大学副校长田刚院士为Jordan教授颁发了证书。数学科学学院院长陈大岳教授主持了授予仪式。Jordan教授和鄂维南教授分别题为On Gradient-Based Optimization: Accelerated, Nonconvex and Stochastic“Understanding the mysteries behind deep learning的学术报告。

会议期间,各位报告嘉宾到北京大数据研究院参访,并与鄂维南院士和北京大学相关老师进行了工作午餐交流,就机器学习领域的学术前沿领域和人才培养等问题展开了深入探讨。

北京大学计划明年举办第二届理论机器学习国际青年学者论坛。

合影留念

 

 

 会议日程:

Machine Learning Theory Workshop

June 15-16, 2018

15-Jun

Morning

09:00-09:15

Opening Ceremony

09:15-09:55

Michael I. Jordan  (University of California, Berkeley)

On Gradient-Based Optimization: Accelerated, Nonconvex and Stochastic

09:55-10:35

Weinan E  (Peking University, Beijing Institute of Big Data Research)

Understanding the mysteries behind deep learning

10:35-10:45

Break

10:45-11:25

Haipeng Luo (University of Southern California)

Logistic Regression: The Importance of Being Improper

11:25-12:05

Qianxiao Li (Institute of High Performance Computing, Singapore)

An optimal control approach to deep learning

Lunch Time

Afternoon

14:00-14:40

Tianbao Yang (University of Iowa)

First-order Stochastic Algorithms for Finding Local Minimum of Non-Convex Optimization

14:40-15:20

Lihong Li (Google)

SBEED: Convergent Reinforcement Learning with Nonlinear Function Approximation

15:20-15:30

Break

15:30-16:10

Chong Wang (Google)

Sequence Modeling via Segmentations

16:10-16:50

Yanan Sui (California Institute of Technology)

Safe Bandit Optimization: Theory, Algorithms, and Clinical Trials

16:50-17:30

Yang Yuan (Cornell University)

An alternative view: When does SGD escape local minima

18:00-20:00

Banquet

16-Jun

Morning

08:30-09:10

Qiang Liu (University of Texas at Austin)

Scalable Probalistic Inference with Stein Variational Gradient

09:10-09:50

Tuo Zhao (Georgia Tech)

Towards Understanding Overparameterized Nonconvex Optimization in Machine Learning

09:50-10:30

Xiang Ren (University of Southern California)

Learning Text Structures with Limited Supervision

10:30-10:40

Break

10:40-11:20

Jiequn Han (Princeton University)

Deep Learning as Mean-Field Optimal Control

11:20-12:00

Hongyi Zhang (MIT)

Iteration complexity analysis for Riemannian optimization methods

Lunch Time

Afternoon

14:00-14:30

Lei Wu (Peking University)

How SGD selects the global minima in over-parameterized learning: A stability perspective

14:30-15:00

Luo Luo (Shanghai Jiao Tong University)

Regularized Matrix Approximation

15:00-15:30

Zhou Lu (Peking University)

On the expressive power and generalization of deep learning

15:30-15:45

Break

15:45-16:15

Yiping Lu (Peking University)

Control perspective of deep learning with application in image reconstruction and classification

16:15-16:45

Zichao Long (Peking University)

PDE-Net: Learning PDEs from Data

 

 

相关附件:
  • Schedule.xlsx