当前位置: 首页 > 科学研究 > 学术活动 > 正文
一阶优化方法专题学习班
发布时间:2018-06-07 00:00  作者: 本站原创  初审:  复审:  来源:本站原创  浏览次数:

《First-Order Methods in Optimization》专题学习班

主讲人:王宪福 教授 (西南大学与加拿大英属哥伦比亚大学)

时间:2018年6月10日—19日 14:00

地点:25教16楼学习室7

授课对象:研究生、高年级本科生

学习内容:

1. Vector Spaces.

2. Extended real-valued functions

3. Subgradients

4. Conjugate functions

5. Smoothness and strong convex

6. The proximal Operator

7. Spectral Functions

8. Primal and Dual Projected Subgradient Methods

9. Mirror Descent

10. The proximal gradient method

11. The Block Proximal Gradient Method

12. Dual-Based Proximal Gradient Methods

13. The Generalized Conditional Gradient Method

14. Alternating Minimization

15. ADMM

参考书:

1. A. Beck, First-Order Methods in Optimization, MOS-SIAM Series on Optimization, 2017

2.H.H. Bauschke, P.L. Combettes, Convex Analysis and Monotone Operator Theory in Hilbert Spaces, Second Edition, Springer, 2017

授课人简介:Xianfu Wang(王宪福),西南大学兼职教授、加拿大英属哥伦比亚大学数学系终身教授,博士生导师。1986年本科毕业于兰州大学并获学士学位,1999年研究生毕业于加拿大西蒙弗雷泽大学并获博士学位,曾先后在加拿大卡普顿大学、奥提根大学、英属哥伦比亚大学任助教、副教授、教授等职,以及加拿大太平洋数学研究所(Pacific Institute for the Mathematical Sciences–PIMS)的负责人之一。王教授主要从事变分分析、非光滑分析、凸分析与优化等研究,先后主持了加拿大国家研究项目等近20项,在《Mathematical Programming》、《SIAM Journal of Optimization》、《Foundations of Computational Mathematics》、《Mathematics of Computation》、《Transactions of The Americal Mathematical Society》、《Journal of Functional Analysis》等重要学术刊物上发表论文60余篇,担任《Communications in MathematicalAnalysis》、《Journal of Convex Analysis》等期刊副主编(编委)。2013年入选巴渝海外引智计划专家。