CCFADL第116期-CCF学科前沿讲习班
发布人:fanh 发布时间:2021/5/11 9:21:22  浏览次数:1099次
【字体: 字体颜色

主题:大规模预训练模型

时间:2021年5月23-25日

地点:北京-中国科学院计算技术研究所一层报告厅

主办:中国计算机学会

内容:系统性介绍大规模预训练技术最新研究进展及在视觉、语音、语言等多种模态下的预训练帮助学员理解预训练的基本概念、主要挑战和解决方法,掌握该领域包括视觉预训练、语音预训练、语言预训练以及多模态预训练的一系列前沿技术通过实际案例了解预训练的应用前景,开阔科研视野,增强实践能力。

专题讲座:

1. Transformer综述邱锡鹏,复旦大学计算机学院

2. 大规模视觉表征学习翟晓华瑞士苏黎世谷歌大脑团队

3. 预训练模型加速研究和实践尚利峰,华为诺亚方舟实验室语音语义团队

4. 自督导式学习在自然语言处理上的观察以及在语音处理上的应用李宏毅国立台湾大学电机工程学系

5. 预训练的应用场景之多模态理解与表达宋睿华中国人民大学高瓴人工智能学院

6. State-of-the-Arts, Benchmarks and Future of Pre-trained Models for Multilingual, Multimodal,Code and Generation段楠宫叶云Microsoft Research Asia)

7. 大规模中文多模态预训练模型(卢志武,中国人民大学高瓴人工智能学院)

8. 知识指导的预训练语言模型(刘知远,清华大学计算机系

9. 大规模预训练模型对AI系统的挑战和解决之道(袁进辉,北京一流科技有限公司)


报名等相关事宜:详见https://www.ccf.org.cn/Media_list/adl/


来源:中国计算机学会https://www.ccf.org.cn