CCFADL第116期-CCF学科前沿讲习班
发布人:fanh 发布时间:2021/5/11 9:21:22 浏览次数:1099次
主题:大规模预训练模型
时间:2021年5月23-25日
地点:北京-中国科学院计算技术研究所一层报告厅
主办:中国计算机学会
内容:系统性介绍大规模预训练技术最新研究进展及在视觉、语音、语言等多种模态下的预训练;帮助学员理解预训练的基本概念、主要挑战和解决方法,掌握该领域包括视觉预训练、语音预训练、语言预训练以及多模态预训练的一系列前沿技术;通过实际案例了解预训练的应用前景,开阔科研视野,增强实践能力。
专题讲座:
1. Transformer综述(邱锡鹏,复旦大学计算机学院)
2. 大规模视觉表征学习(翟晓华,瑞士苏黎世谷歌大脑团队)
3. 预训练模型加速研究和实践(尚利峰,华为诺亚方舟实验室语音语义团队)
4. 自督导式学习在自然语言处理上的观察以及在语音处理上的应用(李宏毅,国立台湾大学电机工程学系)
5. 预训练的应用场景之多模态理解与表达(宋睿华,中国人民大学高瓴人工智能学院)
6. State-of-the-Arts, Benchmarks and Future of Pre-trained Models for Multilingual, Multimodal,Code and Generation(段楠、宫叶云,Microsoft Research Asia)
7. 大规模中文多模态预训练模型(卢志武,中国人民大学高瓴人工智能学院)
8. 知识指导的预训练语言模型(刘知远,清华大学计算机系)
9. 大规模预训练模型对AI系统的挑战和解决之道(袁进辉,北京一流科技有限公司)
报名等相关事宜:详见https://www.ccf.org.cn/Media_list/adl/。
(来源:中国计算机学会https://www.ccf.org.cn)