唐杰、文继荣领衔:预训练模型 | CNCC2021技术论坛预告
CNCC2021将汇聚国内外顶级专业力量、专家资源,为逾万名参会者呈上一场精彩宏大的专业盛宴。别缺席,等你来,欢迎参会报名!
【预训练模型】技术论坛
【论坛背景介绍】
大规模预训练模型通过学习海量互联网无标注数据,获得了强大的文本理解与生成能力。近年来,BERT等预训练模型在自然语言处理等诸多领域取得了极大地进展。随着超大规模预训练模型GPT-3、悟道的发布,预训练模型在自然语言理解以及生成能力上再次被推至新的高峰。
预训练语言模型家族谱
在预训练模型如火如荼的发展背景下,为了帮助研究人员更好地了解预训练模型的相关前沿进展,本次论坛共邀清华大学、中国人民大学等机构的专家学者与国内其他预训练模型研究团队代表共同研讨预训练模型的进展、挑战与机遇。
按报告时间顺序为:清华大学计算机系教授、系副主任唐杰(IEEE Fellow);中国人民大学信息学院院长、高瓴人工智能学院执行院长文继荣教授;清华大学计算机科学与技术系长聘副教授、智能技术与系统实验室副主任黄民烈博士;中国人民大学信息学院计算机系副教授张静;清华大学计算机科学与技术系助理研究员韩文弢;清华大学计算机科学与技术系六年级博士生裘捷中。
论坛主席
论坛日程安排
时间 |
主题 |
主讲嘉宾 |
单位及任职 |
19:00-19:30 |
悟道—超大规模预训练模型 |
唐杰 |
清华大学计算机系教授、系副主任 |
19:30-20:00 |
悟道?文澜:超大规模多模态预训练改变了什么? |
文继荣 |
中国人民大学信息学院院长、高瓴人工智能学院执行院长 |
20:00-20:30 |
基于大规模预训练模型的开放域对话系统EVA |
黄民烈 |
清华大学计算机科学与技术系长聘副教授 |
20:30-21:00 |
基于预训练语言模型的188体育app官网:推理研究 |
张静 |
中国人民大学信息学院计算机系副教授 |
21:00-21:30 |
面向预训练模型的全流程高效计算框架探索 |
韩文弢 |
清华大学计算机科学与技术系助理研究员 |
21:30-22:00 |
FastMoE:开源大规模分布式 MoE 训练框架
|
裘捷中 |
清华大学计算机科学与技术系六年级博士生 |
讲者介绍