从千亿模型 GLM-130B 到 ChatGLM 的尝试|SPP第47期
本期SPP报告将分享GLM团队在千亿模型GLM-130B训练和ChatGLM研发过程的思考和尝试。GLM-130B 是一个拥有1300亿参数的中英双语预训练基座模型,架构采用通用语言模型GLM。斯坦福基础模型中心2022年11月对全球30个大模型进行的评测报告中显示,GLM-130B 在准确性和恶意性指标上与GPT-3 175B (davinci) 接近或持平,鲁棒性在所有千亿基座模型中表现优异。自2023年2月开始内测ChatGLM-130B (chatglm.cn) 千亿对话模型,并应用于大型互联网企业等,3月开源ChatGLM-6B 模型,截至5月份全球累计下载200万,连续两周Hugging Face趋势榜第一。
欢迎参加本期SPP:6月21日(本周三) 19:30-21:00
本期直播你将收获哪些
1、国内外大模型研究和技术发展的脉络
2、大模型训练和推理面临的技术挑战
3、ChatGLM团队在大模型研发过程中的探索与尝试
演讲嘉宾
东昱晓
清华大学计算机系助理教授
东昱晓,清华大学计算机系助理教授,知识工程实验室(KEG)成员,曾工作于脸书人工智能和微软总部研究院。研究方向为数据挖掘、图机器学习和预训练基础模型,相关成果应用于十亿级社交网络和188体育app官网:。入选IJCAI 22 Early Career Spotlight,获2017年ACM SIGKDD博士论文奖第三名和2022年ACM SIGKDD新星奖。
开课时间
2023年6月21日(本周三)19:30-21:00
如何报名
SPP目前暂为免费直播。点击“阅读原文”立即报名,报名可在活动当天(6月21日)15:00前获取到直播间链接,可与老师线上即时交流。