ADL156《DeepSeek与大模型深度思考技术》开启报名
CCF学科前沿讲习班
The CCF Advanced Disciplines Lectures
CCF ADL第156期
主题 DeepSeek与大模型深度思考技术在本期CCF学科前沿讲习班ADL156《DeepSeek与大模型深度思考技术》中,我们将系统探讨大模型深度思考与逻辑推理的核心技术及其前沿进展。本期ADL内容聚焦从推理模型的基础理论(如思维链增强与强化学习),到复杂决策任务的算法突破;从单智能体的推理能力优化,到工业级高性能计算架构支撑;从学术研究的前沿探索,到产业落地的关键技术路径等多个维度。通过理论与实践结合的讲解,我们致力于帮助学员深入理解大模型推理技术的核心机制,掌握强化学习与思维链融合的创新方法(如DeepSeek R1的规则驱动训练范式),并洞察其在科学发现等领域的应用潜力。参与者将通过本讲习班构建从技术原理到工程实践的完整知识体系,推动AI从语言理解向深度推理的跨越式发展。
本期ADL讲习班邀请了7位来自国内外著名高校活跃在前沿领域的专家学者做主题报告。第一天,中国人民大学的赵鑫教授和南京大学的俞扬教授将探讨大模型慢思考的基本原理、强化学习技术的基本知识和面向语言模型的强化学习应用。第二天,来自上海交通大学的刘鹏飞老师将介绍认知工程与测试时计算扩展的深度思考突破。清华大学的章明星老师将介绍深思考模型对AI基础设施的机遇。第三天,来自香港科技大学的何俊贤老师和清华大学的孙友邦、丁宁老师将分别介绍团队在理解和实验深思考模型的最新发现、强化学习的关键理论、融合密集监督的强化学习方法。通过三天教学,旨在面向学员全面梳理大模型的强化学习、深度思考和推理技术的基础知识、前沿动态、未来发展和创新应用。
学术主任:刘知远 长聘副教授 清华大学
主办单位:中国计算机学会
本期ADL主题《DeepSeek与大模型深度思考技术》,由CCF高级会员、清华大学长聘副教授刘知远担任学术主任,邀请到赵鑫(中国人民大学教授)、俞扬(南京大学教授)、刘鹏飞(上海交通大学副教授)、章明星(清华大学助理教授)、何俊贤(香港科技大学助理教授)、孙友邦(清华大学助理研究员)、丁宁(清华大学博士后)等7位专家做专题讲座。
活动日程:
2025年4月11日(周五) | |
9:00-9:10 | 开班仪式 |
9:10-9:20 | 全体合影 |
9:20-11:30 | 专题讲座1:大模型慢思考技术探讨 赵鑫 中国人民大学 |
12:00-13:30 | 午餐 |
13:30-16:30 | 专题讲座2:RL for LLM:面向语言模型的强化学习 俞扬 南京大学 |
2025年4月12日(周六) | |
9:00-12:00 | 专题讲座3:大模型的第二幕:认知工程与测试时计算扩展的深度思考突破 刘鹏飞 上海交通大学 |
12:00-13:30 | 午餐 |
13:30-16:30 | 专题讲座4:深度思考模型带来的AI基础设施挑战与机遇 章明星 清华大学 |
2025年4月13日(周日) | |
9:00-12:00 | 专题讲座5:通过强化学习自我提升推理性能和效率 何俊贤 香港科技大学 |
12:00-13:30 | 午餐 |
13:30-14:50 | 专题讲座6:强化学习中策略梯度算法若干理论解析 孙友邦 清华大学 |
15:00-16:30 | 专题讲座7:融合密集监督的强化学习方法 丁宁 清华大学 |
学术主任
刘知远
清华大学
刘知远,清华大学计算机系长聘副教授、博士生导师、清华大学学生学习与发展指导中心主任,中国计算机学会高级会员。主要研究方向为自然语言处理、188体育app官网:和社会计算。2011年获得清华大学博士学位,已在ACL、EMNLP、IJCAI、AAAI等人工智能领域的著名国际期刊和会议发表相关论文100余篇,Google Scholar统计引用超过4.2万次。曾获2020年和2022年教育部自然科学一等奖(第2完成人)、中国中文信息学会钱伟长中文信息处理科学技术奖一等奖(第2完成人)、中国中文信息学会汉王青年创新奖,入选国家青年人才、2020-2022年Elsevier中国高被引学者、《麻省理工科技评论》中国区35岁以下科技创新35人榜单、中国科协青年人才托举工程。
特邀讲者
赵鑫
教授 中国人民大学
赵鑫,中国人民大学高瓴人工智能学院教授。2014年7月于北京大学获得博士学位,随后进入中国人民大学工作至今。研究领域为信息检索与自然语言处理,共计发表论文200余篇,谷歌学术引用3万余次,曾主导研发了玉兰系列大语言模型,组织编写了大语言模型综述论文《A Survey of Large Language Models》(预印版文章)以及《大语言模型》中文书(高等教育出版社出版)。曾荣获2020年吴文俊人工智能优秀青年奖、ECIR 2021时间检验奖,CCF-IEEE CS青年科学家奖。
报告题目:大模型慢思考技术探讨
报告摘要:最近以DeepSeek-R1为代表的大模型慢思考技术受到了较大关注,慢思考模型通过生成更长的思考过程来解决更具挑战性的问题,在多个科学场景和应用领域都取得了重要突破。本次报告将聚焦大模型慢思考的基础技术与实现方法,对于其中可能涉及到的技术路径进行探索和系统性讲解,主要介绍以强化学习为主线的关键技术,并结合自身实践经验讨论其中的技术挑战,然后探讨推理模型的科学价值,并且总结现阶段推理模型的局限以及未来的技术发展趋势。
俞扬
教授 南京大学
俞扬,南京大学人工智能学院教授。主要从事人工智能、机器学习、强化学习方向的研究,在中国计算机学会推荐A类期刊会议上发表论文百余篇,工作获5项国际论文奖、3项国际算法竞赛冠军。入选国家青年人才计划、IEEE“国际人工智能十大新星”,获CCF-IEEE青年科学家奖,首届亚太数据挖掘“青年成就奖”,并受邀在国际人工智能联合大会 IJCAI 2018上作“青年亮点报告”。
报告题目:RL for LLM:面向语言模型的强化学习
报告摘要:强化学习作为一种以目标为导向的学习方法,为语言模型的优化提供了新的空间,从ChatGPT开始,RL for LLM受到越来越多的关注和应用。报告将介绍强化学习基础、语言模型与强化学习的结合、面向语言模型的强化学习等,并展望RL for LLM的未来研究方向,旨在为研究者和实践者提供强化学习与语言模型结合视角。
刘鹏飞
上海交通大学
刘鹏飞是上海交通大学副教授、创智学院导师,国家海外优青。专注于自然语言的预训、生成和评估等研究方向;谷歌学术引用18000余次。提示工程(Prompt Engineering) 概念最早提出者之一,单篇引用超过5000余次。曾获得首届蚂蚁InTech科技奖等。代表作o1 journey系列,LIMA, LIMO等。
报告题目:大模型的第二幕:认知工程与测试时计算扩展的深度思考突破