【2025CCF中国开源大会】开源大模型与系统分论坛重磅来袭!
在人工智能浪潮席卷全球的今天,“百模大战”已进入深水区,开源大模型正成为引领技术创新与产业变革的核心引擎。从追求更强的通用智能,到探索多模态融合的无限可能,再到实现百万级上下文窗口的突破,模型的每一次迭代都在重新定义AI的边界。一个以开源模型为核心的繁荣生态正在加速形成。这些激动人心的模型创新,其背后也离不开工程与系统的支撑。如何高效地训练和部署这些日益强大的模型,是将其转化为实际生产力的关键一环。
因此,2025 CCF中国开源大会特别设立“开源大模型与系统”论坛。我们旨在聚焦最前沿的开源大模型进展,同时分享支撑这些模型实现的关键技术与实践经验。我们坚信,顶尖的模型思想与卓越的工程实践相结合,是推动开源AI走向更广阔星辰大海的必由之路。
论坛亮点抢先看
星光熠熠:顶尖团队一线解密
汇聚国内大模型赛道最具代表性的产学研力量,来自月之暗面 、阶跃星辰、蚂蚁集团、字节跳动、清华大学等公司和高校的核心技术专家将同台,分享他们在模型架构设计、训练策略和系统工程上的最新开源成果与“独家”实战经验,为您带来最前沿、最真实的技术内幕。
硬核攻坚:直击大模型系统瓶颈
本论坛议题不仅覆盖如何构建“生成理解一体化”的新型多模态架构以及百万级超长上下文技术,还将深入剖析驱动大模型能力跃迁的底层系统“硬核技术”。
产研共振:洞见开源生态未来
本论坛不仅是技术的展示,更是产学研思想的交融。聆听顶尖高校如何将前沿研究转化为强大的开源项目,倾听头部企业如何解决真实场景中的工程难题。在这里,理论与实践将激烈碰撞,共同探索模型与系统协同发展的最优路径,为下一代开源大模型技术的发展指明方向。
论坛主旨
本论坛旨在汇聚国内大模型领域的顶尖力量,聚焦“开源大模型”与“支撑系统”两大核心议题,打造一个深度技术交流与前瞻思想碰撞的平台。我们荣幸地邀请到了来自月之暗面、阶跃星辰、蚂蚁集团、字节跳动、清华大学等国内头部人工智能厂商和顶尖大学的核心技术专家。他们将分享各自在开源大模型研发、系统优化与产业实践中的最新突破和一线洞见,共同探讨模型与系统协同演进的技术路径,为中国开源大模型生态的健康、快速发展贡献智慧与力量,为与会者呈现一场不容错过的思想盛宴。
发起人
章明星
清华大学助理教授,主要从事内存系统研究,开源项目 Mooncake 和 KTransforemers 发起人。相关成果在国际顶级会议和期刊上发表论文三十余篇,包括 FAST 最佳论文,SIGSOFT 杰出论文,和国内高校首篇 OSDI。曾获得 ChinaSys 新星和优博奖,IEEE TCSC 优博,入选中国科协青年人才托举计划,科技部重点研发项目课题负责人。曾任深信服首席算法技术专家,创新研究院院长,相关孵化产品应用于数万家客户。
糜泽羽
上海交通大学副教授/博士生导师,主要研究领域为大模型系统和操作系统。相关成果在 OSDI、SOSP等国际顶级会议和期刊,受邀担任SOSP、ASLPOS等国际顶级会议程序委员会委员。研究成果开源项目PowerInfer在GitHub星标为8.2K。发布的世界首个手机侧可部署的深度思考模型SmallThinker曾在HuggingFace趋势总榜排名第二,7天下载量突破10万。
议程速览
嘉宾与报告介绍
杜羽伦
月之暗面Kimi预训练负责人。月之暗面Kimi致力于寻求将能源转化为智能的最优解,通过产品与用户共创智能,实现普惠AI。
Kimi K2: Open Agentic Intelligence
Kimi K2是月之暗面Kimi团队面向Agentic Intelligence时代推出的开源大模型,采用MoE架构,具备总参数规模1万亿,激活参数320亿,拥有更强的代码理解与生成能力,并在通用Agent任务上展现出卓越性能。其预训练阶段采用MuonClip优化器,有效支撑了万亿参数模型的稳定高效训练,并在高质量人类数据成为瓶颈的背景下,显著提升了Token利用效率,探索出新的Scaling空间。Kimi K2在后训练过程中,结合创新的大规模Agentic Tool Use数据合成,以及引入自我评价机制的通用强化学习方法,进一步增强了模型的通用与工具使用能力。本次分享将重点介绍Kimi K2的开源进展,并深入剖析其背后所采用的关键技术与创新思路。
俞刚
毕业于新加坡南洋理工大学, 博士毕业之后先后在旷视科技负责计算机视觉中的感知理解问题(Detection/Segmentation), 腾讯负责QQ中AI能力的研发和落地,目前在阶跃星辰负责AIGC相关方向的算法研究和应用落地。Google Scholar引用次数超过2w次,并且是顶级会议CVPR的领域主席。
生成理解一体化下的图片生成和编辑
2025 年 3 月发布的 GPT-4o Image Generation 模型,充分展现了生成理解一体化模型在图像生成领域的技术成效。本次分享聚焦开源生态下生成理解一体化模型的探索实践,重点探讨在该技术架构下,如何突破传统扩散模型在文生图与图片编辑任务中的局限性,推动多模态生成技术的创新突破。
张志强
蚂蚁集团基础智能部技术总监、Ling语言基座负责人,主要研究方向包括大语言模型、图机器学习、188体育app官网:、分布式机器学习等。负责蚂蚁集团多个智能系统建设,包括大语言模型Ling、超大规模图学习系统AGL等。相关技术成果在NeurIPS、ICML、VLDB、ACL等国际会议期刊发表论文100余篇,授权发明专利40余项,获吴文俊人工智能科技进步一等奖(2020)和电子学会科学技术奖-科技进步一等奖(2022)。
Scaling Ling models
Ling(中文:百灵)是蚂蚁集团 Ling Team 研发并在 InclusionAI 社区开源的基础模型,包含语言基座Ling、推理基座Ring、多模态基座Ming等。本次报告主要介绍 Ling 模型的开源进展,重点分享研发团队在模型 scaling 过程中遇到的挑战,以及 Ling Team 针对这些挑战研发的Ling scaling law、data & training infra、stable RL training等一系列关键技术。
巫锡斌
毕业于北京科技大学,字节跳动技术专家。专注于大规模分布式、机器学习系统研发,开源社区veRL开发者,Ray、OpenRLHF贡献者。
veRL: 灵活高效的大模型RLHF框架
随着RLHF在复杂任务中广泛应用,其面临的挑战日益凸显。本报告系统分析RLHF规模化瓶颈,并介绍针对这些挑战设计和实现的veRL框架。进一步,我们探索智能体导向的强化学习(Agentic RL)实践范式:retool,并探讨从GRPO向DAPO的理论演进,为下一代RLHF系统的工程落地提供全新方法论支撑。
肖朝军
清华大学自然语言处理实验室博士后,研究方向是高效大模型架构,以第一作者或共同一作身份,在人工智能国际顶级会议上发表论文十余篇,是高效端侧大模型MiniCPM4的主要作者。谷歌学术引用3000余次,曾获钱伟长中文信息处理科学技术奖一等奖,博士后创新人才支持计划,腾讯犀牛鸟精英人才计划杰出奖学金等荣誉。
MiniCPM4:高效端侧大模型
随着人工智能技术的快速发展,大模型在端侧设备上的部署需求日益迫切。然而,传统的大模型往往面临计算资源消耗巨大、推理速度缓慢等挑战,难以在资源受限的端侧环境中有效运行。MiniCPM4作为专门针对端侧设备优化设计的高效大模型,为解决这一关键问题提供了解决方案。MiniCPM4的核心创新体现在四个关键维度的系统性突破。在模型架构层面,InfLLM v2可训练稀疏注意力机制能够显著加速长上下文处理过程中的预填充和解码阶段。在训练数据方面,UltraClean高效数据过滤策略使得仅需8万亿词元即可达到令人满意的模型性能。在训练算法优化方面,模型风洞实现了高效的预训练策略搜索,分段的探索采样实现了负载均衡的强化学习和三值量化后训练BitCPM实现了参数存储的极限瘦身。在推理系统层面,CPM.cu推理引擎集成了稀疏注意力、模型量化和投机采样等技术,大幅提升了模型的推理效率。在典型的端侧芯片上测试结果表明,相比于Qwen3-8B,MiniCPM4能够实现5倍以上的推理加速。
大会现已开启注册报名通道,欢迎大家踊跃报名!
报名网址:https://ccf.org.cn/2025COSC
报名二维码:
大会时间: 2025年8月2日-3日
大会地点:中国 上海 西岸国际会展中心(上海市徐汇区龙耀路7号)
主办单位:中国计算机学会(CCF)
承办单位:CCF开源发展技术委员会、上海交通大学
CCF中国开源大会
由中国计算机学会主办的2025 CCF中国开源大会(CCF ChinaOSC)拟于2025年8月2日-3日在上海召开。本届大会以“蓄势引领、众行致远”为主题,由中国科学院院士、上海交通大学校长丁奎岭院士和中国科学院院士、CCF开源发展技术委员会主任王怀民院士共同担任大会主席,上海交通大学陈海波教授、重庆大学文俊浩教授担任执行主席。本届大会将依托上海国际化创新生态与科技产业集聚优势,汇聚郑纬民、陈左宁等院士,以及金海、陈云霁、包云岗、胡欣蔚等多位来自高校/企业的开源领军人物(更多嘉宾正在确定中),共同探索开源操作系统、开源芯片、开源大模型、开源具身智能等关键领域的前沿发展。通过开放协作与跨界融合,激发技术创新活力,推动产业数字化升级,为数字经济发展注入新动能。
作为中国开源领域的年度盛会,大会诚挚地邀请开源领域学术界、企业界、教育界的学者、从业者、师生等前来参会,共见中国开源新征程!