188体育app官网_188体育投注

返回首页
您的位置:首页 > 新闻 > CCF新闻 > CNCC

AI的可解释和可信 | CNCC2021

阅读量:1243 2021-09-23 收藏本文

CNCC2021将汇聚国内外顶级专业力量、专家资源,为逾万名参会者呈上一场精彩宏大的专业盛宴。别缺席,等你来,欢迎参会报名!


640


【AI的可解释和可信】技术论坛


【论坛背景介绍】

近年,人工智能技术发展迅猛,已经赋能诸多行业,提高社会效率,如,对医学影像的快速处理,辅助医生诊断,在新冠期间发挥重要作用等。然而,人工智能技术在可解释和可信等方面还存在较大的进步空间。如何从软件视角看AI赋能系统的可信性;因果启发的稳定学习理论和方法对解决不稳定、不可解释等问题存在哪些机遇和挑战;进化计算与群体智能行为主义算法具有行为可观察、可感知、可认识、可解释和可调控等优势,这类人工智能算法是否会弥补连接主义算法可解释性差的不足;更多借鉴脑的结构和功能的深度学习模型是否更具可解释性;如何设计更具鲁棒性的多模态聚类算法。本论坛通过以上视角探讨相关问题。


论坛主席


赵鸿冰

博士,北京并行科技股份有限公司

AI云事业部总经理

图片

长期从事超算云与AI云研发与推广,致力于推进大规模GPU和CPU算力基础设施融合调度创新与服务模式创新,参与E级计算机关键技术验证系统和国家高性能计算环境服务化机制与支撑体系研究等科技部重大专项及国防预研项目十余项。


论坛日程安排


时间

主题

主讲

嘉宾

单位及任职

16:00-16:40

从软件视角看AI赋能系统的可信性

金芝

北京大学教授

16:40-17:15

因果启发的稳定学习

 

崔鹏

清华大学长聘副教授

17:15-17:50

可感知与可调控的大规模群体智能优化算法

詹志辉

华南理工大学教授

17:50-18:25

深度学习与神经科学的交互

胡晓林

清华大学长聘副教授

18:25-19:00

鲁棒多模态聚类算法最新进展