AI的可解释和可信 | CNCC2021
CNCC2021将汇聚国内外顶级专业力量、专家资源,为逾万名参会者呈上一场精彩宏大的专业盛宴。别缺席,等你来,欢迎参会报名!
【AI的可解释和可信】技术论坛
【论坛背景介绍】
近年,人工智能技术发展迅猛,已经赋能诸多行业,提高社会效率,如,对医学影像的快速处理,辅助医生诊断,在新冠期间发挥重要作用等。然而,人工智能技术在可解释和可信等方面还存在较大的进步空间。如何从软件视角看AI赋能系统的可信性;因果启发的稳定学习理论和方法对解决不稳定、不可解释等问题存在哪些机遇和挑战;进化计算与群体智能行为主义算法具有行为可观察、可感知、可认识、可解释和可调控等优势,这类人工智能算法是否会弥补连接主义算法可解释性差的不足;更多借鉴脑的结构和功能的深度学习模型是否更具可解释性;如何设计更具鲁棒性的多模态聚类算法。本论坛通过以上视角探讨相关问题。
论坛主席
论坛日程安排
时间 | 主题 | 主讲 嘉宾 | 单位及任职 |
16:00-16:40 | 从软件视角看AI赋能系统的可信性 | 金芝 | 北京大学教授 |
16:40-17:15 | 因果启发的稳定学习
| 崔鹏 | 清华大学长聘副教授 |
17:15-17:50 | 可感知与可调控的大规模群体智能优化算法 | 詹志辉 | 华南理工大学教授 |
17:50-18:25 | 深度学习与神经科学的交互 | 胡晓林 | 清华大学长聘副教授 |
18:25-19:00 | 鲁棒多模态聚类算法最新进展 |