生成式人工智能对认知安全的影响 | YEF2024
扫描报名二维码:
(扫码报名)
生成式人工智能对于人类认知的影响不断增强和延伸,例如,提供虚假错误信息、展现歧视性或侵略性观点、隐私保护问题等。
在认知安全维度,美国政治风险咨询公司欧亚集团在其2023年全球风险指数报告中将生成式人工智能称为“大规模干扰性武器”。生成式人工智能可被恶意行动者操纵,微小的安全隐患可能会引发巨大损害,因而,如何保障人工智能安全备受各界关注。
本论坛邀请相关领域的学术界和企业界一线专家,聚焦生成式人工智能发展中的安全挑战与问题,涵盖大模型安全框架和实践做法、人工智能伦理和价值对齐等方面前沿研究进展,并展望了大模型安全与伦理未来趋势,旨在促进生成式人工智能有序向善发展。
论坛安排
顺序 | 主题 | 主讲嘉宾 | 单位 |
1 | 大语言模型是实现AGI的必由之路吗 | 张奇 | 复旦大学 |
2 | 讯飞认知智能大模型进展及安全实践 | 王士进 | 科大讯飞股份有限公司 |
3 | 代码大模型中数据安全的“攻”与“防” | 高翠芸 | 哈尔滨工业大学(深圳) |
4 | 大模型与安全 | 唐梦云 | 腾讯科技股份有限公司 |
执行主席