关注公众号

关注公众号

手机扫码查看

手机查看

喜欢作者

打赏方式

微信支付微信支付
支付宝支付支付宝支付
×

陈左宁院士:建议尽快组织起草人工智能基本法

2022.8.09

“建议加快制定我国AI(人工智能)的法律、法规及安全伦理标准,确保AI健康、稳定发展,如尽快组织起草人工智能基本法等。”8月6日,在中国计算机学会(CCF)于苏州举行的“国家科技创新体系与计算机战略发展研讨会”上,中国工程院院士、国家并行计算机工程技术研究中心总工程师陈左宁做了题为《新一代人工智能安全与自主可控发展战略研究》的报告,并提出如是建议。她表示,该报告内容是包括中国工程院院士高文等在内的多位院士共同参与的结晶,也是中国工程院一项重大战略咨询课题的研究成果。

近年来,人工智能系统在发展和应用中暴露出大量安全问题,引发人们高度关注。中国工程院咨询课题围绕多个角度对此进行了研究。

陈左宁表示,人工智能之所以引发安全问题,主要是由于其具有学习能力,可以自主决策、自主行动。具体而言,人工智能系统中广泛应用机器学习的三个重要属性是形成人工智能系统安全问题的基本原因,如机器学习的可理解性和可解释性问题、鲁棒性问题,以及目标函数或奖励函数描述的不完备性问题。

在她看来,可以从两个角度对人工智能的安全问题进行分类。从广义上讲,人工智能安全问题包含人工智能系统作为一种人造系统(工程的系统或信息系统)的安全性问题,人工智能技术的应用造成的经济和文化的、法律和伦理的、国家和社会的安全问题,以及由于人工智能系统具有思维和自我发展能力而可能形成的对人类整体的安全威胁。

此外,人工智能安全问题还可以分为内生安全问题和衍生安全问题。内生安全问题是指人工智能系统本身由于设计、制造、使用环境或受到攻击所产生的安全问题。衍生安全则是指由于人工智能技术的应用而衍生出来的对其他系统安全性的影响问题。

推荐
热点排行
一周推荐
关闭