关注公众号

关注公众号

手机扫码查看

手机查看

喜欢作者

打赏方式

微信支付微信支付
支付宝支付支付宝支付
×

可信可控可用,人工智能呼唤创新的“治理技术”

2022.12.14

“人工智能改变了安全格局,进一步扩大了威胁,需要从多个层面进行风险管控。”在近日举办的第三届人工智能合作与治理国际论坛上,针对目前人工智能带来的风险和挑战,中国工程院院士、鹏城实验室主任高文认为,应当在人的层面应加强伦理教育;在模型算法层面,期望它可信、可控、可解释并且被正当使用;在数据层面,期望数据具有充足的系统防护保证其安全。

当人工智能进入从高速增长向高质量增长转变的新发展阶段,对人工智能技术的安全性和可靠性提出了更多新要求。

在以“人工智能治理技术”为主题的第二场主论坛讨论上,与会专家共同探讨如何通过技术工具来实现人工智能可知、可信、可控和可用,以及如何将产业监管要求转化为技术解决方案,开发针对人工智能行业或应用的“治理技术”与服务。

建设可信赖人工智能

高文认为,强人工智能安全风险来源于三个方面,一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。对于这些,一方面要在设计及应用阶段采取预防和检测措施,另一方面要加强国际合作,相互取长补短,还要加强人才培养。

对于数据安全问题,他认为隐私保护和数据有效使用是一对矛盾,需要做到平衡,鹏程实验室所采用的“防水堡”技术,对于保护模型训练数据安全共享和使用提供了解决思路,该技术可以做到只分享价值,不分享数据,在保证原始数据不移动的情况下也能够使数据可用。

哥伦比亚大学常务副校长、计算机科学系教授周以真介绍了正在推动的“值得信赖的人工智能”研究议程,目的在于把人工智能社区、网络安全社区和正式方法社区三个社区聚集在一起。她指出,一些人工智能系统可能是脆弱和不公平的,因此需要努力实现可信赖的人工智能。

“可信赖计算意味可靠性、安全性、可用性,要考虑准确性、稳健性、公平性,通过问责制、透明度、可解释性、道德伦理等设置人工智能执行的任务和环境。除了必要的测试、模拟、良好的软件工程实践之外,还要构建可信系统的事后验证方法,即用数据模型、代码程序来满足我们关心的正确性属性、安全性属性、活性属性等性质,并通过列举研究问题应用形式化方法,来尝试实现人工智能系统的可信度。”周以真说。

清华大学智能产业研究院国强教授、首席研究员聂再清认为,安全可信是人工智能治理的核心诉求,安全可信的人工智能技术产品需要具备安全可控、数据资产和隐私保护、可解释性等条件。他以车路协同感知为例,讲解了自动驾驶领域如何通过多传感器的协同感知,来提升AI协同内部可靠性,从而提高AI安全性。

“例如面向营养健康管理的可解释个性化推荐,需要‘引导式’而非‘迎合式’信息推荐,提升用户依从性并充分考虑营养健康因素,避免迎合式的饮食推荐。”聂再清说。

“治理技术”创新应对风险挑战

近年来,人工智能应用领域进一步拓展,面对新兴技术可能带来的巨大收益和潜在风险,与会专家也高度关注其治理问题。

从技术角度或技术应用角度,怎样才能实现人工智能技术的可用、管用乃至好用?高文说:“很多技术在发展过程中,过早说哪个不能用可能会抑制技术本身的发展,现阶段更多是从道德层面做引导,尽量把一些可能的风险抑制工具想明白。”

聂再清认为,在创新和监管之间需要平衡,一方面控制技术、工具、创新的个人有责任保证工具或将创新控制在危险可控范围内;另一方面社会也要集体监督,确保某个出现问题的产品或技术能够回滚、撤销。

“技术可解释性需要将技术发展与应用场景深度结合,在不同领域需要不同的可解释的能力及不同的可解释级别,让技术在应用场景下发挥最好的作用。”瑞莱智慧(RealAI)公司联合创始人及首席执行官田天指出。

新技术往往会给现有社会伦理规范带来冲击,现阶段是否有必要设计一部分可操作具体规则,特别是将伦理准则嵌入到人工智能产品与系统研发设计中?

田天表示,在发展的阶段需要鼓励为主,各种人工智能难免涉及到一些模糊地带,一方面不能一棒子打死导致技术无法进步,另一方面也要设立一些红线,制定清晰的惩罚规定确保人工智能不触犯人类利益的基本保障。在此基础上,给智能应用留有更多空间,鼓励重视伦理,提供正向激励,促进合规发展。

清华大学人工智能研究院常务副院长孙茂松认为,应鼓励应用,鼓励创新,在行动中及时发现问题,及时改正,及时总结经验,使人工智能技术在应用中更好地完善和发展。

关于人类自身偏见和歧视被写进代码造成AI的偏见与歧视的问题,聂再清认为AI基于数据学习获取知识错误并不是观点歧视,而是能力不足。有可能通过引入更多的知识库或知识图谱能够得到提升,而不应该把这个问题过分在伦理层面去拔高,更多还是解决训练数据问题。

推荐
热点排行
一周推荐
关闭