发布时间:2022-12-14 15:22 原文链接: 可信可控可用,人工智能呼唤创新的“治理技术”

“人工智能改变了安全格局,进一步扩大了威胁,需要从多个层面进行风险管控。”在近日举办的第三届人工智能合作与治理国际论坛上,针对目前人工智能带来的风险和挑战,中国工程院院士、鹏城实验室主任高文认为,应当在人的层面应加强伦理教育;在模型算法层面,期望它可信、可控、可解释并且被正当使用;在数据层面,期望数据具有充足的系统防护保证其安全。

当人工智能进入从高速增长向高质量增长转变的新发展阶段,对人工智能技术的安全性和可靠性提出了更多新要求。

在以“人工智能治理技术”为主题的第二场主论坛讨论上,与会专家共同探讨如何通过技术工具来实现人工智能可知、可信、可控和可用,以及如何将产业监管要求转化为技术解决方案,开发针对人工智能行业或应用的“治理技术”与服务。

建设可信赖人工智能

高文认为,强人工智能安全风险来源于三个方面,一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。对于这些,一方面要在设计及应用阶段采取预防和检测措施,另一方面要加强国际合作,相互取长补短,还要加强人才培养。

对于数据安全问题,他认为隐私保护和数据有效使用是一对矛盾,需要做到平衡,鹏程实验室所采用的“防水堡”技术,对于保护模型训练数据安全共享和使用提供了解决思路,该技术可以做到只分享价值,不分享数据,在保证原始数据不移动的情况下也能够使数据可用。

哥伦比亚大学常务副校长、计算机科学系教授周以真介绍了正在推动的“值得信赖的人工智能”研究议程,目的在于把人工智能社区、网络安全社区和正式方法社区三个社区聚集在一起。她指出,一些人工智能系统可能是脆弱和不公平的,因此需要努力实现可信赖的人工智能。

“可信赖计算意味可靠性、安全性、可用性,要考虑准确性、稳健性、公平性,通过问责制、透明度、可解释性、道德伦理等设置人工智能执行的任务和环境。除了必要的测试、模拟、良好的软件工程实践之外,还要构建可信系统的事后验证方法,即用数据模型、代码程序来满足我们关心的正确性属性、安全性属性、活性属性等性质,并通过列举研究问题应用形式化方法,来尝试实现人工智能系统的可信度。”周以真说。

清华大学智能产业研究院国强教授、首席研究员聂再清认为,安全可信是人工智能治理的核心诉求,安全可信的人工智能技术产品需要具备安全可控、数据资产和隐私保护、可解释性等条件。他以车路协同感知为例,讲解了自动驾驶领域如何通过多传感器的协同感知,来提升AI协同内部可靠性,从而提高AI安全性。

“例如面向营养健康管理的可解释个性化推荐,需要‘引导式’而非‘迎合式’信息推荐,提升用户依从性并充分考虑营养健康因素,避免迎合式的饮食推荐。”聂再清说。

“治理技术”创新应对风险挑战

近年来,人工智能应用领域进一步拓展,面对新兴技术可能带来的巨大收益和潜在风险,与会专家也高度关注其治理问题。

从技术角度或技术应用角度,怎样才能实现人工智能技术的可用、管用乃至好用?高文说:“很多技术在发展过程中,过早说哪个不能用可能会抑制技术本身的发展,现阶段更多是从道德层面做引导,尽量把一些可能的风险抑制工具想明白。”

聂再清认为,在创新和监管之间需要平衡,一方面控制技术、工具、创新的个人有责任保证工具或将创新控制在危险可控范围内;另一方面社会也要集体监督,确保某个出现问题的产品或技术能够回滚、撤销。

“技术可解释性需要将技术发展与应用场景深度结合,在不同领域需要不同的可解释的能力及不同的可解释级别,让技术在应用场景下发挥最好的作用。”瑞莱智慧(RealAI)公司联合创始人及首席执行官田天指出。

新技术往往会给现有社会伦理规范带来冲击,现阶段是否有必要设计一部分可操作具体规则,特别是将伦理准则嵌入到人工智能产品与系统研发设计中?

田天表示,在发展的阶段需要鼓励为主,各种人工智能难免涉及到一些模糊地带,一方面不能一棒子打死导致技术无法进步,另一方面也要设立一些红线,制定清晰的惩罚规定确保人工智能不触犯人类利益的基本保障。在此基础上,给智能应用留有更多空间,鼓励重视伦理,提供正向激励,促进合规发展。

清华大学人工智能研究院常务副院长孙茂松认为,应鼓励应用,鼓励创新,在行动中及时发现问题,及时改正,及时总结经验,使人工智能技术在应用中更好地完善和发展。

关于人类自身偏见和歧视被写进代码造成AI的偏见与歧视的问题,聂再清认为AI基于数据学习获取知识错误并不是观点歧视,而是能力不足。有可能通过引入更多的知识库或知识图谱能够得到提升,而不应该把这个问题过分在伦理层面去拔高,更多还是解决训练数据问题。

相关文章

同济大学成立五大研究院,围绕“四大创新”发力

5月20日,同济大学举行人工智能赋能学科创新行动发展大会,并宣布学校围绕“工程智能”系统布局的首批五大研究院——工程智能研究院、医学人工智能研究院、极端环境建造研究院、自主智能机器人研究院、航空运输与......

商务部再回应美国对人工智能芯片出口管制

在今天(22日)下午召开的商务部例行新闻发布会上,新闻发言人就美国对人工智能芯片出口管制问题进行回应。商务部新闻发言人何咏前:中方已多次阐明立场,美方滥用出口管制,对中国进行遏制打压,违反国际法和国际......

新研究:人工智能生成内容不准确与失语症类似

尽管人工智能生成内容已非常流畅,但提供的信息很多时候还是不准确。日本研究人员近日在德国《先进科学》杂志发表的一项研究成果显示,这一问题与人类的语言障碍——失语症类似。新研究成果可以为研究人员改进人工智......

推动生成式人工智能赋能产业发展

当前,我国生成式人工智能产业发展迅速,相关企业数量已经超过4500家。然而,生成式人工智能与实体经济融合的深度和广度仍有待提升,其巨大潜力尚未充分释放。究其原因,一方面在于生成式人工智能技术本身仍处于......

辽宁省出台数智化转型升级实施意见助推生物医药产业高质量发展

为深入贯彻落实《国务院办公厅关于全面深化药品医疗器械监管改革促进医药产业高质量发展的意见》以及省委、省政府“数字辽宁,智造强省”的工作部署,推动新一代信息技术与医药产业链深度融合,提高全省医药领域信息......

新版智能制造标准体系建设指南印发聚焦新技术与制造业融合

近日,工业和信息化部与国家标准委联合印发《国家智能制造标准体系建设指南(2024版)》。该指南在2021版的基础上,优化了标准体系框架和标准布局,进一步聚焦人工智能等新技术与制造业的融合应用,在智能装......

2025~2026年度广东省重点领域研发计划“新一代人工智能”专项开始申报

广东省科学技术厅关于组织申报2025~2026年度广东省重点领域研发计划“新一代人工智能”专项的通知粤科函资字〔2025〕693号省直有关部门,各地级以上市科技局,各有关单位:为全面贯彻落实党的二十大......

2025年上海市“通用人工智能大模型”基础研究专项指南(第一批)发布

关于发布2025年上海市“通用人工智能大模型”基础研究专项指南(第一批)的通知各有关单位:为加快建设具有全球影响力的科技创新中心,更好发挥上海人工智能实验室的科技创新平台作用,上海市科学技术委员会联合......

2050年的精准医疗:对话李灵军

在未来,人工智能辅助的诊断工具或许能够分析你的健康状况,并根据你的生物学特征制定个性化的干预措施——但这一切的前提是,我们能够更有效地检测出极低浓度的生物标志物。想象这样一个世界:只需一滴血、一次指尖......

AI时代学科调整中,文科该有何种使命担当

随着人工智能(AI)技术的飞速发展,全球教育体系及其学科布局正在经历深刻变革。在本专栏2024年10月15日刊发的《哈佛大学人文学科正经历“关停并转”》一文中,我专门讨论了为何在哈佛大学这样的美国顶尖......