发布时间:2022-06-01 14:55 原文链接: 人工智能伦理:有原则不等于能治理

  由人民智库与旷视人工智能治理研究院发布的“2021年度全球十大人工智能治理事件”中,数据、算法、伦理是核心关键词。过去一年,数据安全法与个人信息保护法先后生效,《互联网信息服务算法推荐管理规定》审议通过,使得保护隐私、防范算法乱用有了保障机制。

  可是,这在人工智能伦理治理中并不是常态。事实上,宏观层面的伦理原则与其在实际技术研发、应用中得到正确理解与合理实践之间,还存在巨大鸿沟。

  如何将伦理原则落实到具体的制度与行动上,是当下人工智能伦理治理必须回答的一个关键性问题。

  人工智能伦理难执行

  近几年来,国际组织、各国政府、企业与学术团体等发布了形形色色的伦理原则、伦理指南与伦理准则,试图推进、规范与约束人工智能技术的研发与应用。

  “这些伦理原则的核心内容大都是趋同的,比如透明、公正、不伤害、责任、隐私、有益、自主等。”上海交通大学马克思主义学院教授杜严勇解释道。

  “关键在于如何保障伦理原则的实施。”他直言,“伦理原则本身无法直接落地,而我们没有一套将原则转译为实践的有效方法——原则无法与人工智能技术从研发到应用的每一个环节结合起来,同时也缺乏一套强有力的执行机制。当研发者的行为违背伦理原则时,几乎没有处罚与纠偏机制。”

  中国科学院自动化研究所人工智能伦理与治理研究中心主任、国家新一代人工智能治理专业委员会委员曾毅的观察也是如此。他告诉《中国科学报》,目前,人工智能的研发活动从技术本身出发,缺乏能满足实践的伦理审查机制与体系,国内外情况基本一致。这使得潜在的伦理问题只有在应用中被用户和公众提出后,才引起相关方重视。

  而在人工智能伦理研究的技术进展方面,曾毅提到,相较而言,隐私保护研究比其他议题落地更快。比如,现在有针对隐私保护提出的联邦学习和差分隐私等研究及其实践。这主要有赖于隐私保护的社会关注度更高,影响范围更广泛。

  “但这并不意味着我们已经有了绝对的进展。绝大多数社会对人工智能隐私的关切尚未取得真正意义上的突破。”曾毅举例,比如,用户隐私的知情同意方面,在人工智能模型上实现用户授权撤销就是极大的科学挑战,目前很多人工智能模型几乎无法实现这样的技术。

  是什么阻碍了伦理行动

  人工智能伦理原则难以落地有多方面因素。一方面,曾毅认为,从管理者到人工智能学者,再到产业创新者和应用者,他们的伦理意识都亟待提升。“目前,绝大多数人工智能科技研发和产业创新的中坚力量没有经过专门的人工智能伦理教育与培训,甚至相当一部分人工智能创新者、实践者认为,人工智能伦理不是科学研究和技术研发需要关注的问题,这使得他们在从事和人与社会相关的人工智能创新时,难以建立相对完善的防范机制,以应对可能存在的伦理风险。”

  另一方面,正如东南大学哲学与科学系副主任、副教授张学义所谈到的,从事哲学特别是伦理学研究的学者对具体技术发展及其背后蕴含的原理知之甚少,往往从一般性伦理原则出发,对人工智能技术可能产生的伦理问题进行反思,其效果只能是“隔靴搔痒”,难中要害。

  “即使是一般性的伦理学原理,在应用到具体经验性情境中时,不同理论、流派的观点也存在冲突与分歧。”张学义说,比如无人驾驶汽车遭遇“电车难题”时,就面临着到底用何种算法伦理进行抉择——是制造商预先为车主设置一个特定道德算法,还是将算法的设置权交付给车主?

  目前,张学义正在基于现有的无人驾驶算法理论进行实验哲学研究,即将这些算法理论具化为实际的经验性情境,对普通大众进行直觉性调查,收集大众对该问题的经验性证据,从而对现有理论进行印证或修正。但他也坦言,目前还没有同无人驾驶相关领域的科学家进行较为深入的互动交流。

  “在国内,人工智能伦理研究领域的跨专业互动比较有限或者停留在浅层方面,突破专业的界限与视域,针对具体问题进行跨学科、多领域的协同创新研究还很少。科学家和人文学者之间存在着一定的割裂现象。”张学义表示。

  如何从原则到行动

  曾毅认为,人工智能领域首先要解决的问题是借鉴生命科学、医学相关领域的经验,建立人工智能伦理审查制度和体系,对涉及人类、动物、环境生态以及高风险领域的研发和应用进行适度监管。

  杜严勇也谈到,人工智能治理的当务之急,是通过伦理原则与规范加强对人工智能技术的“前端”伦理治理。他提出,为了使从事人工智能科技研发的科研人员承担起前瞻性的道德责任,应该在国家级、省部级等高层次科研项目中实施科技伦理审查制度,使之成为一项常态化工作机制。

  同时,为了提高伦理介入的有效性,他还建议从国家级、省部级等高层次人工智能科研项目中提取3%左右的资金,在相关课题中设立伦理子课题,专门用于人工智能伦理协同治理研究,由科技伦理专家作为主要负责人。

  “伦理学家的责任是对伦理原则的内涵进行详细阐释,把宏观的伦理原则在一定程度上转译为易于理解、具有可操作性的具体问题与工作流程,帮助人工智能科学家在更细致、更全面的知识基础上进行技术研发。”杜严勇强调。

  “伦理学家不仅要告诉科研人员‘应该做什么’,还要协助研发人员解决‘应该如何做、避免什么’。这就要求伦理学家更多地关注科学家的具体工作和技术细节,避免自说自话。”

  除此之外,曾毅告诉《中国科学报》,为使人工智能伦理从原则落实到行动,一定要把“多方共治”嵌入人工智能产品与服务的整个生命周期。

  对于从事人工智能研发的科研机构和企业而言,应通过主动设置人工智能伦理委员会、人工智能伦理研究员,以及第三方提供的人工智能伦理服务等手段,建立和完善人工智能伦理自律自治机制,并开展实践。

  产研机构需要在政府引导下进行标准制定,联合发布最佳实践报告,积极开源,开放人工智能伦理与治理算法、工具,从而促进人工智能伦理技术落地。

  教研机构、学会和行业组织一方面应积极参与相关伦理规范的形成、制定与实践,另一方面积极推进人工智能伦理的教育与培训。

  公众和媒体是人工智能产品与服务的用户,应积极发挥监督者的作用,为政府、产研机构和企业及时提供社会需求、关切与反馈。

  政府及各级管理者、政策制定者在制定人工智能伦理与治理政策时,应根据人工智能的产研进展及社会反馈进行自适应,以推进人工智能伦理与治理公共服务为抓手,比如国家部委和国家级检测评估中心应协同产研机构提供伦理合规检测与认证,同时以监管为辅。

相关文章

2023年度29个重大难题发布,涉及人工智能、新能源、生命科学等!

10月22日,在安徽省合肥市召开的第二十五届中国科协年会主论坛上,中国科协发布了2023重大科学问题、工程技术难题和产业技术问题。人工智能、新能源、高性能材料、生命科学等领域的重大问题受到关注。发布现......

科技行业的“表面风光”:只有AI投资在飙升其他部门均在下滑

在硅谷,对人工智能(AI)初创公司数十亿美元的投资几乎已经司空见惯——人工智能公司筹集的资金超过了其他所有科技类别的融资总额,第三季度达到179亿美元。根据PitchBook的数据,第三季度全球人工智......

全球人工智能治理倡议发布

18日发布全球人工智能治理倡议。倡议明确提出,发展人工智能应坚持相互尊重、平等互利的原则,各国无论大小、强弱,无论社会制度如何,都有平等发展和利用人工智能的权利。倡议指出,人工智能是人类发展新领域。当......

人工智能出现了,我们会更关注学习品质吗

“说起ChatGPT,人们的第一反应竟是诈骗、抄袭。”比利时布鲁塞尔大学教授安东尼·安托万(AnthonyAntoine)坦言,不只是中国,面对ChatGPT,国外的高教人士同样有“狼来了”之感。然而......

多家芯片巨头暴跌!美国为何再次对中国升级芯片禁令?

受美国政府升级芯片出口管制影响,美股芯片板块周二开盘后大幅下跌。其中,万亿龙头英伟达跌幅一度超过7%,AMD和英特尔跌幅也超过2%,台积电、阿斯麦、高通等芯片巨头也不同程度下跌。当天,美国商务部BIS......

节能晶体管让智能手表使用人工智能

美国科学家开发出一种可重构的晶体管,在运行人工智能的过程中,其耗电量是硅基芯片中的标准晶体管的1%。这种新型节能晶体管可能有助于推动新一代智能手表或其他可使用强大人工智能技术的可穿戴设备的开发。10月......

虚拟主播“上岗”有啥不一样?

极具特色的数字人虚拟主播频频亮相电商直播、新闻播报、展览讲解等场景,带来新鲜的视听体验,吸引了不少人的目光。专家认为,得益于人工智能技术的发展,数字人虚拟主播走向大众,被广泛应用于各类场景之中,为诸多......

研究表明|人工智能耗电量堪比一个国家

人工智能有望帮助程序员更快地编写代码,让司机驾驶更安全,并减少日常任务的耗时。不过,近日发表于《焦耳》的一篇观点文章认为,如果广泛采用人工智能,可能会产生大量的能源足迹,其未来电力需求甚至会超过一些国......

安徽召开质量强省建设协调推进领导小组会议

近日,安徽省政府召开质量强省建设协调推进领导小组会议,听取安徽省质量强省建设协调推进领导小组增补成员单位和职责调整、今年以来质量强省建设推进情况、省政府对市级政府质量工作专项考核结果、“安徽省质量强县......

重磅!六项医工交叉团体标准获批发布实施

近期,中国科学院分子影像重点实验室牵头撰写的《胃部肿瘤智能辅助诊断软件测试和性能评价规范》(标准编号:T/SCGS313001-2023)、《医用内窥镜内窥镜荧光摄像系统影像质量评价规范》(标准编号:......