智库动态 NEWS

于晓华:建立人工智能责任标准 促进人工智能健康发展

时间:2023-05-04来源:未知 作者:acebm 点击:
01
人工智能的可能风险
 
随着大型人工智能程序ChatGPT获得了在自然语言处理方面的突破,可以预期人工智能大型模型很快会获得大规模拓展和应用,这会推动整个经济转型和社会结构变化。人工智能是未来的产业发展方向,是“国际竞争的新焦点”,和“经济发展的新引擎”。不过,人工智能的开发和使用可能会存在潜在多种政治、经济、社会、伦理以及国家安全等风险。具体而言,包括以下几个方面:
 
1.偏见和歧视风险:人工智能系统的训练和应用可能受到不平等和歧视性数据集的影响,导致其产生不公平的决策和结果,从而导致社会群体对立和社会矛盾激化。例如,在面部识别技术中,如果使用的数据集缺乏多样性,则该技术可能会对某些人或群体进行歧视性的识别。
 
2.隐私和安全风险:人工智能技术处理大量的数据,如果未正确管理这些数据,可能会导致用户隐私的泄露和系统安全的受损。例如,在个人数据分析和预测中,如果没有保护用户的数据隐私,可能会导致用户的个人信息被滥用。
 
3.透明度和可解释性风险:人工智能技术可能难以解释其决策和行为的逻辑,这可能会导致人们对其信任度下降。例如,在自动驾驶汽车中,如果无法解释该技术在紧急情况下做出的决策,可能会导致人们对其使用的不信任。
 
4.安全和责任风险:人工智能技术可能被滥用或被黑客攻击,从而导致系统的崩溃和安全风险的提高。此外,人工智能的使用也可能会导致意外伤害和财产损失,因此需要对人工智能技术的使用和决策进行监管和责任制。
 
5.社会和经济风险:人工智能的普及和发展可能会导致某些职业和产业的消失,从而对社会和经济产生负面影响。例如,自动化生产线可能会导致失业率的增加,对经济产生负面影响。
 
所以,在欧美等人工智能技术领先的国家,面对可能的各种风险未雨绸缪,在企业层面制定责任标准,在国家层面制定各种监管措施,来管理和减少这些风险,以确保人工智能技术的发展与社会和谐发展相一致。
 
02
企业责任标准的制定:微软和谷歌的例子
 
01.微软的标准
 
ChatGPT的最大投资人为微软公司,ChatGPT现在也融入到微软的搜索引擎“必应”中去了。微软公司提出了一系列原则和行动,以确保人工智能的开发、应用和使用符合道德和社会价值观,保护用户和社会的权益和利益,减少各种风险。其主要包括以下四个方面:
 
1.透明度:微软要求公开披露人工智能技术和算法的原理和运行方式,以便用户和相关利益相关者了解其工作原理和可能影响。
 
2.公平性:微软要求确保人工智能系统不歧视任何人,不对某些群体或个人进行不当或有害的区分对待。人工智能应该被设计和使用,以符合包容性、多样性和平等的原则。
 
3.隐私和安全:微软要求确保个人信息的保护,避免人工智能系统被滥用或被黑客攻击。微软会采取合适的措施来保护人工智能系统的安全性,防止信息泄露和滥用。
 
4.负责任的使用:微软要求确保人工智能系统的使用是合法、符合伦理和社会可接受的。微软要求在人工智能的开发和使用中考虑到其可能的影响,并在必要时采取措施减少或消除这些影响。
 
02.谷歌的标准
 
谷歌作为微软的竞争对手,为了确保人工智能的开发和使用符合道德、法律和社会价值观,和微软类似,也制定了一系列类似的责任标准,其主要包括以下几个方面:
 
1.有意识的使用:谷歌要求人工智能系统的设计和使用必须是有意识的,并符合公共利益。它们应该旨在解决实际问题,提高效率和创造价值,并且不能用于任何违反法律、伦理和社会价值观的目的。
 
2.公平性和反歧视:谷歌要求人工智能系统必须保证公平性,并且不能歧视任何人或群体。它们应该能够为所有人提供公正的服务和机会,避免刻意或不必要地偏袒某些人或群体。
 
3.数据隐私和安全:谷歌要求保护用户的数据隐私和安全,并确保人工智能系统不被滥用或被黑客攻击。它们应该有适当的安全保护和风险管理措施,并遵守相关的数据保护法律和标准。
 
4.透明度和可解释性:谷歌要求人工智能系统的运作原理必须是透明和可解释的。它们应该能够解释其推荐和决策的基础,使用户和利益相关者能够了解其工作方式,进而做出明智的决策。
 
5.人类控制和责任:谷歌要求确保人工智能系统的使用和决策受到人类控制,且需要负责任。人类应该能够监督人工智能的行为和效果,并有权对其决策做出调整或纠正。
 
03
美国政府对人工智能的监管体系
 
美国政府早就意识到人工智能是未来的产业发展方向,是“国际竞争的新焦点”,也是“国家安全”的重要内容。美国在不断支持人工智能技术发展的同时,也制定了一系列法律和政策来监管人工智能的有序发展,减少人工智能的各种风险。
 
1.《AI政策法案》(AI in Government Act of 2019):该法案于2019年签署,旨在推动政府机构更广泛地采用人工智能技术,包括人工智能培训和研究计划、人工智能伦理原则和人工智能安全措施等。
 
2.《算法透明度法案》(Algorithmic Accountability Act):该法案于2019年提出,旨在要求企业公开其使用的算法及其可能的偏见和歧视性,并要求联邦机构评估算法的公平性和透明度。
 
3.《机器人责任法案》(Roboethics Commission Act):该法案于2019年提出,旨在要求成立一个由政府和私营部门代表组成的机器人伦理委员会,以指导和监管机器人和人工智能技术的发展和使用。
 
4.《人工智能研究和发展政策》(National Artificial Intelligence Research and Development Strategic Plan):该政策于2016年发布,旨在推动美国在人工智能领域的研究和发展,并制定人工智能领域的伦理、隐私和安全准则等。
 
除了以上法律和政策外,美国还有一些机构和组织负责监督和规范人工智能的发展和应用,包括国家人工智能研究和发展战略委员会、国家人工智能标准化委员会等。此外,一些州和城市也开始推出各自的人工智能监管法规,以确保人工智能技术的安全和透明度。
 
04
建立人工智能责任标准,促进我国人工智能健康发展的政策建议
 
1.建议全国人大制定《人工智能法》以及国务院制定相关的实施细则,以增强人工智能算法的公平性和透明性;同时确立人工智能开发和使用的安全责任和伦理标准。
 
2.建立跨部际的人工智能安全和责任委员会,协调人工智能相关政策,从根本上保障产业发展与国家安全的协调发展。人工智能不仅是一项技术,它的发展对社会、经济、政治、安全以及法律等所有方方面面都会产生重大影响,而且这种影响是深远的,所以一个跨部委的协调机构是必要的。
 
3.促进行业和企业建立开发和应用人工智能的责任标准。由于国家人工智能责任标准是一般性原则,不可能兼顾行业和企业的特殊性。这要求企业在开发和应用人工智能的时候,除了遵守国家法律,还必须建立本行业和本企业相应的人工智能责任标准。

(文章转载自“长江产经智库”微信公众号)


上一篇:民间智库参与政府政策制定存在的障碍与对策

下一篇:面向制造强国的产业政策调整