06.14 谷歌发布AI七大原则:不开发武器AI,但会继续与政府及军队合作

日前,谷歌CEO桑达尔·皮查伊(Sundar Pichai)发文详述了谷歌在人工智能(AI)上的七大原则、四条底线,为AI技术的开发和使用提供指导。

谷歌发布AI七大原则:不开发武器AI,但会继续与政府及军队合作

这份文件发布的背景是,谷歌被曝在去年秋天秘密参与美国国防部Project Maven,导致公司内部数千名员工与管理层发生冲突。这些员工认为,该项目有违谷歌在成立之初所立下的“不作恶”原则,但公司高层则认为这有助于谷歌与五角大楼的进一步合作。

最终,谷歌宣布Project Maven合同将于2019年到期后不再续签。

谷歌CEO皮查伊在文中表示,AI开发与使用的方式将对未来社会产生深远的影响。作为AI领域的领导者,谷歌不会开发武器等伤人或为伤人提供直接便利的技术;或是违反国际公认的规范,以监控为目的收集或使用信息的技术。

但同时皮查伊也指出,谷歌虽不会开发用于武器的AI,但将继续在其他诸多领域与政府和军队展开合作,其中包括网络安全、训练、征兵、退伍军人医疗以及搜救。这些合作十分重要,谷歌也将积极寻求更多方式,增进这些机构的关键性工作,并保障军民安全。

谷歌发布AI七大原则:不开发武器AI,但会继续与政府及军队合作

究其核心,人工智能(AI)就是个计算机程序,它会学习,也能自我调整。它解决不了所有的问题,但改善生活的潜力不容小觑。在谷歌,我们利用AI让产品更加得心应手——从没有垃圾邮件、易于写信的电子信箱,到可以用自然方式对话的数字助手,到挑出趣味内容供你欣赏的照片应用。

除了我们的产品,我们还使用AI帮助人们解决迫在眉睫的问题。两位高中生正在构建AI支持的传感器,用于预测野火风险。农场主正用它监测牛羊群的健康状况。医生开始使用AI帮助诊断癌症,预防失明。正是因为这些显而易见的好处,谷歌才大力投资AI研发,并通过我们的工具以及代码开源,使AI技术得以普及。

我们明白,这种技术有多强大,其使用所引发的担忧就有多么深切。AI开发与使用的方式将对未来社会产生深远的影响。作为AI领域的一个领导者,我们深知责任重大,不得不慎。在此,我们宣布指导日后工作的七大原则。它们不是理论概念,而是具体的标准,将会积极指导我们的研究与产品开发,并影响我们的商业决策。

我们知道,这个领域处在动态演变之中,我们也将在工作中秉持谦恭的态度,投身内部与外部互动,并不断学习,积极调整方式。

AI应用的目标

我们将参照以下目标,对AI应用作出评估。我们认为,AI应该:

1、造福社会

新技术的影响范围日益遍及整个社会。AI的进步将在各个领域带来革命性的影响,包括医疗、安保、能源、交通、制造与娱乐。在考虑AI技术的潜在发展与使用时,我们将把广泛的社会与经济因素纳入考量。只有相信整体可能收益远远超过可预见的风险与不利因素时,我们才会继续。

就理解大规模内容的意义而言,AI增强了我们在这方面的能力。我们将使用AI,努力使高质量的准确信息唾手可得,同时,继续在我们运营业务的国家,尊重当地的文化、社会与法律规范。我们也将继续深思熟虑地作出评估,决定何时将技术免费开放。

2、避免制造或加强不公正的偏见

AI算法和数据集可以折射、强化或削弱不公正的偏见。我们承认,公正与不公正的偏见很难区分,而且因文化或社会而异。我们将试图避免对人造成的不公正的影响,尤其是涉及到敏感特征时,比如种族、少数族裔、性别、国籍、收入、性取向、能力,以及政治或宗教信仰。

3、以安全为目的构建与测试AI

我们将继续开发并实行严格的安全保障实践,避免意想不到的结果,进而招致损害风险。我们将设计我们的AI系统,使之具备适当的谨慎,并试图遵循AI研究中的最佳实践来进行AI开发。在适当情况下,我们将在受限环境下测试AI技术,并在开发完成后继续监测其运行。

4、对人负责

我们设计的AI系统将提供适当的反馈时机、中肯的解释,以及吸引力。我们的AI技术将受到适当的人类指导与控制。

5、纳入隐私设计原则

我们将在AI技术的开发与使用中,纳入我们的隐私原则。我们将为通知与许可提供契机,鼓励隐私保护型设计,并围绕数据使用,提供适当的透明度和控制。

6、秉持追求卓越的严格科学标准

技术创新植根于科学方法,以及对开放式探究、学术严谨性、诚信和协作的承诺。AI工具有望解锁新的科研领域,以及生物、化学、医药和环境科学等重大领域的知识。在致力于推进AI开发的过程中,我们向往追求卓越的严格科学标准。

我们将与一系列的利益相关方合作,提供一种经过深思熟虑的范式,从具有科学严谨性的、跨领域的方式中汲取灵感。我们将通过发布教育资料、最佳实践,以及促使更多人开发有益AI应用的研究,负责任地分享AI知识。

谷歌发布AI七大原则:不开发武器AI,但会继续与政府及军队合作

7、向遵循这些原则的用途开放

很多技术都存在多种用途。我们将尽力限制有潜在危害或可能被滥用的应用。在开发与部署AI技术的同时,我们将参照以下因素,评估可能的使用:

主要目的与用途:一项技术与应用的主要目的和可能用途,包括该解决方案跟有害用途联系有多密切,或是能否被改成有害用途。

本质与独特性:推出的技术是独一无二的,还是通用的。

规模:这种技术的使用会不会产生重大影响

谷歌参与的本质:我们是在提供通用工具,还是为顾客整合工具,抑或开发定制解决方案

我们不会追逐的AI应用

除上述目标外,我们也不会设计或部署以下应用领域的AI:

1、导致或有可能会导致全面伤害的技术。当存在显而易见的风险时,我们只有在相信裨益远大于风险时,才会继续,并采取适当的安全限制措施

2、武器等伤人或为伤人提供直接便利的技术

3、违反国际公认的规范,以监控为目的收集或使用信息的技术

4、目的与广泛接受的国际法与人权原则背道而驰的技术

我们要明确的是,虽不会开发用于武器的AI,但我们将继续在其他诸多领域与政府和军队展开合作,其中包括网络安全、训练、征兵、退伍军人医疗以及搜救。这些合作十分重要,我们也将积极寻求更多方式,增进这些机构的关键性工作,并保障军民安全。

长期视野下的AI

虽然这是我们选择的对待AI的方式,但我们明白,这场对话中,还可以有其他很多不同的声音。随着AI技术的进步,我们将与各行各业的利益相关者合作,提供一种经过深思熟虑的范式,从具有科学严谨性的、跨领域的方式中汲取灵感。我们将继续分享所学,用于改进AI技术与实践。

我们相信,这些原则为我们公司和未来AI发展奠定了正确的基础。这种态度与2004年谷歌第一封《创始人的信》中列出的价值观一致。在那封信中,我们清楚地表明希望着眼长远,即便这意味着舍弃短期利益。这是我们当时的说法,也是如今依然秉持的信念。

翻译:雁行

校对:Lily

造就:剧院式的线下演讲平台,发现最有创造力的思想

点击蓝字“了解更多”,获取更多「造就」精彩内容


分享到:


相關文章: