「五角大楼驯服硅谷?」科技巨头对政府人工智能战略保持谨慎
【新智元导读】周四,美国前国防部副部长负责组建一支由前政府官员、学者和私营企业代表组成的工作组,旨在推进联邦政府应该如何接受人工智能技术,并与大型科技公司和其他组织更好地合作。从斯诺登事件后,科技公司与政府的合作几乎都会引起公众的担忧,五角大楼如何让硅谷低头?
周四,美国前国防部副部长罗伯特·沃克(Robert O. Work)宣布,他将与新美国安全中心(the Center for a New American Security)合作,负责组建一支由前政府官员、学者和私营企业代表组成的工作组,目标是探索联邦政府应该如何接受人工智能技术,并与大型科技公司和其他组织更好地合作。
以沃克为代表的智囊团对美国在人工智能方面做的努力越来越感到担忧。因为中国誓言要在2030年成为世界领先的人工智能国家,为此投入数十亿美元。
和许多其他来自政府和行业的官员一样,工作组认为美国有落后的风险。
“问题是美国应该如何应对这一挑战?”沃克说,“这是一个卫星时刻(Sputnik moment,苏联第一次发射人造卫星刺激了美国)。”
“斯诺登”后遗症:科技公司与政府的合作都会引起人们担忧
军事和情报界长期以来在科技行业发挥了重要作用,并与许多硅谷早期的科技巨头保持密切联系。惠普联合创始人戴维·帕卡德(David Packard)甚至担任总统理查德·尼克松的副国防部长。
但近年来科技公司跟军政界的关系已经恶化——至少在一些知名公司中是如此。 2013年,爱德华·斯诺登泄露的文件显示,情报服务对美国人的监视范围非常广泛,包括监控几家大型互联网公司的用户。
爱德华·斯诺登
两年前,联邦调查局(FBI)要求苹果公司制造特殊软件,以帮助它解锁一个枪手的iPhone,但苹果强硬拒绝了FBI的要求,这起事件又让硅谷与军政界的对抗情绪变得更糟。
“在爱德华·斯诺登之后,人们对硅谷公司与国家安全界合作感到担忧。”新美国证券中心的兼职研究员格雷戈里·艾伦(Gregory Allen)说, “这些公司对这些合作关系非常谨慎,也可以理解。”
五角大楼需要硅谷人工智能方面的帮助,因为硅谷就是人才的地方。科技行业最大的公司一直在囤积人工智能的专业知识,有时会提供数百万美元的薪酬,这是政府永远无法企及的。
尽管有困难,但五角大楼依然在试图尝试与硅谷公司合作。
2017年,国防部为实现人工智能推出Maven项目,它也被称为算法战跨职能团队(AWCFT)。Maven的目标是 “加速国防部整合大数据和机器学习技术”,有报道称,国防部去年在人工智能相关领域总共花费了 74 亿美元。
Maven的专责小组还包括AI合作组织(Partnership on AI)的执行主席泰拉•莱昂斯(Terah Lyons),AI合作组织是由五大科技巨头:Facebook、亚马逊、谷歌、IBM、微软在2016年联合成立的非盈利性组织,旨在研究和形成AI领域最好的技术实践,促进公众对AI的理解。
Maven项目最近一次进入公众视线是在这个月,它被报道正在使用机器学习来识别无人机视频图像中的车辆和其他物体,而这背后正是谷歌的TensorFlow API接口。
美国军方利用人工智能技术分析其无人机拍摄的视频片段
此消息一出,不少人谴责谷歌,并对使用机器学习引发的道德问题感到担忧。
谷歌在一份声明中承认,军事使用人工智能“引发了有效的担忧”,并表示正在制定有关使用其机器学习技术的政策。
即便被“招安”,硅谷可能也不清楚如何参与国家安全
与前国防部长罗伯特·沃克共同合作的是一支由卡内基梅隆大学计算机科学系主任安德鲁·摩尔(Andrew Moore)组成的18人的工作小组,摩尔警告说,美国的计算机科学人才太多,但会选择在美国最大的互联网公司工作。
随着科技公司吞噬了所有的人才,谁来培养下一代的人工智能专家?谁将领导政府的努力?
“即使美国拥有最优秀的人工智能公司,也不清楚它们是否会以实质性方式参与国家安全。”格雷戈里·艾伦说。
谷歌的案例说明了大型互联网公司在与五角大楼更密切合作中所面临的挑战。实际上,谷歌前执行主席埃里克·施密特(Eric Schmidt)还出任美国国防创新委员会(the Defense Innovation Board)的主席,这是一个联邦咨询委员会,该组织旨在帮助国防部提升创新能力,在技术开发和行事上变得更有适应性。
Eric Schmidt
国防部表示,国防创新委员会成员将会利用其在硅谷的从业经验,就快速成型、迭代式产品开发、复杂的数据分析、移动应用和云应用的使用、信息共享等问题提供建议。
施密特的做法代表着一部分硅谷精英的态度,但更多的人对与政府或军方的合作保持谨慎。
谷歌运行着世界上最好的人工智能研究实验室:加州的Google Brain和伦敦的DeepMind。两个Google AI实验室的顶尖研究人员都对军方使用AI表示担忧。
当谷歌收购DeepMind时,该公司同意设立一个内部董事会,以确保实验室的技术以合乎道德的方式使用。而实验室的创始人之一,德米斯·哈萨比斯明确表示,其AI不会被用于军事目的。
在人工智能研究人员和其他技术人员中,人们普遍担心,今天的机器学习技术可能会把太多的权力放在危险的环境中。美国和英国知名实验室与智库最近的一份报告详述这样的风险,包括武器和监视设备方面的问题。
谷歌表示,它正在与国防部合作,为“非攻击性用途”提供技术。工作人员表示,政府探索了许多不涉及“致命武力”的技术。但目前还不清楚谷歌和其他顶级互联网公司在哪里划清了界线。
“这是我们必须要进行的对话。”Work说。