OpenAI:防止AI毁灭世界,全靠猜

如同前不久逝世的霍金先生,很多人在对人工智能充满期待的同时,也对其存有十足的警惕心。这种担心不无道理。人工智能正在快速发展,而且已经走上正轨,但我们仍然没有做好迎接它的准备。人们对于自己从未见过的东西常常没有一个具体的概念,就像我们的祖先无法想象从汽车到电脑、智能手机......这一切的诞生。因此对于大多数人来说,很难想象未来真正的人工智能技术会是什么样子,会为我们的生活带来多少便利,也很难想象如果AI超出我们的控制,我们会失去什么。

有一群人致力于确保人工智能的诞生不会为人类带来灾难。2015年马斯克与其他硅谷科技大亨进行连续对话后,决定共同创建人工智能非营利组织OpenAI,希望能够预防人工智能的灾难性影响,推动人工智能发挥积极作用。(马斯克今年离开了董事会,以避免与特斯拉发生利益冲突。)众多著名专家们正在联合起来,共同应对人类将面临的最具颠覆性的技术进步(和最大的威胁)。

OpenAI:防止AI毁灭世界,全靠猜

但是有一个问题。谈到创造安全的人工智能和规范这项技术时,这些伟大的头脑对他们所做的事几乎一无所知。他们甚至不知道从哪里开始。

战争前的黎明

在迪拜旅行时,笔者遇到了OpenAI的政策和道德顾问迈克尔?佩奇(Michael Page)。他告诉了笔者他所面临的不确定性,谈到了那些没有答案的问题。以及,如果我们找不到答案,我们将付出极高的代价。

关于佩奇在OpenAI中所扮演的角色,他回应说,他的工作是“着眼于先进人工智能的长期政策影响”。如果你觉得这句话看起来有点难以捉摸、定义模糊,这很正常。因为很多人都是这种感受。笔者问佩奇这是什么意思——从实际角度出发。他的回答很坦率:“我也在想办法弄清楚这个问题。”

佩奇试图更好地描绘现状,他指出,由于真正的人工智能还不存在,他的工作比普通人更困难一些。

他指出,当政策专家们考虑如何保护世界不受人工智能的影响时,确实在试图预测未来。他们试图——如他所说——“找到失败模式……找到一些可能会让我们处于无法摆脱的境地的情况。”通俗来说,这些政策专家正试图通过预测问题和目前的行动,来保护未来世界。问题是他们可能面临的是一项不可能完成的任务。

OpenAI:防止AI毁灭世界,全靠猜

佩奇充分意识到这种让人不舒服的可能性,并欣然承认。“我想知道我们今天能做什么,如果有的话。”他说:“可能是未来太不确定了,我们无能为力。”

我们的问题不止于此。也有可能我们会发现问题所在,搞明白我们需要做些什么来保护自己免受AI的威胁,但结果我们根本做不到。佩奇说:“可能是这样——尽管我们可以预测到了未来,但我们无能为力,因为技术太不成熟。”

考虑到人工智能这个行业还很年轻,因此这种透明度的缺乏并不令人惊讶。我们还在起步阶段,所以我们所拥有的只是预测和问题。佩奇和他的同事们还在努力解决他们试图解决的问题,弄清楚我们需要哪些技能来解决问题,以及政策制定者需要在游戏中扮演什么样的角色。

当被要求具体预测真正的人工智能将在多长时间里出现时,佩奇并没有草率地给出一个答案。“我不知道。”他说。

然而,佩奇(或OpenAI)并不是唯一一个致力于寻找解决方案的人(组织)。他表示:“希望在一年内,我能找到起码一个答案。希望在五年内,会有成千上万的人来共同思考这个问题。”

OpenAI:防止AI毁灭世界,全靠猜

好吧,是时候大家一起头脑风暴了。

相关推荐