扎克伯格最黑暗的一周:Keras作者炮轰:脸书将沦为极权主义监狱
新智元报道
来源:venturebeat等
作者:肖琴、克雷格
随着Cambridge Analytica丑闻的持续发酵,Facebook成了众矢之的,一个让人有点意外的谴责来自:谷歌。
谷歌研究员François Chollet在昨天发表一系列推文,警告说,Facebook的问题不仅仅是隐私泄露或缺乏信任,而是由AI驱动的Facebook很快就会成为“极权主义的圆形监狱”。
他呼吁研究人员:“请表现出一些良知”。
François Chollet:有良心的科学家都不该为Facebook工作
“我们目睹的是一个强大的实体,它建立了超过20亿人的精细心理特征,进行着大规模的行为操纵实验,它的目的是开发出世界上最好的AI技术。就我个人而言,这真的令我感到害怕。”Chollet昨天发推特说,“如果你是做AI的,请不要帮助他们。不要玩他们的游戏。不要参与他们的研究生态系统。请表现出一些良知。”
François Chollet
根据François Chollet的LinkedIn个人资料,自2015年8月以来,Chollet一直是谷歌的一名软件工程师和AI研究人员,专注于深度学习领域的研究。他最有名的头衔是Keras的主要作者,Keras是一个有世界各地数十万AI研究人员使用的开源深度学习库。
Chollet认为,在Facebook事件中,问题不仅仅是“你的隐私受到了损失”,也不仅仅是你的隐私可以被用作极权主义的“圆形监狱”这一事实。在我看来,更令人担忧的问题是,数字信息消费被用作一种心理控制的媒介。
世界在很大程度上受到两个长期趋势的影响:首先,我们的生活日益被非物质化,包括在工作和家中线上的信息消费和信息产生。其次,AI变得越来越聪明。
在影响我们如何消费数字内容的算法层面,上述两种趋势有重叠。不透明的社交媒体算法正在越来越多地决定我们阅读哪些文章,我们与谁保持联系,我们阅读谁的观点,获得谁的反馈。
经过多年的训练,算法对我们所消费信息的处理使得这些系统在我们的生活中掌握了相当大的权利,决定了我们成为什么样的人。由于我们的生活很大程度上已经转移到数字领域,我们变得非常容易受到那些规则——AI算法的影响。
在这么多年的时间里,如果Facebook能够决定让你看到哪些新闻(真实的新闻或假新闻),让你看到谁的政治地位在提升,以及让谁看到你的动态,那么Facebook实际上就已经在控制你的政治信仰和你的世界观。
这并不是什么新鲜事,至少从2013年开始,Facebook就已经进行了一系列的实验,它们通过调整新闻信息流(newsfeeds)的内容,成功地控制了不知情的用户的情绪和决策,并且能够预测用户未来的决策。
简言之,Facebook可以同时窥测我们的一切,并控制我们消费的信息。当你能同时触及感知和行动,你就会看到一个AI问题。你可以开始为人类行为构建一个优化循环。一个RL循环。
在这个循环中,你可以观察目标的当前状态,并不断调整向它提供的信息,直到观察你想要的结果和行为。
人工智能研究领域的很大一部分(特别是Facebook一直在投重资研究的领域)是开发算法,以尽可能有效地解决此类优化问题,从而关闭这个loop,并实现对所处理的现象的完全控制。
在此次事件中,被完全控制的是“我们”。
“前任”们也倒戈:卸载Facebook,它是“社交验证反馈循环”
与François Chollet相比,WhatsApp联合创始人Brian Acton对Facebook的态度更加强硬,在剑桥分析公司事件发生不久之后,他发了一条推特:It’s time.#deletefacebook(该卸载Facebook了)。
WhatsApp拥有每月15亿活跃用户,于2014年2月被Facebook以超过160亿美元的天价收购,Brian Acton在去年9月离开WhatsApp。
实际上,Brian Acton并非唯一一个倒戈的“前任”。去年,Facebook有两位离任高管对前东家表现出担忧和质疑。
一位是Facebook的前用户增长主管(former head of user growth)、风险投资家Chamath Palihapitiya,他在Facebook有6年的任职经历。去年11月他在斯坦福大学商学院演讲的时候说,Facebook鼓励“虚假、脆弱的人气”,让用户感到空虚,以及需要受到关注,人们继续不得不分享他们认为会获得其他人赞同的帖子,形成了“恶性循环”。
Chamath Palihapitiya
“我们创造的工具正在撕裂社会运作的结构。我们确实是在这么干”。
之后,前Facebook总裁Sean Parker也在另外一个场合表达了对社交网络的担忧。他说,Facebook的发展让人上瘾,他将Facebook描述为一种“社交验证反馈循环”(a social-validation feedback loop)的模式,利用人性的弱点来博取用户的注意力。
Sean Parker
Sean Parker曾是Facebook的创始人之一,他自诩为社交媒体“有良心的反对者”,他认为像Facebook在全球每月有20亿用户的社交媒体巨头,实际上已经改变了用户与社会之间的关系。
Sean Parker并没有具体说明Facebook如何利用人性的弱点来博取用户的注意力。但François Chollet认为,由于人类的思想极易受到简单的社交操纵模式的影响,这种行为被称为“心理攻击模式”。
其中一些攻击模式已经在广告中使用了很长时间(例如积极/消极的社交强化),但是它们是非常弱的、没有针对性的形式。从信息安全的角度来看,人的这种心理可以被视为“漏洞”:已知可以用来控制一个系统的漏洞。
François Chollet,就人类的思维而言,这些漏洞永远没法修补,因为它们就是人类的思维运作的方式。它们存在于DNA中。对个人而言,我们没有切实可行的方法来防御它们。
“人类的思维是一个静态的、易受攻击的系统,它将越来越多地受到越来越智能的AI算法的攻击,这些算法同时观察着我们所做的、所相信的所有事情,并且完全控制着我们所接触到的信息。”
技术充当了Facebook刽子手,在敲开中国大门之前,小扎似乎别无选择
Chamath Palihapitiya和Sean Parker对前东家的担忧和质疑,针对的是当时被广泛报道的Facebook在美国总统大选期间发布了大量的俄罗斯政治广告,但当时并未引起Facebook的重视。
到了2018年年初,扎克伯格在他的2018年个人挑战中,罕见的将整顿Facebook写了进去,而往年的个人挑战都是读书、旅行、环游交朋友等等活动。扎克伯格写道:整个世界都处在焦虑和分裂之中,他希望能让Facebook在2018年改变这种状态。
看上去,“前任们”的声音进到了扎克伯格的耳朵里。
如果不是剑桥分析公司事件突然曝光,Facebook应该会采取缓慢的措施堵住漏洞,比如针对假新闻的情况,Facebook不久前改变信息流展示方法,优先推荐好友的信息而不是新闻信息。
但没有人会想到剑桥分析事件会来的这么猛,估计Facebook也没有想到后果如此严重。在事件发生整整5天后,扎克伯格才现身公关,这5天时间里Facebook 股价下跌超过10%,市值蒸发500亿美元。
在接受Recode采访时,扎克伯格说,Facebook 将花费数百万美元去分析数以万计的应用程序。
不过,内部已经有了分歧:Facebook是否能在全世界找到足够多的人来分析这些程序?
对于这次剑桥分析事件,用扎克伯格的话说,“Facebook在这件事情中所犯的最大的错误”,是低估了用户隐私的重要性,Facebook几年前就知道了此事却没有认真追究。总体而言,剑桥分析门似乎更多的是一个法律执行层面上问题。
Facebook面临更深层次的问题是,技术能否在保持中立的情况下,让公司继续成长。
Chamath Palihapitiya和Sean Parker等“前任们”对前东家的担忧不无道理,一方面Facebook面临假新闻、恐怖暴力内容的困扰;另一方面,Facebook利用人性的弱点来博取用户的注意力的做法越来越不得人心。
对于前者,虽然扎克伯格不想成为内容警察,但他调整Facebook信息流、推出媒体评级系统、封禁ICO广告的做法,显然是让技术充当了刽子手。这样做虽然能禁止部分假新闻,但也把部分流量赶到谷歌、亚马逊这样的平台上。
Facebook北美用户日活下降
对于后者,由于用户量增长已经达到瓶颈,Facebook在绞尽脑汁在让用户的停留时间上越陷越深,只能用更多的技术、收购更多的社交公司。在敲开中国的大门以前,小扎似乎没有其他的办法。
参考链接:
https://venturebeat.com/2018/03/22/googles-francois-chollet-ai-researchers-with-a-conscience-shouldnt-work-at-facebook/
https://www.youtube.com/watch?v=PMotykw0SIk&feature=youtu.be&t=21m21s
https://venturebeat.com/2018/03/20/whatsapp-cofounder-its-time-to-delete-facebook/