人们视算法为「洪水猛兽」;算法说:我不想背锅
机器之能,是机器之心旗下关注全球人工智能产业应用场景及商业化的内容账号。欢迎关注与互动:almosthuman2017
2017,人们视算法为「洪水猛兽」。2018 呢?
编译 | 陈韵竹
作者 | Tom Simonite
来源 | Wired
穆罕默德·本·穆萨·阿尔·花剌子模是公元九世纪的一位波斯学者。在阿尔·花剌子模逝世的数个世纪之后,他的作品引领欧洲进入小数和代数领域,为如今这个以技术为核心的年代奠定了基础。阿尔·花剌子模名字的拉丁文版本(Algorismus)现在演变成了一个很常见的词:算法(Algorithm)。
但在 2017 年,这个词却增添了一丝邪恶的气息。
事情的转变发生在上个月的美国众议院情报委员会。在俄罗斯干预 2016 年大选的听证会上,首席民主党议员 Adam Schiff 在 Facebook 的律师 Colin Stretch 面前指责道:「俄罗斯社交媒体运动为什么能够取得成功?其中一部分原因是,他们明白,你们 Facebook 使用的算法往往强调那些以恐怖为基础或以愤怒为基础的内容。」
莫非算法可以放大恐惧,从而帮助外国势力干涉民主规模?这听起来可太危险了!
几年前,「算法」表现出的现代性和智能性造就了 Google 等科技公司的成功。而今,人们却越来越担心科技公司的力量,「算法」成为了政治角力的替罪羊,还使得阿尔·花剌子模的名字笼罩上了一层负面光环。
今年 2 月,《Weapons of Math Destruction》一书的作者、数学家 Cathy O’Neil 提出了有关「算法霸主」的警告。YouTube 上面的儿童推荐视频算法引起了公众的不满,原因是将无害的 LBGT 内容删除,并将孩子们引向令人不安的内容。与此同时,学术研究者们还演示了机器视觉算法如何习得对性别的刻板印象;以及政府在刑事司法领域运用算法,反而将人民置于黑暗当中。
上周,前总统奥巴马的首席战略官 David Axelrod 在表露对未来媒体和政治担忧的时候,「算法」一词也突然到了他的嘴边。他说:「一切都在推着我们走向算法引导的定制化产品。这让我很担心。」
马里兰大学教授 Frank Pasquale 则表示:「大选真正让人们理解了算法系统的威力。」
这并非全新的担忧——关于 Facebook 抑制民众思想的「过滤泡沫」争论始于 2011 年。但是,Pasquale 表示,现在有一种更强烈的感觉,那就是算法应该被质疑并承担责任。他说,这个问题的一个分水岭是欧盟最高法院 2014 年的决议——授予市民「被类似 Google 等搜索引擎遗忘的权利」。Pasquale 称,这是一个早期的「算法公共义务和竞争性的小冲突」。
当然,对 Facebook 等公司的指责并不应该只针对算法或数学,更应考虑创建这些算法的公司和个人。这也就是 Facebook 首席律师 Capitol Hill 出现的原因。微软研究员兼麻州大学教授 Hanna Wallach 说,「我们不能将人工智能系统仅仅视为技术层面的东西,它已成为了一种社会技术的固有产物。」Hanna Wallach 正不断推进人工智能领域的道德考量。
有证据表明,部分硅谷的算法工程师很清楚这一点。塔夫茨大学人类学家 Nick Seaver 深入科技公司内部,以了解工作人员对于算法的想法。Seaver 在一篇关于「模糊性(fuzziness)」的论文中写道:「一个受访者说,『算法也是人类』,他可以画出自己和同事所研究的算法的界限。」
然而,Facebook 等公司承受的压力可能会让算法成为人类和企业失败的替罪羊。有一些说法暗示甚至明示,算法有其自主性。但不幸的是,让「科学怪兽」算法承担罪责可以转移公司制造算法时关于责任、策略和选择的问题关注度,但却减少了我们真正解决算法问题的机会。
让算法成为我们眼中的「洪水猛兽」,同样使得我们对算法如此普遍的原因熟视无睹。在计算蒙蔽我们双眼的时代,算法是理解数据风暴的唯一途径。算法提供了一种优雅而高效的方法完成任务,让世界变得更好。
在曼哈顿社区大学教授数学的 Audrey Nasar 指出,类似匹配肾脏捐赠者和接受者的算法应用告诉我们,算法并非都具邪恶色彩。他说:「算法对我而言是一种礼物,它是找到解决方式的一种手段。」Nasar 还发表了关于如何鼓励高中生进行算法思维的研究成果。
这可能是一种和阿尔·花剌子模产生共鸣的情绪。他在著名的代数教程中写道,算法将有助于「人们不断要求的各种任务,例如继承、遗产、分割、诉讼和贸易,以及相互之间的各种交易」。
人们需要算法,也期待 2018 年,公司、政府和人民能对算法的使用负责,而不在把问题归咎于「算法」一词。