被深蓝击败的象棋大师Kasparov:在游戏领域,人类注定要输给机器
在游戏这个领域,人类是注定比不过机器的。
编译 | Rik R 王宇欣 陈韵竹
来源 | Business Insider
葡萄牙里斯本——Garry Kasparov 说,早在 20 年前他就已经明白,人类是注定要失败的。那是 1997 年 5 月的纽约,他输掉了一场六局制比赛,对手是 IBM 的 深蓝(Deep Blue),当时世界上最强大的国际象棋计算机。
如今,Kasparov 的失败似乎在情理之中。计算机通过「穷举法(brute force)」计算游戏步数的能力比人类大太多。
但是人们忘记了,深蓝挑战赛分两场,而 Kasparov 赢得了 1996 年在费城举行的第一场。在两场比赛之间,IBM 重新编码了它的计算机,于是 Kasparov 指控 IBM 作弊。(他后来撤回了部分指控。)
如果 Kasparov 在第二场没有失误,走了那关键一步,从而以平局结束第二场比赛,那么他可能已经赢了。
深蓝也在第一场比赛中犯了一个错误,当时 Kasparov 被错误地归因为深蓝的「过人智力」,使它有能力做出违反直觉的操作。
尽管如此,在今年于里斯本举办的网络峰会(Web Summit)上,Kasparov 对 Business Insider 说,那时是他第一次意识到,人类在游戏领域「是注定要失败的。」
「我可以看到这种趋势,」他说,「我可以看到,那就像一条单行道。这就是为什么我宣扬要与机器合作,认识到在游戏领域,人类注定要失败。」
他说,因而他对于人工智能的成功丝毫不感到惊讶,无论是 AlphaGo 还是 Elon Musk 旗下的人工智能打败了 Dota 2 的人类顶尖高手,「因为即使这些机器接受的知识有限,但它们有目标。」
「这和规则的制定有关,」Kasparov 说,「而设置规则意味着有范围可依。只要机器能在一定范围内运行,并且知道最终的目标是什么,即使只有这一条信息,它也足以达到人类无法企及的水平。」
Kasparov 写了一本人工智能方面的书,名为《深度思考:在机器智能结束和人类创造开始的交汇处(Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins)》。他还是数字安全公司 Avast 的形象大使。
我们的第一个问题是关于穷举法的,以及人工智能是否已经超越了依靠大数据来做决策,而非真正的思考或学习。
「机器在游戏领域占上风,是因为人类会犯错误。」
在对阵深蓝的第二场比赛开始前不久,Kasparov 正在研究棋面。这是计算机程序在历史上的第二次胜利,在经典的象棋游戏中击败了卫冕世界冠军。在这场耗时 3 小时 42 分钟的比赛里,这位来自俄罗斯的大师级棋手赢得了第一场比赛,但在第二场比赛的第 45 步棋后输掉了比赛。
Jim Edwards:你曾经说过,「机器在游戏领域占上风,是因为人类会犯错误。」这意味着,人工智能的主要优势仅仅在于人类会犯错误,而机器不会。现在你还是这样认为吗?
Garry Kasparov:自我说出那句话后,人性并没有改变。人类注定会犯错误,因为在国际象棋、高尔夫等游戏中,我们不能像机器那样稳定发挥,即使是我们中最杰出的那些人也做不到。
Edwards:人工智能的优势仅仅是这种稳定性吗?它不会犯错误?
Kasparov:我想,这得先理解 [美国数学家] 克劳德香农所说的 A 型和 B 型机器之间的区别。
所以,A 型机器应用穷举法,拥有强大的计算能力和一些算法,你可以称之为人工智能,因为它会模仿人类的决策方式。
顺便说一下,所有计算机科学领域的先驱都认为,比如克劳德香农、艾伦图灵、诺伯特韦纳,只有类似人类的 B 型机器才能实现真正的成功和技术突破。
「稳定性对人类来说是致命的,因为即使是最好的选手也不能永远保证会稳定发挥。」
Edwards:那些类似人类的 B 型机器会犯错吗?
Kasparov:所有的机器都会犯错,不要误会我的意思。因为即使是最强大的 A 型机器,穷举法也不能应付一切。
Deep Blue 是 1997 年的竞速之兽,每秒可以计算 200 万步。但是国际象棋游戏中的合法移动步数是 10 到 40(注:在国际象棋中,有时间控制的规则,也就是说每个棋手必须在规定时间内走完一定步数,在国际比赛中,典型的时间控制是每个棋手用 2 个小时完成 40 步。)因而制胜关键并非速度,而取决于机器对 A 点至 B 点所要做的某些评估。机器不是预言者,机器可以赢得一局游戏或实现一个目标。
但这不是解决问题,而是赢得比赛。因而机器也会犯错。但是机器的平均走棋质量相当稳定。稳定性对人类来说是致命的,因为即使是最好的选手也不能永远保证会稳定发挥。即使是在世界冠军赛中,顶尖选手在巅峰对决时都会犯一些明显的错误,而不仅仅是小失误那么简单。
「你知道,这是一条单行道。这也是为什么我说要和机器进行合作的原因,我意识到,在游戏这个领域中,人类是注定比不过机器的。」
11 月在里斯本举办的网络高峰会上,Kasparov 和 Business Insider 的 Jim Edwards 正在进行谈话
Edwards:你写的一个例子是,人类不喜欢放弃皇后,因为皇后是棋盘上最有利的棋子,即使这样做有利于整个棋局。
Kasparov:如果你说的是专业选手,他们会尽一切努力赢得比赛。但是如果我们讨论那种最顶级的象棋比赛,这种情况也会发生,因为选手们也会疲倦。在这种情况下,他们可能会失去警惕性。
从心理上讲,如果比赛中你占据优势,你会这么想:「好了,比赛结束了,」然后你就会放松下来。在与人类选手对弈时,这无关紧要,你前期奠定的优势会让对手无法翻盘。而在面对机器时,你很快就会被击败。这就是为什么一个封闭的系统——游戏也属于封闭的系统——会自动给予机器一定优势。
我从 1997 年就了解了这一点。当你意识到国际象棋计算机选手的绝对性优势时,相较于现代标准,深蓝还相对较弱。如今,机器的力量绝对是可怕的。它们比 Magnus Carlsen 强的不是一星半点,甚至你手机上的免费国际象棋应用都可能比当初的深蓝还要厉害。
我可以看到这样的趋势。你知道,我可以看到这是一条单行道。这也是为什么我说要和机器进行合作的原因,我意识到,在游戏这个领域中,人类是注定比不过机器的。
这也是为什么我对 AlphaGo 或是 Elon Musk 的「Dota」——人工智能选手的胜利丝毫不感到惊讶的缘故,即使这些机器所获得的知识有限,他们有这样一个目标。关于规则的设定。而制定规则就意味着存在一个规则边界。只要明白自身最终目标的机器在边界内运行,即使这是唯一的信息,也足以使机器达到人类无法企及的高度。
「很多人对 AlphaGo 击败人类最好的围棋选手印象深刻,然后是 AlphaGo Zero 在除了规则而没有任何额外信息的情况下击败 AlphaGo,但对我来说,这只能显示出人类对于围棋这一领域知识的掌握是多么可怜。围棋是非常复杂的。」
Edwards:输给深蓝有什么感觉?
Kasparov:输总是不好的。对我来说,我的意思是,不好的感受。对我而言,这只是比赛期间的首次失利。不是机器—仅仅是在国际象棋中。
在我「Deep Thinking」一书中,我承认我有几次失败后的恼羞成怒,并且非常伤心。对于 IBM 这场比赛的组织方式我有很多意见。我现在仍然坚持一些我的批评意见,但是在我的书中,我给与了 IBM 科学团队很多赞誉。毕竟,失败已经是过去的事了。
Edwards:那已经是历史中的时刻了。
Kasparov: 那已经属于历史了,虽然这是一种暴力破解的算法,而不是一个像人类一样的机器——据说 B 型机拥有这种特性,在国际象棋的比赛中取得胜利。但是正如我们发现的那样,国际象棋游戏很容易被具备足够算法、更大数据库和超高速处理器的高性能机器所攻克。
所以,我们在看围棋时,它已经是一种不同的机器了,而是一个深度学习程序。所以这并不是一种非常依赖暴力算法的机器。但是它仍然属于暴力破解的范畴,然而你拥有深度学习的元素。
「很多人对 AlphaGo 击败人类最好的围棋选手印象深刻,然后是 AlphaGo Zero 在除了规则而没有任何额外信息的情况下击败 AlphaGo,但对我来说,这只能显示出人类对于围棋这一领域知识的掌握是多么可怜。围棋是非常复杂的。」
围棋是非常复杂的。当今最棒的人类围棋选手的水平可能就反映了 200 年前世界顶尖选手的水平。如果你向 19 世纪最好的象棋选手展示这种游戏——现代象棋游戏——他们会被震惊到,这些将超出他们的想象。
让我重新回到这一点。这是一个封闭的系统,所以在任何的封闭的系统内,机器将会占据主导地位。任何可以量化的事情,机器都会做的比人类更好,并且我们无法做出这样的假设:你可以自动将从封闭系统内的知识转移到开放式系统中。
「机器能解决任何问题,但它们无法知道哪个问题最切题。」
Edwards: 在深度学习领域,机器学会了自学,这不仅是穷举法而已。你刚刚也提到,给机器定一个目标实在太难了——机器可没什么意图,需要人告诉它们应该做什么。机器本身是没有目标的。
Kasparov: 这和目标的定义有关。
Edwards: 在未来,人工智能的目标有多重要呢?有没有可能给人工智能设定一个目标?
Kasparov: 目标是随着问题产生的,但是机器并不会提问。或者,更确切地说,机器可以提出问题,但是它们无法得知哪个问题是切题的。这就像是一种限制,因为一台机器并不能理解边际收益递减规律。它会不断地询问下去。所以,当有一个意图、一个目标的时候,你就会触碰到机器所到达且停止的零界点。
所以,在不远的将来,我猜测机器能获得意图的可能性很小。我想,这与机器的运作方式是矛盾的,因为现在的机器了解的是可能性。他们可以在模式下工作。但是,意图——仍然需要将开放式系统转移成封闭系统。而且你必须明白什么问题是重要而相关的。
紧随一位康奈尔大学的教授的演讲,我做过一次演说。这位教授当时也谈到这一点,然后说:「机器能解决任何问题,但是它们无法知道哪个问题是切题的。」
「作为生长于苏联的一份子,我足够了解独裁者及其运作方式。我们应该如何面对这样一个事实——处于便利性考虑,我们愿意泄露如此多的个人信息?」
Magnus Carlsen 和 Kasparov
Edwards: 为什么安全性对你而言如此重要?
Kasparov: 它汇集了我生命中的某些元素——同时也是我当下生活的关键利益。它与人工智能技术有关,但也涉及个人权利。多年来,我一直在警告,如果危险分子利用现代技术,将会危害我们的生活方式。
而现在,我的观点是这样的:我们正在面临一个巨大的挑战。让我们抛开普京、金正恩和所有这些恐怖分子和独裁者来考虑。我们的社会正在经历技术带来的巨大变革。我在博客上也提到了许多有关问题,例如自由言论和仇恨言论。
过去,我们常常在生活中能将好坏分开。但现在,我们正处在这样一个环境当中——除非加以严格控制(其实我并不喜欢)是难以区分好坏的。因此,不可能阻止负面信息泛滥成灾,而这是我们不想看到的。我们需要做出一些艰难的选择。所以,在虚假新闻、巨魔工程和恶意玩家当中,我们要决定如何生活和运作。
但也有一个大问题。所以,我觉得,作为人权基金会的主席、作为生长于苏联的一份子,我足够了解独裁者及其运作方式。我们应该如何面对这样一个事实——处于便利性考虑,我们愿意泄露如此多的个人信息?这是因为,我们想要获得益处,却没有意识到,当你和世界紧密相连时,世界也将你的信息掌握在手。那么,掌握巨大个人数据收集的后果是什么呢?而且,这些信息还储存在跨国巨头、公司当中!
我只是想找到一个理论解释——而非解决方案。不过,我建议我们仍然要看到 Google 数据收集和苏联国家安全委员会之间的区别。然而,即使 Google 是个美国公司,如何确保这些信息不会被用来伤害个人呢?
这些问题对我而言很重要。Avast 也正在积极使用人工智能来保护个人客户免受各种恶意软件的侵害。虽然我并不是技术专家,我强烈地感觉到需要这么做。所以,这是在令人兴奋、现代却危险的世界中,保护个人免受各种威胁的方法。