人工智能和驱动在机器中的应用
【AI100 导读】目前,人工智能的研究和发展仍在继续。那么,对人工智能的研究现在进行到什么程度,我们期望在未来会看到什么样的成果呢?为了回答这个问题,首先我们需要试着定义人工智能是由什么组成的。
人工智能的概念可以追溯到现代电脑出现以前——甚至可以追溯到久远的希腊神话中。赫菲斯托斯是希腊的雕塑和铁匠之神,人们认为他创造出了为他所用的机器人。另一位神话人物,皮格马利翁雕刻了一座美丽女性的象牙雕像,他爱上了这位美丽的女子。后来,阿佛洛狄特赋予了这座雕像生命,把她作为礼物送给了皮格马利翁,最后他与这位女性结婚了。
纵观历史,在神话和传奇中人类创造的物品被赋予智慧很是常见。从简单的超自然起源(例如希腊神话)再到更合乎科学的方法炼金术的逐渐流行。自19世纪起,小说中,特别是科幻小说中,人工智能这个概念就越来越流行。
但是,直到19世纪和20世纪,数学,哲学以及科学方法发展到一定程度时,人们真正的认为人工智能确实可行。这个时代的数学家开始提出理论形体化逻辑推理,例如 George Boole, Bertrand Russel, and Alfred North Whitehead。20世纪后半叶,随着数字计算的发展,这些概念被付诸实践,人工智能研究开始兴起。
近50多年来,人工智能发展成绩的起伏关系着公众利益以及工业的成功和失败。该领域的研究人员预测以及科幻小说里的设想在现实中难以实现。通常,这都归咎于计算能力的限制。但是,理解什么是实际意义上的智能这个更为深入问题已经引起了热议。
虽然过程曲折,但是人工智能的研究和发展仍在继续。最近,科技公司和全世界在大学任职的学者们一直在进行这方面的研究,他们预见到了这些先进技术的潜在经济价值。研究现在进行到什么程度,我们期望在未来会看到什么样的成果呢?为了回答这个问题,首先我们需要试着定义人工智能是由什么组成的。
弱人工智能,通用人工智能和强人工智能
你可能会大吃一惊,因为人们普遍认为人工智能已经存在。正如 Albert 这位硅谷的人工智能研究员说的:“…人工智能正在对你交易异常的信用卡进行监控,人工智能正在读取你写在支票上的金额。如果你在你的手机图片里搜索“日落”,人工视觉会找到有关日落的照片。”这种人工智能就是行业中所说的“弱人工智能”。
弱人工智能
弱人工智能所能从事的任务有限,例如苹果系统中的 Siri。尽管 Siri 也被认为是人工智能,但它只能在预设定的范围内操作有限的智能任务。Siri 可以进行语言处理,对用户的要求进行解析以及完成一些基本任务。但是,Siri 不具备任何知觉或者意识,正因为如此许多人不满这样的系统竟然被定义为人工智能。
可是,Albert 认为人工智能的标准一直在发展,他说:“在人工智能研究团队中流传着一个经久不息的笑话,那就是一旦我们攻克了一些问题,人们就认为这不是真的智能!”仅仅几十年前,认为拥有 Siri 这样的人工智能辅功能的就是人工智能。Albert 继续说道,“过去人们认为下国际象棋是智能巅峰的表现,直到我们击败了世界冠军。然后他们又说我们永远不可能在围棋上取得胜利,因为那搜索空间太大,而且需要‘直觉’。去年我们打败了世界冠军…”
强人工智能
最终,Albert 和其他一些人工智能研究人员只能定义这种类型的系统是弱人工智能。另一方面,当有人提到人工智能的时候,大多数外行人想起的便是强人工智能。一个强人工智能机器是有思考能力和推理能力的,并且具备感知和/或意识。这种类型的人工智能是科幻小说里的人物,例如 HAL 9000, KITT, and Cortana(在《光晕3》中,不是微软的个人助理)。
通用人工智能
实际的强人工智能是由什么组成的,还有如何测试和定义这样一个实体,是一个被激烈地讨论的富有争议的话题。总的来说,我们离强人工智能还有些距离。但是,另外一种系统,AGI(通用人工智能)是弱人工智能向强人工智能过渡的桥梁。虽然 AGI 并未能拥有强人工智能的感知能力,但是它比弱人工智能更强大。一个真正的 AGI 机器能够学习呈现在它面前的信息,而且能够回答基于此信息提出的任何问题(同时也能进行与之相关的操作)。
虽然AGI因为是人工智能领域最新的研究方向而备受关注,但是最终的目标还是强人工智能。数十年之后,甚至数百年之后的强人工智能成为科幻小说的中心内容,我们中的大多数一直理所当然的认为在未来的某天我们会创造出有感知的人工智能机器。但是,很多人认为这根本不可能,而且关于这个话题的大量辩论围绕着哲学理念中的感知,意识和智能予以展开。
意识,人工智能和哲学
这个讨论始于一个非常简单的问题:什么是意识?虽然这个问题很简单,但是任何一个读过哲学简介的人都会告诉你这个答案一点也不简单。这个问题已经让我们全体头痛了近千年,而且非常努力的去解答这个问题并获得了满意的答案的人寥寥无几。
什么是意识?
一些哲学家甚至已经给出了与大众一致的想法,意识甚至不存在。例如,在《意识的解释》中,Daniel Dennett 的观点是意识是由我们脑子产生的精妙幻觉。这是哲学概念中决定论的逻辑延伸,其指出了一切皆有因果,并且是一个原因造成的这个结果。走向逻辑的极端论指出每个想法(因此意识)是先前发生事件的生理反应(乃至原子的相互作用)。
大部分人觉得这种解释是荒谬的-我们的意识经验是不可或缺的,所以当说到意识不存在时大部分是是难以接受的。但是,即使有人打算接受意识是存在的的,而且自己能够占有它,如何证明其它的个体也能拥有它?这是唯我主义和哲学僵尸的知识领域。
唯我主义的概念是一个人只能真正证明自己的意识。想起卡迪尔的名言“Cogito ergo sum”(我思故我在)。虽然,对于许多人来说,这只能有效地证明自己的意识,但是对于证明其他人有意识这件事情上毫无用处。一个流行的思考练习是对面临有可能变成哲学僵尸的困境进行阐述。
哲学僵尸
哲学僵尸是指一个人没有意识,但是却可以分毫不差的模仿意识。维基百科上有关于哲学僵尸的页面写到:“例如,一个哲学僵尸被尖锐的物体扎伤且感觉不到任何疼痛,但是行为表现的像是感觉到了疼痛(他可能会说“哎呦”,一边躲开尖锐的物体,一边说好疼)。”进一步而言,虽然它不疼,但是这些爱幻想的人可能会想它一定很疼。
随着这个思维实验的拓展,让我们假定一个哲学僵尸出生在早期人类的生活圈,拥有进化优势。随着时间流逝,这些优势遗传给存活的下一代,最终意识人类人类彻底被这些哲学僵尸替代,那么地球上的所有人都是哲学僵尸。你能证明你周围的所有人都有意识吗?或者他们只是非常善于模仿呢?
这个问题对于围绕着强人工智能展开的讨论非常重要。如果我们不能证明另一个人是有意识的,那我们怎么证明一个智能机器是有意识的呢?John Searle 不但在他非常有名的中文房间思想实验中阐述了这个问题,而且还进一步指出了用数字电脑是不可能创造出有意识的人工智能机器。
中文房间
Searle 首次发表中文房间的论证时,大概是这样写道:假设有一个人工智能机器,采用中文汉字作为输入,让它处理这些汉字,然后再输出中文汉字。这个智能机器运行的非常好足以通过图灵测试。那么我们能够就此推断出人工智能能理解正在被处理中国汉字吗?
Searle 表示无法确定,但是人工智能刚好表现的好像是能理解中文汉字一样。他的基本原理是一个男人(只能理解英文)置身于一个密闭空间,给他提供适当的指令和足够的时间,一样可以工作。这个男人接受中文请求,按照英文指令处理这些中文汉字并且提供中文输出。这个男人从未真正的理解中文,只是简单地按照指示行动。所以,Searle 的推理是一个人工智能机器并不理解正在处理的是什么,它只是看起来像是理解了。
中文房间想法和哲学僵尸的观点类似,这并不是个巧合,都在试图找出真正的意识和行为意识之间的区别。图灵测试因为过于简单所以经常被批评,但是 Alan Turing 在介绍中文房间之前已经非常仔细的考虑过中文房间的问题。30多年前,Searle 还未发表了他的想法时,图灵就已经预料到这个概念并把它作为“他心问题”的拓展(唯我论)。
Polite Convention(等同原则)
图灵提出的这个问题是通过赋予机器和其他人相同的“politeconvention”原则。虽然我们无从知晓其他人是否与我们一样拥有真正的意识,我们表现地好像他们是出于实用性-否则我们无法完成任何事情。图灵认为根据中文房间这样的问题就会对一个人工智能机器产生偏见的情况将会一直持续,直到人工智能达到更高的水准,超过我们认识的一些人。因此,图灵测试把完美的模仿意识和因实际原因而使用的实际意识等同起来。
如今,对于大部分现代人工智能研究员而言,不定义什么是“真正”意识,这对哲学家来说是最好不过的了。Trevor Sands(就职于洛克希德马丁公司的一位人工智能研究人员,他强调他的陈述与其观点相呼应,但是他的雇主未必需要这些)表示:“在我看来,意识或者感知不是 AGI 获得成功的先决条件,相反现象的产生是因为智能。”
Albert 采取了模仿图灵的理论的方法,他说“如果事物看起来非常像是有意识,那么我们不得不认为它有意识,即使他可能没有。”虽然哲学家和学者们之间的争论还在继续,但是该领域的研究人员从未停止。意识的问题被搁浅了,发展 AGI 更为重要。
人工智能发展史
现代人工智能于1956年在达特茅斯学院召开的会议拉开序幕。参加参加这场会议的许多人之后成为了人工智能研究方面的专家,而且他们主要负责人工智能早期发展。在那之后的几十年里,他们引进将把这个不断把发展的领域变得火爆的软件。计算机能够下西洋棋(并且取胜),解决数学证明(有时候,提出的解决方法比之前数学家给出的更加有效),还能进行初级语言处理。
不出所料,人工智能潜在的军事应用引起了美国政府的注意,从60年代起国防部一直在对此项研究进行投资。前景很是乐观,但是被资助的的研究项目大部分都没有方向。人们相信在人工智能领域中的重要突破即将来临,当研究人员看到希望时,也在不停的工作。Marvin Minsky 是这个时代一位多产的人工智能研究员,他曾在1967年表示:“一代人的时间之内…基本上能解决创造人工智能的问题。”
令人遗憾的是到目前为止关于解决人工智能的问题的承诺并未实现,从70年代开始,激情已经开始消退并且政府的资助开始削减。缺少资金这就意味着研究进展非常缓慢,而且在接下里的几年里鲜有进展。直到80年代随着“专家系统”在私企中取得成绩后,才提供财政鼓励,再一次对人工智能研究进行大量的投资。
整个80年代,主要因为美国,英国和日本政府,发展人工智能再次拥有充足的资金。让人联想到了60年代的乐观情形,同时又许下有关于真正人工智能即将到来的豪言壮志。日本第五代计算机系统工程应该可以为人工智能的进步提供一个平台。但是,这个系统缺少成果并且还有一些失败案例,再一次导致人工智能研究经费被削减。
在世纪之交时,人工智能发展的实践途径以及用处逐渐显示出其良好的发展前景。通过访问大量的信息(通过网络)和强大的计算机,逐渐证明弱人工智是非常有益于商业。应用于股票市场,数据挖掘,物流以及内科诊断学领域的这些系统都取得了巨大的成功。
在过去的十年里,在神经网络和深度学习方面取得的进步带来了人工智能领域的复兴。当前,大部分研究主要专注于弱人工智能的实际应用和AGI的潜能。弱人工智能已经在我们身边得以应用,如果在AGI领域将要取得重大突破,那么对人工智能的热情就会再一次高涨起来。
人工智能发展的现有方法
现在的研究人员大力投入到神经网络中,它粗略地模仿生物大脑工作的方式。虽然正在研究真正的虚拟仿真生物大脑(拥有单独的神经元),现在更为实用的方法就是利用深度学习执行神经网络。这个想法就是大脑处理重要信息的方式,但是没有必要为了它做到仿生。
作为一名专门从事深度学习的人工智能研究员,Albert 的工作就是试着教神经网络来回答问题。当询问 Albert 的目标时,他的回答是:“有关于问答系统的梦想是有一个圣人可以储存所有的人类知识并且能够与之相关的任何问题。”虽然这是不可能的,但是他说道:“到目前为止,人工智能可以阅读一小段文件,回答问题以及提取文件中极其简单的信息。艺术的前景诱人所以我们现在开始关注这些系统推论的起源。”Trevor Sands 就职于洛克希德马丁公司也从事神经网络研究工作。他研究重点是创造出“利用人工智能技术让人们和自控系统工作起来像一个协作的团队的程序。”像 Albert 一样,Sands 利用神经网络和深度学习智能地来处理大量的数据。选用了正确的方式那么希望也就随之而来了,并且能够创造出根据指令自己学习的系统。
Albert 阐述弱人工智能和最近出现的神经网方法的不同之处“你应该用一种算法观察人们,用另一种算法进行语音辨识,剩下的算法进行 NLP(自然语言处理)。但是,现在他们都在使用神经网络,所有难题基本上使用的都是同一种技术。”我觉得这种一致性非常令人兴奋。尤其假设有人认为那是大脑所为,实际上智能就是一种简单算法的结果。
基本上,作为一个 AGI 机器,理想的神经网络在各种数据上都有效。就像人类的心智,这就是真正的智能,它能够处理给予它的各种数据。与现在的弱人工智能不同,将不需要为它设定具体任务。相同的系统可能会被用于回答历史问题,还能在买股票的时候给股民选股,甚至提供军事情报。
下周:人工智能的未来
目前,神经网络还未精湛到能做所有的事情。但是,这些系统一定要按照他们特定的数据进行“训练”以及训练系统如何运行。对于 Albert 来说成功是一个需要不断地试验的过程。“一旦我们有了一些数据,接下来的任务就是设计一个神经网络架构,它能像我们期待的那样,在能够良好的完成任务。我们经常开始执行一个已知的建筑/模型是从学术文献中挑选的。众所周知,这些架构=构/模型工作好。在此之后,我会想办法去提升它。然后我要进行试验看看我的调整是否提升了模型的运行。”
当然,最终目标就是找到完美的模型可以再任何环境下良好运行。不再需要手动操作和专项训练,可以自己从已给的数据中学习。一旦成功并且系统反应良好,我们将完成通用人工智能的发展。
研究员们对于人工智能未来的发展心中有数,例如 Albert 和 Trevor。我与他们两位就这个问题进行了详尽的讨论,今天就到这里吧。我一起在 Hackaday 讨论人工智能的未来,我们深入讨论一些有意思的话题,例如,道德和权力。再见!
本文由 AI100 编译,转载需得到本公众号同意。
编译:AI100
原文链接:http://hackaday.com/2017/02/06/ai-and-the-ghost-in-the-machine/