初创公司危机、道德人工智能、会话认知?2018年10大深度学习预测
初创公司危机、道德人工智能、会话认知?2018年10大深度学习预测
2018年可能是一切都发生巨大变化的一年。我们在2017年看到的令人难以置信的突破将在2018年以非常强大的方式延续下去。2017年的研究工作可能将会转化为日常的软件应用。
每年都有的例行盘点:这有一份预测2018年深度学习的预测清单。
1.大多数深度学习硬件初创公司将失败
许多深度学习硬件初创企业将在2018年开始终于交付他们的芯片。他们可能会面临困境,因为这通常是需要提供良好的软件来支持他们的新解决方案。这些公司有硬件作为他们的DNA,不幸的是,在DL领域,软件同样重要。这些创业公司大多不了解软件,也不了解开发软件的成本。有部分公司可能会提供硅片,但是没有任何东西可以运行。
采用收缩阵列解决方案已经被采用,因此我们不会在2017年发现有大规模的10倍性能升级。于是研究人员将开始使用这些张量核心不仅用于推理,而且还会加快训练。
英特尔的解决方案可能会继续推迟,有记录显示英特尔无法在2017年中期发布,而且人们猜测该公司何时能够交付。如果迟到了,这可能会让人很失望。
Google将继续以TPU的发展让世界大吃一惊。也许它还会通过将IP授权给其他半导体供应商来进入硬件业务。如果它继续成为Nvidia以外唯一真正的城市玩家,这将是有意义的。
2.元学习将是新的SGD
2017年出现了很多有关元学习的强大研究。由于研究界对于元学习的理解越来越深入,所以旧的随机梯度下降(SGD)模式将被转而采用更有效的方法,搜索方法将开发性和探索性两者结合起来。
无监督学习的进展将是渐进式的,但主要是由元学习算法驱动。
3.生成模型驱动一种新的建模
目前,大多数研究是在生成图像和语音。但是,我们应该将这些方法结合到建模复杂系统的工具中。你将会看到这个活动的一个领域就是应用深度学习来进行经济建模。
4.自玩是自动化的知识创造
AlphaGo Zero和AlphaZero从零开始学习和自玩是一个巨大的飞跃。在我看来,它与深度学习的出现具有同样的影响力。深度学习发现了通用函数近似, RL自玩发现普遍的知识创造。
在2018年确实期待看到更多与自玩相关的进步。
5.直觉机器将弥合语义鸿沟
这可能是最大胆的一个预测了。我们将跨越弥合直觉机器和理性机器之间的语义鸿沟。双重过程理论(两个认知机器的概念,一个是无模型的,另一个是基于模型的)将是如何构建新AI的更流行的概念。 2018年,AI直觉的概念将不再是一种附带的概念,它将会成为普遍被接受的概念。
6.可解释性是无法实现的 - 我们只能假装
解释性有两个问题。更常见的问题是,这种解释对于人类来说,可能有太多的规则。第二个不太为人所知的问题是,机器会创造出完全陌生的概念,并且无法理解。我们已经在AlphaGo Zero和Alpha Zero的战略中看到了这一点,人们会观察到它的一个移动是非常规的,可能根本可能没有能力去理解这个举动背后的逻辑。
在我看来,这是一个无法解决的问题。会发生什么事呢,机器可能会变得非常擅长“伪装说明”。简而言之,解释性机器的目的是要理解人类能够直观地理解。然而,在大多数情况下,人类是无法获得完整的解释的。
必须通过创造“假说明”,从而在深度学习的可解释性方面取得进展。
7.深度学习的研究信息将会下降
对于深度学习研究的人来说,2017年度已经很难了。 ICLR 2018年会议提交的论文数量约为4000份。一个研究人员每天可能要阅读10篇论文,才能赶的上这个会议。在这个领域,问题越来越严重,因为理论框架都在进行中。为了在理论空间上取得进步,我们需要寻找更先进的数学,使我们能够更好地认识。这将成为一个难题,因为大多数深度学习的研究人员不具备正确的数学背景来理解这类系统的复杂性。深度学习需要来自复杂性理论的研究人员,但这类研究人员非常少。
此外,还缺少的是人工智能(AGI)的总体路线图。理论薄弱,因此,我们所能做的最好的就是制定一个里程碑式的与人类认知有关的路线图。目前,我们只有一个源自认知心理学的投机理论的框架。这是一个糟糕的情况,因为来自这些领域的经验证据充其量只能是参差不齐。
而在2018年,深度学习研究论文可能会翻三番或四翻。
8.工业化通过教学环境来实现
通过对具体化的教学环境开发,深度学习系统走上更加可预测和可控发展的道路。如果你想找到最原始的教学方法,你只需要看看深度学习网络是如何训练的,在这个领域应该会看到更多的进展。
期待看到更多的公司披露他们的内部基础设施,以解释他们如何大规模部署深度学习。
9.会话认知出现
我们衡量AGI进展的方式是陈旧的。可能会提出一种解决现实世界动态(即非平稳)复杂性的新范式,而且应该在未来的一年都会看到更多这个新领域的报道。
10.我们要求道德上使用人工智能
更多道德使用人工智能的需求将会增加。人们现在越来越意识到自动化运行意想不到的后果所带来的灾难性影响。我们今天在Facebook、Twitter、Google、Amazon等上发现的简单自动化可能会对社会造成不良影响。
我们需要了解并部署能够预测人类行为的机器的道德规范。面部识别是我们掌握的更危险的功能之一。可以产生与现实无法区分的媒体的算法将成为主要问题。作为一个社会,需要开始要求我们把人工智能作为一个整体来使用,而不是作为增加不平等的“武器”。
预计来年会有更多的关于道德的话题。但是,不要指望新的规定。在理解人工智能对社会的影响方面,政策可能还会落后多年。
2018年将是一个重要年份,我们都必须更好地扣紧安全带,并为冲击新的人工智能做好准备。