OpenAI意外收获机器学习新方法,可大幅提升AI文字理解与推测能力
OpenAI提到,当有足够庞大的训练资料时,非监督式学习可以产生卓越的区别性特征。虽然在不少应用的结果仍不敌纯粹的监督式学习,但是不失为另一个研究方向。
OpenAI以非监督式学习预训练模型,并结合监督式训练做微调,其研究结果显示,人工智能对于语言理解的程度大幅提升,特别在COPA、RACE和ROCStories这三个数据集集,被认为需要多语句推理和重要知识参与理解,而OpenAI的新方法比起其他竞争对手,在这些数据集的分数都获得很大程度的提升。
研究团队在进行情绪神经元相关工作时,获得了新方法的启发。这个新方法主要有两个阶段,首先研究团队为非监督式的方法Transformer模型,提供非常大量的训练资料,并将语言建模做为训练讯号,之后在以小型的数据集集,对这个模型进行微调,让他适合解决特定任务。
当有足够庞大的资料做为训练输入时,非监督式学习反而可以产生令人惊讶的区别性特征。基于这个发现,当建立模型后,以无监督的方式使用大量资料进行训练,接着对模型进行调试,以提供不同工作的最佳性能,而换句话说,相同的核心模型,透过不同的调试就能处理不一样的任务,大大提升了工作效率。
在近期的机器学习研究中,监督式学习有很大的进展,但是其缺点就是需要庞大、经过仔细整理的标签数据集,而取得这些数据集的成本非常高,Google的人工智能研究团队也提到了同样的困难。因此OpenAI认为,虽然非监督式学习现在可应用的领域仍然非常有限,但可以使用不具有明显人类标记的训练资料,对于研究人员来说极具吸引力,而且由于当前妓院资源增加,原始资料的可用性便获得提升。
对于模型以大量文本进行预训练,可以大幅改进自然语言处理的效率,如同Winograd Schema Resolution这类的任务都能得到帮助。研究人员也提到,底层的语言模型也可以不经过训练,便能开始执行任务,他们提到,随着底层语言模型的改进,像面对选择题挑选出正确答案这样的任务,模型性能会在过程中愈趋稳定。该模型在COPA、RACE和ROCStories这三个数据集的表现特别良好,无论是在常识推理或是阅读理解上,都超越现存方法的表现。
这个底层的语言模型还能拿来进行情感分析,OpenAI研究人员使用内含正面与负面电影评论的Stanford Sentiment Treebank数据集,让模型预测评论为正面或是负面,在不对这个任务进行最佳化的情况下,推测精确度达80%。这个研究验证了Transformer架构的强健性与稳定性,有足够的灵活性应付各类工作,而且不需要超级参数组设定。当然,比起监督式学习的结果来说,非监督式学习在这部分的研究还在很初期的阶段,但却提供了研究人员另外的可能性。
研究团队也提到了这个方法的3个缺点,首先,这个非监督式学习需要较多的计算资源,过去的研究在NLP任务训练上,仅需要单一GPU就可以完成,但是OpenAI的这个新方法却需要8个GPU预训练长达一个月,虽然只需要计算一次,但是对于预训练来说成本还是相当高。另外,预训练出来的模型很大,以至于需要更多的计算力与存储进行推测计算。
第二个缺点,从文字学习知识存在限制以及偏差,除了书籍以及网络上的资料提供的知识,可能不完整或是错误外,研究团队引用其他研究,部分特定领域信息难以透过文字学习。最后,尽管这个方法改进解决多领域任务的性能,但是目前深度学习NLP模型,仍然在很多时候会出现意料之外或是违反直觉的结果,特别是用系统化指标来衡量的时候。