华为发力AI,到底瞄准的是何方?
我们知道,智能手机行业,苹果、Google都在积极布局人工智能。而身为国内领头羊的华为,却很少显山露水。
大家一定很好奇,华为是怎么来理解人工智能的?
今天的 GMIC 大会上,华为智慧工程部部长芮祥麟给出了一份他自己的解答。
他强调说,过去这几年,人工智能一直是华为的重中之重。他讲的角度,是人工智能在手机、云端和芯片这三方面的发展,并详细解释了如何把这三方面整合在一起,以发挥出最大的优势。
以下为华为智慧工程部部长芮祥麟演讲实录,经AI100编辑整理,Enjoy!
过去这几年,AI一直是华为的重中之重,我今天当然是不准备跟各位讲一些神奇的算法及模型,因为这可能在学术界的场合比较好讲,今天主要从另外一个角度,AI在云侧、端侧,比如手机、云和芯片这三方面目前发展状况怎么样,以及如何整合在一起发挥最大的优势。
AI已经是个很老的概念,从50年代到80年代,到机器学习到2010年开始深度学习,整个过程来说,真正打下基础的是在机器学习的时候。
因为,在机器学习时代,整个统计分析的方法是突飞猛进的。
我个人觉得,机器学习里面所需要的整个数学的基础,比深度学习多得多,事实上现在很多深度学习的方式看起来非常复杂,其实里面数学的东西非常少。
我今天要讲的在云侧、手机及在芯片,如何把它们AI的能力优化拉通。
在传统上,比如大家看到Google或者什么,在云侧整个机器学习的能力,我用机器学习也代表深度学习,只是代名词而已。
在云侧,要给算法的开发者一个很好的框架,很快能够搭建出整个算法模型,去解决具体的问题,比如人脸识别或者语言识别。
基本上在云侧要变成一个开放式的系统,希望定出一个标准,比如通过微服务的方式能够把第三方各个AI模型,不论是适合哪一个业务场景的AI模型,都很顺利的对接进来,一个整体的形式提供给用户,这才是整个算法模型的经营。
各位可以想象,整个未来发展在云侧,机器学习就是服务,有点像SaaS,未来会有越来越多的算法公开,透过授权的方式下载,就好像各位今天从苹果商店下载APP一样,未来也可以根据你们所需要解决的业务场景下载适合的算法、适合的模型。
那么为什么要在云上面呢?因为云上有它天生的好处。
各位如果搞AI模型多的话会知道,为什么现在AI爆发出来?
主要是三个方面的能力都聚合了,而且聚合在云上:
1. 整个计算能力已经彻底开放了,等于上面拥有无穷尽的计算能力,任何高度计算复杂度的算法在云上都可以被执行。
2. 另外一个是算法模型,因为计算能力被解放了,过去只有在教科书上,可以用理论上探讨的数学模型,在今天都有可能实现。
我记得之前读书的时候,最多做到三维四维的分类,但是现在可以做上百万维的分类。
其实,比模型更重要的是数据级。
经常可以看到很多非常亮眼的算法模型,比如人脸识别等,事实上模型本身的设计已经突破,数据才是最主要的。
有没有大量的训练数据、测试数据,这才是最主要的。
所以我经常比喻算法模型像歼-20或者美国的F22,但是大量的测试数据级、训练数据级是燃料,有了他们,才能把飞机弹到空中去,不然再好的模型没有弹射器也是废铁。
因此,能把这三者结合,有好的平台,有大量的数据级,以及强大的计算能力,这才是制胜之道。
特别强调的是,在云上,要针对某些业务场景设计一个算法模型的话基本上有三个阶段:
研发阶段比如利用google的开发者搭建一个很好的模型,还有模型评估,模型优化,中间这个是要有很快的数据级做闭环训练的,搭建好模型以后深度学习三个参数训练好,但是现在的深度学习是上百万甚至亿级的参数训练好,训练好之后交终端用户下载到机器上执行。基本上是这三个阶段。
所以未来在云上会实现一个开放的模型图,像Google的caffe只是一个开始,我们可以在上面找到我们的算法模块,搭建出我们所需要的模型解决问题。
底下的是自然语言处理,基本上是两大步骤:
1. 要把声音变文本。
2. 把文本做语义分析。
文本要变成你所能够了解的话,当然整个算法链条非常长,仔细拆开至少分成5大步骤,等于要把声音变成文本,文本分词再做语义理解,之后可能还要到背后数据库做搜寻及知识图谱的比对再返回来,各位如果看到现在的对话系统,基本上背后都绕了一大圈等于是很长的算法链条。
假设整个算法模型搭建出来像右上角用深度学习的话,它是百万级参数的模型,这个大模型只能在云上跑,要下载到手机端做语音识别要减枝,当然减枝的结果是会丧失一些精确度,等于我们理想的状况是在一个云平台开发一个理想的模型针对你所需要的终端设备,要做模型优化,模型放大或者缩小减枝。
好像我们各位熟悉的APP到AI时代变成专门针对某些应用场景的模型,这些模型可以做版本管理、模型描述、模型分类、模型排名、下载管理、模型加密、授权和计费,整个云端开放的AI的生态系统应该是这样子的,等于要定义一个API,让终端用户可以很顺利的透过API的方式调用你的模型,像手机商店一样,整个云平台及模型的开发人员是一个利润共享的模式,跟现在的APP的模式没有什么差别。
当然也要有授权的模式,这是我觉得将来会出现的一个计费模式。
云讲完了再讲端。
各位要知道手机上的智能也是越来越多了,一般模式整个大的模型、完整的模型,在云上面开发完之后经过减枝、权值量化及霍夫曼编码,下载到手机上,手机上只负责执行,学习是在云上,整个模型小型化之后到端侧,这是以前粗略的分法,其实在端侧也可以学习的。
端侧的智慧化是什么呢?大家看手机功能点是500-900个,但是很多人都不知道,现在等于是要利用云的方式、利用图象的方式,能够把这些功能点这些原生应用很好调用起来,比如语音说“把过去两年我女儿的照片统统挑出来/过去两年把在哪个旅游点照的照片挑出来”这种语音的方式可以透过自然语言处理,再透过语义务处理把图象识别出来,照片挑出来,不然各位手机里的照片打开就是上千张,靠人弄是不可能的。
在手机端跟云端一样也呈现一个开放的局面,有一个横向的集成,越来越多第三方AI的应用可以被直接集成在手机上,另外纵向的集成,手机会变多成模态信号的系统,不只声音、文字还有传感设备将来也会利用手机作为一个入口,甚至我们的情绪,假设手机上的摄象头够聪明可以把你的情绪都识别出来帮你做更好的判断。
今天要给各位分享的一个比较特别的是,为什么要做端侧学习?
通常分界的方式是云侧做学习端侧只是模型小型化之后做执行,但是因为手机实际上是我们最亲密的伙伴,比各位的夫人/先生亲密得多,相信我们跟个人的手机花的时间比任何伴侣都要多,所以它应该是知道你最多的,但是基于法律的限制我们也不应该把任何一条个人信息往云上传做分析,所以就变成基于一方面要保护用户的私人信息,一方面在端侧能够不断的学习。
所以这方面,看google最新的案例,他们叫联合学习,假设一个大型的模型,假设是用户画像分析训练好之后,外面有上千万的用户,大型的用户画像分析弄好之后通用的,下载到手机端,下载之后可以在手机端做小型模型的学习,总结之后再上传,等于上面一个通用的模型会同时接受上千万级小型增量级的模型,现在就是要有一个数学模型能够把千万级的小型模型融合成大型的模型,在这方面google最近发表了很好的文章,主要是数学模型,是高度析出化的样板空间。
等于是形成一个闭环,底下是千万级别的终端用户一个微增量的学习,它的模型能够上传变成一个大的模型。
事实上在手机端是连续的学习,各位的手机是从来不会停下来的,只要一开机就不断在学习你,所以是个连续学习,它可以通过摄象头、透过操作APP的方式、语音的收入,当然我们要搞清楚法律的界限,哪些是可以上传的,哪些要保留在手机里面。
芯片提供商也没有闲着,无论是IBM还是华为自己都在做大量适合手机上的芯片,基于保密原因我只能分析已经公开的Google的TPU,它的计算速度比传统的GPU提高了15-30倍,能效提高30-80倍,深学习按照普通CPU算的话能耗很高的。看一个指令级,一个指令级Google的TPU一个64G的指令级拿到普通CPU架构上是1200条,各位可以看出整个计算力量的差别。
所以在未来的时代,整个手机上芯片的结构是异构结构,有CPU、GPU、有NPU,等于是在一片芯片里面最好有三到四种的异构,适应不同的算法。
所以未来的趋势是云+终端+芯片的一个全面的整合,在这方面我相信是未来AI发展的方向。
➤版权申明:该文章版权归AI100所有,如需转载、摘编、复制等,请后台留言征得同意。若有直接抄袭,AI100将追究其责任。
AI100致力于打造人工智能技术和产业社区。为人工智能开发者提供信息和技术交流的平台;为人工智能创业者提供行业数据及智能应用的商业场景;为行业提供人工智能化的技术商业应用。请快快关注我们吧