新动作:HPE正开发快速定制的神经网络芯片?
据有关消息,HPE正在开发一种快速定制的神经网络芯片的业务。
虽然目前没有详细的细节说明硬件如何工作,它的规格,包括它是否可以处理像深度学习的东西。
这个神秘的芯片的“点积引擎”(DPE)架构显然是为了快速地执行矩阵运算,这对于快速执行人工智能算法非常有用。它还使用了记忆电阻器,据说是用来驱动HPE现已失效的计算机结构的。
veep and general 的总经理Tom Bradicich表示:“它可用于几种典型神经网络推理:深层神经网络、卷积神经网络、递归神经网络。因此,它可以做神经网络的工作和工作负载。”
DPE在模拟域中执行线性代数,这比数字实现更高效,如专用的ASIC。而且,它还具有可重构性。这很快,因为它通过利用忆阻器阵列上的欧姆定律来加速矢量矩阵运算,点积乘法。它还可以用于其他类型的操作,如FFT、DCT和卷积。
提到记忆电阻器使芯片听起来比谷歌的加速芯片TPU和TPU2或Nvidia的GPU更像神经形态。DPE预计将于本月底在西班牙举行的HPE合作伙伴会议上展示,因此我们可能会了解更多。
HPE拒绝置评
TensorFlow更新,谷歌发布了TensorFlow r1.4,这使得软件更容易通过Keras使用底层机器学习框架,而Keras是一个高级的、友好的程序员界面。例如,开发人员可以通过Keras、TensorFlow的Estimator API,向神经网络添加常用工具,如线性分类器或回归器。
此外,TensorFlow的数据集API已经更新,它支持Python生成器将数据管道送入神经网络。还添加了一个新功能,以便更容易地对分布式机器学习进行培训、评估和导出分布式机器学习的模型。
Tensorflow是AI中使用最广泛的框架,对于那些陷入困境的人来说,这里有一些建议。
AI为图像识别自动化设计人工智能,谷歌努力开发机器学习模型已经进行了好几个月,它可以设计神经网络结构。现在,Automl已应用于ImageNet和CoCo中,这两大数据集包含了数以百万计的图像,让软件在神经网络中创建层,用于图像识别任务。
该团队已经报道了一些可喜的成果:AutoML已经能够产生一种新称为NASNet的架构,是一个小的,两层的,完全由谷歌的程序设计的模型。它在ImageNet上达到了82.7%的预测精度——这是一个相当不错的分数,与SENet一样,这是今年大规模识别挑战(ImageNet)竞赛的获胜架构。
通过使用可可的数据集的对象检测任务,Automl的平均精度为43.1%,比2015年的r - cnn(r - cnn)要快4%
这是一个非常有趣的项目,因为用人工智能构建人工智能意味着一些编码可以自动化。它使开发人员更容易创建这些系统,并有可能解决缺乏专业人工智能编程技术人员的短缺的问题。
由于深度学习的训练中缺乏专家人工智能知识,Nvidia公司宣布了新课程、研讨会和伙伴关系,以教授更多的人关于深度学习的知识。
NVIDIA公司,开发项目的副总裁表示,世界正面临着一个数据科学家和开发人员的短缺,他们精通深度学习,而我们专注于解决这一需求。
深度学习研究所(Deep Learning Institute)正在与博思艾伦(Booz Allen Hamilton)合作,为包括美国空军在内的政府雇员进行防务训练。
它还将与由前百度首席科学家Andrew Ng创建的教育创业公司deeplearning.ai合作,将涵盖自然语言处理、金融交易和视频分析的新内容。
一些研究人员将埃隆•马斯克(Elon Musk)的人工智能研究部门的“人工智能”(OpenAI),投入了他们自己的人工智能机器人初创公司。
具体的智能将专注于填补机器人技术和硬件之间的差距。Abbeel在接受《纽约时报》采访时表示,目前的硬件足以模拟人体运动,但该领域需要新的软件来提高自动化水平。这在很大程度上是一个计算机科学问题——一个人工智能问题。
这家初创公司从Amplify Partners和硅谷风险投资公司的其他投资者那里获得了700万美元的资金。它位于加州圣弗朗西斯科以东的Emeryville市。
Pyro Uber AI Labs已经发布了Pyro,这是一种用于深度学习和贝叶斯建模的概率编程语言。
在一个博客文章中,Pyro开发团队的成员诺亚·古德曼(Noah Goodman)解释道,“直接指定概率模型是很麻烦的,实现它们可能非常容易出错。”
“我们相信,解决人工智能的关键思想将来自于在全球范围内寻求各种方法的人们的共同努力。” Goodman表示,“通过开放采购Pyro,我们希望鼓励科学界合作,使人工智能工具更加灵活、开放和易于使用。”