英伟达发布史上最强GPU,却叫停了自动驾驶车路测
作者 | DavidZh
出品 | AI科技大本营(公众号ID:rgznai100)
当地时间 3 月 27 日,英伟达在美国圣克拉的 GTC 大会上推出多款产品。
▌显卡扩容,史上最强的 DGX-2 发布
打头阵的是搭载英伟达 RTX(Real-Time Ray Tracing)技术的工作站显卡 Quadro GV100。
它通过并联两块 Quadro GPU 将内存扩展到了 64GB,可提供每秒 7.4 万亿次浮点运算的双精度性能,深度学习浮点运算性能每秒可达 118.5 万亿次,还支持实时的 AI 去噪。
英伟达还将 Tesla V100 的内存容量升级到 32GB,与现有的 DGX 系统完全兼容。
借助全新的互联架构 NVSwitch,英伟达将 16 块新的 Tesla V100 显卡连接起来,组成了性能强劲的 DGX-2。GPU 之间互相通信的速度高达 300 GB/s。
这是业内首款能够提供每秒两千万亿次浮点运算(PFLOPS)能力的单点服务器。在深度学习处理能力上,一台 DGX-2 相当于 300 台传统的服务器,但只占据 15 个数据中心机架空间,其重量为 350 磅(约 317.5 斤)。黄仁勋称,“DGX-2 是全球最大的 GPU。”
英伟达给出的定价是 39.9 万美元,预计今年第三季度出货。
▌AI 推理很难,但更棒的开发包有了
面向 AI 开发者,英伟达还推出了新的推理软件 TensorRT 4。受益于跟 Google 的合作,TensorRT 4 能更好地与 TensorFlow 做整合。广受欢迎的语音识别框架 Kaldi 也对它做了优化。亚马逊、 Facebook 及微软等大公司在使用的 ONNX、WinML 等开发工具也有比较好的支持。
按照官方说法,TensorRT 4 适用于快速验证、优化及部署在超大规模数据中心、嵌入式与汽车 GPU 平台中经过训练的神经网络。
相比于 CPU,在 GPU 上利用 TensorRT 4 对计算机视觉、神经网络机器翻译、语音识别、语音合成等应用进行深度学习推理,最快可将速度提高 190 倍。
▌新的医疗影像平台和对外合作
除了这些,英伟达还面向医疗机构推出 Project Clara 平台,其本质上是基于云端的医疗影像成像服务。它的特点在于可以将传统的 2D 影像转变为更加立体的 3D 形式。
英伟达还跟芯片设计公司 ARM 达成合作,将开源的 NVIDIA 深度学习加速器(NVDLA)架构集成到 Arm 的 Project Trillium 平台上,从而更好地实现机器学习。
Project Trillium 是 ARM 今年 2 月推出的机器学习项目,拥有较高的灵活和可扩展性。而 NVDLA 是一个免费的开放式架构,可以加速深度学习推理的采用进程。
NVDLA 的开发者套件中也包含 TensorRT,这让软件算法层的开发更具想象力。
▌暂停自动驾驶路测,用仿真模拟加速训练
在自动驾驶领域,英伟达推出了基于云的 DRIVE Constellation 驾驶仿真系统。
利用 Drive SIM 软件,开发人员可以在云端随意构建高度仿真的车辆驾驶环境。而这套系统又会跟搭载了 DRIVE Pegasus 车载芯片的自动驾驶测试车相连,能够同步处理云端传来的模拟数据,测试车辆本身产生的数据也会实时同步到云端。
这意味着自动驾驶车在测试阶段有了更大的灵活性。通过虚拟仿真和实际路测相结合,开发者可以在自定义场景和罕见极端情况进行任意里程的测试。
人为模拟的测试环境,Drive SIM 产生的数据流在后续验证和推理算法时都非常有用。
英伟达预计整套 DRIVE Constellation 将于今年第三季度开始提供。
而就在发布会进行中,英伟达的一位发言人通过邮件对外确认,将暂停在公共道路上测试自动驾驶车。这主要是受到 Uber 事故的影响,不过英伟达手动驾驶数据收集的全球车队仍将继续运行。
消息传出后,英伟达股价随即下跌。截至发稿时间,英伟达股价的跌幅已经接近 8%,不知道是暂停在公共道路上测试自动驾驶车的影响太大,还是新产品不够劲爆。