数学和编程能力,马维英说这是字节跳动AI Lab招人的首要准则
在开放日上,现场 Demo 展现了很多熟悉而又炫酷的应用。你知道怎样利用聚类算法和 CNN 从短视频从抽取最好看的小姐姐么?你知道怎样用单摄手机拍出柔顺的背景虚化图么?这些可能用耳熟能详的算法就能完成,只不过实验室会将它们做到极致并嵌入到 APP 中。
有这么优秀的科学家和资源,你想不想来场面试?马维英随后就介绍了 AI 实验室的招人经验,所以你的数学和代码都准备好了么?
数学足够好是做 AI 研究的基础
其次马维英会比较看重工程实践能力,所以 AI Lab 这边也会考虑应聘者的编程能力。马维英表示我们常常会有非常好的想法,但很可能没有实践能力,这是不够的。最后,马维英还会考察应聘者的态度,比如说团队合作、人际沟通和表达能力等,这是一些和软素质比较相关的东西。
而从个人角度来看,马维英说:「其实我这么多年招了这么多人,在面试中会非常重视眼神的交流。在面试过程中,我大概通过十多分钟就能判断面试者的思维是不是比较敏捷、回答过程中是不是比较坦诚等。因为有大量的经验,我通过对话可以看到面试者不太容易看到的一面。」
炫酷的算法应用
曾经背景虚化只是单反的专利,通过大光圈获得像奶油般柔滑的背景。当然现在手机也可以借助双摄像头完成背景虚化,但如果只有单摄像头或单张图片,又如何借助算法实现背景虚化呢。字节跳动 AI 实验室展示了这样一种算法,它可以预测高清图像的「深度信息」,也就是从近到远区分前景与背景。有了这种深度信息,我们就能很自然地生成对应的背景虚化图像。
如下所示,直观而言模型首先会将高清图压缩为低清输入图,然后使用深度残差网络抽取到深度图,这里先压缩为低清图再做卷积运算可以大大降低计算力。然后我们可以根据深度图和低清输入图渲染低清背景虚化图,并在最后利用高清原图、低清输入图、深度图和低清背景虚化图构建高清背景虚化图。这里在训练过程中起到监督作用的是深度图,模型会尽可能正确预测整张图的深度信息,后面根据深度信息和原图生成背景虚化图就只是合成过程了。
其实预测深度图有点类似于图像分割任务,只不过这种逐像素的分类问题预测的是所有像素离镜头的距离。具体而言如上图绿色的 Depth Prediction 模块所示,模型不仅会使用全连接网络直接预测深度,同时还会使用额外的前景分割任务获得更准确的分割边界线。字节跳动 AI 实验室在现场展示了这一方法的实际效果,虽然不能说完美,但一般人是看不出问题的。
除了图像,视频处理也有非常有意思的应用。一般在上传视频到抖音或西瓜视频后,我们希望能有一张好看的封面,因为漂亮的事物总是能吸引别人点开视频。但是机器学习系统能帮我们挑选出最漂亮的封面吗?答案是可以的,字节跳动实验室展示的这个应用甚至可以从视频中选出最好看的视频帧,并裁剪为合适的大小。
下图展示了挑选封面的主要做法,当我们上传一段视频后,模型首先会对不同的视频帧做一个聚类处理。因为视频是连续的图像,聚类过程能将类似的视频帧都聚在一起,因此从不同的集群采样一些视频帧就能挑选出有代表性的图像。然后把这些图像馈送到深度卷积神经网络并度量每一张图像的质量,这样就能挑选出最「漂亮」的图像。最后只要进行适当地裁剪就行了,当然这样的裁剪也会尽可能保留主体。
在现场 Demo 展示中,应用可以快速推断出短视频中质量最高的图像,它会给出评分前三的视频帧。除此之外,字节跳动 AI 实验室还能利用深度卷积神经网络抽取关键视频片段,并总结为更精简的短视频。
其实 Demo 中的很多应用都需要部署到移动端,例如给人脸加各种特效的激萌或抖音等。为此,实验室展示了一种快速轻量级的人脸识别方法。他们会使用经量化的修正版 MobileNet V2,并采用知识蒸馏方法从预训练的大模型中学习更优秀的精炼模型。因此在实际应用中能以毫秒级的延迟完成人脸识别任务,而对人脸再加特效也就非常迅速了。
经过这么多的展示,总的而言字节跳动有非常多优秀的产品,而这些产品正需要新兴的机器学习乃至深度学习技术提供更多「炫酷」的功能。