面试百度的机器学习算法,也不过如此

本文已经收录至我的GitHub,欢迎大家踊跃star 和 issues。

https://github.com/midou-tech/articles

机器学习整体难度还是有点,不过这个岗位真的是很香,钱多,发展空间足未来可期啊。

本篇文章面经是三位大佬面试百度机器学习岗位的面试题,其中两位已经拿到offer,赶紧复习起来,下一个offer就是我。

更多的面经和内推信息,请微信搜索 龙跃十二 即可获取。


一面

  • 询问简历上做过的项目,以及项目细节
  • 算法题:
  • 二叉树中序遍历(要非递归解法)
  • 两个有序链表的归并。
  • 快排
  • lstm 详细讲讲解
  • attetion 机制
  • 混淆矩阵,F1等计算
  • n个人进餐馆,都把帽子挂在门口,走的时候随手拿一顶,问拿到帽子恰好是自己的人数的期望
  • ML 与 DL比较
  • 实习的一些问题

二面

  • 算法题:返回二叉树中路径和为某一值的所有路径、反转句子中单词顺序

  • 区块链比赛和专利

  • 我惊了个呆,大佬竟然还了解区块链,准确指出了我的区块链项目和专利的不靠谱处(我也知道啊,所以我转ML了啊)

  • 项目

  • 这个就随便聊了聊

  • AUC计算

  • 很奇怪,我面试后看了看发现给出的是正确方法,但是面试官说不对。。。

  • 进程和线程是为什么被提出的

  • 线程间如何通信

  • 快排复杂度的证明

  • 特征筛选方法

三面

  • 基础数据结构和算法有哪些
  • 是的你没猜错,我把课本罗列了一下,顺序表 链表 哈希表 树系列 图系列,选择插入冒泡希尔堆快速基数外部排序,就过了。。。
  • 推荐类算法比较
  • 机器学习算法比较
  • 聊了聊区块链

已经拿到offer

这是下一位同学的面经

一面

  • 聊项目,聊的非常细,我的项目就是比赛,面试官甚至问了我提分的过程,一开始多少分,做了哪些工作之后升到了多少分之类的;

  • 跟过拟合有关的一些问题,详细的内容已经记不清了;

  • 聊xgboost;

  • 聊deepFM;

  • 项目中用到了LSTM,为什么可以用LSTM,它的主要用处是什么,以及LSTM的梯度消失问题;

  • 算法题:二叉树中的最长路径;

  • 算法题:x的平方根。

    二面:

  • 聊项目;

  • 聊GBDT;

  • 算法题:二分查找;

  • 算法题:最大堆的插入;

  • 聊deepFM;

  • 不定长文本数据如何输入deepFM,如果不截断补齐又该如何输入;

  • 项目中为什么使用LSTM;

  • 项目中整个过程中都做过哪些优化。

    三面:

  • n个数中等概率抽取m个数。

    三面就问了一道概率题,剩下的基本上是聊天。 总的来说面试难度不高,感觉也是我运气好吧。


这是下一位同学的面经

一面

  • 给一个数组,数组的数字代表股票价格,求一次买卖的最大股票收益
  • 1-n的全排列
  • lstm是什么的升级?解决了什么问题?
  • 讲一讲各种激活函数
  • attetion 机制
  • embedding的深层含义是什么
  • c 的const字段有什么意义
  • RF和GBDT的区别
  • 为什么GBDT可以提高准确率
  • 矩阵分解

二面

  • 自我介绍
  • 讲区块链
  • 区块链中51%攻击的经济学原理
  • 求树两个节点的最低公共祖先
  • 讲kaggle比赛
  • xgboost比gbdt的优化都有哪些
  • 为什么xgboost要求二阶导数
  • 泰勒展开逼近残差,二阶比一阶精度高
  • 通用性,所有二阶可导的loss function都可以用
  • 有些函数梯度在一阶上变化小,二阶变化大,参考牛顿法
  • 为什么gbdt没有正则
  • 讲项目
  • 计算一下项目中DNN的参数个数
  • gbdt与lr区别
  • 集成为什么会提高效果
  • l1 l2正则
  • xgb lgb调参怎么选参数
  • 贪婪搜索呗?面试官觉得不行?难道是贝叶斯参数优化?
  • 怎么样在没有得到未来数据的情况下提高模型对未来预测的效果
  • 讲道理我觉得这个问的非常扯淡,不就是泛化性,然后我说了一些降低方差的方法,面试官说是对未来预测的准确性,没有get到他的点,最后被说对算法的追求不够。。。。

更多的面经和内推信息,请微信搜索 龙跃十二 即可获取。

相关推荐