学习hadoop需要什么基础
学习hadoop需要什么基础
“学习hadoop需要什么基础”这已经不是一个新鲜的话题了,随便上网搜索一下就能找出成百上千篇的文章在讲学习hadoop需要掌握的基础。再直接的一点的问题就是——学Hadoop难吗?用一句特别让人无语的话回答就是:难不会,会不难!
趁着学校放假的时间,写了一些hadoop学习分享的文章。刚开始写的几篇稍微有点乱,其中有一篇就是在说学习hadoop需要什么样基础的。所谓的难不会,会不难,必然也是建立你现在的基础之上的。假定你连基础的计算机基础都没有,那可能真的就是“难不会”了。如果你是有一个良好的计算机基础的,比如,虚拟机的配置你会、拥有JAVA基础和Linux操作基础,那学习hadoop对你来可能就是“会不难”哦!
当你看了很多介绍“学习hadoop需要什么基础”的文章后,你一定会得出一个结论,那就是学习hadoop所必须的三个基础技能:JAVA基础、Linux基础、虚拟机基础(上面已经说过了)。所有的文章在说完这个三个基础之后,好像在告诉我们所有人,你只要有这个三个基础就一定能够学好hadoop,从此走上人生巅峰••••••其实,也不尽然,只有当你真正接触了hadoop,你才会发现真正的问题所在。
接触过hadoop的人都知道,单独搭建hadoo里每个组建都需要运行环境、修改配置文件、测试等过程。如果仅仅是安装一下运行环境就行了,那你就大错特错了,几乎每个组件都是坑,这些坑几乎是不可能让初学者有一个愉快的学习过程的。Hadoop虽然起源于国外,但国内发行版本也蛮多,但是都没有去解决环境搭建的问题。如果说他们没有关注到运行环境搭建繁琐这样的问题话,我肯定是不相信的。真的不知道是他们现在的技术解决不了这个问题,还是不想去花费时间去解决?
今年3月初的时候,一个做程序开发的朋友给了一个国产发行版DKHadoop,是大快搜索开源的发行版hadoop。这款hadoop版本终于解决了运行环境搭建繁琐的问题,它将开源社区里多种常用的组件包括:HDFS,Hbase,Storm,Spark,Flume,Kafka,Mahout,ES等都集成到一个平台里,只需简单的一键安装就能完成,需要调用的时候直接调用即可,终于让我觉得不用在像以前拿样再去安装调试等等。
所以,我觉得学习hadoop需要的不仅仅是JAVA、虚拟机、Linux这三个方面的基础,选择的hadoop版本也是很重要。我们学习hadoop的重点是想要去开发一些东西,而不是为了学习运行环境的安装,这样会让人觉得有点本末倒置!
正在学习hadoop或者准备学习hadoop的朋友,个人还是比较推荐DKHadoop这套发行版,毕竟对新手而言算是很友好的了。我在用的是标准本三节点dkhadoop版本(放心,是免费的),虽然是免费的,但权限都是开放的。所以,对于新手或者个人研究而言已经够用了。需要dkhadoop安装包的,可以留言给我,可以打包发你!