互联网的快速发展带来了数据快速增加,海量数据的存储已经不是一台机器所能处理的问题了,Hadoop的技术就是在这样的背景下诞生的。通过在郑州大数据的学习,我对Hadoop有了一个比较系统的理解,接下来就给大家分享一下。
c06263f7c6b3486984510ae02f143c82.png
你可以将Hadoop的核心内容看作是两个部分,一个是分布式存储,一个是分布式计算。
对于分布式存储,Hadoop有自己的一套系统来处理叫HDFS。为什么分布式存储需要一个额外的系统来处理,而不是就把1TB以上的文件分开存放就好呢?如果不采用新的系统,我们存放的东西没办进行一个统一的管理。存放在A电脑的东西只能在连接到A去找,存在B的又得单独去B找,繁琐且不便于管理。而这个分布式存储文件系统能把这些文件分开存储的过程透明化,用户看不到文件是怎么存储在不同电脑上,看到的只是一个统一的管理界面。现在的云盘就是很好的给用户这种体验。
对于分布式计算,Hadoop对分布式计算的系统为MapReduce。Map即将数据分开存放进行计算,Reduce将分布计算的得到的结果进行整合,**汇总得到一个最终的结果。在对海量数据进行处理的时候,一台机器肯定也是不够用的。所以也需要考虑将将数据分在不同的机器上并行的进行计算,这样不经可以节省大量的硬件的I/O开销。也能够将加快计算的速度,对Hadoop的技术也会有一个清晰框架思路。
我在千锋郑州校区的大数据之路已经走了很长一段的路,经过一阶段Java基础的奠基,二阶段的学习就游刃有余了很多,但是学习的过程中还是会遇到很多的问题,在这个时候我们要迎难而上,不退缩就可以很好的去解决它。这一阶段更加侧重于思考,你需要比**阶段更加明白你的目标,你迈向下一步的步伐,在大方向确定后再具体到小细节,环环相扣,不能丝毫马虎。
总的来说,要比**阶段的知识网扩充的更大一些,当然也更好玩与有趣一些,期待第三阶段的到来! |