- java基础:需要学习java(java SE)基础课程,这个大部分在工作中处理问题以及学习中可以获取到基本技能。
- 学习一些基本的测试工具:比如JMeter,POSTman等。
- 重点学习Hadoop
- Hadoop解决什么样的问题?(FB级别的数据怎么存?怎么在这么大量的数据里获取想要的信息,也就是怎么计算?)
- 熟悉Hadoop的体系结构,原理,以及编程的API
- 学会并且熟练Linux上安装java运行环境jdk,输了搭建Hadoop本地模式和伪分布模式。
- 熟悉分布式文件系统HDFS,MapReduce以及HBASE(很多非关系型数据库:mongodb,redis,noSQL)
- 数据分析引擎:HIV,FLUME统计分析(建议复习一下大学数据统计知识)
- 数据采集引擎:可以参考网友:https://blog.csdn.net/weixin_37243717/article/details/79059488
- 熟悉工作流引擎:OoZIE
- 熟悉ZOOKEEPER
- 使用ZOOKEEPER实现Hadoop热备(HA)
4. Spark深入学习
- Spark Core基于内存计算
- Spark Stream 进行实时流计算
- Storm:基于apache事实计算