大数据培训课程思路

版权声明:原创不易,转载请标明出处谢谢。 https://blog.csdn.net/shaock2018/article/details/87911597

学习方法:
1、如何写博客?给自己的学习留痕迹?
markdown语法:给自己的学习做笔记
2、如何通过视频学习优质资源?
跟紧加速播放功能!potplayer神器、百度云盘
3、如何找到有价值的源码资源?
github、码云、coding.net的下载
4、如何学习权威知识?
官网指引,谷歌翻译
5、各大学习网站介绍?
慕课网、51CTO(开会员)、极客学院、麦子学院(前端)、网易云课堂、哔哩哔哩

大数据基础:
一、Java知识储备
1、环境的安装(java环境)
2、直接在w3cschool用多种方式实现helloworld(如果有多个这样的学生),对比式学习
3、讲解jvm(多种方式运行java程序)
4、IDEA编辑器的安装(介绍腾讯云开发平台:Cloud Studio)
a.在IDEA运行helloworld
5、Java se入门学习(基础差的话需多讲)
通过模拟日志生成案例入门Java se(后面中级课程会用python来实现)

二、Linux入门
1、VMWare的安装,Centos7的安装
2、Linux的学习
a.常用的命令讲解(cd、ll、ls)
b.通过配置NAT网络案例入门VI编辑器
编辑与非编辑模式的讲解
vi的基本操作:增删改查、跳头跳尾
c.讲解三种网络模式的区别
3、Centos与Ubuntu的命令区别
4、XShell、XFTP软件的使用
5、通过安装jdk1.8案例进阶Linux常用命令
6、通过配置环境变量来初识Shell脚本
7、通过写一个查看进程脚本来初体验Shell脚本
亮点:windows执行java代码与linux执行的对比与区别
a.客户端与服务器的概念
b.生产上是如何部署项目(打包、上传服务器、脚本)

大数据入门:
一、大数据环境准备
1、三台服务器准备
a.克隆3台虚拟机
b.域名映射
c.免密码登录
2、关闭防火墙

二、Hadoop生态圈(串讲Hive):
1、HDFS
2、MapReduce与YARN

项目一之总结:MR作业项目实战(串讲Maven)

三、Spark生态圈(串讲Scala编程)
1、理解Spark
2、Spark核心编程
3、提交与执行作业
4、Spark SQL
5、Spark Streaming

四、数据采集与消息队列
1、Flume
2、Kafka

项目二之总结:Spark Streaming项目实战之实时采集数据到HDFS(logs -> Flume -> Kafka -> Spark Streaming -> HDFS)

五、非关系型数据库HBase(串讲Zookeeper)
1、HBase的相关概念(组件、进程)
2、HBase的核心原理
3、小案例之Spark Streaming实现HBase读写

项目三之总结:升级项目二,将数据采集到HBase

六、数据可视化
1、HTML、CSS、JavaScript的简单使用
2、ECharts入门(静态)
3、小案例之获取后台数据进行可视化

彩蛋:通过升级查看进程脚本来进阶shell脚本

计划是开设五天的课程,内容可详细可快速讲解,15天的大数据培训。
形式是首先看到我们的培训之后的项目成果,然后一步一步带着学员实现。
课程特点是:串讲+一栈式开发,讲到相关知识则发散思维讲解,一直优化与升级。
从初级(5天到15天)到中级(5天到15天)再到高级(5天到15天),一步步完善,一步步升级。

如有更好的建议,请与我沟通,一起交流一起进步,感谢收看。

作者简介:邵奈一
大学大数据讲师、大学市场洞察者、专栏编辑
公众号、微博、CSDN邵奈一
本系列课均为本人:邵奈一原创,如转载请标明出处

猜你喜欢

转载自blog.csdn.net/shaock2018/article/details/87911597