关于大数据时代的职业规划?

学好数学。 无论是你所憧憬的金融业,还是数据处理的相关行业,数学都是基础中的基础。在大学,你会接触微积分,线性代数这些基础课程。 如果你希望成为数据处理方面的专家,统计的知识必不可少, 可以修概率论和数理统计作为入门。 再者,在上大学之前我也抱着本科学金融的想法,或者企业管理,因为那样的职位看似在金字塔的顶端。 但实际上中国高校金融专业的学生数不胜数,管理类关于亦是,而教学质量并不高。 复旦的学历决定了你的起点会比其他毕业生高,但不代表你能走的更远。学好数学,你将会有足够的资本深造金融,或者做其他选择,数据科学家,软件工程师…

今天为大家整理了部分大数据学习教程与大家共享,每个人可以根据自己的需要来选择,需要的小伙伴可以+下学习资料分享裙 199加上427最后是210数字连起来就是了。
 

  • 多阅读。 高中时代你的重心应该是放在高考上,阅读课外书的时间对学生是一种奢侈。 不管你将来从事什么行业,光靠考试高分是不行的,社交能力,生活态度,个人视野都是你的竞争力。 如果你在大学中有闲暇时光(实际上再忙也能抽出时间来),那么请多读书。 你的生活会因为读书而跟身边的人不同,相信我。
  •  
  • 至少精通一到两门计算机编程语言。 很多职业没有明确的界限,比如软件工程师同样要懂高数,数学科学家要会编程。 如果你相信大数据会是未来一个有前途的行业,那么掌握编程语言也是必要的。 非CS类学生可能会对编程重视不够, 即使是我身边很多学计算机的学生,让他们编一个排序代码也不轻松。 多练习多实践,掌握这些语言不是加分项,而是必需项。
  •  
  • 热爱你的专业。 如果不热爱你的专业,是无法从你所从事的事业中获得快乐的。 我猜测你对金融的接触并不多,了解并不深。 在选专业之前还需要慎重考虑。 当你明白这是你所热爱的那一行时,那么恭喜你,你是幸运的,相比许多人。

一、Linux

lucene: 全文检索引擎的架构

solr: 基于lucene的全文搜索服务器,实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面。

二、Hadoop

hadoop common

HDFS: 分布式存储系统,包含NameNode,DataNode。NameNode:元数据,DataNode。DataNode:存数数据。

yarn: 可以理解为MapReduce的协调机制,本质就是Hadoop的处理分析机制,分为ResourceManager NodeManager。

MapReduce: 软件框架,编写程序。

Hive: 数据仓库 可以用SQL查询,可以运行Map/Reduce程序。用来计算趋势或者网站日志,不应用于实时查询,需要很长时间返回结果。

HBase: 数据库。非常适合用来做大数据的实时查询。Facebook用Hbase存储消息数据并进行消息实时的分析

ZooKeeper: 针对大型分布式的可靠性协调系统。Hadoop的分布式同步等靠Zookeeper实现,例如多个NameNode,active standby切换。

Sqoop: 数据库相互转移,关系型数据库和HDFS相互转移

Mahout: 可扩展的机器学习和数据挖掘库。用来做推荐挖掘,聚集,分类,频繁项集挖掘。

Chukwa: 开源收集系统,监视大型分布式系统,建立在HDFS和Map/Reduce框架之上。显示、监视、分析结果。

Ambari: 用于配置、管理和监视Hadoop集群,基于Web,界面友好。

二、Cloudera

Cloudera Manager: 管理 监控 诊断 集成

Cloudera CDH:(Cloudera's Distribution,including Apache Hadoop) Cloudera对Hadoop做了相应的改变,发行版本称为CDH。

Cloudera Flume: 日志收集系统,支持在日志系统中定制各类数据发送方,用来收集数据。

Cloudera Impala: 对存储在Apache Hadoop的HDFS,HBase的数据提供直接查询互动的SQL。

Cloudera hue: web管理器,包括hue ui,hui server,hui db。hue提供所有CDH组件的shell界面的接口,可以在hue编写mr。

三、机器学习/R

R: 用于统计分析、绘图的语言和操作环境,目前有Hadoop-R

mahout: 提供可扩展的机器学习领域经典算法的实现,包括聚类、分类、推荐过滤、频繁子项挖掘等,且可通过Hadoop扩展到云中。

四、storm

Storm: 分布式,容错的实时流式计算系统,可以用作实时分析,在线机器学习,信息流处理,连续性计算,分布式RPC,实时处理消息并更新数据库。

Kafka: 高吞吐量的分布式发布订阅消息系统,可以处理消费者规模的网站中的所有动作流数据(浏览,搜索等)。相对Hadoop的日志数据和离线分析,可以实现实时处理。目前通过Hadoop的并行加载机制来统一线上和离线的消息处理

Redis: 由c语言编写,支持网络、可基于内存亦可持久化的日志型、key-value型数据库。

五、Spark

Scala: 一种类似java的完全面向对象的编程语言。

Spark: Spark是在Scala语言中实现的类似于Hadoop MapReduce的通用并行框架,除了Hadoop MapReduce所具有的优点,但不同于MapReduce的是job中间输出结果可以保存在内存中,从而不需要读写HDFS,因此Spark能更好的适用于数据挖掘与机器学习等需要迭代的MapReduce算法。可以和Hadoop文件系统并行运作,用过Mesos的第三方集群框架可以支持此行为。

Spark SQL:

Spark Streaming: 一种构建在Spark上的实时计算框架,扩展了Spark处理大数据流式数据的能力。

Spark MLlib: MLlib是Spark是常用的机器学习算法的实现库,目前(2014.05)支持二元分类,回归,聚类以及协同过滤。同时也包括一个底层的梯度下降优化基础算法。MLlib以来jblas线性代数库,jblas本身以来远程的Fortran程序。

Spark GraphX: GraphX是Spark中用于图和图并行计算的API,可以在Spark之上提供一站式数据解决方案,可以方便且高效地完成图计算的一整套流水作业。

jblas: 一个快速的线性代数库(JAVA)。基于BLAS与LAPACK,矩阵计算实际的行业标准,并使用先进的基础设施等所有的计算程序的ATLAS艺术的实现,使其非常快。

Fortran: 最早出现的计算机高级程序设计语言,广泛应用于科学和工程计算领域。

BLAS: 基础线性代数子程序库,拥有大量已经编写好的关于线性代数运算的程序。

LAPACK: 著名的公开软件,包含了求解科学与工程计算中最常见的数值线性代数问题,如求解线性方程组、线性最小二乘问题、特征值问题和奇异值问题等。

ATLAS: BLAS线性算法库的优化版本。

Spark Python: Spark是由scala语言编写的,但是为了推广和兼容,提供了java和python接口。

大数据学习方法

我的方法很简单的按照下面几步走

一、了解新的技术是什么以及它的作用

二、到技术的官方网站找案例进行简单的实验

三、和自己的项目结合

四、遇到问题到技术网站找相关资料

五、做笔记总结(总结的过程就是1~5)

这是在工作中引进新技术的学习方法,这样做的好处是及解决了工作上的问题又对新技术有了初步的了解,要是想把新技术吃透要在工作之余多有些心了。

要学会多问自己一些为什么?这样你会比别人更加优秀

猜你喜欢

转载自blog.csdn.net/qq_41842569/article/details/87359073