大数据Hadoop的数据库审计

——大数据渗透到各个行业领域,逐渐成为一种生产要素发挥着重要作用,成为未来竞争的制高点。

在大数据时代下,信息和数据的分析处理都会变得比以前更加繁杂,管理起来也更加麻烦。大数据发展仍旧面临着众多问题,最受大众关注的就是安全与隐私问题——大数据在收集、存储和使用的过程中,都面临着一定的安全风险,一旦大数据产生隐私泄露的情况,会对用户的安全性造成严重威胁。

对大数据以及人工智能概念都是模糊不清的,该按照什么线路去学习,学完往哪方面发展,想深入了解,想学习的同学欢迎加入大数据学习qq群:458345782,有大量干货(零基础以及进阶的经典实战)分享给大家,并且有清华大学毕业的资深大数据讲师给大家免费授课,给大家分享目前国内最完整的大数据高端实战实用学习流程体系 。从java和linux入手,其后逐步的深入到HADOOP-hive-oozie-web-flume-python-hbase-kafka-scala-SPARK等相关知识一一分享!

Hadoop是什么?

Hadoop是一个开发和运行处理大规模数据的软件平台,是Apache的一个用java语言实现开源软件框架,实现在大量计算机组成的集群中对海量数据进行分布式计算,是目前市场上最受欢迎的一种大数据解决方案之一。

(Hadoop架构业务及审计逻辑)

Hadoop 由许多元素构成,其核心是分布式文件系统(HDFS)和MapReduce 引擎,并涵盖众多提供Hadoop应用的子项目,如:数据仓库工具(HIVE)、NOSQL数据库(HBASE)、大数据分析平台(PIG,为用户提供多种接口)等以及众多的编程接口。

Hadoop架构下数据库的审计难在哪里?

为了满足Hadoop架构下各种应用需求,引入了数据库仓库工具(HIVE)、非结构化数据库(HBase)等子项目解决数据的处理分析与数据实时交互需求,同时为了简化Hadoop管理工作,HUE、Phoenix等UI工具也被引入协同工作。

各种多样化的工具带来最直接的问题便是多样化的程序设计语言,多样性的程序编程接口,增大了大数据安全审计覆盖面,增强了大数据的数据解析难度。因此,在Hadoop大数据架构环境下要实现有效审计,必须同时对各种UI管理界面、编程接口同时审计,具备Hadoop架构各种协议解析、编程语言解析能力。

其审计难点可总结为:

扫描二维码关注公众号,回复: 6107160 查看本文章

1、Hadoop大数据非结构化数据(NO SQL),传统方案无法实现此类数据的综合安全监控;

2、Hadoop中数据库连接工具的多样化,传统方案只能对典型的C/S客户端访问方式进行安全监控,缺乏综合管理手段;

3、Hadoop开放的接口和平台,加之信息网络共享导致数据风险点增加,窃密、泄密渠道增加;

4、安全模型和配置的复杂性导致数据流量复杂化。

猜你喜欢

转载自blog.csdn.net/haboop/article/details/89786266