cdh4安全机制之单元测试

昨天我从抛异常的切入点去读代码,发现比较晕。然后今天从单元测试的角度去切入:
common的


hdfs的


mapreduce的




首先有些单元测试是跑不起来的。如hdfs下面的单元测试就跑步起来。@董的博客 说是环境的问题,要linux环境。报的错:

2013-06-07 12:17:13,922 WARN  [main] util.NativeCodeLoader (NativeCodeLoader.java:<clinit>(62)) - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable


从其他的单元测试来看,common来看主要是user group token,但是这些基本没怎么看到授权的过程。和kerberos结合的过程也没怎么看明白。 hdfs就看到FsPermission了,但是单元测试的时候是直接构造这个FsPermission的,没看到是怎么来的。mapreduce这个只是测试了下token的cache,感觉对我的意义不大。

总的来说看了之后我感觉意义不大,我现在是比较明白验证的过程了,验证只是这3个,user group 和token。但是这些是怎么授权的,我表示还是比较迷茫,而且和kerberos结合的地方也还不清楚。



貌似auth这个项目有不少安全机制相关的东西,也看了些和kerberos相关的东西,我先看卡这个项目。

看了半天的auth项目的代码,让我很郁闷,这个和hadoop的安全机制其实是没有关系的。只是平常的http的权限控制,当然这个权限也可以用kerberos来做。而且这个http的权限验证的token是会写cookie和去cookie中区验证的。我表示很郁闷。。。。。。

猜你喜欢

转载自huangyunbin.iteye.com/blog/1883677