eclipse 操作 hadoop的hdfs准备工作

搭建好HDFS HA集群后,我们来配置客户端,用来操作HDFS HA集群

首先我们选择一台客户机,任意选择,只要能与集群通信即可,这里就使用真机

  1. 将集群中配置好的 hadoop 安装包拷贝到真机上

  2. 配置 hadoop 的环境变量和参数
    HADOOP_HOME:hadoop安装包的位置
    PATH:%HADOOP_HOME%\bin
    HADOOP_USER_NAME:登录集群的用户名称,只要是可以登录集群的用户名就可以,这里配置为root
    (这也是防君子的错误操作,不妨小人的破坏操作的地方,只要名字相同就有权限)
    一些配置

  3. 将hadoop的插件放到eclipse的dropins\plugins\ 目录下,如果没有 plugins目录则手动创建。插件可到github下载对应版本。
    插件包的样子
    注意插件版本应该与你的hadoop按照包对应一下
    Github地址:https://github.com/winghc/hadoop2x-eclipse-plugin

  4. 启动eclipse,点击菜单栏的window–>Preferences 进入Preferences选项窗口,此时会有一个Hadoop Map/Reduce,点击如下图,选择hadoop安装包的位置,点击Apply–>OK
    这些配置会防止一些错误。
    配置

  5. 点击菜单栏的window–>Show View–>other进入Show View 窗口如下。在搜索栏输入Map/Reduce,选中黄色小象Map/Reduce Location,点击OK
    设置视图

  6. 此时下方控制台窗口便会出现Map/Reduce Location的窗口,在空白处右击,选择 New Hadoop location
    新建集群地址
    按下图进行配置,点击finish
    配置
    配置完成,project窗口中显示如下,连接成功
    这里注意一下,你的查看方式不能是SET大包的查看方式,否则也是不显示的,只有普通的时候才会显示
    配置成功

  7. 如果要在项目中操作HDFS集群,则需要导入依赖jar包。
    将hadoop安装包中share\hadoop目录下 common,hdfs,tools三个文件夹中的jar包及其下lib文件夹中的jar包整合并导入项目。
    需要导包去这里找
    具体包
    将加入的jar包加入bin目录中,通过build path(如果是web工程文件夹不需要,因为自动就导进去了)。然后就可以在项目中操作HDFS集群了
    注意有的包可能会冲突,导致tomcat启动失败,所以需要注意这些包导入的时候,这些包可以精简的!去掉重复的!

参考文章:https://blog.csdn.net/xingyao231/article/details/83036915

猜你喜欢

转载自blog.csdn.net/For_ZZHacker/article/details/83144420