天津东软实训第二天

今天主要学习了以下几个方面的内容:

1、JDK的安装,环境变量的配置

2、mysql的安装与配置,并且在Navicat中能进行连接

3、maven的介绍与简单演示

4、tomcat的安装与配置,tomcat manager的登录和配置

5、文件的权限设置

6、SSH的安装,两个虚拟机之间的互通,免密码登录

7、Hadoop的安装与配置

8、HDFS的安装与配置及使用

9、Ajax的介绍

其中,我在Tomcat的安装与配置、SSH的安装与配置以及Hadoop的安装与配置稍微做了一些记录与总结:

1、Tomcat:

1、解压Tomcat压缩包
2、修改文件名为Tomcat
3、进入Tomcat文件夹
4、进入bin目录
5、运行startup.sh,启动Tomcat 命令: ./startup.sh
6、浏览器输入自己的IP地址加上端口号8080.
7、配置manager:
找到Tomcat安装目录下conf目录下tomcat-users.xml文件,用notepad++打开,配置
<role rolename =“manager-gui”/>

<role rolename =“manager-script”/>

<user username =“tomcat”password =“144214”roles ="manager-gui,manager-script” /> 注意:这里可能会出错!!!引号什么的特别注意
8、重启Tomcat服务,先关闭再打开:
命令: ./shutdown.sh ./startup.sh

 2、SSH:

1、安装ssh
yum install -y openssh-clients openssh-server
2、ssh-keygen -t rsa
3、回车
4、cd ~
5、ll
6、cd .ssh
7、ls
8、cp id_rsa.pub authorized_keys
9、ls
10、ssh 192.168.131.142 连自己
11、在server里也是这样设置
12、打开server2中,找到root文件夹中.ssh文件夹中的authorized_keys,在notepad++中打开,复制里面内容到server中的同样位置,保存。

13、在server2中输入命令
ssh 192.168.131.141(server的IP)
这次免密码登录。

 3、Hadoop:

1、解压Hadoop文件夹
2、修改文件夹名为Hadoop
3、配置环境变量
4、进入hadoop,输入命令:cd /etc/profile.d/
然后输入命令:vi hadoop.sh
编辑:
HADOOP_HOME=/soft/hadoop
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_HOME PATH
保存
5、source hadoop.sh
6、输入hadoop version查看是否成功。
7、成功之后cd到hadoop,然后在输入命令:cd etc/
然后输入ls查看
然后再进入hadoop,再查看,有一堆的xml文件。

8、在soft目录下的hadoop目录下的etc目录下的hadoop目录下打开core-site.xml和hdfs-site.xml两个文件(同样是用notepad++)
然后在core-site.xml里面的configuration里面添加配置:

<property>
		
<name>fs.defaultFS</name>
		<value>hdfs://192.168.131.142:9000</value>
	
</property>
	
<property>
		
<name>hadoop.tmp.dir</name>
		
<value>/hadoop/tmp</value>
	
</property>
在hdfs-site.xml里面的configuration里面添加配置:
<property>
	
<name>dfs.namenode.name.dir</name>
		
<value>/hadoop/dfs/name</value>
	</property>

<property>
	
<name>dfs.datanode.data.dir</name>
		
<value>/hadoop/dfs/data</value>
	
</property>
	
<property>
		
<name>dfs.replication</name>
		
<value>1</value>
	
</property>
<property>
		
<name>dfs.permissions.enabled</name>
		
<value>false</value>
	
</property>

  

9、返回到shell界面,新建临时文件,输入命令:
mkdir -p /hadoop/tmp
mkdir -p /hadoop/dfs/name
mkdir -p /hadoop/dfs/data
10、进行格式化namenode
输入命令:hadoop namenode -format
11、启动:
cd /soft/hadoop
ls
cd sbin/
ls
start-dfs.sh
12、打开浏览器输入IP地址加上冒号50070(例如我的是192.168.131.142:50070)查看hdfs
13、可以通过命令在hdfs上新建文件(例如在hdfs上新建一个hadoop文件夹)
返回shell输入命令:hdfs dfs -mkdir /hadoop
14、可以在刚刚个网页上查看也可以输入命令:hdfs dfs -ls /
15、上传文件到hdfs:
我们在soft下新建一个abc.txt文件,然后输入命令:
hdfs dfs -put abc.txt /hadoop
把abc.txt文件传到hdfs里的hadoop文件夹里。

猜你喜欢

转载自www.cnblogs.com/huyangyang/p/9291988.html