1.文件相关
1)使用rz从windows环境上传文件到linux服务器上的/home/hadoop/目录
cd /home/hadoop/ rz -y
2)使用sz从linux服务器上/home/hadoop/下载文件aaa.txt到windows上
cd /home/hadoop/ sz aaa.txt
3)两台linux机器之间文件拷贝
将本机上/haome/hadoop/aaa及其子文件拷贝到机器192.168.38.165机器的目录/home/hadoop/下面,会提示输入root密码。
scp -r /home/hadoop/aaa [email protected]:/home/hadoop/
4)批量修改文件内容
批量修改文件/opt/product/conf/sso.conf中192.168.38.171为192.168.1.104
sed -i "s/192.168.38.171/192.168.1.104/g" /opt/product/conf/sso.conf
2.ftp相关
1)登录ftp这种方式随后会要求输入FTP用户名和密码
ftp 192.168.191.13
2)登录ftp直接带上FTP账号和密码
lftp ftpuser:[email protected]
3)登录FTP后上传本地文件到FTP
lftp ftpuser:[email protected] put C:\Users\Lenovo\Desktop\test.txt
4)登录FTP后删除FTP上文件
lftp ftpuser:[email protected] delete test.txt
5)登录FTP后从FTP上拉取文件到linux服务器目录/home/hadoop
cd /home/hadoop lftp ftpuser:[email protected] get test.txt
6)退出FTP
lftp ftpuser:[email protected] quit
3.网络相关
1)查看linux本机IP
ifconfig
2)linux下抓包命令tcpdump使用
抓取发往本机端口8881的所有数据包和本机端口8881发往外部机器的所有包数据
cd /home/hadoop/ /usr/sbin/tcpdump -v -X -s 0 -i bond0 port 8881 -w data.cap
4.linux定时任务
1.定时任务语法
分 | 小时 | 日 | 月 | 星期 | 命令 |
0-59 | 0-23 | 1-31 | 1-12 | 0-6(0表示周日) | command或者shell脚本文件 |
特殊字符 | 含义 |
* | 代表取值范围内的数字 |
/ | 代表”每” |
- | 代表从某个数字到某个数字 |
, | 分开几个离散的数字 |
crontab命令参数:
[hadoop@nmsc0 log]$ crontab -help crontab: invalid option -- h crontab: usage error: unrecognized option usage: crontab [-u user] file crontab [-u user] [ -e | -l | -r ] (default operation is replace, per 1003.2) -e (edit user's crontab) -l (list user's crontab) -r (delete user's crontab) -i (prompt before deleting user's crontab) -s (selinux context) [hadoop@nmsc0 log]$5.oracle相关 5.1oracle忘记密码
sqlplus /nolog connect / as sysdba; connect /@plsql别名 as sysdba;或者connect 账号/密码@plsql别名 as sysdba;
5.2 查看当前登录用户表空间
select username,default_tablespace from user_users;
5.3 导出单表到dump
exp user/paswword@sid buffer=1024000 COMPRESS=N tables=bss_black_list,file=F:\tempt\blacklist.dmp,log=F:\tempt\blacklist.log statistics=none6.NFS相关
7.当前用户定时任务
1)编辑当前用户的定时任务crontab -e
#编辑crontab服务文件 crontab -e #然后贴入如下内容: #晚上23:30执行脚本/home/hadoop/crontab/hbase_major_compact_small.sh 30 23 * * * /home/hadoop/crontab/hbase_major_compact_small.sh #林晨00:30执行脚本/home/hadoop/crontab/hbase_major_compact_big.sh 30 0 * * * /home/hadoop/crontab/hbase_major_compact_big.sh
执行上述命令会在/var/spool/cron下生成自己的crontab文件,如下:
2)查看当前用户定时任务crontab -l
[hadoop@nmsc0 log]$ crontab -l 30 23 * * * /home/hadoop/crontab/hbase_major_compact_small.sh 30 0 * * * /home/hadoop/crontab/hbase_major_compact_big.sh
3)删除当前用户定时任务
#删除没个用户的cron服务 crontab -r
4)查看当前定时任务是否被执行过或者查看任务执行日志
#1、针对Linux系统的查询方法(含Redhat、SUSE) #必须有权限的用户比如root查看/var/log/cron这个文件就可以,可以用tail -f /var/log/cron观察 #因为tail -f /var/log/cron只显示大概末尾10条记录,这里使用tail -20 /var/log/cron显示最末尾20条记录
#2、针对UINX系统查询方法(AIX、HP-UX) #在 /var/spool/cron/tmp文件中,有croutXXX00999的tmp文件,tail 这些文件就可以看到正在执行的任务了。 #3. mail任务(Linux UNIX)在 /var/spool/mail/root 文件中,有crontab执行日志的记录, #用tail -f /var/spool/mail/root 即可查看最近的crontab执行情况。
8.系统定时任务
系统定时任务一般在/etc/crontab文件中配置,该文件内容如下:
[root@nmsc0 etc]# cat /etc/crontab SHELL=/bin/bash PATH=/sbin:/bin:/usr/sbin:/usr/bin MAILTO=root HOME=/ # run-parts 01 * * * * root run-parts /etc/cron.hourly 02 4 * * * root run-parts /etc/cron.daily 22 4 * * 0 root run-parts /etc/cron.weekly 42 4 1 * * root run-parts /etc/cron.monthly 01 1 * * * root run-parts /home/zhangyangyang/cron/day [root@nmsc0 etc]#
注意:参数“run-parts”是执行某个文件目录下所有shell脚本,不加的话后面必须为shell脚本完整路径名称不能为目录
几个定时任务例子:
#表示每天23点59分执行脚本/home/oracle/scripts/alert_log_archive.sh 59 23 * * * /home/oracle/scripts/alert_log_archive.sh >/dev/null 2>&1 #表示每5分钟执行一次脚本/home/oracle/scripts/monitoring_alert_log.sh */5 * * * * /home/oracle/scripts/monitoring_alert_log.sh >/dev/null 2>&1 #周一到周五每天下午 20:00 寄一封信给 [email protected] 3: 0 20 * * 1-5 mail -s "**********" [email protected] < /tmp/maildata
10.ulimit设置
ulimit并不是越大越好,可以参见http://www.cnblogs.com/zengkefu/p/5635153.html了解情况。
(1)linux当前用户ulimit设置的值
ulimit -a
(2)linux系统所有进程打开的文件数之和最大值
cat /proc/sys/fs/file-max
(3)linux当前用户打开的文件数实时查看
cat /proc/sys/fs/file-nr
(4)ulimit设置的继承关系