本文主要是介绍大数据开发复习第一篇(Linux篇),对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
3.4、Linux
文章目录
- 3.4、Linux
- 1、常用操作
- 2、用户管理
- 3、压缩包管理
- 4、查看属性
- 思考
1、常用操作
- 查看当前目录下的所有文件及目录
- 进入目录
- 查看当前目录
- 结束当前进程
- 新建目录
- mkdir dir1[ dir2 dir3 dir4] 新建四个dir
- 删除目录
- rm -rf dir 删除目录下及目录下的所有文件
- 递归创建目录
- mkdir -p /dir1/dir2/dir3/dir4 递归创建目录
- scp -r
- 清屏
- 查看IP信息
- (防火墙)打开、关闭、查看状态
- service iptables start、stop、status
- (网络)打开、关闭、查看状态
- service network start、stop、status
- mysql服务打开、关闭、查看状态
- service mysqld start、stop、status
- 配置服务开机启动
- mysql shell客户端
- yum 安装
- yum install -y telnet
- yum remove telnet
- 测试机器之间能否通信
- 测试能否与某个应用(比如mysql)通信
- 自动补全
- 查看进程
- 过滤相关信息
- grep
- netstat -nltp | grep 3306 查看端口
- jps | grep NameNode
- cat | grep -v “#”
- ps -ef | grep redis | grep -v grep
- 查看java进程
- 编辑文本
- 删除文件
- 查看文件
- cat filename
- more filename
- tail -f/-F/-300f filename.txt 查看文件后300行
- -f 是一个小狗,不是很凶,只要删除了当前文件,再去重新创建,不追踪了。
- -F是一个大狗,很凶,就算删除了,只要重新创建同名文件,继续追踪。
- head [-number]filename查看文件头十行
- 移动文件
- 查找文件
- 复制文件
- 节点传送文件
- scp -r /export/servers/hadoop node02:/export/servers
- scp -r /export/servers/hadoop node02:$PWD (发送到当前同级目录)
- scp -r /export/servers/hadoop user@node02:/export/servers
- 查看日期
- date
- date +"%Y-%m-%d %H:%M:%S"
- date -d “-1 day” +"%Y-%m-%d %H:%M:%S"
- 创建文本
- while true; do echo 1 >> /root/a.txt ; sleep 1;done
2、用户管理
- 添加用户
- 更改用户密码
- 删除用户
- userdel username 删除用户(不删除用户数据
- userdel -r username 删除用户和用户数据
3、压缩包管理
- gz压缩包
- tar czf file.tar.gz file 制作file的压缩包
- tar zxvf file.tar.gz -C /directory 解压缩包
- zip压缩包
- zip file.zip file 将file制成名为file.zip
- unzip file.zip 解压缩
4、查看属性
- 查看磁盘大小
- 查看内存大小
- 查看文件大小
- 任务管理器
- 清理缓存
- echo 1 > /proc/sys/vm/drop_caches
思考
-
linux 查看当前进程有那些方式?
-
linux 使用shell获取当前进程id?
-
centos6和centos7区别有哪些?
这篇关于大数据开发复习第一篇(Linux篇)的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!