Java教程

常用的HDFS操作

本文主要是介绍常用的HDFS操作,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

首先启动Hadoop

start-all.sh

如果出现

Starting namenodes on [localhost]
localhost: hadoop@localhost: Permission denied (publickey,password).
Starting datanodes
localhost: hadoop@localhost: Permission denied (publickey,password).
Starting secondary namenodes [z-virtual-machine]
z-virtual-machine: hadoop@z-virtual-machine: Permission denied (publickey,password).

这里提供一种解决方法

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
start-dfs.sh

下面命令的前提:

先在HDFS中创建名为hadoop的用户目录

cd /usr/local/hadoop
./bin/hdfs dfs -mkdir -p /user/hadoop

然后在他下面创建一个input目录

./bin/hdfs dfs -mkdir input

(1)向HDFS 中上传任意文本文件,如果指定的文件在HDFS中已经存在,由用户指定是追加到原有文件末尾还是覆盖原有的文件

./bin/hdfs dfs -put /home/hadoop/zhang.txt input

(2)从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名

./bin/hdfs dfs -get input/zhang.txt /home/hadoop/下载

(3)将HDFS中指定文件的内容输出到终端中

hadoop fs -cat /user/hadoop/input/zhang.txt

(4)显示 HDFS中指定的文件的读写权限、大小、创建时间、路径等信息

hdfs dfs -ls -h /user/hadoop/input/zhang.txt

(5)给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

hdfs dfs -ls -R -h /user/hadoop/input

(6)提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录

if $(hadoop dfs -test -d /user/hadoop/zjb);
then $(hadoop dfs -touch /user/hadoop/zjb/zhangjiabo.txt);
else $(hadoop dfs -mkdir -p /user/hadoop/zjb && hadoop dfs -touch
user/hadoop/zjb/zhangjiabo.txt);
fi

(7)提供一个 HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录

hdfs dfs -rm -r /user/hadoop/zjb

(8)向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;(以结尾举例)

hdfs dfs -appendToFile /home/hadoop/appent.txt input/zhang.txt

(9)删除HDFS中指定的文件

hdfs dfs -rm input/myLocalFile.txt

(10)删除HDFS中指定的目录,由用户指定目录中如果存在文件时是否删除目录

hdfs dfs -rm -r new

(11)在 HDFS 中,将文件从源路径移动到目的路径

hdfs dfs -mv /user/hadoop/input/zhang.txt /user/hadoop/new/zhang.txt
这篇关于常用的HDFS操作的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!