在本地使用Java API操作HDFS文件系统上传和下载文件时获取不到数据,连接DataNode异常,按照常规思路百度报错检查后没有问题,意识到可能是集群搭载在阿里云ECS上的缘故。
org.apache.hadoop.hdfs.BlockMissingException: Could not obtain block: BP-691697918-172.27.90.118-1656255122515:blk_1073742087_1263 file=/dir1/score.txt
org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /big3.txt could only be replicated to 0 nodes instead of minReplication (=1). There are 3 datanode(s) running and 3 node(s) are excluded in this operation
文件夹和文件名都是存放在 NameNode 上的,本地可以通过公网访问 NameNode,所以创建文件夹和文件都可以,但是读写数据的时候,NameNode 和DataNode 是通过内网通信的,NameNode 会返回给本地 DataNode 的内网 IP,本地就访问不了了。
在代码中添加配置设置Hadoop的dfs客户端使用hostname访问datanode
//创建Configuration对象 Configuration conf = new Configuration(); //设置Hadoop的dfs客户端使用hostname访问datanode conf.set("dfs.client.use.datanode.hostname", "true");
在本地电脑hosts文件中需要配置主机名与DataNode服务器公网ip的映射
https://blog.csdn.net/qq_44249833/article/details/106533826