文件操作
上传
1 | hadoop fs -put localfile /user/hadoop/hadoopfile |
具体示例
方式1
1 | hadoop fs -put /root/zjhome/test.json hdfs://hacluster/zjhome/test.json |
其中集群名可以通过下面的地址查看
http://hadoop02:50070/dfshealth.html#tab-overview
不要使用
1 | hadoop fs -put /root/zjhome/test.json hdfs://hadoop02:9000/zjhome/test.json |
其中端口是在hdfs-site.xml
中的dfs.namenode.rpc-address
配置的端口。
这种方式只会找对应的服务器上找,如上只会从hadoop02上找,如果hadoop02不是激活状态则无法上传。
方式2
1 | hadoop fs -put /root/zjhome/test.json /zjhome/test.json |
注意如果父级目录没有创建,需要先创建。
查看文件列表
1 | hadoop fs -ls / |
创建目录
1 | hadoop fs -mkdir -p /zjhome/ |
这里的-p
选项会创建所有必要的父目录,如果它们不存在的话。
查看文件
1 | hadoop fs -cat /zjhome/test.json |
下载文件
1 | hadoop fs -get /zjhome/test.json |
文件读取
工具类
1 | import org.apache.hadoop.conf.Configuration; |
注意
要读取服务器上的Hadoop配置,否则无法找到文件。
依赖的Jar
1 | <dependency> |