1. 查看文件 hadoop dfs -ls
2. 创建目录
hadoop dfs -mkdir /ttt
3. 上传文件
hadoop dfs -put local_file hadoop_file
4. 下载文件
hadoop dfs -get hadoop_file local_file
5. 查看文件内容
hadoop dfs -cat hadoop_file
6. 删除文件
hadoop dfs -rmr hadoop_file
7、通过distcp进行并行复制
- 相同hadoop版本的集群复制: hadoop distcp hdfs://NameNode1/path1 hdfs://NameNode2/path2
- 不同hadoop版本的集群复制: hadoop distcp hftp://NameNode1:50070/path1 hdfs://NameNode2/path2
8、使用Hadoop归档文件
hadoop archive –archiveName files.har -p /user/hadoop/in /user/hadoop
9、查看归档文件
hadoop dfs -ls /user/hadoop/files.har
|