51Testing软件测试论坛

标题: Hadoop CDH4.5 hadoop集群命令介绍 [打印本页]

作者: 测试积点老人    时间: 2019-1-10 14:27
标题: Hadoop CDH4.5 hadoop集群命令介绍

CDH4中hadoop命令的介绍,可以通过hadoop -h来查看CDH4的hadoop命令支持哪些子命令


hadoop -h

  1. Usage: hadoop [--config confdir] COMMAND
  2. where COMMAND is one of:

  3. fs                    运行一个常规的文件系统客户端
  4. version               打印当前hadoop版本
  5. jar <jar>             运行一个jar包
  6. checknative [-a|-h]     检查hadoop和本地压缩库的可用性
  7. distcp <srcurl> <desturl>    递归的拷贝文件或者目录
  8. archive -archiveName NAME -p <parent path> <src>* <dest>         创建一个hadoop档案文件,Hadoop archives是特殊的档案格式。一个Hadoop archive对应一个文件系统目录。 Hadoop archive的扩展名是*.har。Hadoop archive包含元数据(形式是_index和_masterindx)和数据文件(part-*)。_index文件包含了档案中的文件的文件名和位置信息。
  9. classpath            打印hadoop的jar包和它需要的库的class path
  10. daemonlog           设置或者获取每个守护进程的log级别
  11. CLASSNAME            运行名字为CLASSNAME的类
复制代码


2   hadoop fs

  1. hadoop fs [generic options]

  2. -cat [-ignoreCrc] <src> ...:    显示出匹配的文件的内容到标准输出
  3. -chgrp [-R] GROUP PATH...:      等同于 -chown ... :GROUP   改变文件的属组,-R递归修改
  4. -chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...:      修改文件的权限,-R递归修改
  5. -chown [-R] [OWNER][:[GROUP]] PATH...:      修改文件的属主和属组,-R递归修改
  6. -copyFromLocal <localsrc> ... <dst>:    等价于-put
  7. -copyToLocal [-ignoreCrc] [-crc] <src> ... <localdst>:      等价于-get
  8. -count [-q] <path> ...:     计算文件个数以及空间占用情况,输出表格的列含义依次为:DIR_COUNT FILE_COUNT CONTENT_SIZE FILE_NAME
  9. 如果加了-q,则输出表格含义如下:QUOTA REMAINING_QUATA SPACE_QUOTA REMAINING_SPACE_QUOTA  DIR_COUNT FILE_COUNT CONTENT_SIZE FILE_NAME
  10. -cp <src> ... <dst>:     复制文件到目标位置,当复制多个文件时,目标必须是个目录
  11. -df [-h] [<path> ...]:     显示系统空间的可用性,如果使用-h参数,则输出可读性更好
  12. -du [-s] [-h] <path> ...:     列出匹配的文件系统的空间总量,-h参数使输出更为可读
  13. -expunge:      清空回收站
  14. -get [-ignoreCrc] [-crc] <src> ... <localdst>:     从DFS复制文件到本地,如果使复制多个文件,则目标地址为目录
  15. -getmerge [-nl] <src> <localdst>:    从DFS复制多个文件到本地,不过在复制到本地的时候,会把多个文件进行排序合并成一个文件落到本地,-nl参数在每一行末尾加换行符
  16. -ls [-d] [-h] [-R] [<path> ...]:     列出指定目录下的内容,等同于ls命令,如果不指定匹配模式,则默认显示/user/<current User>下的内容,输出目录格式如下:dirName (full path) <dir>
  17. 输出文件的格式如下: fileName(full path) <r n> size  其中n代表文件在DFS中复制的份数。支持-d、-h、-R等参数。
  18. -mkdir [-p] <path> ...:     创建一个目录,支持-p参数。
  19. -moveFromLocal <localsrc> ... <dst>:     等同于-put,只不过源文件在拷贝后会被删除。
  20. -moveToLocal <src> <localdst>:     该功能目前尚未实现
  21. -mv <src> ... <dst>:     将指定的文件移动到指定的位置,如果使多个文件,则目标必须是目录
  22. -put <localsrc> ... <dst>:     从本地文件系统复制文件到DFS
  23. -rm [-f] [-r|-R] [-skipTrash] <src> ...:     删除指定的文件,等同与rm命令。 支持-f、-r等参数
  24. -rmdir [--ignore-fail-on-non-empty] <dir> ...:     删除一个目录
  25. -setrep [-R] [-w] <rep> <path/file> ...:     设置文件的备份复制的级别,-R参数设置是否递归子目录及文件
  26. -stat [format] <path> ...:     打印出目录或者文件的状态格式,format接受如下参数:filesize in blocks (%b), group name of owner(%g),filename (%n), block size (%o), replication (%r), user name of owner(%u), modification date (%y, %Y)
  27. -tail [-f] <file>:    显示文件的最后1KB内容,支持-f参数
  28. -test -[ezd] <path>:     测试文件是否存在,存在返回0,如果使目录返回0,不是返回1
  29. -text [-ignoreCrc] <src> ...:      创建一个源文件,并且使这个文件处于text模式?
  30. -touchz <path> ...:     创建一个长度为0的文件,如果文件存在返回非0
复制代码


3  hadoop distcp

  1. hadoop  distcp [OPTIONS] <srcurl>* <desturl>
  2. OPTIONS:
  3. -p[rbugp]    -p不跟任何参数就等同于 -prbugp
  4. r: 复制的份数
  5. b: 块大小
  6. u: 用户
  7. g: 用户组
  8. p: 权限
  9. -i                     忽略失败
  10. -log <logdir>          日志写到哪里
  11. -m <num_maps>          最大启动几个map处理复制任务
  12. -overwrite             覆盖目标地址已有的文件
  13. -update                如果源文件的大小和目标文件不一致,则进行覆盖
  14. -skipcrccheck          不使用CRC校验
  15. -f <urilist_uri>       使用一个URL列表,作为源地址列表
  16. -filelimit <n>         限制传输文件数的大小
  17. -sizelimit <n>         限制传输文件量的大小
  18. -delete                删除已经存在的目标文件,但是不会删除源文件
  19. -mapredSslConf <f>     Filename of SSL configuration for mapper task
复制代码


4    hadoop archive

  1. hadoop archive -archiveName NAME -p <parent path> <src>* <dest>
  2. -archiveName  要创建的档案文件的名称
  3. src   文件系统的路径名
  4. dest  保存档案文件的目录
  5. -p   父目录?是干啥的?
复制代码


5  hadoop daemonlog

  1. hadoop  [-getlevel <host:httpPort> <name>]     获取每个守护进程的日志级别
  2. -getlevel  <host:httpPort>  <name>   打印运行在 <host:httpPort>守护进程的日志级别,这个命令会链接http://<host:port>/logLevel?log=<name>
  3. [-setlevel <host:httpPort> <name> <level>]     设置每个守护进程的日志级别
复制代码


6  hadoop checknative

  1. hadoop NativeLibraryChecker [-a|-h]
  2.         -a  使用-a检查所有hadooplib库的可用性
  3.         -h  打印信息
复制代码






欢迎光临 51Testing软件测试论坛 (http://bbs.51testing.com/) Powered by Discuz! X3.2