ImageVerifierCode 换一换
格式:DOCX , 页数:6 ,大小:20.35KB ,
资源ID:11357982      下载积分:10 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.docduoduo.com/d-11357982.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(hadoop常用命令.docx)为本站会员(HR专家)主动上传,道客多多仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知道客多多(发送邮件至docduoduo@163.com或直接QQ联系客服),我们立即给予删除!

hadoop常用命令.docx

1、所有hadoop命令均由hadoop主目录下bin/hadoop脚本引发,部分在bin/hadoop一、HADOOP的启动与关闭sh ./sbin/start-all.sh -启动 (注意启动环境,必须从hadoop主目录)sh ./sbin/stop-all.shbin/Hadoop version 查看版本 http:/localhost:50070 (localhost也可是master的ip)jps /OS级查看hadoop进程二、文件操作Hadoop fs 选项(应用较广,包括本地文件系统),推荐hdfs对应命令dfsbin/hdfs dfsadmin report /查看节点运行状

2、态bin/hdfs dfs -mkdir /t2 /在hdfs根目录创建子目录t2bin/hdfs dfs -ls / /列出目录bin/hdfs dfs -put /hadoop/hadoop/test4178.txt /t2 /上传本地文件到HDFS的T2bin/hdfs dfs -get /t3/test2 / 下载test2到本地根目录 位置相反bin/hdfs dfs -cat /t2/test2 /显示文件内容bin/hadoop fs -put /hadoop/hadoop/test4178.txt /t2 /cp本地文件到HDFS的T2bin/hdfs dfs -rmdir /

3、t2 /删除非空目录bin/hdfs dfs -rm /t2/test2 /删除文件,bin/hdfs dfs rm -r /t2 /删除目录及其下所有文件,bin/hadoop dfs -cat /ctom4178/test4178.txt1、列出所有Hadoop Shell支持的命令 $ bin/hadoop fs -help2、显示关于某个命令的详细信息 $ bin/hadoop fs -help command-name3、用户可使用以下命令在指定路径下查看历史日志汇总 $ bin/hadoop job -history output-dir这条命令会显示作业的细节信息,失败和终止的任

4、务细节。4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看 $ bin/hadoop job -history all output-dir5、 格式化一个新的分布式文件系统: $ bin/hadoop namenode -format6、在分配的NameNode上,运行下面的命令启动HDFS: $ bin/start-dfs.sh bin/start-dfs.sh脚本会参照NameNode上$HADOOP_CONF_DIR/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。7、在分配的JobTracker上,运行下面的命令

5、启动Map/Reduce: $ bin/start-mapred.sh bin/start-mapred.sh脚本会参照JobTracker上$HADOOP_CONF_DIR/slaves文件的内容,在所有列出的slave上启动TaskTracker守护进程。8、在分配的NameNode上,执行下面的命令停止HDFS: $ bin/stop-dfs.sh bin/stop-dfs.sh脚本会参照NameNode上$HADOOP_CONF_DIR/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。9、在分配的JobTracker上,运行下面的命令停止Map/Reduc

6、e: $ bin/stop-mapred.sh bin/stop-mapred.sh脚本会参照JobTracker上$HADOOP_CONF_DIR/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。 DFSShell10、创建一个名为 /foodir 的目录 $ bin/hadoop dfs -mkdir /foodir11、创建一个名为 /foodir 的目录 $ bin/hadoop dfs -mkdir /foodir12、查看名为 /foodir/myfile.txt 的文件内容 $ bin/hadoop dfs -cat /foodir/myfil

7、e.txtDFSAdmin13、将集群置于安全模式 $ bin/hadoop dfsadmin -safemode enter14、显示Datanode列表 $ bin/hadoop dfsadmin -report15、使Datanode节点 datanodename退役 $ bin/hadoop dfsadmin -decommission datanodename16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如: * -report:报告HDFS的基本统计信息。有些信息也可以在NameNode Web服务首页看到。 * -safemode:虽然

8、通常并不需要,但是管理员的确可以手动让NameNode进入或离开安全模式。 * -finalizeUpgrade:删除上一次升级时制作的集群备份。17、显式地将HDFS置于安全模式 $ bin/hadoop dfsadmin -safemode18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件 $ bin/hadoop dfsadmin -finalizeUpgrade19、能够知道是否需要对一个集群执行升级终结操作。 $ dfsadmin -upgradeProgress status20、使用-upgrade选项运行新的版本 $ bin/start-dfs.sh -upg

9、rade21、如果需要退回到老版本,就必须停止集群并且部署老版本的Hadoop,用回滚选项启动集群 $ bin/start-dfs.h -rollback22、下面的新命令或新选项是用于支持配额的。 前两个是管理员命令。 * dfsadmin -setquota . 把每个目录配额设为N。这个命令会在每个目录上尝试, 如果N不是一个正的长整型数,目录不存在或是文件名, 或者目录超过配额,则会产生错误报告。 * dfsadmin -clrquota . 为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。 * fs -co

10、unt -q . 使用-q选项,会报告每个目录设置的配额,以及剩余配额。 如果目录没有设置配额,会报告none和inf。23、创建一个hadoop档案文件 $ hadoop archive -archiveName NAME * -archiveName NAME 要创建的档案的名字。 src 文件系统的路径名,和通常含正则表达的一样。 dest 保存档案文件的目标目录。24、递归地拷贝文件或目录 $ hadoop distcp srcurl 源Url desturl 目标Url25、运行HDFS文件系统检查工具(fsck tools)用法:hadoop fsck GENERIC_OPTION

11、S -move | -delete | -openforwrite -files -blocks -locations | -racks命令选项 描述 检查的起始目录。-move 移动受损文件到/lost+found-delete 删除受损文件。-openforwrite 打印出写打开的文件。-files 打印出正被检查的文件。-blocks 打印出块信息报告。-locations 打印出每个块的位置信息。-racks 打印出data-node的网络拓扑结构。26、用于和Map Reduce作业交互和命令(jar)用法:hadoop job GENERIC_OPTIONS -submit |

12、-status | -counter | -kill | -events | -history all | -list all | -kill-task | -fail-task 命令选项 描述-submit 提交作业-status 打印map和reduce完成百分比和所有计数器。-counter 打印计数器的值。-kill 杀死指定作业。-events 打印给定范围内jobtracker接收到的事件细节。-history all -history 打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细节比如 成功的任务,做过的任务尝试等信息可以通过指定all选项查看。-list al

13、l -list all 显示所有作业。-list只显示将要完成的作业。-kill-task 杀死任务。被杀死的任务不会不利于失败尝试。-fail-task 使任务失败。被失败的任务会对失败尝试不利。27、运行pipes作业用法:hadoop pipes -conf -jobconf , , . -input -output -jar -inputformat -map -partitioner -reduce -writer -program -reduces 命令选项 描述-conf 作业的配置-jobconf , , . 增加/覆盖作业的配置项-input 输入目录-output 输出目录

14、-jar Jar文件名-inputformat InputFormat类-map Java Map类-partitioner Java Partitioner-reduce Java Reduce类-writer Java RecordWriter-program 可执行程序的URI-reduces reduce个数28、打印版本信息。 用法:hadoop version29、hadoop脚本可用于调调用任何类。 用法:hadoop CLASSNAME 运行名字为CLASSNAME的类。30、运行集群平衡工具。管理员可以简单的按Ctrl-C来停止平衡过程(balancer) 用法:hadoop

15、 balancer -threshold 命令选项 描述-threshold 磁盘容量的百分比。这会覆盖缺省的阀值。31、获取或设置每个守护进程的日志级别(daemonlog)。用法:hadoop daemonlog -getlevel 用法:hadoop daemonlog -setlevel 命令选项 描述-getlevel 打印运行在的守护进程的日志级别。这个命令内部会连接http:/logLevel?log=-setlevel 设置运行在的守护进程的日志级别。这个命令内部会连接http:/logLevel?log=32、运行一个HDFS的datanode。用法:hadoop datan

16、ode -rollback命令选项 描述-rollback 将datanode回滚到前一个版本。这需要在停止datanode,分发老的hadoop版本之后使用。33、运行一个HDFS的dfsadmin客户端。用法:hadoop dfsadmin GENERIC_OPTIONS -report -safemode enter | leave | get | wait -refreshNodes -finalizeUpgrade -upgradeProgress status | details | force -metasave filename -setQuota . -clrQuota .

17、-help cmd命令选项 描述-report 报告文件系统的基本信息和统计信息。-safemode enter | leave | get | wait 安全模式维护命令。安全模式是Namenode的一个状态,这种状态下,Namenode1. 不接受对名字空间的更改(只读)2. 不复制或删除块Namenode会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。-refreshNodes 重新读取hosts和exclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode

18、的集合。-finalizeUpgrade 终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后Namenode也这样做。这个操作完结整个升级过程。-upgradeProgress status | details | force 请求当前系统的升级状态,状态的细节,或者强制升级操作进行。-metasave filename 保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的文件。对于下面的每一项, 中都会一行内容与之对应1. Namenode收到的Datanode的心跳信号2. 等待被复制的块3. 正在被复制的块4. 等待被删除的块-setQu

19、ota . 为每个目录 设定配额。目录配额是一个长整型整数,强制限定了目录树下的名字个数。命令会在这个目录上工作良好,以下情况会报错:1. N不是一个正整数,或者2. 用户不是管理员,或者3. 这个目录不存在或是文件,或者4. 目录会马上超出新设定的配额。-clrQuota . 为每一个目录清除配额设定。命令会在这个目录上工作良好,以下情况会报错:1. 这个目录不存在或是文件,或者2. 用户不是管理员。如果目录原来没有配额不会报错。-help cmd 显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。34、运行MapReduce job Tracker节点(jobtracke

20、r)。用法:hadoop jobtracker35、运行namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。用法:hadoop namenode -format | -upgrade | -rollback | -finalize | -importCheckpoint命令选项 描述-format 格式化namenode。它启动namenode,格式化namenode,之后关闭namenode。-upgrade 分发新版本的hadoop后,namenode应以upgrade选项启动。-rollback 将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoo

21、p版本后使用。-finalize finalize会删除文件系统的前一状态。最近的升级会被持久化,rollback选项将再 不可用,升级终结操作之后,它会停掉namenode。-importCheckpoint 从检查点目录装载镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir指定。36、运行HDFS的secondary namenode。用法:hadoop secondarynamenode -checkpoint force | -geteditsize命令选项 描述-checkpoint force 如果EditLog的大小 = fs.checkpoint.size,启动Secondary namenode的检查点 过程。 如果使用了-force,将不考虑EditLog的大小。-geteditsize 打印EditLog大小。37、运行MapReduce的task Tracker节点。 用法:hadoop tasktracker

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报