ImageVerifierCode 换一换
格式:DOC , 页数:7 ,大小:23.34KB ,
资源ID:7057381      下载积分:10 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.docduoduo.com/d-7057381.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(Hadoop环境搭建——集群篇.doc)为本站会员(j35w19)主动上传,道客多多仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知道客多多(发送邮件至docduoduo@163.com或直接QQ联系客服),我们立即给予删除!

Hadoop环境搭建——集群篇.doc

1、流程:配置阶段:配置一系列文件在所有 slave节点上拷贝 master和 JobTracker的公钥在 JobTracker节点上拷贝 master的公钥运行阶段:启动 hadoop跑 wordcount集群搭建准备:至少两台已完成单节点搭建的机器(此例为两台,IP 分别是 192.168.1.10与 192.168.1.11,其中 10为 master)配置阶段:1、配置一系列文件(所有节点上)1、配置 etc下的 hosts文件sudo gedit /etc/hosts(注:打开后将里面的内容全部删除,不删除的话启动时会出现所有 slave启动正常,但是 master上的 DataNod

2、e为 0,导致系统不能正常运转的情况,全部删除以后添加所有节点的 IP和标识符,格式如下192.168.1.10 master192.168.1.11 slave标识符可以随便写,主要是起到一个映射作用)2、进入 hadoop目录下,配置 conf下的 masters文件cd /usr/local/hadoopsudo gedit conf/masters(打开后将里面内容清空,然后添加“master”或者master的 IP“192.168.1.10”,此处即是 hosts中配置的映射,填 master或者直接填 IP都是一样的)3、配置 conf下的 slaves文件sudo gedit

3、conf/slaves(打开后将里面内容清空,然后添加“slave”或者 slave的 IP“192.168.1.11”,原因同上)4、配置 conf下的 core-site.xml文件sudo gedit conf/core-site.xml(因为已完成单节点配置,因此只需要修改就行了。打开后将第一个标签中的 localhost改为“master”或者 master的 IP,如下Xml代码 1. 2. fs.default.name 3. hdfs:/master:9000 4. 第二个 标签,即包含dfs.replication一行的那个,其中的“”表示 文件上传到 dfs上时的备份个数,

4、此数值不能大于 slave即 datanode的个数)5、配置 conf下的 hdfs-site.xml文件(此配置在slave节点上可有可无)sudo gedit conf/hdfs-site.xml(打开后在空的 中添加如下配置Xml代码 1. 2. dfs.replication 3. 1 4. 5. 6. 7. dfs.name.dir 8. /home/hadoop/hdfs/name 9. 10. 11. 12. dfs.data.dir 13. /home/hadoop/hdfs/data 14. 6、配置 conf下的 mapred-site.xml文件sudo gedit c

5、onf/mapred-site.xml(打开后将标签里的 localhost改为 JobTracker的 IP,因为本例中 JobTracker也是 master本身,所以将 localhost改为“master”或 master的 IP)2、在所有 slave节点上拷贝 master和 JobTracker的公钥1、拷贝公钥scp hadoopmaster:/home/hadoop/.ssh/id_rsa.pub /home/hadoop/.ssh/master_rsa.pubscp hadoopmaster:/home/hadoop/.ssh/id_rsa.pub /home/haddop

6、/.ssh/jobtracker_rsa.pub(注:因为本例中 master和 JobTracker是同一台机器,所以相当于在 master上拷了两次公钥)2、将拷贝的公钥添加到信任列表cat /home/hadoop/.ssh/master_rsa.pub /home/hadoop/.ssh/authorized_keyscat /home/hadoop/.ssh/jobtracker_rsa.pub /home/hadoop/.ssh/authorized_keys3、在 JobTracker上拷贝 master的公钥1、拷贝公钥scp hadoopmaster:/home/hadoop

7、/.ssh/id_rsa.pub /home/hadoop/.ssh/master_rsa.pub(注:本例中 master和 JobTracker是同一台机器,所以相当于自己拷自己的公钥.囧)2、添加到信任列表cat /home/hadoop/.ssh/master_rsa.pub /home/hadoop/.ssh/authorized_keys运行阶段:1、启动 hadoop1、在所有节点上删除/home/hadoop/下的 tmp文件夹(包括 master节点)sudo rm -r /home/hadoop/tmp(注:tmp 文件夹内部存放有 NameNode的 ID信息,如果ID不

8、一样的话是无法正常连接的,此处的删除操作是为了保证 ID的一致性)2、在 master上格式化 NameNodehadoop namenode -format3、启动 hadoopbin/start-all.sh4、查看各节点是否正常启动jps(此语句执行后,slave 节点中必须有 DataNode,master节点中必须有 NameNode,否则启动失败)5、查看整个系统状态hadoop dfsadmin -report(此语句执行后能显示当前连接的 slave数,即 DataNode数)2、跑 wordcount1、准备测试文件sudo echo “mu ha ha ni da ye d

9、a ye da da“ /tmp/test.txt2、将测试文件上传到 dfs文件系统hadoop dfs -put /tmp/test.txt multiTest(注:如 multiTest目录不存在的话会自动创建)3、执行 wordcounthadoop jar hadoop-mapred-examples0.21.0.jar wordcout multiTest result(注:如 result目录不存在的话会自动创建)4、查看结果hadoop dfs -cat result/part-r-00000至此集群环境搭建完毕!补充说明:网上文档中说的关于“关闭防火墙”和“关闭安全模式”,我们在实践中并未涉及到,如遇到连接不到 datanode的问题,请检查您的 hosts文件中是否最上面多出两行,如果是的话请删除,然后重新按照“运行阶段”的步骤来。

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报