2021-03-11 11:17:37

Hadoop入门教程(四):Hadoop 完全分布式集群环境


Hadoop入门教程(四):Hadoop 完全分布式集群环境

上一篇我们尝试了伪分布式的安装搭建,但真正使用的是分布式集群,所以这才是重点,本文章将使用三个节点来安装最小的Hadoop集群,体验完全分布式的环境。

先决条件

首先此处只讲 Hadoop,不再赘述 Linux 相关的知识点,需要您熟悉使用 Linux,并按照前面的教程安装配置好 Hadoop 环境,最少准备 3台 Linux 进行实验学习。除了前面之前的教程,到此文章之前,我还给 3 台机器配置了 SSH Key 免密登陆,这 3台机器相互可以免密登陆,这个需要你自己配置一下,不再赘述。

集群设计

首先,集群的机器数量应该是奇数,所以最小的是3,按照奇数要求就是 3、5、7、9,不要弄成偶数哦,主要是为了leader选举算法,这不多说,只将Hadoop。

在集群中我们需要以下节点:NameNode、SecondaryNameNode、DataNode、ResourceManager,NodeManager和DataNod运行在一起。使用三个节点来搭配安装,我的设计如下:

  • n1.renfei.net:NameNode、DataNode、ResourceManager
  • n2.renfei.net:SecondaryNameNode、DataNode、NodeManager
  • n3.renfei.net:DataNode、NodeManager
Hadoop集群设计

域名可以通过修改 /etc/hosts 实现。也就是 n1.renfei.net 主要负责 HDFS,n2.renfei.net 主要负责 Yarn,三台机器上全部负责存储,结构如下图所示:

配置修改

下面的配置文件修改在三台机器上内容都一样,我在这里只写一遍,其中在env.shh配置的 JAVA_HOME 变量根据自己的路径去配置,在我的案例中我把 JDK 解压到了 /opt/module/jdk1.8.0_281。

配置 core-site.xml

<!-- 指定HDFS中NameNode的地址 -->
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://n1.renfei.net:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/module/hadoop-2.10.1/data/tmp</value>
</property>

在这里我们指定谁是 NameNode,以及运行时产生文件的存储目录

配置 hadoop-env.sh、hdfs-site.xml

修改 hadoop-env.sh 中 JAVA_HOME 为自己的路径。再配置 hdfs-site.xml:

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>n2.renfei.net:50090</value>
</property>

在这里,我们指定了 dfs.replication = 3,这个是副本数,也就是文件会复制几份,如果是3,那么就会复制到三个节点上进行数据冗余。

配置 yarn-env.sh、yarn-site.xml

<!-- Reducer获取数据的方式 -->
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>n1.renfei.net</value>
</property>
<!-- 日志聚集功能使能 -->
<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
</property>
<!-- 日志保留时间设置7天 -->
<property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>604800</value>
</property>

配置 mapred-env.sh、mapred-site.xml

修改 mapred-env.sh 中 JAVA_HOME 为自己的路径。再配置 mapred-site.xml:

将mapred-site.xml.template复制一份为mapred-site.xml

<!-- 指定MR运行在Yarn上 -->
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
<!-- 历史服务器端地址 -->
<property>
    <name>mapreduce.jobhistory.address</name>
    <value>n1.renfei.net:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>n1.renfei.net:19888</value>
</property>

配置 slaves

配置 /opt/module/hadoop-2.10.1/etc/hadoop/slaves,将我们的节点都写进去:

n1.renfei.net
n2.renfei.net
n3.renfei.net

注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。

启动集群

此处在 n1.renfei.net 群起集群需要配置 SSH Key 免密登陆,请先配置集群的免密登陆。

如果集群是第一次启动,需要格式化NameNode(注意格式化之前,一定要先停止上次启动的所有namenode和datanode进程,然后再删除data和log数据),格式化的命令在上一篇已经讲过了,请回顾上一篇的内容。

sbin/start-dfs.sh
sbin/start-yarn.sh

注意:NameNode和ResourceManger如果不是同一台机器,不能在NameNode上启动 YARN,应该在ResouceManager所在的机器上启动YARN。

启动Hadoop集群查看Hadoop节点

测试使用集群

在上一篇文章中我们体验了伪分布式模式中的 WordCount 案例,现在还使用WordCount案例进行集群测试,如果不知道怎么运行 WordCount 案例,请回顾上一篇文章。

运行Hadoop任务查看Hadoop任务

结尾

到这里你已经拥有一个自己的 Hadoop 集群了,接下来我们讲关注重点转移到 Hadoop 的核心:HDFS、MapReduce。


商业用途请联系作者获得授权。
版权声明:本文为博主「任霏」原创文章,遵循 CC BY-NC-SA 4.0 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://www.renfei.net/posts/1003461
评论与留言
以下内容均由网友提交发布,版权与真实性无法查证,请自行辨别。

本站有缓存策略,时间约2小时后能看到您的评论。本站使用自动审核机制,如果您的内容包含广告/谩骂/恐怖/暴力/涉政等不和谐内容将无法展示!


本站有缓存策略,时间约2小时后能看到您的评论。本站使用自动审核机制,如果您的内容包含广告/谩骂/恐怖/暴力/涉政等不和谐内容将无法展示!

关注任霏博客
扫码关注「任霏博客」微信订阅号
微博:任霏博客网
Twitter:@renfeii
Facebook:任霏
最新留言 优先级低的并不代表一定要等到优先级高的运行完才能运行,只是cpu分配的资源少了而已。 /lib64/ld-linux-x86-64.so.2: No such file or directory 报了这个错误,怎么解决呢 对于一个布道 DevOps 多年的选手来讲,看到这个报告,还是想继续布道布道。虽然是各种对比哈,但是我感觉与 DevOps 太像了(可能是职业病犯了哈)。首先声明本人不是GitLab 用户(因为不免费,没法薅羊毛啊),本人是 GitHub 忠实用户。 首先,你这是田忌赛马的对比,中文对比一事,着实有点可笑 1 土生土长和外来户能立马拉到同一个起跑线上吗? 2 一个真正的开发者应该去提升自己的英语能力,而不是拿全部是中文文档说事。大家都知道现在开源非常热,开发者是开源的主力军,如果要贡献优秀的开源项目(诸如Linux 内核,Kubernetes),英语就是个硬门槛。如果我是你,我倒希望公司内部的系统是英文的,最起码能让我锻炼英语,在看开源项目文档的时候不至于看不懂,提 PR 的时候不至于提交代码的内容描述不清楚而没法被 Merge。 其次,阿里云效、Coding 大家都知道背后站的是谁,很容易造成厂商绑定,现在很多企业都希望不要被厂商绑定。 再者,有一个点需要明白,GitLab 是一个 DevOps 平台,什么叫做 DevOps 平台(DevOps 走到现在,确切的说应该叫做 DevSecOps)?就是覆盖了软件开发生命周期全阶段的,从项目管理到代码托管到安全再到日志监控、甚至包含现在的云原生能力。不仅仅是说一个 CI/CD 就能概括的了的。这一点是 DevOps 布道的真正误区,我见过太多了,我在这儿再布道一哈,CI/CD 不等于 DevOps,他只是 DevOps 落地实践的核心能力。仅凭借一个 CI/CD 能有现成模版就判断出哪个好坏,过于牵强了吧。相信大家真正到项目用的时候,模版是满足不了要求的吧,毕竟大家都很特性化。 最后,还是一个很热的话题,开源,open source。GitLab 是开源的,Coding 和 云效这方面我没看到相关的开源内容(可能是我孤陋寡闻)。大家可以看看国内有多少用 GitLb 的,GitLab 的 CE 版,然后私有化部署,就是很多公司的代码托管 + DevOps 解决方案。 个人愚见,做一些对比报告的时候,还是先需要明白这个产品的定位,去深入挖掘一些真正有意义的对比,这样的对比报告才能有意义。作为一个常年写博客、文章的人来说。你写的每个字、每篇文章,你要想到你的思想会影响到别人。有可能因为你的片面之词,让别人错失一些学习的好机会。 docker run 那一长串后,出来一个字符串,然后去 docker containers 下面看 显示 exited(1);logs 下就一行错误 initdb failed 感谢🙏,第一个问题是空格的问题应该,我逐字敲完后可以构建了.第二个问题是我docker环境的问题,docker更新为最新版后需要重置配置文件.现已经正常使用,再次感谢您的分享和您的细心解答,期待下次相遇😄 还有一个问题可以请教下吗?就是我在容器里建文件夹没有权限,su root后密码不知道是多少,sudo mkdir xxx 提示我,没有sudo命令,请问有好的解决方法吗?谢谢解答 -v 后面可以指定文件吗 我的也是报错,还有。我执行了这个:@localhost kingbase-es-v8-r3-docker % docker run -d --name kingbase -p 54321:54321 -e SYSTEM_PWD=SYSTEM -v /opt/kingbase/data:/opt/kingbase/data -v /opt/kingbase:/opt/kingbase/Server/bin kingbase:v8r3 docker: 'run -d --name kingbase -p 54321:54321 -e SYSTEM_PWD=SYSTEM -v /opt/kingbase/data:/opt/kingbase/data -v /opt/kingbase:/opt/kingbase/Server/bin kingbase:v8r3' is not a docker command. See 'docker --help' 麻烦帮忙看下,是不是我写的命令有问题,还是版本问题,谢谢啦 请问我build的时候一直报错,是资源没了吗?failed to solve with frontend dockerfile.v0: failed to create LLB definition: failed to do request: Head "https://reg-mirror.qiniu.com/v2/library/centos/manifests/7?ns=docker.io": Moved Permanently 能不能在代码那里详细解释一下啊,没完全懂呀 en 按照路径上的来操作的,但是启动时一直报:zsh: no such file or directory: docker run -d --name kingbase -p 54321:54321 -e SYSTEM_PWD=SYSTEM -v /Volumes/installation/opt/kingbase/data:/opt/kingbase/data -v /Volumes/installation/opt/kingbase/bin/license.dat:/opt/kingbase/Server/bin/license.dat kingbase:v8r3 错误