当前位置:首页 > 芯闻号 > 充电吧
[导读]hadoop-2.7.2集群的搭建过程 安装环境: 3节点集群,1个Master,2个Slave。 3个节点的局域网ip分别是10.30.30.128、10.30.30.129、10.30.30.1

hadoop-2.7.2集群的搭建过程

安装环境:

3节点集群,1个Master,2个Slave。

3个节点的局域网ip分别是10.30.30.128、10.30.30.129、10.30.30.130。

 

0. 准备工作:

在Master节点上安装好hadoop-2.7.2伪分布模式。

接下来主要对Slave节点进行安装配置。

 

1. Slave节点基本环境的安装和配置

首先需要在Slave节点上进行一些基本环境的安装和配置,步骤均与伪分布模式相同。

1)  创建hadoop用户

2)  安装ssh

3)  安装Java环境

 

2. 配置网络连接

将主节点的hostname改为Master,两个从节点分别改为Slave1和Slave2。

sudo nano /etc/hostname

将所有节点的hosts文件都改为如下内容:

127.0.0.1 localhost

10.30.30.128 Master

10.30.30.129 Slave1

10.30.30.130 Slave2

 

3. 配置节点间ssh无密码登录

删除Slave节点.ssh目录中的所有文件(若存在文件):

rm ~/.ssh/*

进入Master节点的~/.ssh文件夹,将id_rsa 和id_rsa.pub两个文件复制到Slave节点对应的目录下:

scp ~/.ssh/id* hadoop@Slave1:/home/hadoop/.ssh/

然后在Slave节点上执行命令:

cat ./id_rsa.pub >> ./authorized_keys

将公钥加入授权,即可实现节点间无密码登录。

 

4. Slave节点hadoop的安装

    将Master节点中hadoop的安装目录打包,发送给各Slave节点,注意必须先打包再发送,否则该目录下的link文件将失效。

cd /usr/lib

sudo tar –cvf hadoop.tar hadoop/

scp hadoop.tar hadoop@Slave1:/home/hadoop/

登录Slave节点,将文件解压到对应的路径:

sudo tar xvf hadoop.tar /usr/local

设置文件夹权限:

sudo chown -R hadoop:hadoop /usr/local/hadoop

在Slave节点中配置hadoop环境变量,请参照Master节点。

 

5. 修改配置文件

一共需要修改5个配置文件,分别是hadoop/etc/hadoop目录下的core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml和slaves文件,注意,所有节点均需修改。


core-site.xml:


  
    hadoop.tmp.dir
    file:/usr/local/hadoop/tmp
    Abasefor other temporary directories.
  
  
    fs.defaultFS
    hdfs://Master:9000
  


hdfs-site.xml:


  
    dfs.replication
    1
  
  
    dfs.namenode.name.dir
    file:/tmp/hadoop/dfs/name
  
  
    dfs.datanode.data.dir
    file:/tmp/hadoop/dfs/data
  
  
    dfs.namenode.secondary.http-address
    Master:50090
  


mapred-site.xml:


  
    mapreduce.framework.name
    yarn
  
  
    mapreduce.jobhistory.address
    Master:10020
  
  
    mapreduce.jobhistory.webapp.address
    Master:19888
  

yarn-site.xml:


  
    yarn.nodemanager.aux-services
    mapreduce_shuffle
  
  
    yarn.resourcemanager.hostname
  cit128
  


slaves:

Slave1
Slave2

 

6. 启动Hadoop集群

登录Master节点,启动hadoop守护进程和yarn进程:

start-dfs.sh

start-yarn.sh

或者使用start-all.sh命令代替二者也行。

启动历史服务进程:

mr-jobhistory-daemon.sh start historyserver

启动后,Master节点上运行的进程有:

NameNode

SecondaryNameNode

JobHistoryServer

ResourceManager

Slave节点上运行的进程有:

DataNode

NodeManager

 

7. 运行hadoop分布式实例

创建用户目录:

hdfs dfs -mkdir -p /user/hadoop

创建输入目录和输入文件:

hdfs dfs -mkdir input

hdfs dfs -put /usr/local/hadoop/etc/hadoop/*.xml input

运行mapreduce作业:

hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount input output

等待mapreduce作业运行结束,查看运行结果:

hdfs dfs -cat output/*

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭