Hadoop集群分布搭建

阅读: 评论:0

Hadoop集群分布搭建

Hadoop集群分布搭建

一、准备工作

1、最少三台虚拟机或者实体机(官网上是默认是3台),我这边是3台

s1: 10.211.55.18

s2: 10.211.55.19

s3: 10.211.55.20

2、安装JDK

3、配置SSH

4、修改hosts 文件vi /etc/hosts


在文件中添加:
  
  地址 主机名

10.211.55.18 s1

10.211.55.19 s2

10.211.55.20 s3

 

5、下载hadoop

二、安装hadoop

1、解压hadoop2.9.0

mkdir -r /usr/soft

tar -zxvf hadoop2.9. -C /usr/soft #解压到/usr/soft

2、配置环境变量(ps:我这边是centos7)

cd /etc/profile.d/touch hadoop_envi.sh #创建脚本vi hadoop_envi.sh #编辑脚本
以下都是 hadoop_envi.sh 文件里面内容,也是添加环境变量
HADOOP_INSTALL=/usr/soft/hadoop-2.9.0PATH=$PATH:$HADOOP_INSTALL/bin:$HADOOP_INSTALL/sbinexport HADOOP_INSTALLexport PATH

3、测试

hadoop version

 

三、编写hadoop配置文件,配置文件都在 hadoop2.9.0/etc/hadoop/ 下

1、l 通用配置

<configuration>
  

    <property>
      <name&p.dir</name>
      <value>/home/hadoop/hadooptmp</value>
      <description>namenode上本地的hadoop临时文件夹</description>
    </property>

    <property><name>fs.defaultFS</name> #NameNode ip<value>hdfs://s1/</value></property>
</configuration>

2.  l 

<configuration><property><name&sourcemanager.hostname</name> #资源管理器的主机<value>s1</value></property><property><name&demanager.aux-services</name><value>mapreduce_shuffle</value></property></configuration>

 

3.  l 分布式文件相关配置

<configuration>

  <property>
    <name>dfs.name.dir</name>
    <value>/home/hadoop/hdfs/name</value>  
    <description>namenode上存储hdfs名字空间元数据</description>
  </property> 

   <property>
      <name>dfs.data.dir</name>
      <value>/home/hadoop/hdsf/data</value>
      <description>datanode上数据块的物理存储位置</description>
   </property>

    <property><name&plication</name> #文件块的备份数量  默认3个, 2、3都可以<value>2</value></property></configuration>

 

4.  l  这个问题通过 plate复制而来的

<configuration><property><name>mapreduce.framework.name</name>  #MapReduce框架名称<value>yarn</value></property></configuration>

5、编辑slave

vi slaves
以下是 slaves 需要添加的内容

s2 #表示s2和s3 为数据节点,s2就是 10.211.55.19,s3就是 10.211.55.20 s3

 

四、启动hadoop

hadoop namenode -format #

名称节点格式化成功

启动 dfs 和 yarn 这两个脚本文件都在 hadoop2.9.0/sbin 下

./sbin/start-dfs.sh 

./sbin/start-yarn.sh

五、测试hadoop

前提:开发8088 和 50070端口    10.211.55.18是namenode 节点

10.211.55.18:8088  

10.211.55.18:50070/

 

转载于:.html

本文发布于:2024-01-28 09:47:59,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/17064064836550.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

上一篇:Java Redis+Spring
下一篇:storm 安装配置
标签:集群   Hadoop
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23