hadoop2.7.3从搭建到运行(一、安装篇)

    xiaoxiao2025-09-09  71

    一、搭建(搭建过程参考小狼咕咕,部分有删改)

    以下所有操作尽量使用root用户进行操作,权限给的够,操作起来方便,实际操作过程中经验所得。

    1.选取三台服务器(Ubantu系统64位)

    原本的第一行 localhost就别删除了

      114.55.246.88 master

      114.55.246.77 slave1

      114.55.246.93 slave2

         之后的操作如果是用普通用户操作的话也必须知道root用户的密码,因为有些操作是得用root用户操作。如果是用root用户操作的话就不存在以上问题。

      我是用root用户操作的。

    2.修改hosts文件

      修改三台服务器的hosts文件。

      vi /etc/hosts

      在原文件的基础最后面加上:

    114.55.246.88 master 114.55.246.77 slave1 114.55.246.93 slave2

    修改完成后保存执行如下命令。(这步不用的,当时可能写混了)

      source /etc/hosts

    (在这一步完成后我又多余的将/etc/hostname的主机名改为master)

    然后将这个hosts分发到两台slave中去:

    scp /root/.ssh/id_rsa.pub root@slave1:/root/

    scp /root/.ssh/id_rsa.pub root@slave2:/root/

    3.ssh无密码验证配置

      3.1安装和启动ssh协议

      我们需要一个服务:ssh

      可以通过下面命令查看是否已经安装:

        ssh locahost

      如果没有安装ssh,可以通过下面命令进行安装:

      安装SSH:sudo apt-get install openssh-server

    (SSH分客户端openssh-client和openssh-server 如果你只是想登陆别的机器的SSH只需要安装openssh-client(ubuntu有默认安装,如果没有则sudo apt-get install openssh-client),如果要使本机开放SSH服务就需要安装openssh-server)

      开启SSH:sudo start ssh

      3.2 配置Master无密码登录所有Salve

           后来想想也就一句话:首先在三台机器上生成自己的的秘钥对,

    ssh-keygen -t rsa -P ''

    然后在master进行集合,分别将master、slave1、slave2上的id_rsa.pub追加到authorized_keys中去,本来这个文件也是没用的,

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

    然后将生成的authorized_keys分发到各个机器中的/root/.ssh/目录下即可实现  

    下面这些是啰嗦版:

      配置Master节点,以下是在Master节点的配置操作。

      1)在Master节点上生成密码对,在Master节点上执行以下命令:

      ssh-keygen -t rsa -P ''

      生成的密钥对:id_rsa和id_rsa.pub,默认存储在"/root/.ssh"目录下。

      2)接着在Master节点上做如下配置,把id_rsa.pub追加到授权的key里面去。

      cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

      3)修改ssh配置文件"/etc/ssh/sshd_config"的下列内容,将以下内容的注释去掉:

      RSAAuthentication yes # 启用 RSA 认证

      PubkeyAuthentication yes # 启用公钥私钥配对认证方式

      AuthorizedKeysFile .ssh/authorized_keys # 公钥文件路径(和上面生成的文件同)

      4)重启ssh服务,才能使刚才设置有效。

      sudo /etc/init.d/ssh restart

      5)验证无密码登录本机是否成功。

      ssh localhost

      6)接下来的就是把公钥复制到所有的Slave机器上。使用下面的命令进行复制公钥:

      scp /root/.ssh/id_rsa.pub root@slave1:/root/

      scp /root/.ssh/id_rsa.pub root@slave2:/root/

      接着配置slave节点,以下是在slave1节点的配置操作。

      1)在"/root/"下创建".ssh"文件夹,如果已经存在就不需要创建了。

      mkdir /root/.ssh

      2)将Master的公钥追加到Slave1的授权文件"authorized_keys"中去。

      cat /root/id_rsa.pub >> /root/.ssh/authorized_keys

      3)修改"/etc/ssh/sshd_config",具体步骤参考前面Master设置的第3步和第4步。

      4)用Master使用ssh无密码登录slave1

      ssh slave1

      5)把"/root/"目录下的"id_rsa.pub"文件删除掉。(在我实践的过程中,没有删除,同样可行)

      rm –r /root/id_rsa.pub           

      重复上面的5个步骤把Slave2服务器进行相同的配置。

      3.3 配置所有Slave无密码登录Master

      以下是在slave1节点的配置操作。

      1)创建"slave1"自己的公钥和私钥,并把自己的公钥追加到"authorized_keys"文件中,执行下面命令:

      ssh-keygen -t rsa -P ''

      cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

      2)将Slave1节点的公钥"id_rsa.pub"复制到Master节点的"/root/"目录下。

      scp /root/.ssh/id_rsa.pub root@master:/root/

      

      以下是在Master节点的配置操作。

      1)将Slave1的公钥追加到Master的授权文件"authorized_keys"中去。

      cat ~/id_rsa.pub >> ~/.ssh/authorized_keys

      2)删除Slave1复制过来的"id_rsa.pub"文件。(在我实践的过程中,没有删除,同样可行)

      rm –r /root/id_rsa.pub

      配置完成后测试从slave1到Master无密码登录。

      ssh master

      按照上面的步骤把slave2和master之间建立起无密码登录。这样,master能无密码验证登录每个slave,每个slave也能无密码验证登录到master。

    4.安装基础环境(JAVA和SCALA环境)

      4.1 Java1.8环境搭建

      1)下载jdk-8u121-linux-x64.tar.gz解压

      tar -zxvf jdk-8u121-linux-x64.tar.gz

      2)添加Java环境变量,在/etc/profile中添加:

    export JAVA_HOME=/usr/local/jdk1.8.0_121 PATH=$JAVA_HOME/bin:$PATH CLASSPATH=.:$JAVA_HOME/lib/rt.jar export JAVA_HOME PATH CLASSPATH

      3)保存后刷新配置

      source /etc/profile

      4.2 Scala2.11.8环境搭建

      1)下载scala安装包scala-2.11.8.rpm安装

      rpm -ivh scala-2.11.8.rpm

      2)添加Scala环境变量,在/etc/profile中添加:

    export SCALA_HOME=/usr/share/scala export PATH=$SCALA_HOME/bin:$PATH

      3)保存后刷新配置

      source /etc/profile

    5.Hadoop2.7.3完全分布式搭建

      以下是在Master节点操作:

      1)下载二进制包hadoop-2.7.3.tar.gz

      2)解压并移动到相应目录,我习惯将软件放到/opt目录下,命令如下:

      tar -zxvf hadoop-2.7.3.tar.gz

      mv hadoop-2.7.3 /opt

      3)修改相应的配置文件。

      修改/etc/profile,增加如下内容:

    export HADOOP_HOME=/opt/hadoop-2.7.3/ export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_ROOT_LOGGER=INFO,console export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

     

      修改完成后执行:

      source /etc/profile

      修改$HADOOP_HOME/etc/hadoop/hadoop-env.sh,修改JAVA_HOME 如下:

    export JAVA_HOME=/usr/local/jdk1.8.0_121

      

      修改$HADOOP_HOME/etc/hadoop/slaves,将原来的localhost删除,改成如下内容:

    slave1 slave2

        在这里,假如你的hadoop版本高于3.0了,那么slaves就变为workers了 

      修改$HADOOP_HOME/etc/hadoop/core-site.xml

     

    <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoop-2.7.3/tmp</value> </property> </configuration>

     

      

      修改$HADOOP_HOME/etc/hadoop/hdfs-site.xml

     

    <configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>master:50090</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/opt/hadoop-2.7.3/hdfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/opt/hadoop-2.7.3/hdfs/data</value> </property> </configuration>

     

     

      复制template,生成xml,命令如下:

      cp mapred-site.xml.template mapred-site.xml

      修改$HADOOP_HOME/etc/hadoop/mapred-site.xml

     

    <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property> </configuration>

     

     

      修改$HADOOP_HOME/etc/hadoop/yarn-site.xml

     

    <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property> </configuration>

     

     

      4)复制Master节点的hadoop文件夹到Slave1和Slave2上。

      scp -r /opt/hadoop-2.7.3 root@slave1:/opt

      scp -r /opt/hadoop-2.7.3 root@slave2:/opt

     

      5)在slave1和slave2上分别修改/etc/profile,过程同Master一样。

      6)在Master节点启动集群,启动之前格式化一下namenode:(这里命令已经过期,不建议使用,新命令开头好像是hdfs XXXX,具体忘了)

      hadoop namenode -format

      启动:

      先启动     /opt/hadoop-2.7.3/sbin/start-dfs.sh

           再启动     /opt/hadoop-2.7.3/sbin/start-yarn.sh

      至此hadoop的完全分布式环境搭建完毕。

      

      7)查看集群是否启动成功:

      jps(若命令失败的话安装一下openjdk即可,失败后会有提示)

      Master显示:

      SecondaryNameNode

      ResourceManager

      NameNode

      

      Slave显示:

      NodeManager

      DataNode

    6.Spark2.1.0完全分布式环境搭建

      以下操作都在Master节点进行。

      1)下载二进制包spark-2.1.0-bin-hadoop2.7.tgz

      2)解压并移动到相应目录,命令如下:

      tar -zxvf spark-2.1.0-bin-hadoop2.7.tgz

      mv hadoop-2.7.3 /opt

      3)修改相应的配置文件。

      修改/etc/profie,增加如下内容:

    export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.7/ export PATH=$PATH:$SPARK_HOME/bin

      复制spark-env.sh.template成spark-env.sh

      cp spark-env.sh.template spark-env.sh

      修改$SPARK_HOME/conf/spark-env.sh,添加如下内容:

     

    export JAVA_HOME=/usr/local/jdk1.8.0_121 export SCALA_HOME=/usr/share/scala export HADOOP_HOME=/opt/hadoop-2.7.3 export HADOOP_CONF_DIR=/opt/hadoop-2.7.3/etc/hadoop export SPARK_MASTER_IP=114.55.246.88 export SPARK_MASTER_HOST=114.55.246.88 export SPARK_LOCAL_IP=114.55.246.88 export SPARK_WORKER_MEMORY=1g export SPARK_WORKER_CORES=2 export SPARK_HOME=/opt/spark-2.1.0-bin-hadoop2.7 export SPARK_DIST_CLASSPATH=$(/opt/hadoop-2.7.3/bin/hadoop classpath)

     

     

      复制slaves.template成slaves

      cp slaves.template slaves

      修改$SPARK_HOME/conf/slaves,添加如下内容:

    Master Slave1 Slave2

      4)将配置好的spark文件复制到Slave1和Slave2节点。

      scp /opt/spark-2.1.0-bin-hadoop2.7 root@Slave1:/opt

          scp /opt/spark-2.1.0-bin-hadoop2.7 root@Slave2:/opt

      5)修改Slave1和Slave2配置。

      在Slave1和Slave2上分别修改/etc/profile,增加Spark的配置,过程同Master一样。

      在Slave1和Slave2修改$SPARK_HOME/conf/spark-env.sh,将export SPARK_LOCAL_IP=114.55.246.88改成Slave1和Slave2对应节点的IP。

      6)在Master节点启动集群。

      /opt/spark-2.1.0-bin-hadoop2.7/sbin/start-all.sh

      7)查看集群是否启动成功:

      jps

      Master在Hadoop的基础上新增了:

      Master

      Slave在Hadoop的基础上新增了:

      Worker

    最新回复(0)