迁移namenode服务器步骤 一、包含服务 1、NameNode 2、resourceManager 3、JournalNode 4、zookeeper 5、ZKFC 二、前提检查 1、检查新服务器用户名是否创建,hadoop 2、检查防火墙(到hadoop 各节点,flume、spark集群、其他) 3、确认所有配置是否是通过hostname配置 三、步骤 1、迁移zookeeper 1> 停掉zookeeper ./zkServer.sh stop 2> 修改hostname,分发到hadoop、后置flume、spark、hiveClient及其他相关节点 3> 拷贝 zookeeper, 同时拷贝数据目录到新的机器相同的目录上 4> ./zkServer.sh start 5>检查 a、进程 b、日志 c、端口号 d、namenode resourcemanager e、观察计算 2、迁移 JournalNode 1> 停掉JournalNode sbin/hadoop-daemon.sh stop JournalNode 2> 修改hostname,分发到hadoop、后置flume、spark、hiveClient及其他相关节点 3> 拷贝Hadoop,同时拷贝running 节点的数据目录到新的机器上的相同目录上 4> 启动停掉JournalNode sbin/hadoop-daemon.sh start JournalNode 5> 重启namenode ??? 6> 检查 a、进程 b、日志,有无正常写入 c、端口号 d、flume写入是否正常 e、观察计算 f、namenode Ui是否有变化 3、迁移resouceManager 1> 停掉resourcemanager sbin/yarn-daemon.sh stop resoucemanager 2> 修改hostname,分发到hadoop、后置flume、spark、hiveClient及其他相关节点 3> 启动resourcemanager sbin/yarn-daemon.sh start resoucemanager 4> 检查 a、进程 b、日志,有无正常写入 c、端口号 d、flume写入是否正常 e、观察计算 f、yarn ui是否有变化 h、resoucemanager状态 5> 重启nodemanager??? 6> active standby 切换观察-检查4 4、迁移namenode 1> 停掉namenode sbin/hadoop-daemon.sh stop namenode 2> 修改hostname,分发到hadoop、后置flume、spark、hiveClient及其他相关节点 3> 拷贝数据目录到新的机器上的相同目录 4> 启动namenode sbin/hadoop-daemon.sh start namenode 5> 检查 a、进程 b、日志,有无正常写入 c、端口号 d、namenode ui e、flume写入是否正常 f、观察计算(离线和spark) 6> 重启后置flume 7> 检查 a、flume写入是否正常 8> active standby 切换观察 检查-5-7 9> 重启datanode 5、启动zkServer守护进程 1> 以上服务无问题,启动 sbin/hadoop-daemon.sh start namenode zkfc