如何解决启动hadoop集群没有SecondaryNode和DataNode和NameNode问题
进行以下操作时别忘记先关闭Hadoop集群
一. 没有SecondaryNode的解决方案
启动hadoop集群后没有SecondaryNode:
给hadoop集群配置环境变量时,在node1、node2、node3修改/etc/profile 忘记执行source /etc/profile
生效
source /etc/profile
启动Hadoop集群再jps检查进程
# 一键启动hdfs集群 start-dfs.sh # 一键关闭hdfs集群 stop-dfs.sh # 检查进程 jps
这样就有了SecondaryNode进程
二. 没有DataNode的解决方案
启动hadoop集群后没有DataNode:
以root用户或权限 删除到Hadoop安装目录下的logs下的所有文件
再删除data下的nn下的所有文件和data下的dn下的所有文件
rm -rf /export/server/hadoop/logs/* rm -rf /data/nn/* ; rm -rf /data/dn/*
删除完后记得回到hadoop用户(我是新建了个hadoop用户防止以root用户启动hadoop出现问题)格式化namenode再启动hadoop集群
# 格式化namenode hadoop namenode -format # 一键启动hdfs集群 start-dfs.sh # 一键关闭hdfs集群 stop-dfs.sh
如果不格式化namenode就会出现如下情况(namenode进程未启动)
三. 没有NameNode的解决方案
启动hadoop集群后没有NameNode:
格式化namenode再启动hadoop集群
# 格式化namenode hadoop namenode -format # 一键启动hdfs集群 start-dfs.sh # 一键关闭hdfs集群 stop-dfs.sh
至此Hadoop成功启动
总结
以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。
相关文章
rsync同步数据时提示password file must not be&nb
今天服务器同步数据的时候,突然有个命令提示这个错误,但其它的机器又正常,很奇怪,不过通过下面的命令执行以下就可以了,windows与linux操作方法一致2024-06-06忘记Grafana不要紧2种Grafana重置admin密码方法详细步骤
这篇文章主要介绍了忘记Grafana不要紧2种Grafana重置admin密码方法详细步骤,需要的朋友可以参考下2022-04-04rsync 同步错误 cwrsync rsync error rsync error: some files/attrs
今天在帮客户配置机器的时候提示cwrsync rsync error rsync error: some files/attrs were not transferred,最终发现原来是用mcafee设置了文件权限不可写导致,特整理下方便需要的朋友2013-03-03
最新评论