查看: 36|回复: 0

[其他] 如何解决启动hadoop集群没有SecondaryNode和DataNode和NameNode问题

[复制链接]

0

主题

0

回帖

0

积分

积极分子

金币
0
阅读权限
220
精华
0
威望
0
贡献
0
在线时间
0 小时
注册时间
2008-8-22
发表于 2024-10-9 14:30:39 | 显示全部楼层 |阅读模式

进行以下操作时别忘记先关闭Hadoop集群

一. 没有SecondaryNode的解决方案

启动hadoop集群后没有SecondaryNode:

给hadoop集群配置环境变量时,在node1、node2、node3修改/etc/profile 忘记执行source /etc/profile生效

source /etc/profile

启动Hadoop集群再jps检查进程

# 一键启动hdfs集群

start-dfs.sh

# 一键关闭hdfs集群

stop-dfs.sh

# 检查进程

jps

这样就有了SecondaryNode进程

二. 没有DataNode的解决方案

启动hadoop集群后没有DataNode:

以root用户或权限 删除到Hadoop安装目录下的logs下的所有文件

再删除data下的nn下的所有文件和data下的dn下的所有文件

rm -rf /export/server/hadoop/logs/*
rm -rf /data/nn/* ; rm -rf /data/dn/*

删除完后记得回到hadoop用户(我是新建了个hadoop用户防止以root用户启动hadoop出现问题)格式化namenode再启动hadoop集群

# 格式化namenode

hadoop namenode -format

# 一键启动hdfs集群

start-dfs.sh

# 一键关闭hdfs集群

stop-dfs.sh

如果不格式化namenode就会出现如下情况(namenode进程未启动)

三. 没有NameNode的解决方案

启动hadoop集群后没有NameNode:

格式化namenode再启动hadoop集群

# 格式化namenode

hadoop namenode -format

# 一键启动hdfs集群

start-dfs.sh

# 一键关闭hdfs集群

stop-dfs.sh

至此Hadoop成功启动

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持琼殿技术社区。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

相关侵权、举报、投诉及建议等,请发 E-mail:qiongdian@foxmail.com

Powered by Discuz! X5.0 © 2001-2026 Discuz! Team.

在本版发帖返回顶部