启动Hadoop时候,格式化 hadoop启动namenodee,出现问题,没有成功格式化

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"
您的访问请求被拒绝 403 Forbidden - ITeye技术社区
您的访问请求被拒绝
亲爱的会员,您的IP地址所在网段被ITeye拒绝服务,这可能是以下两种情况导致:
一、您所在的网段内有网络爬虫大量抓取ITeye网页,为保证其他人流畅的访问ITeye,该网段被ITeye拒绝
二、您通过某个代理服务器访问ITeye网站,该代理服务器被网络爬虫利用,大量抓取ITeye网页
请您点击按钮解除封锁&hadoop有关问题大神们,每次重新打开linux都要格式化namenode - Java相关当前位置:& &&&hadoop有关问题大神们,每次重新打开linux都要格式hadoop有关问题大神们,每次重新打开linux都要格式化namenode&&网友分享于:&&浏览:97次hadoop问题求助大神们,每次重新打开linux都要格式化namenode我用vmware&装的linux&每次启动hadoop&都要格式化namenode怎么回事啊?&而且启动hadoop&还要输入密码、、。&我装的是伪分布式
------解决方案--------------------我之前也遇到过,貌似是文件放在/tmp文件夹下,重启之后就会删除。时间太久了,记不太清
12345678910
12345678910
12345678910 上一篇:下一篇:文章评论相关解决方案 12345678910 Copyright & &&版权所有> hadoop有关问题大神们,每次重新打开linux都要格式化namenode
hadoop有关问题大神们,每次重新打开linux都要格式化namenode
pjioupjiou & &
发布时间: & &
浏览:71 & &
回复:1 & &
悬赏:0.0希赛币
hadoop问题求助大神们,每次重新打开linux都要格式化namenode我用vmware&装的linux&每次启动hadoop&都要格式化namenode怎么回事啊?&而且启动hadoop&还要输入密码、、。&我装的是伪分布式
我之前也遇到过,貌似是文件放在/tmp文件夹下,重启之后就会删除。时间太久了,记不太清pjjmls & &
& & (0)(0)
本问题标题:
本问题地址:
温馨提示:本问题已经关闭,不能解答。
暂无合适的专家
&&&&&&&&&&&&&&&
希赛网 版权所有 & &&hadoop的HDFS文件格式化hadoop namenode -format,只需要在初始的时候格式化一次_百度知道
hadoop的HDFS文件格式化hadoop namenode -format,只需要在初始的时候格式化一次
那需要对这个新增加的从节点格式化,只需要在初始的时候格式化一次,怎么格式化?在格式化的时候会不会把原先从节点的HDFS文件给弄丢,可是对于集群而言,如果集群新增加了一个从节点hadoop的HDFS文件格式化hadoop namenode -format
提问者采纳
只有namenode需要format,secondarynamenode和datanode不需要format。
就是namenode的format会不会影响到datanode的HDFS文件?namenode的format是做什么用的?会影响到哪些地方?
hadoop format根本就是一个抽象概念,建立自己文件系统需要的结构而已,和磁盘文件系统不是一回事,datanode添加上去的时候把自己已经注册到namenode的DFS结构上了, 所以不用&format&。
提问者评价
其他类似问题
2,对其它节点无效、称这样的系统为高度自由可伸缩系统,那么新增的datanode就会自动追加到集中1。3,通过冗余机制给予解决、集群增加节点。可以用更新或是重启服务的命令,只要在namenode节点的配置文件中、hadoop namenode -format命令只对namenode有效。增或减节点都能被智能控制节点监测到。再思考下吧,并将相应的节点的变化,将IP和端口以及数据目录配置一下就可以了
为您推荐:
hadoop的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁16:25 提问
hadoop2.6搭建 格式化出现错误
log4j:ERROR setFile(null,true) call failed.
java.io.FileNotFoundException: /var/log/hadoop/hadoop/hdfs-audit.log (没有那个文件或目录)
at java.io.FileOutputStream.open(Native Method)
at java.io.FileOutputStream.(FileOutputStream.java:221)
at java.io.FileOutputStream.(FileOutputStream.java:142)
at org.apache.log4j.FileAppender.setFile(FileAppender.java:294)
at org.apache.log4j.FileAppender.activateOptions(FileAppender.java:165)
at org.apache.log4j.DailyRollingFileAppender.activateOptions(DailyRollingFileAppender.java:223)
at org.apache.log4j.config.PropertySetter.activate(PropertySetter.java:307)
at org.apache.log4j.config.PropertySetter.setProperties(PropertySetter.java:172)
at org.apache.log4j.config.PropertySetter.setProperties(PropertySetter.java:104)
15/10/12 16:15:27 WARN namenode.NameNode: Encountered exception during format:
java.io.IOException: Cannot remove current directory: /hadoop/hdfs/namenode/current
at org.apache.hadoop.mon.Storage$StorageDirectory.clearDirectory(Storage.java:332)
at org.apache.hadoop.hdfs.server.namenode.NNStorage.format(NNStorage.java:546)
at org.apache.hadoop.hdfs.server.namenode.NNStorage.format(NNStorage.java:567)
at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:148)
at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:870)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1281)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1395)
15/10/12 16:15:27 FATAL namenode.NameNode: Exception in namenode join
java.io.IOException: Cannot remove current directory: /hadoop/hdfs/namenode/current
at org.apache.hadoop.mon.Storage$StorageDirectory.clearDirectory(Storage.java:332)
at org.apache.hadoop.hdfs.server.namenode.NNStorage.format(NNStorage.java:546)
at org.apache.hadoop.hdfs.server.namenode.NNStorage.format(NNStorage.java:567)
at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:148)
at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:870)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1281)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1395)
15/10/12 16:15:27 INFO util.ExitUtil: Exiting with status 1
15/10/12 16:15:27 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
按赞数排序
文件没找到
----------------------biu~biu~biu~~~在下问答机器人小D,这是我依靠自己的聪明才智给出的答案,如果不正确,你来咬我啊!
98关注|495收录
25关注|288收录
648关注|316收录
其他相似问题
相关参考资料

我要回帖

更多关于 hadoop没有namenode 的文章

 

随机推荐