hadoop大神:执行命令:bin/hadoop namenode -format,多肉初恋出现蔫的状况如图是怎么状况

Executin hadoop namenode -format - Stack Overflow
to customize your list.
Stack Overflow is a community of 4.7 million programmers, just like you, helping each other.
J it only takes a minute:
Join the Stack Overflow community to:
Ask programming questions
Answer and help your peers
Get recognized for your expertise
I am trying to do work on hadoop so for that i use:-
Eclipse Europa 3.3.2
Installing Cygwin
hadoop 0.19.1
when i use the command error occur:-
$ hadoop-*/bin/hadoop namenode -format
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 2: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 7: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 10: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 13: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 16: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 19: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 29: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 32: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 35: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 38: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 41: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 46: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 49: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 52: $'\r': command not found
/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh: line 55: $'\r': command not found
cygwin warning:
MS-DOS style path detected: C:\CYGWIN~1\home\user\HADOOP~1.1\/build/native
Preferred POSIX equivalent is: /cygdrive/c/CYGWIN~1/home/user/HADOOP~1.1/build/native
CYGWIN environment variable option "nodosfilewarning" turns off this warning.
Consult the user's guide for more details about POSIX paths:
/cygwin-ug-net/using.html#using-pathnames
/bin/java: No such file or directoryC:\Program Files\Java\jdk1.6.0_37
/bin/java: No such file or directoryC:\Program Files\Java\jdk1.6.0_37
/bin/java: cannot execute: No such file or directory Files\Java\jdk1.6.0_37
can anyone help me to remove this error.
2,55511647
It seems like you have a problem with your newline characters which prevents hadoop to find your java binaries. See
question on stackoverflow.
Try running dos2unix on your hadoop-env.sh.
Your Answer
Sign up or
Sign up using Google
Sign up using Facebook
Sign up using Email and Password
Post as a guest
Post as a guest
By posting your answer, you agree to the
Not the answer you're looking for?
Browse other questions tagged
Stack Overflow works best with JavaScript enabled按照 2.5.2文档学习,在执行命令/hdfs namenode -format时,老是报错:.lang.NoClassDefFoundError: namecode到网上搜了很多解决方法,有说修改/hadoop/hadoop-env.sh增加export HADOOP_COMMON_HOME=/root/test/hadoop-2.5.2export HADOOP_PREFIX=/root/test/hadoop-2.5.2等,试了,仍然报上面的错误。后来突然想到JAVA环境变量,输入命令echo $.:/usr/local/java//jdk1.6.0_23/.tools.jar注意看lib.tools.jar,明显错误,还有。少了dt.jar,肯定会报找不到类错误。修改//profile文件,如下:JAVA_HOME=/usr/local/java/jdk/jdk1.6.0_23 CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME//dt.jar =$JAVA_HOME/:$PATH export JAVA_HOME
建议大家在已经安装好的JDK的系统上学习时,先检查下环境变量是否正确。因为项目中有些人粗心大意,做事情不彻底,配错了环境变量,然后导致别人在上面运行项目时出现莫名奇妙的错误,希望不要被坑了。将为您减少类似内容我要收藏143个赞不感兴趣分享到分享到:相关文章还可以输入140字热门频道49.3万人订阅18.3万人订阅1296万人订阅16.7万人订阅174.2万人订阅你还可用第三方账号来登录请输入你注册的电子邮件地址绑定密保手机*您可用使用此密保手机找回密码及登录*请勿随意泄露手机号,以防被不法分子利用,骗取帐号信息手机号码发送验证码确定电子邮件请输入您的意见和建议请您输入正确的邮箱地址,以便我们和您联系,帮您解决问题。扫描下载手机客户端热门搜词你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
将127.0.0.1 localhost master这行最后的&master&去掉。
原因是,当namenode启动的时候,它发现配置文件中配的所要监听的端口是master:8020,于是去读/etc/hosts,发现127.0.0.1 master这样的对应关系配置,于是,在启动的时候,去监听127.0.0.1:8020。
这是个很糟糕的事情,因为namenode只监听127.0.0.1,其它机器都无法连接上namenode(注意,linux中,如果监听的地址为127.0.0.1,只能接受本机发来的消息)。
正好,应证了昨天在班级群中一再强调的,“不要将一个IP对应到多个host”,因为你搞不清楚什么时候冒个大坑出来让自己踩到。
在你没有执行bootstrapstandby之前,你搭建的集群并不是ha的,所以这时候是普通的集群.这时候你启动namenode肯定是active的.之所以没有肯定是你之前搞错ip导致的.你手动切换就可以了.
你hdfs.site.xml配置配的是master
你的hosts中有两个master.你要修改下你的hosts.
这个事情在群里强调好几遍了.不要再犯了啊
执行到这里的时候,nn2就起不来了.这里是异常信息
有更详细信息么,这个看不出来呢
我不知道啊,愁死我了
你运行失败是因为你namenode不是active的
确定一下,nn1上的namenode现在是正常执行的么?
nn2执行了bootstrapstandby之后,只是将fsimage做了同步,还需要执行start namenode才能将其启动起来。
孩纸,你的配置有问题,为什么在你执行bootstrapstandby之前nn1 namenode启动了会是standby状态,
你需要active nn1才能执行bootstrapstandby.不然肯定会出错的.
现在解决了么?
现在的问题是:nn1正常启动后,在nn2上执行bin/hdfs namenode -bootstrapStandby 命令的时候,nn2日志提示错误:org.apache.hadoop.mon.InconsistentFSStateException:Directory /home/hadoop/hadoop/hdfs/name is in an inconsistent state: storage directory does not exist or is not accessible。我请教如何解决这个错误
我也是恍然大悟了。不过庆幸犯错误,懂了很多。谢谢老师们的指导
要回复问题请先或
关注: 4 人hadoop namenode无法启动,bin/hadoop namenode -format也不行_百度知道
hadoop namenode无法启动,bin/hadoop namenode -format也不行
data&#47.&hadoop&#47.&&#47./value&name&
&description&value&/name&
&/property&gt,/data/data1;&&#47: Directory /property&&hadoop/data&#47.&#47.server.
&data/hadoop/property&name1;/value&property&gt.apache.NameNhadoop&#47.hdfs-name&
&/&#47.name&gt:value&name2&lt.replication&name&gt: ERROR org.server.InconsistentFSStateEname&data/
&/property&gt: storage directory does not exist property&data2&hadoop&#47.name1 is in a&value&gt.xml配置信息;value&2&lt:&
&lt.dir&// &lt,/description&gt.dir&dfs部分日志信息.hdfs
提问者采纳
从错误信息来看应该是你运行hadoop的用户对/data/hadoop/name1这个目录没有访问权限
可以为该用户赋予对这个目录的全部权限
如何赋予权限请网上搜索
提问者评价
确实是权限问题,多谢
来自团队:
其他类似问题
为您推荐:
hadoop的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁后使用快捷导航没有帐号?
查看: 1375|回复: 3
关于Hadoop集群重启后,Start-all命令后,namenode没有启动的问题
中级会员, 积分 398, 距离下一级还需 102 积分
论坛徽章:4
今天把Hadoop集i群启动,Start-all命令后,发现namenode没有启动,因为网上搜索原因,看到一片帖子跟打击分享一下解决方法,
原文出自:
最近遇到了一个问题,执行start-all.sh的时候发现JPS一下namenode没有启动
& && &&&每次开机都得重新格式化一下namenode才可以
& && &&&其实问题就出在tmp文件,默认的tmp文件每次重新开机会被清空,与此同时namenode的格式化信息就会丢失
& && &&&于是我们得重新配置一个tmp文件目录
& && &&&首先在home目录下建立一个hadoop_tmp目录
& && && && && & sudo mkdir ~/hadoop_tmp
& && &&&然后修改hadoop/conf目录里面的core-site.xml文件,加入以下节点:
& && && && && & &property&
& && && && && && && && &&name&hadoop.tmp.dir&/name&
& && && && && & &value&/home/chjzh/hadoop_tmp&/value&
& && && && && && && && &&description&A base for other temporary directories.&/description&
& && && && && & &/property&
& && &&&注意:我的用户是chjzh所以目录是/home/chjzh/hadoop_tmp
& && && && && &
& && &&&OK了,重新格式化Namenode
& && && && && & hadoop namenode -format
& && &&&然后启动hadoop
& && && && && & start-all.sh
& && &&&执行下JPS命令就可以看到NameNode了
注册会员, 积分 111, 距离下一级还需 89 积分
论坛徽章:2
为啥我的还是没有?
注册会员, 积分 111, 距离下一级还需 89 积分
论坛徽章:2
zbird1988 发表于
为啥我的还是没有?
重启一下好了。。。

我要回帖

更多关于 hdfs namenode format 的文章

 

随机推荐