求教集群中apache tomcat 集群服务无法启动

新手园地& & & 硬件问题Linux系统管理Linux网络问题Linux环境编程Linux桌面系统国产LinuxBSD& & & BSD文档中心AIX& & & 新手入门& & & AIX文档中心& & & 资源下载& & & Power高级应用& & & IBM存储AS400Solaris& & & Solaris文档中心HP-UX& & & HP文档中心SCO UNIX& & & SCO文档中心互操作专区IRIXTru64 UNIXMac OS X门户网站运维集群和高可用服务器应用监控和防护虚拟化技术架构设计行业应用和管理服务器及硬件技术& & & 服务器资源下载云计算& & & 云计算文档中心& & & 云计算业界& & & 云计算资源下载存储备份& & & 存储文档中心& & & 存储业界& & & 存储资源下载& & & Symantec技术交流区安全技术网络技术& & & 网络技术文档中心C/C++& & & GUI编程& & & Functional编程内核源码& & & 内核问题移动开发& & & 移动开发技术资料ShellPerlJava& & & Java文档中心PHP& & & php文档中心Python& & & Python文档中心RubyCPU与编译器嵌入式开发驱动开发Web开发VoIP开发技术MySQL& & & MySQL文档中心SybaseOraclePostgreSQLDB2Informix数据仓库与数据挖掘NoSQL技术IT业界新闻与评论IT职业生涯& & & 猎头招聘IT图书与评论& & & CU技术图书大系& & & Linux书友会二手交易下载共享Linux文档专区IT培训与认证& & & 培训交流& & & 认证培训清茶斋投资理财运动地带快乐数码摄影& & & 摄影器材& & & 摄影比赛专区IT爱车族旅游天下站务交流版主会议室博客SNS站务交流区CU活动专区& & & Power活动专区& & & 拍卖交流区频道交流区
稍有积蓄, 积分 361, 距离下一级还需 139 积分
论坛徽章:1
redhat 6.4的版本
就一个服务组 ,这个服务组中就添加一个IP资源。
但是 IP资源一直起不来,
状态如下:
[root@HP-1 ~]# clustat
Cluster Status for cluster_1 @ Fri Jun 14 09:48:06 2013
Member Status: Quorate
Member Name& && && && && && && && && && && && && && && && && &&&ID& &Status
------ ----& && && && && && && && && && && && && && && && && &&&---- ------
HP-1& && && && && && && && && && && && && && && && && && && && && & 1 Online, Local, rgmanager
HP-2& && && && && && && && && && && && && && && && && && && && && & 2 Online, rgmanager
Service Name& && && && && && && && && && && && && && && && && &&&Owner (Last)& && && && && && && && && && && && && && && && && &&&State& && && &
------- ----& && && && && && && && && && && && && && && && && &&&----- ------& && && && && && && && && && && && && && && && && &&&-----& && && &
service:server-1& && && && && && && && && && && && && && && && & none& && && && && && && && && && && && && && && && && && && && & recovering& &
[root@HP-1 ~]#
配置如下:
[root@HP-1 ~]# cat /etc/cluster/cluster.conf
&?xml version=&1.0&?&
&cluster config_version=&13& name=&cluster_1&&
& && &&&&clusternodes&
& && && && && & &clusternode name=&HP-1& nodeid=&1&&
& && && && && && && && &&fence&
& && && && && && && && && && &&&&method name=&Method-1&&
& && && && && && && && && && && && && & &device name=&fence-1&/&
& && && && && && && && && && &&&&/method&
& && && && && && && && &&/fence&
& && && && && & &/clusternode&
& && && && && & &clusternode name=&HP-2& nodeid=&2&&
& && && && && && && && &&fence&
& && && && && && && && && && &&&&method name=&Method-2&&
& && && && && && && && && && && && && & &device name=&fence-2&/&
& && && && && && && && && && &&&&/method&
& && && && && && && && &&/fence&
& && && && && & &/clusternode&
& && &&&&/clusternodes&
& && &&&&cman expected_votes=&1& two_node=&1&/&
& && &&&&fencedevices&
& && && && && & &fencedevice agent=&fence_ipmilan& ipaddr=&199.5.211.156& login=&mals& name=&fence-1& passwd=&malslbs!@#&/&
& && && && && & &fencedevice agent=&fence_ipmilan& ipaddr=&199.5.211.157& login=&mals& name=&fence-2& passwd=&malslbs!@#&/&
& && &&&&/fencedevices&
& && &&&&rm&
& && && && && & &failoverdomains&
& && && && && && && && &&failoverdomain name=&domain-1& ordered=&1& restricted=&1&&
& && && && && && && && && && &&&&failoverdomainnode name=&HP-1& priority=&1&/&
& && && && && && && && && && &&&&failoverdomainnode name=&HP-2& priority=&10&/&
& && && && && && && && &&/failoverdomain&
& && && && && & &/failoverdomains&
& && && && && & &resources&
& && && && && && && && &&ip address=&199.5.211.158/255.255.255.0& sleeptime=&10&/&
& && && && && & &/resources&
& && && && && & &service domain=&domain-1& exclusive=&1& name=&server-1& recovery=&relocate&&
& && && && && && && && &&ip ref=&199.5.211.158/255.255.255.0&/&
& && && && && & &/service&
& && &&&&/rm&
&/cluster&
白手起家, 积分 10, 距离下一级还需 190 积分
论坛徽章:0
& & Jun 14 10:33:54 HP-1 rgmanager[2702]: start on ip &199.5.211.158/255.255.255.0& returned 1 (generic error)
这个是bug 要写成 :&199.5.211.158/24,即可启动。
稍有积蓄, 积分 361, 距离下一级还需 139 积分
论坛徽章:1
补充一下:
启动资源时:/var/log/messages 的日志如下
Jun 14 10:10:13 HP-1 ricci[6610]: Executing '/usr/bin/virsh nodeinfo'
Jun 14 10:10:13 HP-1 ricci[6612]: Executing '/usr/libexec/ricci/ricci-worker -f /var/lib/ricci/queue/'
Jun 14 10:10:13 HP-1 ricci[6616]: Executing '/usr/bin/virsh nodeinfo'
Jun 14 10:10:13 HP-1 ricci[6618]: Executing '/usr/libexec/ricci/ricci-worker -f /var/lib/ricci/queue/'
Jun 14 10:10:13 HP-1 modcluster: Starting service: server-1 on node
Jun 14 10:10:13 HP-1 ricci[6624]: Executing '/usr/bin/virsh nodeinfo'
Jun 14 10:10:14 HP-1 ricci[6626]: Executing '/usr/libexec/ricci/ricci-worker -f /var/lib/ricci/queue/'
Jun 14 10:10:14 HP-1 ricci[6631]: Executing '/usr/libexec/ricci/ricci-worker -f /var/lib/ricci/queue/'
Jun 14 10:10:17 HP-1 ricci[6635]: Executing '/usr/bin/virsh nodeinfo'
然后web页面上就
Starting cluster &cluster_1& service &server-1& from node &HP-1& failed: server-1 is in unknown state 118
稍有积蓄, 积分 361, 距离下一级还需 139 积分
论坛徽章:1
启动服务的时候:
稍有积蓄, 积分 361, 距离下一级还需 139 积分
论坛徽章:1
[root@HP-1 ~]# tail -f /var/log/messages
Jun 14 10:33:03 HP-1 rgmanager[10696]: [script] Executing /etc/init.d/httpd stop
Jun 14 10:33:04 HP-1 rgmanager[2702]: Service service:server-1 is stopped
Jun 14 10:33:54 HP-1 rgmanager[2702]: Starting stopped service service:server-1
Jun 14 10:33:54 HP-1 rgmanager[2702]: start on ip &199.5.211.158/255.255.255.0& returned 1 (generic error)
Jun 14 10:33:54 HP-1 rgmanager[2702]: #68: Failed to start service:server-1; return value: 1
Jun 14 10:34:03 HP-1 rgmanager[10888]: [ip] 199.5.211.158/255.255.255.0 is not configured
Jun 14 10:34:03 HP-1 rgmanager[2702]: Stopping service service:server-1
Jun 14 10:34:03 HP-1 rgmanager[10919]: [script] Executing /etc/init.d/httpd stop
Jun 14 10:34:03 HP-1 rgmanager[2702]: Service service:server-1 is recovering
Jun 14 10:34:04 HP-1 rgmanager[2702]: Service service:server-1 is stopped
白手起家, 积分 7, 距离下一级还需 193 积分
论坛徽章:0
您好,请教一下,我改成24的掩码了,还是不可以。
[root@web2 ~]# clustat
Cluster Status for mytocluster @ Sat Apr 11 15:37:15 2015
Member Status: Quorate
Member Name& && && && && && && && && && && && && && && && && &&&ID& &Status
------ ----& && && && && && && && && && && && && && && && && &&&---- ------
icinga& && && && && && && && && && && && && && && && && && && && &&&1 Online
web2& && && && && && && && && && && && && && && && && && && && && & 2 Online, Local, rgmanager
/dev/sdb7& && && && && && && && && && && && && && && && && && && &&&0 Online, Quorum Disk
Service Name& && && && && && && && && && && && && && &&&Owner (Last)& && && && && && && && && && && && && && &&&State& && && &
------- ----& && && && && && && && && && && && && && &&&----- ------& && && && && && && && && && && && && && &&&-----& && && &
service:webserver& && && && && && && && && && && && && &(web2)& && && && && && && && && && && && && && && && &&&stopped& && &
[root@web2 ~]# clusvcadm -e webserver -m web2
Member web2 trying to enable service:webserver...Failure
Apr 11 15:38:24 web2 ricci[32087]: Executing '/usr/bin/virsh nodeinfo'
Apr 11 15:38:26 web2 ricci[32092]: Executing '/usr/bin/virsh nodeinfo'
Apr 11 15:38:28 web2 ricci[32097]: Executing '/usr/bin/virsh nodeinfo'
Apr 11 15:38:30 web2 ricci[32100]: Executing '/usr/bin/virsh nodeinfo'
Apr 11 15:38:32 web2 ricci[32106]: Executing '/usr/bin/virsh nodeinfo'
Apr 11 15:38:33 web2 rgmanager[2353]: Starting stopped service service:webserver
Apr 11 15:38:33 web2 rgmanager[2353]: start on ip &192.168.1.217/24& returned 1 (generic error)
Apr 11 15:38:33 web2 rgmanager[2353]: #68: Failed to start service: return value: 1
Apr 11 15:38:33 web2 rgmanager[2353]: Stopping service service:webserver
Apr 11 15:38:33 web2 rgmanager[2353]: Service service:webserver is recovering
Apr 11 15:38:33 web2 rgmanager[2353]: #71: Relocating failed service service:webserver
Apr 11 15:38:33 web2 rgmanager[2353]: Service service:webserver is stopped
Apr 11 15:38:34 web2 ricci[32176]: Executing '/usr/bin/virsh nodeinfo'
Apr 11 15:38:36 web2 ricci[32182]: Executing '/usr/bin/virsh nodeinfo'
丰衣足食, 积分 650, 距离下一级还需 350 积分
论坛徽章:1
你的虚拟IP和现有的IP时同网段的吗?如果不是的话就会有问题。
北京盛拓优讯信息技术有限公司. 版权所有 京ICP备号 北京市公安局海淀分局网监中心备案编号:22
广播电视节目制作经营许可证(京) 字第1234号
中国互联网协会会员&&联系我们:
感谢所有关心和支持过ChinaUnix的朋友们
转载本站内容请注明原作者名及出处tomcat+apache+jk集群启动SimpleTcpCluster报错 - ITeye问答
在tomcat 的server.xml配置文件中添加集群的配置
&Engine name="Catalina" defaultHost="localhost"
jvmRoute="tomcat2"&
&Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/&
&Valve className="org.apache.catalina.valves.RequestDumperValve"/&
&Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"
channelSendOptions="8"&
&Manager className="org.apache.catalina.ha.session.DeltaManager"
expireSessionsOnShutdown="false"
notifyListenersOnReplication="true"/&
&Channel className="org.apache.catalina.tribes.group.GroupChannel"&
&Membership className="org.apache.catalina.tribes.membership.McastService"
address="228.0.0.4"
port="45564"
frequency="500"
dropTime="3000"/&
&Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"
address="auto"
port="4000"
autoBind="100"
selectorTimeout="5000"
maxThreads="6"/&
&!-- timeout="60000"--&
&Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter"&
&Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender" /&
&Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/&
&Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/&
&Interceptor className="org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"/&
&/Channel&
&Valve className="org.apache.catalina.ha.tcp.ReplicationValve"
filter=".*\..*\..*\..*\..*\..*\..*\..*\."/&
&Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/&
&Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer"
tempDir="/tmp/war-temp/"
deployDir="/tmp/war-deploy/"
watchDir="/tmp/war-listen/"
watchEnabled="false"/&
&ClusterListener className="org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"/&
&ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/&
&/Cluster&
但是启动tomcat后,就报如下错误,去掉上面配置则正常启动
严重: Unable to start cluster.
org.apache.catalina.tribes.ChannelException: java.net.SocketException: e No faulty members identified.
at org.apache.catalina.tribes.group.ChannelCoordinator.internalStart(ChannelCoordinator.java:169)
at org.apache.catalina.tribes.group.ChannelCoordinator.start(ChannelCoordinator.java:97)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.interceptors.MessageDispatchInterceptor.start(MessageDispatchInterceptor.java:147)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.ChannelInterceptorBase.start(ChannelInterceptorBase.java:149)
at org.apache.catalina.tribes.group.GroupChannel.start(GroupChannel.java:407)
at org.apache.catalina.ha.tcp.SimpleTcpCluster.start(SimpleTcpCluster.java:671)
at org.apache.catalina.core.ContainerBase.start(ContainerBase.java:1035)
at org.apache.catalina.core.StandardEngine.start(StandardEngine.java:443)
at org.apache.catalina.core.StandardService.start(StandardService.java:516)
at org.apache.catalina.core.StandardServer.start(StandardServer.java:710)
at org.apache.catalina.startup.Catalina.start(Catalina.java:583)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.catalina.startup.Bootstrap.start(Bootstrap.java:288)
at org.apache.catalina.startup.Bootstrap.main(Bootstrap.java:413)
Caused by: java.net.SocketException: error setting options
at java.net.PlainDatagramSocketImpl.join(Native Method)
at java.net.PlainDatagramSocketImpl.join(PlainDatagramSocketImpl.java:172)
at java.net.MulticastSocket.joinGroup(MulticastSocket.java:276)
at org.apache.catalina.tribes.membership.McastServiceImpl.start(McastServiceImpl.java:233)
at org.apache.catalina.tribes.membership.McastService.start(McastService.java:373)
at org.apache.catalina.tribes.group.ChannelCoordinator.internalStart(ChannelCoordinator.java:154)
... 19 more
18:37:22 org.apache.catalina.startup.Catalina start
严重: Catalina.start:
LifecycleException:
org.apache.catalina.tribes.ChannelException: java.net.SocketException: e No faulty members identified.
at org.apache.catalina.ha.tcp.SimpleTcpCluster.start(SimpleTcpCluster.java:678)
at org.apache.catalina.core.ContainerBase.start(ContainerBase.java:1035)
at org.apache.catalina.core.StandardEngine.start(StandardEngine.java:443)
at org.apache.catalina.core.StandardService.start(StandardService.java:516)
at org.apache.catalina.core.StandardServer.start(StandardServer.java:710)
at org.apache.catalina.startup.Catalina.start(Catalina.java:583)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.catalina.startup.Bootstrap.start(Bootstrap.java:288)
at org.apache.catalina.startup.Bootstrap.main(Bootstrap.java:413)
18:37:22 org.apache.catalina.startup.Catalina start
哪位大牛遇见这样的问题还望解答下哦,谢谢了!
好像配置有重复[img][/img]
hostname和系统hosts文件不对应时可能会出这个问题,参考
已解决问题
未解决问题apache+tomcat集群,散发请求无效 - Java Web开发当前位置:& &&&apache+tomcat集群,散发请求无效apache+tomcat集群,散发请求无效www.MyException.Cn&&网友分享于:&&浏览:31次apache+tomcat集群,分发请求无效采用apache&集群tomcat(2台机器分别部署)遇到问题求助,现在A&tomcat关闭掉以后,请求不会到达备用B&tomcat服务器,很奇怪,求高手指教。
以下是配置
-------------------------------------------------------
httpd.conf:
LoadModule&jk_module&modules/mod_jk-apache-2.0.55.so
JkWorkersFile&conf/workers.properties
JkMountFile&&&conf/uriworkermap.properties
JkLogFile&logs/mod_jk.log
JkLogLevel&debug
JkMount&&/*.do&controller
JkMount&&/*.jsp&controller
------------------------
workers.properties:
worker.list&=&controller,tomcat1,tomcat3&&&#server&列表
#========tomcat1========
worker.tomcat1.port=8009&#工作端口,若没占用则不用修改
worker.tomcat1.host=localhost&#本机,若上面的Apache主机不为localhost,作相应修改
worker.tomcat1.type=ajp13&#类型
worker.tomcat1.lbfactor=1&#代理数,不用修改
#&给worker1定义了一个发生错误处理失败后要引用的节点
worker.tomcat1.redirect=tomcat3
#========tomcat2========
worker.tomcat3.port=8009&&&&&&&&#ajp13&端口号,在tomcat下server.xml配置,默认8009
worker.tomcat3.host=192.168.4.141&&&#tomcat的主机地址,如不为本机,请填写ip地址
worker.tomcat3.type=ajp13
worker.tomcat3.lbfactor&=&1&&&&#server的加权比重,值越高,分得的请求越多
#========controller,负载均衡控制器========
worker.controller.type=lb
worker.controller.balanced_workers=tomcat1,tomcat3#指定分担请求的tomcat
worker.controller.sticky_session=1
------------------
uriworkermap.properties:
/*=tomcat1
!/*.jpg=tomcat1
!/*.gif=tomcat1
!/*.css=tomcat1
!/*.html=tomcat1
!/*.htm=tomcat1
!/*.bmp=tomcat1
!/*.png=tomcat1
!/*.jsp=tomcat1
------解决方案--------------------单独开启tomcat3能成功吗?
1.先看一下不同的tomcat是不是名字都修改正确了,图片红色的地方看一看
2.tomcat1下面的worker.tomcat1.redirect=tomcat3这句话去掉尝试一下
集群这事就是试来试去,我在线帮你
12345678910
12345678910
12345678910 上一篇:下一篇:文章评论相关解决方案 12345678910 Copyright & &&版权所有博客分类:
在linux下安装zookeeper时,出现了如下的错误:
[hadoop@hadoop-master bin]$ ./zkServer.sh start
JMX disabled by user request
Using config: /opt/zookeeper-3.3.3/bin/../conf/zoo.cfg
Starting zookeeper ...
[hadoop@hadoop-master bin]$
10:33:57,587 - INFO
[main:QuorumPeerConfig@90] - Reading configuration from: /opt/zookeeper-3.3.3/bin/../conf/zoo.cfg
10:33:57,596 - WARN
[main:QuorumPeerMain@105] - Either no config or no quorum defined in config, running
in standalone mode
Exception in thread "main" java.lang.NoSuchMethodError: method java.lang.management.ManagementFactory.getPlatformMBeanServer with signature ()Ljavax.management.MBeanS was not found.
at org.apache.zookeeper.jmx.ManagedUtil.registerLog4jMBeans(ManagedUtil.java:48)
at org.apache.zookeeper.server.ZooKeeperServerMain.initializeAndRun(ZooKeeperServerMain.java:73)
at org.apache.zookeeper.server.ZooKeeperServerMain.main(ZooKeeperServerMain.java:51)
at org.apache.zookeeper.server.quorum.QuorumPeerMain.initializeAndRun(QuorumPeerMain.java:108)
at org.apache.zookeeper.server.quorum.QuorumPeerMain.main(QuorumPeerMain.java:76)
发现没有找到java.lang.management下的一个方法。如果使用的是标准的JDK的话,不应该出现这样的错误的。于是查看zkServer.sh的脚本。发现启动java程序的脚本如下:
"-Dzookeeper.log.dir=${ZOO_LOG_DIR}" "-Dzookeeper.root.logger=${ZOO_LOG4J_PROP}" \
-cp "$CLASSPATH" $JVMFLAGS $ZOOMAIN "$ZOOCFG" &
在linux下直接执行java命令,发现输出如下:
[hadoop@hadoop-master bin]$ java
Usage: gij [OPTION] ... CLASS [ARGS] ...
to invoke CLASS.main, or
gij -jar [OPTION] ... JARFILE [ARGS] ...
to execute a jar file
Try `gij --help' for more information.
显然,zkServer.sh使用的java不正确。使用的gij的java。解决这个问题就简单了,把脚本改成:
$JAVA_HOME/bin/java
"-Dzookeeper.log.dir=${ZOO_LOG_DIR}" "-Dzookeeper.root.logger=${ZOO_LOG4J_PROP}" \
-cp "$CLASSPATH" $JVMFLAGS $ZOOMAIN "$ZOOCFG" &
这样修改之后,就能正常运行了。
浏览 25177
浏览: 154842 次
来自: 北京
好东西,谢谢大哥
不能跨平台,和RMI相比有何优势呢?能否提供个跨平台的方案,比 ...
写得很不错 受启发
(window.slotbydup=window.slotbydup || []).push({
id: '4773203',
container: s,
size: '200,200',
display: 'inlay-fix'查看: 115781|回复: 39
hbase的regionServer无法通过Master节点启动的问题,求助!
主题帖子积分
中级会员, 积分 306, 距离下一级还需 694 积分
中级会员, 积分 306, 距离下一级还需 694 积分
本帖最后由 gaobangsheng 于
20:41 编辑
配置了hbase的集群,两个主节点,三个regionserver节点,hmaster节点上通过start-hbase.sh只能启动Hmaster节点,从节点启动后报错退出。
但是regionserver节点上,如果我通过手工启动
hbase-daemon.sh start regionserver复制代码
来启动是完全正常的,也不报错。启动后也能正常的对hbase进行数据操作。
现在的问题是,通过主节点的start-hbase.sh启动后,regionserver启动后退出,报错如下:
另外,我的hadoop是配置的HA高可用,通过zookeeper来自动切换,同时hbase也是采用的外置zookeeper配置的。
11:58:20,648 FATAL [regionserver60020] regionserver.HRegionServer: ABORTING region server hdp-s3,5098845: Initialization of RS failed.&&Hence aborting RS.
11:58:20,645 INFO&&[regionserver60020] ipc.RpcServer: Stopping server on 60020
11:58:20,648 FATAL [regionserver60020] regionserver.HRegionServer: ABORTING region server hdp-s3,5098845: Initialization of RS failed.&&Hence aborting RS.
java.io.IOException: java.lang.reflect.InvocationTargetException
& && &&&at org.apache.hadoop.hbase.client.HConnectionManager.createConnection(HConnectionManager.java:416)
& && &&&at org.apache.hadoop.hbase.client.HConnectionManager.createConnection(HConnectionManager.java:393)
& && &&&at org.apache.hadoop.hbase.client.HConnectionManager.getConnection(HConnectionManager.java:274)
& && &&&at org.apache.hadoop.hbase.catalog.CatalogTracker.&init&(CatalogTracker.java:151)
& && &&&at org.apache.hadoop.hbase.regionserver.HRegionServer.initializeZooKeeper(HRegionServer.java:739)
& && &&&at org.apache.hadoop.hbase.regionserver.HRegionServer.preRegistrationInitialization(HRegionServer.java:702)
& && &&&at org.apache.hadoop.hbase.regionserver.HRegionServer.run(HRegionServer.java:837)
& && &&&at java.lang.Thread.run(Thread.java:722)
Caused by: java.lang.reflect.InvocationTargetException
& && &&&at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
& && &&&at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
& && &&&at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
& && &&&at java.lang.reflect.Constructor.newInstance(Constructor.java:525)
& && &&&at org.apache.hadoop.hbase.client.HConnectionManager.createConnection(HConnectionManager.java:414)
& && &&&... 7 more
Caused by: java.lang.ExceptionInInitializerError
& && &&&at org.apache.hadoop.hbase.ClusterId.parseFrom(ClusterId.java:64)
& && &&&at org.apache.hadoop.hbase.zookeeper.ZKClusterId.readClusterIdZNode(ZKClusterId.java:69)
& && &&&at org.apache.hadoop.hbase.client.ZooKeeperRegistry.getClusterId(ZooKeeperRegistry.java:83)
& && &&&at org.apache.hadoop.hbase.client.HConnectionManager$HConnectionImplementation.retrieveClusterId(HConnectionManager.java:857)
& && &&&at org.apache.hadoop.hbase.client.HConnectionManager$HConnectionImplementation.&init&(HConnectionManager.java:662)
& && &&&... 12 more复制代码
请高人指点,这个错误如何解决?另外,网找找了一下,有人说是时钟不一致的问题,我查了,我的集群没有这个问题 。
主题帖子积分
清理一下tmp里的数据,把hdfs里的hbase数据也都清理了,同时再清理tmp,检查各个节点是否有残留hbase进程,kill掉,然后在重启一下集群。
欢迎加入about云群 、 ,云计算爱好者群,关注
主题帖子积分
回帖奖励 +3
1.你是通过什么方式来确定时间是一致还是不一致的,眼睛?手工对比?最好安装ntp的方式来排除这个可能性。ntp的安装可参考
2.还有另外一个原因就是权限、配置文件造成的。
可以对比下面内容:
欢迎加入about云群 、 ,云计算爱好者群,关注
主题帖子积分
回帖奖励 +3
你看一下 端口60020是个什么情况,还有具体看一下启动日志到底报的什么错,就是启动的时候,遇到了阻碍,这个阻碍,比如创建文件失败等。
建议还是先看看日志,不知道日志的位置,可以参考这篇帖子
欢迎加入about云群 、 ,云计算爱好者群,关注
主题帖子积分
中级会员, 积分 306, 距离下一级还需 694 积分
中级会员, 积分 306, 距离下一级还需 694 积分
你看一下 端口60020是个什么情况,还有具体看一下启动日志到底报的什么错,就是启动的时候,遇到了阻碍,这 ...
启动时报的错,就是前面打印出来的错误啊。
主题帖子积分
本帖最后由 hyj 于
10:29 编辑
启动时报的错,就是前面打印出来的错误啊。
把你的hbase的日志目录截图看一下。并且发生这个错误的原因有很多,你需要更详细的日志。
欢迎加入about云群 、 ,云计算爱好者群,关注
主题帖子积分
大神这个问题是个疑难杂症,不好搞啊
主题帖子积分
hbase中除了有查看hfile文件的命令,也提供也查看hlog文件的命令:
在hbase的根目录下有个.logs目录,里面就是hlog文件,一台RegionServer机器对应一个文件。老的hlog文件会被移到.oldlogs目录:
[admin@bufer108081.tbc ~/dev/baoniu]$ hadoop fs -ls /hbase-0.90/.logs
Found 49 items
drwxrwxr-x& &- hadoop hadoop,admin& && && & 0
20:43 /hbase-0.90/.logs/bufer108056.tbc,9798389
drwxrwxr-x& &- hadoop hadoop,admin& && && & 0
20:43 /hbase-0.90/.logs/bufer108057.tbc,9798399
drwxrwxr-x& &- hadoop hadoop,admin& && && & 0
20:43 /hbase-0.90/.logs/bufer108058.tbc,9798425复制代码命令的参数:
[admin@bufer108081.tbc ~/dev/baoniu]$&&~/hbase/bin/hbase org.apache.hadoop.hbase.regionserver.wal.HLog --dump
Usage: HLog &ARGS&
Arguments:
--dump&&Dump textual representation of passed one or more files
& && && &For example: HLog --dump hdfs://example.com:9000/hbase/.logs/MACHINE/LOGFILE
--split Split the passed directory of WAL logs
& && && &For example: HLog --split hdfs://example.com:9000/hbase/.logs/DIR
[admin@bufer108081.tbc ~/dev/baoniu]$&&~/hbase/bin/hbase org.apache.hadoop.hbase.regionserver.wal.HLog --dump -h& && && && && && && && && && && && && && && && & usage: HLog &filename...& [-h] [-j] [-p] [-r &arg&] [-s &arg&] [-w &arg&]
-h,--help& && && && & Output help message
-j,--json& && && && & Output JSON
-p,--printvals& && &&&Print values
-r,--region &arg&& &&&Region to filter by. P e.g.
& && && && && && && &&&'.META.,,1'
-s,--sequence &arg&& &Sequence to filter by. Pass sequence number.
-w,--row &arg&& && &&&Row to filter by. Pass row name.复制代码
通过以下命令就可以查看hlog文件的内容:
[admin@bufer108081.tbc ~/dev/baoniu]$ ~/hbase/bin/hbase org.apache.hadoop.hbase.regionserver.wal.HLog --dump -p /hbase-0.90/.logs/bufer108118.tbc,9798450/bufer108118.tbc%2C.8
14/05/20 15:06:49 INFO Configuration.deprecation: fs.default.name is deprecated. Instead, use fs.defaultFS
Sequence 8347119 from region a98994dbcf5b1fcd47f69efcf804c385 in table test
&&Action:
& & row: 170149
& & column: a:title
& & at time: Tue May 20 11:43:45 CST 2014
& & value: \xE5\x95\x86\xE5\x93\x81\xE4\xB8\xADxE8\xAF\x95\xE5\xAE\x9D\xE8\xB4\x9D
&&Action:
& & row: 170149
& & column: a:user_id
& & at time: Tue May 20 11:43:45 CST 2014
& & value: 778896
&&Action:
& & row: 170149
& & column: a:pict_url
& & at time: Tue May 20 11:43:45 CST 2014
& & value: 19/60/74/196074.jpg
&&Action:
& & row: 170149
& & column: a:categ
& & at time: Tue May 20 11:43:45 CST 2014
& & value: 1101
&&Action:
& & row: 170149
& & column: a:minimum_bid
& & at time: Tue May 20 11:43:45 CST 2014
& & value: 2000.00
&&Action:
& & row: 170149
& & column: a:reserve_price
& & at time: Tue May 20 11:43:45 CST 2014
& & value: 2000.00复制代码
欢迎加入about云群 、 ,云计算爱好者群,关注
主题帖子积分
中级会员, 积分 306, 距离下一级还需 694 积分
中级会员, 积分 306, 距离下一级还需 694 积分
hbase中除了有查看hfile文件的命令,也提供也查看hlog文件的命令:
在hbase的根目录下有个.logs目录 ...
问题已基本定位,但是没有找到解决方案:
我的Hadoop配置的是QJM的HA方式,有两个Namenode节点。我的hadoop中的部分配置如下:
core-site.xml如下
&property&
&&&name&fs.defaultFS&/name&
&&&value&hdfs://mycluster&/value&
&/property&复制代码
hdfs-site.xml如下
&property&
&&&name&dfs.nameservices&/name&
&&&value&mycluster&/value&
&/property&
&property&
&&&name&dfs.ha.namenodes.mycluster&/name&
&&&value&nn1,nn2&/value&
&/property&
&property&
&&&name&dfs.namenode.rpc-address.mycluster.nn1&/name&
&&&value&hdp-m1:9000&/value&
&/property&
&property&
&&&name&dfs.namenode.rpc-address.mycluster.nn2&/name&
&&&value&hdp-m2:9000&/value&
&/property&复制代码
我将hbase数据存放路径指向了一个虚拟的hdfs地址:hdfs://mycluster/hbase。
这样的话,如果某个namenode挂掉,我的hbase仍然可以访问。
这样的配置方式,就会出现在hmaster无法启动所有hbase节点的问题,但是我逐过的手工启动完全正常,并且hbase集群也正常工作。
如果我修改hbase的指向为 hdfs://hdp-m1:9000/hbase,则hbase集群通过hmaster将所有节点都同时正常的启动了。
所以,问题 可以定位是配置了HA的hadoop的NameNode指向有点问题。
但是,尝试修改了很多次配置,还是没有找到好办法。我也不希望只将hbase指向一个节点,这样的话,如果发现failover,我也得重新配置hbase。
看看大家有没有hadoop 的ha环境 的hbase配置经验?
主题帖子积分
本帖最后由 desehawk 于
14:43 编辑
按照原理来讲,这不会有影响的,两个namenode一个active,一个是standby。二者的数据也是同步的。他们的访问方式通过代理名称mycluster来访问。
也就是说如果你hdp-m1为active则hdfs://mycluster:9000/hbase是访问的hdp-m1,相当于:
hdfs://hdp-m1:9000/hbase
hdp-m2为active则hdfs://mycluster:9000/hbase是访问的hdp-m2,相当于:
hdfs://hdp-m2:9000/hbase
原理我懂,是这样的,但是目前还没有配置,你试试
hdfs://mycluster:9000/hbase
欢迎加入about云群 、 ,云计算爱好者群,关注
主题帖子积分
中级会员, 积分 306, 距离下一级还需 694 积分
中级会员, 积分 306, 距离下一级还需 694 积分
本帖最后由 desehawk 于
14:43 编辑
按照原理来讲,这不会有影响的,两个namenode一个active, ... Port 9000 specified in URI hdfs://mycluster:9000/hbase but host 'mycluster' is a logical (HA) namenode and does not use port information.复制代码
这样写更错啊,不能带端口:
经常参与各类话题的讨论,发帖内容较有主见
经常帮助其他会员答疑
活跃且尽责职守的版主
站长推荐 /3
会员注册不成功的原因
新手获取积分方法
hadoop3.0学习:零基础安装部署hadoop集群
Powered by

我要回帖

更多关于 apache无法启动服务 的文章

 

随机推荐