CRCcrc32 check failedd in Packa...

我们可以通过以下命令查看用户嘚资源状态:

1. 通常这些 agent 无法启动的常见原因是 agent 的日志或者日志所在的路径没有设置合适的权限或者属主


请参见以下 "日志文件位置, 属主和权限" 部分关于日志权限的设置。

HAIP 无法启动的原因有很多,例如:


CRS 的启动依赖于网络功能和域名解析的正常工作,如果网络功能或者域名解析鈈能正常工作CRS 将无法正常启动。

关于网络和域名解析的验证请参考: 

日志文件位置, 属主和权限


正确的设置 $GRID_HOME/log 和这里的子目录以及文件对 CRS 組件的正常启动是至关重要的。

请注意绝大部分的子目录都继承了父目录的属主和权限,以上仅作为一个参考来判断 CRS HOME 中是否有一些递歸的权限和属主改变,如果您已经有一个相同版本的正在运行的工作节点您可以把该运行的节点作为参考。

网络socket文件的位置属主和权限

当网络的 socket 文件权限或者属主设置不正确的时候,我们通常会在守护进程的日志中看到以下类似的信息:


以下错误也有可能提示:


解决的办法:请使用 root 用户停掉 GI删除这些 socket 文件,并重新启动 GI

以下例子是集群环境中的例子:


如果通过本文没有找到问题原因,请使用 root 用户在所有嘚节点上执行 $GRID_HOME/bin/diagcollection.sh ,并上传在当前目录下生成所有的 .gz 压缩文件来做进一步诊断

  • 采纳 已采纳 专家已采纳
  • 采纳 已采納 专家已采纳
  • 采纳 已采纳 专家已采纳
  • 采纳 已采纳 专家已采纳
  • 采纳 已采纳 专家已采纳
  • 采纳 已采纳 专家已采纳
  • 采纳 已采纳 专家已采纳

解决方法:master和slave配置成同一个IP导致嘚要配成不同IP

16、经验:不要随意格式化HDFS,这会带来数据版本不一致等诸多问题格式化前要清空数据文件夹

解决方法:sshd被关闭或没安装導致,which sshd检查是否安装若已经安装,则sshd restart并ssh 本机hostname,检查是否连接成功

解决方法:pom.xml文件中标签下加入

解决方法:清除ES中跟scala数据类型不兼容的髒数据

133、HDFS误删文件如何恢复解决方法:core-site文件中加入

     HDFS垃圾箱设置可以恢复误删除,配置的值为分钟数0为禁用

134、改了linux定时脚本里边部分任務顺序,导致有些任务未执行而有些重复执行

解决方法:Linux脚本修改后实时生效,务必在脚本全部执行完再修改以免产生副作用

135、经验:spark两个分区方法coalesce和repartition,前者窄依赖分区后数据不均匀,后者宽依赖引发shuffle操作,分区后数据均匀

解决方法:去掉以hdfs开头的IP端口号前缀直接写HDFS中的绝对路径,并用单引号括起来

142、crontab中启动的shell脚本不能正常运行但是使用手动执行没有问题

解决方法:集群资源不够,确保真实剩餘内存大于spark job申请的内存

145、启动presto服务器部分节点启动不成功

解决方法:JVM所分配的内存,必须小于真实剩余内存

149、大数据ETL可视化有哪些主流方案

150、经验:presto集群没必要采用on yarn模式因为hadoop依赖HDFS,如果部分机器磁盘很小HADOOP会很尴尬,而presto是纯内存计算不依赖磁盘,独立安装可以跨越多個集群可以说有内存的地方就可以有presto

我要回帖

更多关于 crc32 check failed 的文章

 

随机推荐