CDH6提示Host Monitor未运行
发表于|更新于|CDH
|总字数:117|阅读时长:1分钟|浏览量:
最近因CDH集群的系统目录被hporf文件占满,导致集群故障,Server Monitor和Host Monitor都不运行了。

腾出空间后,重启已经无法启动,后来通过如下方案解决。
1 | cd /var/lib |
然后再次重启就正常启动了。同样地方法还是适用于Service Monitor。
1 | cd /var/lib |
文章作者: Charles
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 码农笔记!
相关推荐

2021-03-12
CDH6出现Role not started due to unhealthy host的异常
今天重启CDH集群时出现了一个错误:Completed only 2/3 steps. First failure: Role not started due to unhealthy host slave5.,其中一台zookeeper无法启动,如下图所示: 异常的原因是CDH启动顺序出错,应该是这台机器先启动了cloudera-scm-agent,然后又去启动了cloudera-scm-server。正确的顺序应该是先启动cloudera-scm-server,再启动cloudera-scm-agent。 解决办法: 停止所有服务 先停止cloudera-scm-server 1service cloudera-scm-server stop 在停止其他机器的cloudera-scm-agent 1service cloudera-scm-agent stop 启动服务 先启动cloudera-scm-server 1service cloudera-scm-server start 再启动cloudera-scm-agent 1service cloude...

2018-05-22
hbase-site.xml配置详解
hbase.rootdir1234<property> <name>hbase.rootdir</name> <value>file:///tmp/hbase-${user.name}/hbase</value></property> 这个目录是region server的共享目录,用来持久化HBase。URL需要是’完全正确’的,还要包含文件系统的scheme。例如,要表示hdfs中的’/hbase’目录,namenode 运行在namenode.example.org的9090端口。则需要设置为hdfs://namenode.example.org:9000/hbase。默认情况下HBase是写到/tmp的。不改这个配置,数据会在重启的时候丢失。默认: file:///tmp/hbase-${user.name}/hbase hbase.master.port1234&...

2018-05-21
Hadoop Timed out waiting 20000ms
今天发现测试环境Hadoop集群开始频繁宕掉,查看namenode日志发现有如下报错信息: 1java.io.IOException: Timed out waiting 20000ms for a quorum of nodes to respond. 原因是因为namenode与journalnode通信时,超过20000ms,触发了默认设置的超时时长,解决办法:在hdfs-site.xml中加入如下配置 123456789101112<property> <name>dfs.qjournal.start-segment.timeout.ms</name> <value>90000</value></property><property> <name>dfs.qjournal.select-input-streams.timeout.ms</name> <value>90000</value></property&...

2019-07-15
CDH Manager启动Hdfs时提示无法创建canary文件
重启Hadoop集群后,发现在CDH Manager中的HDFS服务里有个红色的节点,提示Canary 测试无法在目录 /tmp/.cloudera_health_monitoring_canary_files 中创建文件。,一般HDFS无法创建文件的原因通常都是因为权限、安全模式、服务异常,通过查看日志,发现是HDFS进入了安全模式导致的。 解决办法:执行如下命令,退出安全模式: 1hdfs dfsadmin -safemode leave 再次重启HDFS,此时服务便恢复正常了。

2018-11-06
解决执行HiveSQL时,报could not be cleaned up的错误
在执行HiveSQL时,出现了如下的错误: 1234567891011121314151617181920212223242526272018-11-05 16:43:02,568 ERROR org.apache.hadoop.hive.ql.exec.Task: [HiveServer2-Background-Pool: Thread-30333]: Failed with exception Directory hdfs://master:8020/user/hive/bus_optimation_xm/g_operate_statistic/date_time=201806124/date_type=1440/date_flag=1/index_id=100201001 could not be cleaned up.org.apache.hadoop.hive.ql.metadata.HiveException: Directory hdfs://master:8020/user/hive/bus_optimation_xm/g_operate_statistic/da...

2020-11-04
Hive写入ES时提示httpclient包找不到的问题
在数据计算完成后,有部分数据会有导入ES的需求,最常用也是最简单的就是使用hive-elasticsearch的映射表来实现,可参考将Hive表与ElasticSearch关联。在ElasticSearch7.8.0与CDH5.9中可以正常将数据由Hive写入ElasticSearch。但是更换为CDH6.3以后,会出现如下错误: 12345678910111213141516171819202122232425262728293031323334352020-11-04 19:10:19,363 INFO [IPC Server handler 6 on 36328] org.apache.hadoop.mapred.TaskAttemptListenerImpl: Diagnostics report from attempt_1604387526070_2011_m_000000_0: Error: java.lang.RuntimeException: java.lang.NoClassDefFoundError: org/apache/commons/httpcli...
评论
WalineDisqus
公告
收集笔记






