hdfs启动顺序:
1、namenode
2、datenode
3、secondnamenode
4、yarn
webui:
默认为50070端口,dfsheath
ui内容讲解:
ClusterID: namenode格式化时生成的(hdfs namenode -format)
BlockpoolID:数据块池
(为了federation 和内存管理使用。)
namenode Journal status:
就是edit日志
namenode storage:
镜像文件存储信息
启动日志文件目录 $HADOOP_HOME/logs:
x.log: 通过log4j记录,记录大部分应用程序的日志信息
x.out 记录标准输出和标准错误日志,少量记录
日志文件的命名规则:
[ 框架名称- 用户名- 进程名- 主机名--日志格式后缀 ]
Secondary namenode:
1、客户端对hdfs的操作会记录到edits文件中, 即journal 。
2、namenode 内存中的内容为 fsp_w_picpath+edits
3、 namenode 的fsp_w_picpath和edite文件定时合并后,同步到secondary namenode上。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。