温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Kerberos学习(三)

发布时间:2020-04-07 10:34:00 来源:网络 阅读:3881 作者:Slaytanic 栏目:安全技术

继续说一下Kerberos与Hadoop的集成。

其实这个话题在网上已经很普遍了,没什么太新鲜的。就是顺带说一下吧,Hadoop账号的集成与管理。

之前已经装了kdc和kadmin,所以接下来就需要创建hadoop相关的账号了。

首先需要用kadmin进入kerberos管理prompt,这里需要输入之前创建的admin账号的密码。

然后就可以创建了,用 ? 可以查看允许使用的命令。比如我们创建如下账号。

addprinc -randkey hdfs/master.hadoop@HADOOP.COM
xst -k hdfs.keytab
addprinc -randkey HTTP/master.hadoop@HADOOP.COM
xst -k HTTP.keytab
#生成了两个账号及其keytab,然后退出prompt回到shell。进入ktutil
rkt hdfs.keytab
rkt HTTP.keytab
wkt hdfs.keytab
这样就把原始的hdfs.keytab和HTTP.keytab合并成了新的hdfs.keytab

先创建与hdfs相关的账号,最后我们是要把这些账号创建成免密码的keytab文件的,在Hadoop里面,最好是把同一类服务创建成一个keytab,比如,hdfs和HTTP同属于hadoop的HDFS服务,所以,我们先创建这两个账号并将这两个账号的信息合并到一个keytab里面。

以此类推,可以创建yarn/master.hadoop@HADOOP.COM,mapred/master.hadoop@HADOOP.COM,oozie, hive...等等账号。

然后修改hdfs-site.xml,加入

  <property>
    <name>dfs.namenode.keytab.file</name>
    <value>hdfs.keytab</value>
  </property>
  <property>
    <name>dfs.namenode.kerberos.principal</name>
    <value>hdfs/_HOST@PG.COM</value>
  </property>
  <property>
    <name>dfs.namenode.kerberos.internal.spnego.principal</name>
    <value>HTTP/_HOST@PG.COM</value>
  </property>
  <property>
    <name>dfs.datanode.kerberos.principal</name>
    <value>hdfs/_HOST@PG.COM</value>
  </property>
  <property>
    <name>dfs.journalnode.kerberos.principal</name>
    <value>hdfs/_HOST@PG.COM</value>
  </property>
  <property>
    <name>dfs.journalnode.kerberos.internal.spnego.principal</name>
    <value>HTTP/_HOST@PG.COM</value>
  </property>
  <property>
    <name>dfs.cluster.administrators</name>
    <value>hdfs</value>
  </property>

以此类推,也可以把yarn/master.hadoop@HADOOP.COM的keytab与HTTP的keytab合并,还有mapred账号也可以合并,当然,前提是你需要用到spnego的http登录认证服务,如果不需要spnego,可以不添加HTTP的账号。至于什么是spnego,参看解释。


当然,前面创建账号和合并keytab的命令,你可以写成shell脚本让他自动完成。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI