温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

linux hadoop大数据环境下,某台数据节点下/home文件夹损坏,使用shell快速重新创建

发布时间:2020-07-29 20:42:30 来源:网络 阅读:738 作者:hgmz123 栏目:大数据

问题描述:

    局域网内搭建hadoop环境,节点/home是挂载在单独磁盘上,某次断电原因导致几个节点/home文件系统损坏,无法恢复,只能格式化之后重新挂载/home,然后使用脚本快速恢复hadoop众多用户。

    源引:《鸟哥的私房菜》手动创建用户流程:

  1. 先创建所需要的群组 ( vi /etc/group );

  2. 将 /etc/group 与 /etc/gshadow 同步化 ( grpconv );

  3. 创建账号的各个属性 ( vi /etc/passwd );

  4. 将 /etc/passwd 与 /etc/shadow 同步化 ( pwconv );

  5. 创建该账号的口令 ( passwd accountname );

  6. 创建用户家目录 ( cp -a /etc/skel /home/accountname );

  7. 更改用户家目录的属性 ( chown -R accountname.group /home/accountname )。

    因为只是/home文件损坏了,只需要进行第6和第7步就行了,脚本如下:


#!/bin/bash

for user in `cat /etc/passwd|tail -20 | awk -F: '{print $1}'` ;do

        mkdir -pv /home/$user

        cp -a /etc/skel/.bash_profile /home/$user

        cp -a /etc/skel/.bash_logout /home/$user

        cp -a /etc/skel/.bashrc /home/$user

        chown -R $user:$user /home/$user

done

~                                                                                                                                                  

~       


向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI