2> 以新建用户Hadoop身份登录
su - hadoop
ssh-keygen -t rsa 生成密钥文件,一切按默认的方式生成,密钥文件生成后默认存放位置为/home/hadoop(你的用户名)/.ssh
查看生成文件: ll .ssh 下面的这两个即为生成的密钥对
将id_rsa.pub加到授权的key里面去:cat id_rsa.pub >> authorized_keys
修改authorized_keys的权限,(这一步很重要不然的话,SSH时仍然需要密码)
chmod 600 authorized_keys
查看本机是否可以SSH无需密码登录: ssh localhost
OK , 以上证明本机登录成功。
接下来要做的就是将Master的公钥id_rsa.pub复制到Salve上去,并加入到授权的key中。
scp ~/.ssh/id_rsa.pub hadoop@192.168.171.133:~/
由于首次登录还没有添加认证,这次仍然会提示输入密码
以hadoop身份登录Salve节点(注意此前意见以root身份对ssh的配置进行修改,方式同上)
确认文件存在
如果不存在.ssh 则创建文件夹.ssh,并将权限修改为700,这一步非常重要因为默认创建的.ssh文件夹的权限为700,手工创建不修改权限的话不能成功,修改权限后将该
id_rsa.pub添加到授权的key中:
mkdir .ssh
chmod 700 .ssh
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
修改authorized_keys的权限为600
chmod 600 ~/.ssh/authorized_keys
进入Master节点,检查能否登录Salve节点:
ssh 192.168.171.133
OK , 在Master上无密码登录Salve成功