阿里云搭建Hadoop集群
阿里云搭建Hadoop集群
https://blog.csdn.net/bqw18744018044/article/details/79103931
- 两台服务器,一台做master,一台做worker,worker就是slave。建议用之前配置好的服务器做master,新的主机做worker。 
- master上的工作 
- 第一步通过vim hadoop /etc/hosts在master中添加worker的hostname 
- worker1 
- worker2 
- worker3 
- ..... 
- 1 
- 2 
- 3 
- 4 
- 第二步配置ssh无密码登陆 
- 1. 将master上的公钥xxx.pub复制到worker上的authorized_keys里面。 
- scp xxx.pub worker_ip 
- 2. 在worker中更改一下文件的权限。 
- chmod 600 authorized_keys 
- chmod 700 .ssh 
- 1 
- 2 
- 3 
- 4 
- 5 
- 6 
- 第三步将master中的配置好的hadoop目录复制到worker中 
- 首先,在master中压缩hadoop文件,在拷贝到worker中。网上很多教程是直接拷贝文件夹到worker中,这种做法的效率极低,文件的传输很慢,一定要压缩后再拷贝文件。 
- tar czvf hadoop-2.8.1.tar hadoop-2.8.1 
- scp hadoop-2.8.1.tar worker_ip 
- 1 
- 2 
- 3 
- worker上的工作 
- 第一步修改hostname为对应的worker,并修改对应的hosts中的IP映射。 
- 第二步配置java环境。 
- 第三步配置/etc/profile 
- 1、2、3步参考我的上一篇博客进行完成。hadoop环境搭建。 
- 第四步将从master中拷贝过来的hadoop压缩包进行解压,并移动到software目录下。 
- 这次就完成了hadoop集群的搭建。 
- 回到master中,使用./sbin/start-all.sh开启Hadoop集群。 
- 在master中执行hadoop dfsadmin -report查看集群是否正常启动,下图表示启动成功: 
- ———————————————— 
- 版权声明:本文为CSDN博主「vlions 」的原创文章,遵循CC 4.0 by-sa版权协议,转载请附上原文出处链接及本声明。 
- 原文链接:https://blog.csdn.net/qq_22600319/article/details/78241628 
 
                    