大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
1.部署准备两个机器test1为Master,test2为Slave。
创新互联建站是一家专注于成都网站设计、网站建设与策划设计,扶余网站建设哪家好?创新互联建站做网站,专注于网站建设10余年,网设计领域的专业建站公司;建站业务涵盖:扶余等地区。扶余做网站价格咨询:18982081108
在两个机器上分别vim /etc/hosts,加入如下内容:
192.168.1.100 test1 192.168.1.200 test2
2.增加hadoop用户
groupadd hadoop useradd hadoop -g hadoop passwd hadoop
3.设置Master无密码登录slave
在test1下生成公钥/私钥对并复制到test2上。
su hadoop ssh-keygen -t rsa -P '' scp ~/.ssh/id_rsa.pub hadoop@test2:~/.ssh/id_rsa.pub
test2把从test1复制的id_rsa.pub添加到.ssh/authorzied_keys文件里
cat id_rsa.pub >> authorized_keys chmod 600 .ssh/authorized_keys
4.修改句柄数:
ulimit -n 65535 vim /etc/security/limits.conf增加如下内容: \* hard nofile 65535 \* soft nofile 65535
将编译好的hadoop2.4.0解压后修改etc/hadoop目录里的配置文件。
1.修改hadoop-env.sh
export JAVA_HOME=/opt/jdk
2.修改core-site.xml
fs.default.name hdfs://HDP125:9000 hadoop.tmp.dir /home/${user.name}/tmp fs.trash.interval 1440
说明:
fs.defaultDFS:设置NameNode的IP和端口
hadoop.tmp.dir:设置Hadoop临时目录,(默认/tmp,机器重启会丢失数据!)
fs.trash.interval:开启Hadoop回收站
3.修改hdfs-site.xml
dfs.replication 1 dfs.namenode.name.dir /home/${user.name}/dfs_name dfs.datanode.data.dir /home/${user.name}/dfs_data dfs.support.append true dfs.datanode.max.xcievers 4096
说明:
dfs.replication:文件复本数
dfs.namenode.name.dir:设置NameNode存储元数据(fsp_w_picpath)的本地文件系统位置
dfs.datanode.data.dir:设置DataNode存储数据的本地文件系统位置
dfs.support.append:设置HDFS是否支持在文件末尾追加数据
dfs.datanode.max.xcievers:设置datanode可以创建的最大xcievers数
4.修改yarn-site.xml
yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname master yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.timeline-service.hostname master
5.修改mapred-site.xml
mapreduce.framework.name yarn
6.修改slave
test1 test2
7.把配置好的Hadoop程序复制到其它节点
scp -r /opt/hadoop hadoop@test2:/opt/ chown -R hadoop:hadoop /opt/hadoop
1.第一次使用一个分布式文件系统,需要对其进行格式化:
./bin/hadoop namenode –format
2.启动Hadoop:
sbin/start-all.sh
3.关闭Hadoop:
sbin/start-all.sh
4.Hadoop自带的WEB管理界面
http://test1:50070