大橙子网站建设,新征程启航

为企业提供网站建设、域名注册、服务器等服务

CentOS6.4如何安装Hadoop-2.5.1完全分布式集群-创新互联

这篇文章主要介绍了CentOS 6.4如何安装Hadoop-2.5.1完全分布式集群,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

公司主营业务:网站制作、成都网站设计、移动网站开发等业务。帮助企业客户真正实现互联网宣传,提高企业的竞争能力。成都创新互联公司是一支青春激扬、勤奋敬业、活力青春激扬、勤奋敬业、活力澎湃、和谐高效的团队。公司秉承以“开放、自由、严谨、自律”为核心的企业文化,感谢他们对我们的高要求,感谢他们从不同领域给我们带来的挑战,让我们激情的团队有机会用头脑与智慧不断的给客户带来惊喜。成都创新互联公司推出云岩免费做网站回馈大家。

环境介绍

在两台装有CentOS 6.4(32位)的服务器上安装Hadoop-2.5.1分布式集群(2台机器,主要试验用)。

1.修改主机名和/etc/hosts文件

1)修改主机名(非必要)

vim /etc/sysconfig/network
HOSTNAME=XXX

重启后生效。

2)/etc/hosts是ip地址和其对应主机名文件,使机器知道ip和主机名对应关系,格式如下:

#IPAddress HostName
192.168.1.67 MasterServer
192.168.1.241 SlaveServer

2.配置免密码登陆SSH

1)生成密钥:

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa 

以上是两个单引号。

2)将id_dsa.pub(公钥)追加到授权的key中:

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

3)将认证文件复制到其它节点上:

scp ~/.ssh/authorized_keys hadooper@192.168.1.241:~/.ssh/ 

第一次要确认连接,输入yes即可。

但我的仍要求输入密码,原因是.ssh和authorized_keys权限不对,具体见:http://www.linuxidc.com/Linux/2014-10/107762.htm

3.各节点上安装jdk
1)选择的版本是jdk-6u27-linux-i586.bin,下载地址:http://pan.baidu.com/s/1dDGi5QL
2)上传到hadooper用户目录下,添加执行权限

chmod 777 jdk-6u27-linux-i586.bin 

3)安装

./jdk-6u27-linux-i586.bin 

4)配置环境变量:vi /etc/profile加入以下三行

#JAVA_HOME
export JAVA_HOME=/usr/lib/jvm/jdk1.6/jdk1.6.0_27
export PATH=$JAVA_HOME/bin:$PATH

5)执行source /etc/profile使环境变量的配置生效
6)执行java –version查看jdk版本,验证是否成功。

4. Hadoop安装

每台节点都要安装hadoop。上传hadoop-2.5.1.tar.gz到用户hadooper目录下。

1)解压

tar -zvxf hadoop-2.5.1.tar.gz

2)添加环境变量:
# vim  /etc/profile,尾部添加如下
export HADOOP_HOME=/home/hadooper/hadoop/hadoop-2.5.1
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export CLASSPATH=.:$JAVA_HOME/lib:$HADOOP_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

设置立即生效:

source /etc/profile

3)修改Hadoop配置文件

(1)core-site.xml


    fs.defaultFS
    hdfs://MasterServer:9000

(2)hdfs-site.xml

  
    dfs.replication 
    3 
 

(3)mapred-site.xml


    mapreduce.framework.name
    yarn
 
    mapreduce.jobhistory.address
    MasterServer:10020
 
  mapreduce.jobhistory.webapp.address
  MasterServer:19888
        

jobhistory是Hadoop自带了一个历史服务器,记录Mapreduce历史作业。默认情况下,jobhistory没有启动,可用以下命令启动:

sbin/mr-jobhistory-daemon.sh start historyserver

(4)yarn-site.xml


    yarn.nodemanager.aux-services 
    mapreduce_shuffle 
  
    yarn.resourcemanager.address 
    MasterServer:8032 
  
    yarn.resourcemanager.scheduler.address 
    MasterServer:8030 
  
    yarn.resourcemanager.resource-tracker.address 
    MasterServer:8031 
  
    yarn.resourcemanager.admin.address 
    MasterServer:8033 
  
    yarn.resourcemanager.webapp.address 
    MasterServer:8088 
 

(5)slaves

SlaveServer 

(6)分别在hadoop-env.sh和yarn-env.sh中添加JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/jdk1.6/jdk1.6.0_27

5.运行Hadoop
1)格式化

hdfs namenode –format

2)启动Hadoop

start-dfs.sh
start-yarn.sh

也可以用一条命令:

start-all.sh 

3)停止Hadoop

stop-all.sh 

4)jps查看进程

7692 ResourceManager
8428 JobHistoryServer
7348 NameNode
14874 Jps
7539 SecondaryNameNode

5)通过浏览器查看集群运行状态

(1)http://192.168.1.67:50070 

(2)http://192.168.1.67:8088/

(3)http://192.168.1.67:19888

6. 运行Hadoop自带的wordcount示例

1)建立输入文件:

echo "My first hadoop example. Hello Hadoop in input. " > input 

2)建立目录

hadoop fs -mkdir /user/hadooper 

3)上传文件

hadoop fs -put input /user/hadooper 

4)执行wordcount程序

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.1.jar wordcount /user/hadooper/input /user/hadooper/output 

5)查看结果

hadoop fs -cat /user/hadooper/output/part-r-00000

Hadoop 1
My 1
example.Hello 1
first 1
hadoop 1
in 1
input. 1

感谢你能够认真阅读完这篇文章,希望小编分享的“CentOS 6.4如何安装Hadoop-2.5.1完全分布式集群”这篇文章对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联-成都网站建设公司行业资讯频道,更多相关知识等着你来学习!


分享题目:CentOS6.4如何安装Hadoop-2.5.1完全分布式集群-创新互联
文章源于:http://dzwzjz.com/article/dieppp.html
在线咨询
服务热线
服务热线:028-86922220
TOP