大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
fs.defaultFS hdfs://rongxinhadoop
网站建设哪家好,找创新互联!专注于网页设计、网站建设、微信开发、小程序设计、集团企业网站建设等服务项目。为回馈新老客户创新互联还提供了武夷山免费建站欢迎大家使用!
这里的 mycluster为HA集群的逻辑名,与hdfs-site.xml中的dfs.nameservices配置一致 hadoop.tmp.dir /data/hadoop1/HAtmp3
这里的路径默认是NameNode、DataNode、JournalNode等存放数据的公共目录。用户也可单独指定每类数据的存储目录。这里目录结构需要自己先创建好
ha.zookeeper.quorum master:2181,slave1:2181,slave2:2181
这里是zk集群配置中各节点的地址和端口。
注意:数量一定是奇数而且和zoo.cfg中配置的一致
--------------------------------------------------------------------------------------------------
dfs.replication 2 配置副本数量
dfs.namenode.name.dir file:/data/hadoop1/HAname3 namenode元数据存储目录 dfs.datanode.data.dir file:/data/hadoop1/HAdata3 datanode数据存储目录 dfs.nameservices rongxinhadoop 指定HA命名服务,可随意起名, core-site.xml中fs.defaultFS配置需要引用它
dfs.ha.namenodes.rongxinhadoop nn1,nn2 指定集群下NameNode逻辑名
dfs.namenode.rpc-address.rongxinhadoop.nn1 master:9000
dfs.namenode.rpc-address.rongxinhadoop.nn2 slave1:9000
dfs.namenode.http-address.rongxinhadoop.nn1 master:50070
dfs.namenode.http-address.rongxinhadoop.nn2 slave1:50070
dfs.namenode.servicerpc-address.rongxinhadoop.nn1 master:53310 dfs.namenode.servicerpc-address.rongxinhadoop.nn2 slave1:53310
dfs.ha.automatic-failover.enabled.rongxinhadoop true 故障失败是否自动切换 dfs.namenode.shared.edits.dir qjournal://master:8485;slave1:8485;slave2:8485/rongxinhadoop 配置JournalNode,包含三部分:
1.qjournal 前缀表名协议;
2.然后就是三台部署JournalNode的主机host/ip:端口,三台机器之间用分号分隔;
3.最后的hadoop-journal是journalnode的命名空间,可以随意取名。 dfs.journalnode.edits.dir /data/hadoop1/HAjournal3/ journalnode的本地数据存放目录 dfs.client.failover.proxy.provider.rongxinhadoop
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider 指定mycluster出故障时执行故障切换的类
dfs.ha.fencing.methods sshfence ssh的操作方式执行故障切换
dfs.ha.fencing.ssh.private-key-files /home/hadoop1/.ssh/id_rsa 如果使用ssh进行故障切换,使用ssh通信时用的密钥存储的位置
dfs.ha.fencing.ssh.connect-timeout 1000 dfs.namenode.handler.count 10
--------------------------------------------------------------------------------------------------
mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888 mapreduce.jobhistory.intermediate-done-dir /data/hadoop1/mr_history/HAtmp3 Directory where history files are written by MapReduce jobs. mapreduce.jobhistory.done-dir /data/hadoop1/mr_history/HAdone3 Directory where history files are managed by the MR JobHistory Server.
--------------------------------------------------------------------------------------------------
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-