大數據基礎平臺Hadoop完全分布式集群

      網友投稿 849 2022-05-29

      大數據基礎平臺Hadoop完全分布式集群

      完全分布式部署介紹

      完全分部式是真正利用多臺Linux主機來進行部署Hadoop,對Linux機器集群進行規劃,使得Hadoop各個模塊分別

      部署在不同的多臺機器上。

      NameNode HA+完全分布式部署

      部署規劃

      部署6臺主機,注意每臺主機的IP地址,主機名要不同,此處IP地址為192.168.1.10-60,主機為hd1-hd6

      使用ntpdate命令同步6臺主機時間:ntpdate time1.aliyun.com

      更改hd1 hosts文件,增加域名

      192.168.1.10 hd1

      192.168.1.20 hd2

      ......

      通過scp命令傳給其他主機:scp /etc/hosts 192.168.1.20:/etc

      以此類推

      生成密鑰對,使6臺主機可以相互免密訪問

      首先在hd1上執行命令,生成密鑰對:ssh-keygen -t rsa -f /root/.ssh/id_rsa -N ""

      使用for循環將生成的密鑰對發到各個主機:

      for i in hd{2..6}

      > do

      > scp -r /root/.ssh $i:/root

      > done

      部署jdk環境,上傳jdk二進制軟件包,然后解包到當前目錄:

      tar xf jdk-8u191-linux-x64.tar.gz

      移動到local目錄下命名為jdk:

      mv jdk1.8.0_191 /usr/local/jdk

      使用for循環將解好的包scp到其他主機上:

      for i in hd{2..6}

      do

      scp -r /usr/local/jdk $i:/usr/local

      大數據基礎平臺Hadoop完全分布式集群

      done

      配置環境變量:vim /etc/profile

      export JAVA_HOME=/usr/local/jdk

      export PATH=${JAVA_HOME}/bin:$PATH

      將配置好的環境變量文件使用for循環,拷貝到其他主機:

      for i in hd{2..6}

      do

      scp -r /etc/profile $i:/etc

      done

      拷貝成功,全部執行source /etc/profile

      Java jdk環境部署成功

      根據上面的規劃,我們在編號為hd4-6的主機上部署zookeeper

      上傳zookeeper包到hd4主機上,解包:tar xf zookerper

      移動到local下:mv zookerper /usr/local/zookerper

      復制、修改配置文件:

      cp /usr/local/zookerper/conf/zoo_sample.cfg /usr/local/zookerper/conf/zoo.cfg

      配置cfg文件,更改dataDir目錄如圖:

      在文件末尾增加主機驗證

      在opt目錄下創建data目錄:mkdir /opt/data

      將1寫入myid:echo “1” > /opt/data/myid

      其余hd5、hd6主機也同樣創建data目錄

      將2、3寫入hd5、hd6的myid文件

      將配置文件cfg拷貝到其余主機zookeeper的conf目錄下

      for i in hd{5..6}

      > do

      > scp -r /usr/local/zookeeper $i:/usr/local/zookeeper

      > done

      添加環境變量:vim /etc/profile

      將環境變量文件復制到其他主機:scp /etc/profile hd5:/etc/profile

      scp /etc/profile hd6:/etc/profile

      挨個source

      三臺主機啟動zookeeper服務:zkServer.sh start

      查看zookeeper服務狀態:zkServer.sh status

      部署Hadoop

      Hd1主機上傳Hadoop軟件包

      解壓到opt目錄下:tar xf hadoop2.8.5 -C /opt/hadoop285

      更改環境變量vim /etc/profile

      鍵入source /etc/profile

      把profile文件發給其他主機:scp /etc/profile hd2:/etc/profile

      scp /etc/profile hd3:/etc/profile

      更改hd4主機profile文件

      鍵入source /etc/profile

      把profile文件發送給其他主機:scp /etc/profile hd5:/etc/profile

      scp /etc/profile hd6:/etc/profile

      配置hd1的hadoop

      修改hadoop-env.sh 25行;mapred-env.sh 16行;yarn-env.sh 23行(針對hadoop285版本)

      改為:export JAVA_HOME=/usr/local/jdk

      修改core-site.xml

      fs.defaultFS

      hdfs://ns1

      hadoop.tmp.dir

      /opt/data/tmp

      ha.zookeeper.quorum

      hd4:2181,hd5:2181,hd6:2181

      修改hdfs-site.xml

      dfs.nameservices

      ns1

      dfs.ha.namenodes.ns1

      nn1,nn2

      dfs.namenode.rpc-address.ns1.nn1

      hd1:9000

      dfs.namenode.http-address.ns1.nn1

      hd1:50070

      dfs.namenode.rpc-address.ns1.nn2

      hd2:9000

      dfs.namenode.http-address.ns1.nn2

      hd2:50070

      dfs.namenode.shared.edits.dir

      qjournal://hd4:8485;hd5:8485;hd6:8485/ns1

      dfs.journalnode.edits.dir

      /opt/data/journal

      dfs.ha.automatic-failover.enabled

      true

      dfs.client.failover.proxy.provider.ns1

      org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider

      e>

      dfs.ha.fencing.methods

      sshfence

      dfs.ha.fencing.ssh.private-key-files

      /root/.ssh/id_rsa

      配置datanode節點記錄文件slaves

      hd4

      hd5

      hd6

      配置mapred-site.xml

      復制mapred-site.xml.template為mapred-site.xml:

      cp /opt/hadoop285/etc/hadoop/mapred-site.xml.template

      /opt/hadoop285/etc/hadoop/mapred-site.xml

      配置mapred-site.xml文件

      mapreduce.framework.name

      yarn

      配置yarn-site.xml文件

      yarn.resourcemanager.hostname

      hd3

      yarn.nodemanager.aux-services

      mapreduce_shuffle

      將配置文件傳到所有主機

      傳輸時間較長,一般在20分鐘左右

      傳輸完畢,所有主機執行source /etc/profile

      啟動集群

      在datanode節點(hd4-6)啟動zookeeper:zkServer.sh start

      啟動journalnode(在namenode上操作,例如hd1):hadoop-darmons.sh start journalnode

      分別到hd4、5、6節點上驗證:jps

      格式化hdfs文件系統(在namenode上操作,例如hd1):hdfs namenode -format

      復制到hd2主機:scp -r /opt/data hd2:/opt

      格式化zk(namenode上操作,例如hd1):hdfs zkfc -formatZK

      啟動hdfs(在namenode上操作,例如hd1):start-dfs.sh

      啟動yarn(namenode上操作,例如想讓hd2成為resourcemanager,需要在hd2上啟動,此處在hd3啟動):start-yarn.sh

      測試集群

      創建文件txt文件

      將文件上傳hdfs文件系統:hdfs dfs -mkdir /input

      hdfs dfs -put test.txt /input

      yarn jar /opt/hadoop285/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.5.jar wordcount /input /output/00

      查看結果hdfs dfs -cat /output/00/part-r-00000

      附件: 大數據基礎平臺Hadoop集群之Ambari實踐.docx 1.02MB 下載次數:0次

      Hadoop ssh 云計算 任務調度 大數據

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      上一篇:9個超級實用的 ES6 特性,超級實用哦!
      下一篇:操作系統之存儲管理——FIFO算法和LRU算法
      相關文章
      亚洲国产精品久久久久| 亚洲线精品一区二区三区| 精品久久久久久亚洲| 亚洲福利精品电影在线观看| 亚洲国产一区二区三区在线观看| 亚洲人成777在线播放| 色婷婷亚洲十月十月色天| 亚洲AV综合色区无码一区| 亚洲国产AV无码专区亚洲AV| 亚洲自偷自偷偷色无码中文| 国产精品亚洲精品日韩已方| 亚洲一区精品伊人久久伊人| 亚洲精品老司机在线观看| 亚洲精品无码99在线观看| 亚洲日韩中文字幕日韩在线| 亚洲欧洲中文日韩av乱码| 亚洲日本一区二区一本一道| 亚洲综合色区在线观看| 久久精品国产亚洲Aⅴ蜜臀色欲| av在线亚洲欧洲日产一区二区| 精品亚洲成α人无码成α在线观看 | 久久亚洲AV成人无码国产最大| 亚洲日韩一中文字暮| 亚洲免费网站观看视频| 亚洲av日韩av永久无码电影| 日韩国产欧美亚洲v片| 亚洲精品高清一二区久久| 国产成人亚洲精品影院| 亚洲中文字幕无码久久精品1| 亚洲人成伊人成综合网久久久| 国产亚洲A∨片在线观看| 色拍自拍亚洲综合图区| 亚洲日产2021三区| 亚洲精品123区在线观看| 亚洲精品久久无码| 亚洲国产精品无码久久九九 | 国产亚洲美女精品久久久久| 亚洲国产黄在线观看| 亚洲色婷婷一区二区三区| 久久亚洲国产成人亚| 亚洲福利一区二区|