FusionInsight測試系列之:HDFS吞吐量性能測試

      網友投稿 1158 2022-05-30

      TestDFSIO工具測試指導

      1. 支持版本

      FusionInsight HD 6.5.1

      2. 工具獲取

      工具名稱: TestDFSIO

      該工具基于開源社區獲取,為兩個jar包文件:hadoop-common-3.1.1-tests.jar?與?hadoop-mapreduce-client-jobclient-3.1.1-tests.jar

      -:

      https://repo1.maven.org/maven2/org/apache/hadoop/hadoop-common/3.1.1/

      https://repo1.maven.org/maven2/org/apache/hadoop/hadoop-mapreduce-client-jobclient/3.1.1/

      3. 工具介紹

      用于測試Hadoop文件系統通過MapReduce方式處理作業的?IO?屬性。

      TestDFSIO調用一個MapReduce作業來并發地執行讀寫操作,每個map任務用于讀或寫每個文件,reduce 用于累積統計信息,并產生統計總結。

      工具使用參數:

      Usage:?TestDFSIO?[genericOptions]? -read?[-random?|?-backward?|?-skip?[-skipSize?Size]]?|?-write?|?-append?|?-truncate?|?-clean? [-compression?codecClassName]? [-nrFiles?N]? [-size?Size[B|KB|MB|GB|TB]]? [-resFile?resultFileName]? [-bufferSize?Bytes]? [-storagePolicy?storagePolicyName]? [-erasureCodePolicy?erasureCodePolicyName]

      測試參數說明:

      -clean? 清空包含TestDFSIO的jar包的歷史數據

      -read? 讀取HDFS上的文件,可指定讀取的方式:random隨機讀取、backward依次向后讀取、skip

      -write?寫入HDFS,因為HDFS主要使用場景是一次寫,多次讀,因此寫測試一般不過多考慮

      -compression?文件的壓縮格式,支持的壓縮類有:

      org.apache.hadoop.io.compress.BZip2Codec, org.apache.hadoop.io.compress.DefaultCodec, org.apache.hadoop.io.compress.DeflateCodec, org.apache.hadoop.io.compress.Lz4Codec, org.apache.hadoop.io.compress.SnappyCodec, org.apache.hadoop.io.compress.GzipCodec, org.apache.hadoop.io.compress.ZStandardCodec, com.huawei.hadoop.datasight.io.compress.lzc.ZCodec

      -nrFiles?文件的個數

      -size?單個文件的大小,注意是未壓縮前的大小

      -resFile?統計結果的文件,如果不寫,默認是執行命令的路徑下的TestDFSIO_results.log

      -bufferSize

      -storagePolicy?存儲策略名稱,可選如下?PROVIDED、COLD、WARM、HOT、ONE_SSD、ALL_SSD、LAZY_PERSIST

      -erasureCodePolicy?容錯策略,可選RS-10-4-1024k、RS-3-2-1024k、RS-6-3-1024k、RS-LEGACY-6-3-1024k、XOR-2-1-1024k

      4. 測試步驟

      4.1 前置條件

      FI集群安裝為安全模式,且運行正常

      HDFS、MapReduce、Yarn服務正常

      已于linux環境安裝集群客戶端

      已配置具有HDFS\Yarn訪問權限的用戶,例如用戶名poc,并對poc用戶有對應的Yarn資源分配

      4.2 測試過程

      【可選】參考產品文檔中”規劃HDFS容量“部分,修改GC_OPTS的參數;

      修改HDFS如下配置項,重啟服務

      dfs.namenode.handler.count : 512

      dfs.datanode.handler.count : 128

      ipc.server.handler.queue.size : 200

      dfs.namenode.fs-limits.max-directory-items : 6400000

      修改Yarn配置項,重啟服務

      yarn.nodemanager.resource.cpu-vcores? 根據實際節點的CPU核數修改

      yarn.nodemanager.resource.memory-mb? ?根據實際節點的內存修改

      修改租戶資源池中配置的 Maximum AM Resource Percent 為 0.9

      FusionInsight測試系列之:HDFS吞吐量性能測試

      將測試工具解壓縮后上傳到客戶端,如果客戶端安裝在/opt/client目錄下,那么工具上傳的路徑為/opt/client/HDFS/hadoop/share/hadoop/mapreduce/

      執行安全認證

      清空歷史數據

      8.?寫測試

      9.?讀測試,注意讀之前必須先執行write寫入要讀取的數據文件,否則MR任務會提示文件不存在錯誤

      4.3 查看測試結果

      測試完畢,參考當前目錄下的?TestDFSIO_results.log?文件內容獲取吞吐性能數據

      EI企業智能 FusionInsight

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      上一篇:張小白帶你使用JupyterLab嘗試體驗“對抗示例生成”(使用MindSpore 1.4.1)
      下一篇:我與HCIA職業認證訓練營的第一次親密接觸
      相關文章
      久久亚洲色一区二区三区| 亚洲精品午夜视频| 国产日本亚洲一区二区三区| 67pao强力打造67194在线午夜亚洲| 亚洲综合亚洲综合网成人| 亚洲AV网站在线观看| 久久精品国产亚洲AV| 亚洲精品无AMM毛片| 亚洲一区二区三区国产精华液 | 亚洲综合一区二区精品导航 | 亚洲av日韩av天堂影片精品| 亚洲VA中文字幕无码毛片| 亚洲av无码国产精品色午夜字幕 | 亚洲 无码 在线 专区| 亚洲成av人片一区二区三区 | 亚洲国产成人无码av在线播放| 亚洲成人午夜电影| 久久亚洲精品专区蓝色区| 亚洲一本一道一区二区三区| 亚洲gay片在线gv网站| 一本色道久久88亚洲综合 | 亚洲人成网站在线观看播放动漫| 亚洲一区二区三区在线观看蜜桃 | 亚洲国产激情在线一区| 亚洲综合一区二区三区四区五区| 亚洲乱码中文字幕小综合| 亚洲午夜精品久久久久久app| 亚洲AV无码男人的天堂| 亚洲成a人一区二区三区| 亚洲色婷婷六月亚洲婷婷6月| 亚洲av无码潮喷在线观看| 亚洲黄色中文字幕| 国产精品亚洲四区在线观看| 亚洲AV无码XXX麻豆艾秋| 亚洲精品成人久久久| 国产AV无码专区亚洲A∨毛片| 亚洲欧洲日产国产综合网| 亚洲成综合人影院在院播放| 亚洲综合小说另类图片动图| 亚洲AV无码乱码在线观看| 国产精一品亚洲二区在线播放|