Spark基礎學習筆記16:創建RDD

      網友投稿 852 2022-05-29

      文章目錄

      零、本講學習目標

      一、RDD為何物

      (一)RDD概念

      (二)RDD示例

      (三)RDD主要特征

      二、做好準備工作

      (一)準備文件

      1、準備本地系統文件

      2、準備HDFS系統文件

      (二)啟動Spark Shell

      1、啟動HDFS服務

      2、啟動Spark服務

      3、啟動Spark Shell

      三、創建RDD

      (一)從對象集合創建RDD

      1、利用`parallelize()`方法創建RDD

      2、利用`makeRDD()`方法創建RDD

      3、簡單說明

      (二)從外部存儲創建RDD

      1、讀取本地系統文件

      2、讀取HDFS系統文件

      零、本講學習目標

      了解RDD的概念

      掌握RDD的創建方式

      一、RDD為何物

      (一)RDD概念

      Spark提供了一種對數據的核心抽象,稱為彈性分布式數據集(Resilient Distributed Dataset,RDD)。這個數據集的全部或部分可以緩存在內存中,并且可以在多次計算時重用。RDD其實就是一個分布在多個節點上的數據集合。

      RDD的彈性主要是指當內存不夠時,數據可以持久化到磁盤,并且RDD具有高效的容錯能力。

      分布式數據集是指一個數據集存儲在不同的節點上,每個節點存儲數據集的一部分。

      (二)RDD示例

      將數據集(hello,world,scala,spark,love,spark, happy)存儲在三個節點上,節點一存儲(hello,world),節點二存儲(scala,spark,love),節點三存儲(spark,happy),這樣對三個節點的數據可以并行計算,并且三個節點的數據共同組成了一個RDD。

      分布式數據集類似于HDFS中的文件分塊,不同的塊存儲在不同的節點上;而并行計算類似于使用MapReduce讀取HDFS中的數據并進行Map和Reduce操作。Spark則包含這兩種功能,并且計算更加靈活。

      在編程時,可以把RDD看作是一個數據操作的基本單位,而不必關心數據的分布式特性,Spark會自動將RDD的數據分發到集群的各個節點。Spark中對數據的操作主要是對RDD的操作(創建、轉化、求值)。

      (三)RDD主要特征

      RDD是不可變的,但可以將RDD轉換成新的RDD進行操作。

      RDD是可分區的。RDD由很多分區組成,每個分區對應一個Task任務來執行。

      對RDD進行操作,相當于對RDD的每個分區進行操作。

      RDD擁有一系列對分區進行計算的函數,稱為算子。

      RDD之間存在依賴關系,可以實現管道化,避免了中間數據的存儲。

      二、做好準備工作

      (一)準備文件

      1、準備本地系統文件

      在/home目錄里創建test.txt

      2、準備HDFS系統文件

      將test.txt上傳到HDFS系統的/park目錄里

      (二)啟動Spark Shell

      參看《 Spark基礎學習筆記05:搭建Spark Standalone模式的集群》

      1、啟動HDFS服務

      執行命令:start-dfs.sh

      2、啟動Spark服務

      進入Spark的sbin目錄執行命令:./start-all.sh

      3、啟動Spark Shell

      參看《sc.textFile()默認讀取本地系統文件還是HDFS系統文件?》

      如果以 spark-shell --master spark://master:7077方式啟動spark-shell,只能讀取HDFS系統上的文件,不能讀取本地系統文件,而以spark-shell --master=local[*]方式啟動spark-shell,既可以讀取本地系統文件,加不加file://都可以,還可以訪問HDFS系統上的文件,但是必須加上hdfs://master:9000。

      執行命令:spark-shell --master=local[*]

      查看Spark Shell的WebUI界面

      三、創建RDD

      RDD中的數據來源可以是程序中的對象集合,也可以是外部存儲系統中的數據集,例如共享文件系統、HDFS、HBase或任何提供HadoopInputFormat的數據源。

      (一)從對象集合創建RDD

      Spark可以通過parallelize()或makeRDD()方法將一個對象集合轉化為RDD。

      1、利用parallelize()方法創建RDD

      執行命令:val rdd = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8))

      2、利用makeRDD()方法創建RDD

      執行命令:val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8)) 與 rdd.collect()

      3、簡單說明

      從上述兩個命令執行的返回信息可以看出,上述創建的RDD中存儲的是Int類型的數據。實際上,RDD也是一個集合,與常用的List集合不同的是,RDD集合的數據分布于多臺機器上。

      (二)從外部存儲創建RDD

      Spark的textFile()方法可以讀取本地文件系統或外部其他系統中的數據,并創建RDD。不同的是,數據的來源路徑不同。

      1、讀取本地系統文件

      執行命令:val rdd = sc.textFile("/home/test.txt")

      執行命令:val lines = rdd.collect(),查看RDD中的內容,保存到常量lines(collect()方法是RDD的一個行動算子)

      執行命令:for (line <- lines) println(line),遍歷lines

      2、讀取HDFS系統文件

      Spark基礎學習筆記16:創建RDD

      執行命令:val rdd = sc.textFile("hdfs://master:9000/park/test.txt")

      執行命令:val lines = rdd.collect(),查看RDD中的內容

      執行命令:val sparkLines = rdd.filter((line) => line.contains("spark")),獲取包含spark的行

      執行for (line <- sparkLines) println(line),遍歷sparkLines

      Hadoop spark

      版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。

      上一篇:信息工程學院技能大賽 計算機程序設計(Java)大賽試題
      下一篇:一個水杯的測試
      相關文章
      久久精品国产亚洲Aⅴ香蕉| 国产精品亚洲综合天堂夜夜| 国产精品亚洲高清一区二区 | 亚洲精品国产首次亮相| 亚洲真人无码永久在线观看| 亚洲av成人综合网| 国产成人亚洲合集青青草原精品| 亚洲国产成人久久三区| 亚洲另类自拍丝袜第1页| 亚洲午夜在线一区| 亚洲人成免费电影| 欧洲 亚洲 国产图片综合| 亚洲国产精品免费观看| 亚洲日韩AV无码一区二区三区人| 四虎必出精品亚洲高清| 在线亚洲高清揄拍自拍一品区| 一本色道久久88亚洲精品综合| 亚洲久热无码av中文字幕| 亚洲色丰满少妇高潮18p| 亚洲爆乳无码精品AAA片蜜桃| 亚洲精品美女久久久久久久| 在线91精品亚洲网站精品成人| 亚洲A丁香五香天堂网| 亚洲午夜av影院| 亚洲色偷偷偷鲁综合| 亚洲∧v久久久无码精品 | 亚洲精品福利视频| 亚洲精品中文字幕无码AV| 亚洲一区二区三区精品视频| 亚洲熟妇自偷自拍另欧美| 夜色阁亚洲一区二区三区| 狠狠色婷婷狠狠狠亚洲综合| 国产亚洲综合一区柠檬导航| 亚洲无线电影官网| 亚洲ts人妖网站| 亚洲AV日韩AV一区二区三曲| 亚洲精品国自产拍在线观看| 久久久久亚洲AV成人网人人网站 | 青青青国产色视频在线观看国产亚洲欧洲国产综合 | 久久久久久久亚洲精品| 亚洲人成影院在线无码按摩店|