大數據“復活”記
637
2025-04-01
Hadoop作為大數據的支撐,那么我們會有一些疑問,什么是Hadoop,Hadoop能夠做些什么,它的優點是什么,它是如何進行海量數據的操作的。相信這些疑問,一定在此時困擾著你,不要擔心,下面我們一步一步的去認識Hadoop這個神奇的的小象!
起源
從1946年開始計算機的誕生,再到如今的2020年人工智能大數據時代,我們的數據一直在呈現級數似的增長,在過去的十幾年來看,可能不是特別的明顯,但是近幾年的數據量,我們稱之為海量數據都感覺無法定義它的龐大了。特別是在今年的疫情面前,我們人類,我們中國的大數據的作用,為我們的疫情防控做出來凸出的貢獻,相信大家無論是在新聞還是網絡上面都是特別的清楚——人工智能——大數據——AI這些新時代下的科技產物,造福者我們每一個人類!
然而在從基礎的文件數據開始再到現在的數據倉庫,我們的進步無時無刻都在激勵著我們一代又一代的IT之人才。2011年5月提出了“大數據”的概念。
大數據的幾個特點:
1.數據量大
2.數據類型多
3.處理速度低(1秒定律)
4.價值密度低:比如教室里面的監控器,每一天都在開啟,但是真正的發揮作用的時候,也就只有在發現“美好的事物”之后,才會有所價值。
Google的“三駕馬車”改變了傳統的認知
依靠Google公司的三篇論文,GFS,MapReduce,BigTab,神奇的火花就這樣碰撞的產生了,為我們的大數據技術奠定了有力的基礎,具有劃時代的意義。
GFS思想
分布式文件系統有兩個基本的組成部分,一個是客戶端,一個是服務端。我們發現服務端的硬盤和安全性不夠明顯,這個時候我們的GFS就解決了這個問題。
我們會增加一個管理節點,去管理這些存放數據的主機。存放數據的主機我們稱之為數據節點,而上傳的文件會按照固定的大小進行分塊。數據節點上保存的數據塊,而非獨立的文件。數據塊的冗余默認為3.
上傳文件時,客戶端會首先連接管理節點,管理節點會生成數據塊的信息,包括文件名,大小,上傳時間,數據塊的位置信息等。這些信息成為文件的元數據,它會保存在管理節點??蛻舳双@取了這些元數據之后,就會開始把數據塊一個一個的上傳??蛻舳税褦祿K先上傳到第一個數據節點,然后在管理節點的管理下,通過水平復制,復制和分配到其他節點(主機),最終就達到了,冗余度的要求。
數據塊
存儲在hdfs中的最小單位
默認大小128M
元數據
查看fsimage
整個文件系統命名空間(包括塊到文件和文件系統屬性的映射)
hdfs oiv -i 要查看的文件名 -o輸出的文件名 -p XML
查看edites
文件系統元數據發生的每個更改
hdfs oev -i 要查看的文件名 -o輸出的文件名
namenode啟動過程
加載fsimage
加載edites
進行檢查點保存
等待datanode匯報塊信息
datanode啟動后
掃描本地塊的信息
匯報給namenode
心跳機制
GFS Master與每個服務器通信(保證它是活的),這樣就滿足了最大化數據的可靠性和可用性
MapReduce思想
主要介紹它的“分而治之”的思想,首先我們介紹一個網頁級別,對于多個網頁(幾億份),作為一個矩陣的運算已經無法滿足了,那么怎么辦了,我們就采用對每個小的矩陣塊進行計算,之后這樣的不斷的疊加,最后的運算和匯總結果。其實這個思想比較的具有時代化的超越性,不管是在計算機的運用里面,還是在我們日常的學習和生活中“分散任務,匯總結果”是最實用的。
BigTable思想
igTable 最基本的思想是把所有的數據都存入一張表。BigTable 的思想,利于海量數據的檢索,在大數據時代可以顯著提高數據的查詢效率,但是對數據的新增,修改,刪除是不利的。
HDFS
HDFS是Hadoop項目的核心子項目,是分布式計算中的儲存管理的基礎。
HDFS,是Hadoop Distributed File System的簡稱,是Hadoop抽象文件系統的一種實現。Hadoop抽象文件系統可以與本地系統、Amazon S3等集成,甚至可以通過Web協議(webhsfs)來操作。HDFS的文件分布在集群機器上,同時提供副本進行容錯及可靠性保證。例如客戶端寫入讀取文件的直接操作都是分布在集群各個機器上的,沒有單點性能壓力。
對于機架感與副本冗余儲存策略:比如我們的副本一保存在機架1上,處于安全考慮我們的副本2會和副本一保存在不同的機架上,這里我們保存在機架2上,對于副本三我們應該保存在和副本二一樣的機架上面,這個是處于效率的考慮,假設我們的副本二損壞了,那么就近原則從同一個機架的其他主機獲取。
Hadoop的特點
1.高可靠性
2.高擴展性
3.高效性
4.高容錯性
Hadoop生態圈
Hadoop的核心組件是HDFS、MapReduce。隨著處理任務不同,各種組件相繼出現,豐富Hadoop生態圈,目前生態圈結構大致如圖所示:
根據服務對象和層次分為:數據來源層、數據傳輸層、數據存儲層、資源管理層、數據計算層、任務調度層、業務模型層。
Hadoop生態圈的詳細介紹
Hadoop不適合應用于實時查詢的事件
Hadoop的安裝和環境搭建配置
這里提供一個安裝資料全套指導
HDFS(分布式文件系統)
HDFS是整個hadoop體系的基礎,負責數據的存儲與管理。HDFS有著高容錯性(fault-tolerant)的特點,并且設計用來部署在低廉的(low-cost)硬件上。而且它提供高吞吐量(high throughput)來訪問應用程序的數據,適合那些有著超大數據集(large data set)的應用程序。
client:切分文件,訪問HDFS時,首先與NameNode交互,獲取目標文件的位置信息,然后與DataNode交互,讀寫數據
DataNode:slave節點,存儲實際數據,并匯報狀態信息給NameNode,默認一個文件會備份3份在不同的DataNode中,實現高可靠性和容錯性。
Secondary NameNode:輔助NameNode,實現高可靠性,定期合并fsimage和fsedits,推送給NameNode;緊急情況下輔助和恢復NameNode,但其并非NameNode的熱備份。
安裝好之后,我們先啟動Hadoop
start-all.sh
1
等待之后輸入
jps
1
查看即可,就會出現上面的不同運行機制
HDFS不適合的應用類型
1) 低延時的數據訪問
對延時要求在毫秒級別的應用,不適合采用HDFS。HDFS是為高吞吐數據傳輸設計的,因此可能犧牲延時HBase更適合低延時的數據訪問。
2)大量小文件
文件的元數據(如目錄結構,文件block的節點列表,block-node mapping)保存在NameNode的內存中, 整個文件系統的文件數量會受限于NameNode的內存大小。
經驗而言,一個文件/目錄/文件塊一般占有150字節的元數據內存空間。如果有100萬個文件,每個文件占用1個文件塊,則需要大約300M的內存。因此十億級別的文件數量在現有商用機器上難以支持。
3)多方讀寫,需要任意的文件修改
HDFS采用追加(append-only)的方式寫入數據。不支持文件任意offset的修改。不支持多個寫入器(writer)。
這里只是簡單的介紹一下Hadoop里面的HDFS,后期我們詳細的介紹的。
每文一語
只要選擇了開始,就不要停止腳步,沿途的風景再美好,也無法和終點的景色相媲美!
Hadoop 大數據
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。