大數(shù)據(jù)服務(wù)上云的思考">大數(shù)據(jù)服務(wù)上云的思考
668
2022-05-29
1.Hadoop集群可以運(yùn)行的3個模式?
單機(jī)(本地)模式
偽分布式模式
全分布式模式
2. 單機(jī)(本地)模式中的注意點(diǎn)?
在單機(jī)模式(standalone)中不會存在守護(hù)進(jìn)程,所有東西都運(yùn)行在一個JVM上。這里同樣沒有DFS,使用的是本地文件系統(tǒng)。單機(jī)模式適用于開發(fā)過程中運(yùn)行MapReduce程序,這也是最少使用的一個模式。
3. 偽分布模式中的注意點(diǎn)?
偽分布式(Pseudo)適用于開發(fā)和測試環(huán)境,在這個模式中,所有守護(hù)進(jìn)程都在同一臺機(jī)器上運(yùn)行。
4. VM是否可以稱為Pseudo?
不是,兩個事物,同時Pseudo只針對Hadoop。
5. 全分布模式又有什么注意點(diǎn)?
全分布模式通常被用于生產(chǎn)環(huán)境,這里我們使用N臺主機(jī)組成一個Hadoop集群,Hadoop守護(hù)進(jìn)程運(yùn)行在每臺主機(jī)之上。這里會存在Namenode運(yùn)行的主機(jī),Datanode運(yùn)行的主機(jī),以及task tracker運(yùn)行的主機(jī)。在分布式環(huán)境下,主節(jié)點(diǎn)和從節(jié)點(diǎn)會分開。
6. Hadoop是否遵循UNIX模式?
是的,在UNIX用例下,Hadoop還擁有“conf”目錄。
7. Hadoop安裝在什么目錄下?
Cloudera和Apache使用相同的目錄結(jié)構(gòu),Hadoop被安裝在cd/usr/lib/hadoop-0.20/。
8. Namenode、Job tracker和task tracker的端口號是?
Namenode,70;Job tracker,30;Task tracker,60。
9. Hadoop的核心配置是什么?
Hadoop的核心配置通過兩個xml文件來完成:1,hadoop-default.xml;2,hadoop-site.xml。這些文件都使用xml格式,因此每個xml中都有一些屬性,包括名稱和值,但是當(dāng)下這些文件都已不復(fù)存在。
10. 那當(dāng)下又該如何配置?
Hadoop現(xiàn)在擁有3個配置文件:1,core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。這些文件都保存在conf/子目錄下。
11. RAM的溢出因子是?
溢出因子(Spill factor)是臨時文件中儲存文件的大小,也就是Hadoop-temp目錄。
12. fs.mapr.working.dir只是單一的目錄?
fs.mapr.working.dir只是一個目錄。
13. hdfs-site.xml的3個主要屬性?
dfs.name.dir決定的是元數(shù)據(jù)存儲的路徑以及DFS的存儲方式(磁盤或是遠(yuǎn)端)
dfs.data.dir決定的是數(shù)據(jù)存儲的路徑
fs.checkpoint.dir用于第二Namenode
14. 如何退出輸入模式?
退出輸入的方式有:1,按ESC;2,鍵入:q(如果你沒有輸入任何當(dāng)下)或者鍵入:wq(如果你已經(jīng)輸入當(dāng)下),并且按下Enter。
15. 當(dāng)你輸入hadoopfsck /造成“connection refused java exception’”時,系統(tǒng)究竟發(fā)生了什么?
這意味著Namenode沒有運(yùn)行在你的VM之上。
16. 我們使用Ubuntu及Cloudera,那么我們該去哪里下載Hadoop,或者是默認(rèn)就與Ubuntu一起安裝?
這個屬于Hadoop的默認(rèn)配置,你必須從Cloudera或者Edureka的dropbox下載,然后在你的系統(tǒng)上運(yùn)行。當(dāng)然,你也可以自己配置,但是你需要一個Linux box,Ubuntu或者是Red Hat。在Cloudera網(wǎng)站或者是Edureka的Dropbox中有安裝步驟。
17. “jps”命令的用處?
這個命令可以檢查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。
18. 如何重啟Namenode?
點(diǎn)擊stop-all.sh,再點(diǎn)擊start-all.sh。
鍵入sudo hdfs(Enter),su-hdfs (Enter),/etc/init.d/ha(Enter),及/etc/init.d/hadoop-0.20-namenode start(Enter)。
19. Fsck的全名?
全名是:File System Check。
20. 如何檢查Namenode是否正常運(yùn)行?
如果要檢查Namenode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是簡單的jps。
21. mapred.job.tracker命令的作用?
可以讓你知道哪個節(jié)點(diǎn)是Job Tracker。
22. /etc /init.d命令的作用是?
/etc /init.d說明了守護(hù)進(jìn)程(服務(wù))的位置或狀態(tài),其實(shí)是LINUX特性,和Hadoop關(guān)系不大。
23. 如何在瀏覽器中查找Namenode?
如果你確實(shí)需要在瀏覽器中查找Namenode,你不再需要localhost:8021,Namenode的端口號是50070。
24. 如何從SU轉(zhuǎn)到Cloudera?
從SU轉(zhuǎn)到Cloudera只需要鍵入exit。
25. 啟動和關(guān)閉命令會用到哪些文件?
Slaves及Masters。
26. Slaves由什么組成?
Slaves由主機(jī)的列表組成,每臺1行,用于說明數(shù)據(jù)節(jié)點(diǎn)。
27. Masters由什么組成?
Masters同樣是主機(jī)的列表組成,每臺一行,用于說明第二Namenode服務(wù)器。
28. hadoop-env.sh是用于做什么的?
hadoop-env.sh提供了Hadoop中. JAVA_HOME的運(yùn)行環(huán)境。
29. Master文件是否提供了多個入口?
是的你可以擁有多個Master文件接口。
30. hadoop-env.sh文件當(dāng)下的位置?
hadoop-env.sh現(xiàn)在位于conf。
31. 在Hadoop_PID_DIR中,PID代表了什么?
PID代表了“Process ID”。
32. /var/hadoop/pids用于做什么?
/var/hadoop/pids用來存儲PID。
33. hadoop-metrics.properties文件的作用是?
hadoop-metrics.properties被用做“Reporting”,控制Hadoop報告,初始狀態(tài)是“not to report”。
34. Hadoop需求什么樣的網(wǎng)絡(luò)?
Hadoop核心使用Shell(SSH)來驅(qū)動從節(jié)點(diǎn)上的服務(wù)器進(jìn)程,并在主節(jié)點(diǎn)和從節(jié)點(diǎn)之間使用password-less SSH連接。
35. 全分布式環(huán)境下為什么需求password-less SSH?
這主要因為集群中通信過于頻繁,Job Tracker需要盡可能快的給Task Tracker發(fā)布任務(wù)。
Hadoop 存儲 大數(shù)據(jù)
版權(quán)聲明:本文內(nèi)容由網(wǎng)絡(luò)用戶投稿,版權(quán)歸原作者所有,本站不擁有其著作權(quán),亦不承擔(dān)相應(yīng)法律責(zé)任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實(shí)的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實(shí)后本網(wǎng)站將在24小時內(nèi)刪除侵權(quán)內(nèi)容。