Python大規(guī)模機器學習》—1.1.3使用Python進行向上擴展">《Python大規(guī)模機器學習》—1.1.3使用Python進行向上擴展
751
2025-04-01
2.3.2????隨機梯度下降
到目前為止看到的梯度下降版本稱為全批梯度下降,它通過優(yōu)化整個數(shù)據(jù)集誤差來工作,因此需要占用內(nèi)存。非核心版是隨機梯度下降(SGD)和最小批梯度下降(SGD)。
在這里,公式完全相同,但更新時每次只對一個實例更新,這樣允許我們將核心數(shù)據(jù)保留在其存儲區(qū)中,在內(nèi)存中只進行單個處理:
其核心思想是,如果實例是隨機選擇,沒有特定偏差,則優(yōu)化將朝著目標成本最小化的方向移動。這就解釋了為什么我們要討論如何從數(shù)據(jù)流中刪除任何順序,讓其盡可能隨機。例如,共享單車示例中,如果隨機梯度下降首先學習早期賽季的模式,然后關注夏天,接著關注秋天等等,受制于優(yōu)化停止的季節(jié),那么,模型將被調(diào)整以便能更好預測某個賽季,因為最近實例都來自那個季節(jié)。在隨機梯度下降算法中,數(shù)據(jù)獨立同分布(IID)會保證收斂于全局最優(yōu)點。實際上,獨立意味著實例無順序分布。
機器學習 Python
版權聲明:本文內(nèi)容由網(wǎng)絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權內(nèi)容。
版權聲明:本文內(nèi)容由網(wǎng)絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發(fā)現(xiàn)本站中有涉嫌抄襲或描述失實的內(nèi)容,請聯(lián)系我們jiasou666@gmail.com 處理,核實后本網(wǎng)站將在24小時內(nèi)刪除侵權內(nèi)容。