【云圖說】第235期 DDS讀寫兩步走 帶您領略只讀節點的風采
667
2025-04-02
2.5小結
在本章中,我們學習了如何通過從磁盤文本文件或數據庫流化數據進行非核心學習,無論數據規模多大。這些方法肯定適用于比我們的演示示例更大的數據集 (實際上我們的演示示例可以使用非平均的強大硬件在內存中解決)。
我們還介紹了讓非核心學習成為可能
的核心算法SGD,并分析了其優缺點,強調數據流必須具有真正隨機性(這意味著隨機順序),才能是真正有效的數據,除非順序也是學習目標的一部分。特別是我們引入了SGD的Scikitc-learn實現,從而將重點放在線性和邏輯的回歸損失函數上。
最后,我們討論了數據準備,介紹了數據流的哈希技巧和驗證策略,并將獲得的知識包含在SGD中,擬合了兩種不同模型(分類和回歸)。
在下一章中,我們將通過研究如何在學習模式中啟用非線性和支持向量機的hinge loss來增強核心學習能力。我們還將提供Scikit-learn的替代方案,如Libline、Vowpal Wabbit和StreamSVM。雖然所有這些命令作為外部shell命令運行,但它們都能輕松通過Python 腳本進行封裝和控制。
TensorFlow python 機器學習
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。