
PyTorch實現了常見的激活函數,其具體的接口信息可參見官方文檔,這些激活函數可作為獨立的layer使用。這里將介紹最常用的激活函數ReLU,其數學表達式為:
R e L U ( x ) = m a x ( 0 , x ) ReLU(x)=max(0,x) R
機器學習 深度學習
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。