【5G科普】華為碼chine姐姐聊5G 第6期:NSA&SA是個啥
822
2022-05-28
順序:
按照數據讀取階段、數據預處理階段、訓練執行階段、訓練后處理階段的順序來debug
另:性能不達標的排查順序框圖
手段:
1、通過linux資源監測命令,如top、mpstat、free、iostat等來監測資源情況
2、通過磁盤管理基本操作(df、du、fdisk)來進行磁盤管理;
3、了解大批量數據讀取的通用策略,緩存和多進程高并發的解決方案;
4、使用多進程CPU綁核
處理步驟:HOST內存讀出->訓練數據處理->DEVICE內存讀出
使用prefetch來調整HOST和DEVICE執行函數的比例
調優手段:
NPU親和API替換、Profiling工具
checkpoint保存:減少保存頻次,盡可能減少DEVICE和HOST的交互
訓練過程中summary數據的保存:NPU訓練對原始summary的兼容不友好,故涉及這類的API可以注釋掉。
(首先曬一張當時自己寫的作業圖)
TBE負責加載算子原型庫和自定義算子插件。
原因:
如圖可以看出TBE具有調度環節,根據官方文檔可以看出其功能。
官方文檔:https://support.huaweicloud.com/odevg-Inference-cann/atlaste_10_0013.html
根據官方文檔:https://support.huaweicloud.com/odevg-training-cann/atlaste_10_0101.html
可以看出 文檔中沒有約束要求一定要含有算子實現函數,故選B
參考官方文檔:https://support.huawei.com/enterprise/zh/doc/EDOC1100191915/d288908e
可以得出答案選B
參考官方文檔中的說明:https://support.huaweicloud.com/odevg-A800_3000_3010/atlaste_10_0092.html
可以看出并未提到要求CANN有關的算子類型,故選A
參考官方文檔中加粗的話:https://support.huaweicloud.com/tbedevg-cann503alpha1infer/atlaste_10_0085.html
可以得出答案選D。
首先說一下答案:1B 2A 3D(x和filter) 4C 5B
如果都是一樣的,那就不用辛苦做適配了!(獎品直接就是我的了嘿嘿嘿哈哈哈)
參考aclopExecuteV2接口官方文檔:https://support.huaweicloud.com/aclcppdevg-cann503alpha1infer/atlasapi_07_0113.html
可以看出全文沒有提到需要提前準備om文件。
A:PyTorch二維卷積函數 torch.nn.Conv2d() 有一個“padding_mode”的參數,可選項有4種:‘zeros’, ‘reflect’,
‘replicate’ or ‘circular’,其默認選項為’zeros’,也就是零填充,故A錯誤,不是必選而是可選。
D:兩個必選屬性為x和filter。
沒啥好說的,三短一長選最長(bushi)
可以查閱AscendCL官方文檔,結合第三次課錄屏得出答案。
在官方文檔中可以找到CANN的分析工具為Profilling。
機器學習
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。