PyTorch VS TensorFlow 誰最強?這是標星 15000+ Transformers 庫的運行結果
在 CPU 上,使用 GCP n1-standard-32,它有 32 個 vCPU 和 120GB 的內存。CPU 的型號是 Intel Xeon@2.3GHz:

在 GPU 上,使用了帶有 12 個 vCPU、40GB 內存和一個 V100 的 GPU(16GB 的 ? ?VRAM)的定制 GCP 機器;
上述測量使用的 Intel Xeon CPU 帶有 AVX 和 AVX2 的擴展,而 TensorFlow 需要從源代碼編譯之后才能夠利用這些擴展,所以只能這么做;
我們通過使用?tf.function?和預先跟蹤模型來確保我們沒有使用 TensorFlow 的 eager 模式;
我們比較了依賴于庫和不依賴于庫的工具:Pytorch的 torchScript 和帶有 GPU 的TensorFlow 的 XLA(自動聚類),后面會詳細介紹這兩個工具;
我們使用了原生的 Python 模塊?timeit?來測量推斷時間。另外,用repeat=30?和number=3?來進行每個實驗。然后求出30 個值的平均數,就會得到所期望的平均推理時間。通常超過30 個值就會獲得非常穩定的結果了;
我們不會使用如 TFX 這樣的生產環境,并且我們使用的測量模型的可調用方法是:PyTorch 的nn.module.forward?和 TensorFlow 的tf.keras.layers.layer.call;
對于 TensorFlow 和 PyTorch,我們會很謹慎地使用適當的 CUDA 版本;
所有的模型中,在 CPU 上,PyTorch 的平均推斷時間為 0.748s,而 TensorFlow 的平均推斷時間為 0.823s;
所有模型中,在 GPU 上,PyTorch 的平均推斷時間為 0.046s,而 TensorFlow 的平均推斷時間為 0.043s;
人工智能
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。