5 回答

TA貢獻1812條經驗 獲得超5個贊
如果您有 Colab Pro,可以打開終端,位于左側,用黑色背景表示為“>_”。
即使某些單元正在運行,您也可以從那里運行命令
編寫命令以實時查看 GPU 使用情況:
watch nvidia-smi

TA貢獻1862條經驗 獲得超6個贊
用于wandb記錄系統指標:
!pip install wandb
import wandb
wandb.init()
它輸出一個 URL,您可以在其中查看不同系統指標的各種圖表。

TA貢獻1848條經驗 獲得超2個贊
更清楚的解釋。
轉到權重和偏差并創建您的帳戶。
運行以下命令。
!pip install wandb import wandb wandb.init()
轉到筆記本中的鏈接以獲得授權 - 復制 API 密鑰。
將密鑰粘貼到筆記本輸入字段中。
授權后,您會在筆記本中找到另一個鏈接 - 在那里查看您的模型 + 系統矩陣。

TA貢獻1946條經驗 獲得超4個贊
您可以在后臺運行腳本來跟蹤 GPU 使用情況。
第 1 步:創建一個文件來監控 jupyter 單元中的 GPU 使用情況。
%%writefile gpu_usage.sh
#! /bin/bash
#comment: run for 10 seconds, change it as per your use
end=$((SECONDS+10))
while [ $SECONDS -lt $end ]; do
nvidia-smi --format=csv --query-gpu=power.draw,utilization.gpu,memory.used,memory.free,fan.speed,temperature.gpu >> gpu.log
#comment: or use below command and comment above using #
#nvidia-smi dmon -i 0 -s mu -d 1 -o TD >> gpu.log
done
第二步:在另一個單元格中在后臺執行上面的腳本。
%%bash --bg
bash gpu_usage.sh
第 3 步:運行推理。
請注意,該腳本將記錄前 10 秒的 GPU 使用情況,根據您的模型運行時間更改它。
GPU 利用率結果將保存在gpu.log文件中。

TA貢獻2016條經驗 獲得超9個贊
還有另一種查看 gpu 使用情況的方法,但此方法僅適用于查看內存使用情況。轉到單擊運行時 - >管理會話。這使您可以查看需要多少內存才能增加批處理大小。
添加回答
舉報