我正在訓練一個大型模型,試圖在 Azure 筆記本中使用Azure 機器學習服務。因此,我創建了一個Estimator在本地進行培訓:from azureml.train.estimator import Estimatorestimator = Estimator(source_directory='./source_dir', compute_target='local', entry_script='train.py')(我train.py應該從一個大的詞向量文件開始加載和訓練)。運行時run = experiment.submit(config=estimator)我得到訓練異常:====================================================================嘗試拍攝 /data/home/username/notebooks/source_dir 的快照時,您的總快照大小超過 300.0 MB 的限制。請參閱 http://aka.ms/aml-largefiles了解如何處理大文件。====================================================================錯誤中提供的鏈接可能已損壞。我的內容./source_dir確實超過了 300 MB。我該如何解決這個問題?
2 回答

喵喔喔
TA貢獻1735條經驗 獲得超5個贊
在我閱讀了 GitHub 問題Encounter |total Snapshot size 300MB while start logging和官方文檔Manage and request quotas for Azure resources for Azure ML service 后,我認為這是一個未知問題,需要一些時間等待 Azure 修復。
同時,我建議您可以嘗試將當前工作遷移到其他服務Azure Databricks,上傳您的數據集和代碼,然后在托管在 HDInsight Spark Cluster 上的 Azure Databricks notebook 中運行它,而無需擔心內存或存儲限制。你可以在 Azure Databricks 上參考Azure ML 的這些示例。
添加回答
舉報
0/150
提交
取消