我的問題相當簡單:如果我有一段代碼,其中有一個迭代 150 次的 for 循環。將其分成 3 個文件,每個文件循環迭代 50 次是不是更快?如果是這樣,我是同時運行 3 個代碼還是一次運行一個?另一種選擇可能是multiprocessing在這 3 個文件中使用 python,但出現了同樣的問題,我是一次性運行它們還是一次運行一個?
1 回答

白衣非少年
TA貢獻1155條經驗 獲得超0個贊
這取決于。
在 cpython 中,全局解釋器鎖 (GIL) 確保給定進程中一次只有 1 個線程可以運行 python 代碼。如果您的循環受 CPU 限制,則在單個進程中添加線程不會加快速度。如果您的循環由于某種原因(例如從磁盤讀取數據)而休眠,線程可以加速它。使用多處理,由于 GIL 是針對每個進程的,因此您可以加快處理速度。
多線程和多處理存在開銷,包括啟動線程/進程、向線程/進程獲取數據以及返回結果的成本。根據您所做的事情,這可能比循環本身更昂貴。
因此,這個問題沒有通用的答案。它高度依賴于任務。
添加回答
舉報
0/150
提交
取消