1 回答

TA貢獻1827條經驗 獲得超8個贊
您需要使用管理器在進程之間共享數據。
此外,正如@Tomerikoo 在評論中提到的那樣,您現在執行此操作的方式實際上不會導致多處理,因為P.join()腳本P.start()會暫停以讓該進程完成,從而導致串行執行流程而不是并行處理。
你可以這樣做:
from multiprocessing import Process, Manager
def sort_list(user_id, user_data, interprocess_dict):
user_data.sort()
interprocess_dict[user_id] = user_data
users_data = {}
users_data[1] = [5, 2, 1]
users_data[3] = [10, 12, 1]
def main():
interprocess_dict = Manager().dict()
processes = []
for user_id, user_data in users_data.items():
proc = Process(target=sort_list, args=(user_id, user_data, interprocess_dict,))
processes.append(proc)
proc.start()
for proc in processes:
proc.join()
for user_id, user_data in interprocess_dict.items():
print('{}: {}'.format(user_id, user_data))
if __name__ == '__main__':
main()
編輯:
最好將進程數限制為可用的硬件 CPU 單元數,因為對列表進行排序是 100% CPU 綁定操作。
import multiprocessing as mp
def sort_list(user_id, user_data, interprocess_dict):
user_data.sort()
interprocess_dict[user_id] = user_data
def prepare_data():
users_data = {}
for i in range(1000):
users_data[i] = list(range(10000, 0, -1))
return users_data
def main():
# mp.set_start_method('spawn') # Only valid on OSX
interprocess_dict = mp.Manager().dict()
pool = mp.Pool(mp.cpu_count())
users_data = prepare_data()
for user_id, user_data in users_data.items():
pool.apply_async(sort_list, args = (user_id, user_data, interprocess_dict,))
pool.close()
pool.join()
for user_id, user_data in interprocess_dict.items():
print('{}: {}'.format(user_id, user_data))
if __name__ == '__main__':
main()
添加回答
舉報