亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

PySpark 任務大小

PySpark 任務大小

智慧大石 2023-03-16 11:02:23
我目前在 2.4.5 版上有一個由 1 個驅動程序和 2 個工人組成的 Spark 集群。我想進一步優化并行性,以便在加載和處理數據時獲得更好的吞吐量,當我這樣做時,我經常在控制臺上收到這些消息:WARN scheduler.TaskSetManager: Stage contains a task of very large size (728 KB). The maximum recommended task size is 100 KB.這是如何運作的?我對 Spark 技術還很陌生,但了解它的基礎知識,我想知道如何優化它,但我不確定它是否涉及配置從屬設備以擁有更多執行程序并通過這種方式獲得更多并行性,或者我是否需要使用合并或重新分區功能對我的數據幀進行分區。
查看完整描述

1 回答

?
慕標5832272

TA貢獻1966條經驗 獲得超4個贊

這里的一般要點是您需要重新分區以獲得更多但更小的分區,以獲得更多的并行性和更高的吞吐量。728k 是與您的舞臺相關的任意數字。當我剛開始使用 Scala 和 Spark 時,有時會遇到這種情況。

我看不到你的代碼,所以我把它留在這里。但是在這里谷歌搜索 SO 表明也缺乏并行性。老實說,眾所周知。


查看完整回答
反對 回復 2023-03-16
  • 1 回答
  • 0 關注
  • 111 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號