2 回答

TA貢獻1966條經驗 獲得超4個贊
Cloud Function 應該用 Python 編寫
Cloud Dataflow Client SDK 只能從模板創建數據流作業。因此,除非您創建自己的模板,否則無法實現此要求。
我有一個限制,即 Cloud Dataflow 作業應該用 Go 編寫
由于您的 Python 目標無法實現,您的另一個選擇是在 Cloud Functions 中運行您的 Go 程序。Go 的 Cloud Functions 在alpha
. 但是,我不知道有什么方法可以在 Cloud Functions 中執行 Apache Beam (Dataflow) 程序。請記住,Apache Beam 程序開始在本地執行并將其自身連接到在其他地方(Dataflow、Spark 等)運行的集群,除非您選擇runner=DirectRunner
.
您選擇了最不成熟的語言來使用 Apache Beam。成熟度和功能的順序是 Java(優秀)、Python(很好并且每天都在進步)、Go(還沒有準備好迎接黃金時段)。
如果您想在 Cloud Dataflow 上運行用 Go 編寫的 Apache Beam 程序,那么您將需要使用一個平臺,例如您的本地系統、Google Compute Engine 或 Google App Engine Flex。我不知道 App Engine Standard 是否可以在 Go 中運行 Apache Beam。

TA貢獻1869條經驗 獲得超4個贊
我發現 Apache Beam Go SDK 支持worker_binary
類似于template-location
Java 數據流作業的參數。使用此選項,我能夠從我的 python 云函數啟動一個 go 數據流作業。
- 2 回答
- 0 關注
- 192 瀏覽
添加回答
舉報