亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

是否可以使用 Dask 和 Fastparquet 讀取器來讀取手動分區的 Parquet 數據集?

是否可以使用 Dask 和 Fastparquet 讀取器來讀取手動分區的 Parquet 數據集?

互換的青春 2023-10-18 16:15:22
我創建了一個 Parquet 數據集,分區如下:2019-taxi-trips/     - month=1/         - data.parquet     - month=2/         - data.parquet     ...     - month=12/         - data.parquet該組織遵循Hive Metastore 使用的Parquet 數據集分區約定。_metadata該分區方案是手動生成的,因此目錄樹中的任何位置都沒有文件。我現在想將該數據集讀入 Dask。對于本地磁盤上的數據,以下代碼有效:import dask.dataframe as dddd.read_parquet(    "/Users/alekseybilogur/Desktop/2019-taxi-trips/*/data.parquet",    engine="fastparquet")我將這些文件復制到 S3 存儲桶(通過s3 sync; 分區文件夾是存儲桶中的頂級鍵,如下所示),并嘗試使用相同的基本功能從云存儲中讀取它們:import dask.dataframe as dd; dd.read_parquet(    "s3://2019-nyc-taxi-trips/*/data.parquet",    storage_options={        "key": "...",        "secret": "..."    },    engine="fastparquet")這引發了IndexError: list index out of range. 完整的堆棧跟蹤在這里。目前是否可以直接從 AWS S3 讀取這樣的數據集?
查看完整描述

1 回答

?
Cats萌萌

TA貢獻1805條經驗 獲得超9個贊

目前存在一個錯誤fastparquet,導致此代碼無法工作。

與此同時,在這個錯誤得到解決之前,解決這個問題的一個簡單方法是使用后端pyarrow。

dd.read_parquet(

? ? "s3://2019-nyc-taxi-trips/*/data.parquet",

? ? storage_options={

? ? ? ? "key": "...",

? ? ? ? "secret": "..."

? ? },

? ? engine="pyarrow"

)


查看完整回答
反對 回復 2023-10-18
  • 1 回答
  • 0 關注
  • 144 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號