2 回答

TA貢獻1841條經驗 獲得超3個贊
當我這樣編碼時,將文件從 gcloud 導入到數據框工作:
from tensorflow.python.lib.io import file_io
from pandas.compat import StringIO
import pandas as pd
def read_data(gcs_path):
file_stream = file_io.FileIO(gcs_path, mode='r')
data = pd.read_csv(StringIO(file_stream.read()), names=['various', 'column', 'names'])
return data
my_df = read_data('gs://mybucket/data/file.csv')
但我無法逆轉這個過程。
然而,GCS 對我有用:
import google.cloud.storage as gcs
client = gcs.Client()
bucket = client.bucket('my-bucket')
blobs = list(bucket.list_blobs(prefix='data/'))
my_df.to_csv('tmp.csv')
local_tmp_path = ('tmp.csv')
target_blob = bucket.blob('data/file.csv')
target_blob.upload_from_file(open(local_tmp_path, 'r'))

TA貢獻1830條經驗 獲得超3個贊
您可以將 csv 文件保存在您的 VM 中,然后用于gsutil
將其保存在您的存儲桶中。
Python:
my_df.to_csv("data.csv")
殼:
gsutil data.csv gs://my_bucket/
添加回答
舉報