亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

庫 - google.cloud:對象沒有屬性“schema_from_json”

庫 - google.cloud:對象沒有屬性“schema_from_json”

海綿寶寶撒 2022-05-19 15:37:28
我正在嘗試使用 google.cloud.bigquery.client.Client 庫中的“schema_from_json”屬性,但它沒有找到該屬性,并且它出現在庫文檔中。我已經更新了庫,但它保持不變。我的 Python 版本是 3.7來源:https ://googleapis.github.io/google-cloud-python/latest/bigquery/generated/google.cloud.bigquery.client.Client.htmlfrom google.cloud import bigquerydir(bigquery.client.Client)['SCOPE', '_SET_PROJECT', '__class__', '__delattr__', '__dict__', '__dir__', '__doc__', '__eq__', '__format__', '__ge__', '__getattribute__', '__getstate__', '__gt__', '__hash__', '__init__', '__init_subclass__', '__le__', '__lt__', '__module__', '__ne__', '__new__', '__reduce__', '__reduce_ex__', '__repr__', '__setattr__', '__sizeof__', '__str__', '__subclasshook__', '__weakref__', '_call_api', '_determine_default', '_do_multipart_upload', '_do_resumable_upload', '_get_query_results', '_http', '_initiate_resumable_upload', 'cancel_job', 'copy_table', 'create_dataset', 'create_table', 'dataset', 'delete_dataset', 'delete_table', 'extract_table', 'from_service_account_json', 'get_dataset', 'get_job', 'get_service_account_email', 'get_table', 'insert_rows', 'insert_rows_json', 'job_from_resource', 'list_datasets', 'list_jobs', 'list_partitions', 'list_projects', 'list_rows', 'list_tables', 'load_table_from_dataframe', 'load_table_from_file', 'load_table_from_uri', 'location', 'query', 'update_dataset', 'update_table']
查看完整描述

1 回答

?
慕沐林林

TA貢獻2016條經驗 獲得超9個贊

我從 cloud shell 進行了測試,它可以工作。


這里是cloud shell的pip依賴:google-cloud-bigquery          1.18.0


這是我的工作代碼


from google.cloud import bigquery

client = bigquery.Client()

dataset_id = 'us_dataset'


dataset_ref = client.dataset(dataset_id)

job_config = bigquery.LoadJobConfig()

# I use from file path version

schema_dict = client.schema_from_json("schemaname")

print(schema_dict)

job_config.schema = schema_dict

job_config.write_disposition = bigquery.WriteDisposition.WRITE_TRUNCATE

job_config.create_disposition = bigquery.CreateDisposition.CREATE_IF_NEEDED


# The source format defaults to CSV, so the line below is optional.

job_config.source_format = bigquery.SourceFormat.CSV

uri = "gs://MY_BUCKET/name.csv"


load_job = client.load_table_from_uri(

    uri, dataset_ref.table("name"), job_config=job_config

)  # API request

print("Starting job {}".format(load_job.job_id))


load_job.result()  # Waits for table load to complete.

print("Job finished.")


destination_table = client.get_table(dataset_ref.table("name"))

print("Loaded {} rows.".format(destination_table.num_rows))

我用這個命令生成模式文件:bq show --schema us_dataset.name > schemaname


結果在這里


[{"type":"STRING","name":"name","mode":"NULLABLE"},{"type":"STRING","name":"id","mode":"NULLABLE"}]



查看完整回答
反對 回復 2022-05-19
  • 1 回答
  • 0 關注
  • 125 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號