亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

apache spark加載內部文件夾

apache spark加載內部文件夾

慕絲7291255 2021-08-14 16:07:35
import findsparkfindspark.init('C:\spark')from pyspark.sql import SparkSessionspark = SparkSession.builder.getOrCreate()a = []i=1880while i<2018:    a.append(str(i)+'/'+str(i)+'verr.csv')    i = i+1dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a)我運行代碼,但出現錯誤;dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a) TypeError: can only concatenate str (not "list" ) 到 str我有一個“C:\venq\uyh\1880\1880\verr.csv”格式的循環。我在嵌套文件夾中有 csv 文件。我想用火花閱讀它們。但是我收到以下錯誤。我該如何解決這個問題?謝謝
查看完整描述

1 回答

?
鴻蒙傳說

TA貢獻1865條經驗 獲得超7個贊

變量“a”是文件列表。


dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a)


在這里,您嘗試將字符串 'C://venq/uyh/' 與 'a' 連接起來,這是一個列表 - 這會引發錯誤。嘗試


root = r"C://venq/uyh/"


while i<2018:

    a.append(root + str(i)+'/'+ str(i)+'verr.csv')

    i = i+1

然后直接使用


dataset1 = spark.read.format('csv').option('header','true').load(a)


查看完整回答
反對 回復 2021-08-14
  • 1 回答
  • 0 關注
  • 203 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號