import findsparkfindspark.init('C:\spark')from pyspark.sql import SparkSessionspark = SparkSession.builder.getOrCreate()a = []i=1880while i<2018: a.append(str(i)+'/'+str(i)+'verr.csv') i = i+1dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a)我運行代碼,但出現錯誤;dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a) TypeError: can only concatenate str (not "list" ) 到 str我有一個“C:\venq\uyh\1880\1880\verr.csv”格式的循環。我在嵌套文件夾中有 csv 文件。我想用火花閱讀它們。但是我收到以下錯誤。我該如何解決這個問題?謝謝
1 回答

鴻蒙傳說
TA貢獻1865條經驗 獲得超7個贊
變量“a”是文件列表。
dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a)
在這里,您嘗試將字符串 'C://venq/uyh/' 與 'a' 連接起來,這是一個列表 - 這會引發錯誤。嘗試
root = r"C://venq/uyh/"
while i<2018:
a.append(root + str(i)+'/'+ str(i)+'verr.csv')
i = i+1
然后直接使用
dataset1 = spark.read.format('csv').option('header','true').load(a)
添加回答
舉報
0/150
提交
取消