亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

4G 左右的單行文件加載到 Spark

4G 左右的單行文件加載到 Spark

森林海 2022-11-02 17:28:43
我正在嘗試加載一個單行文件,整個文件中沒有新的行包,因此技術單行大小是文件的大小。我嘗試使用下面的代碼來加載數據。val data= spark.sparkContext.textFile("location") data.count 它無法返回任何值。嘗試使用以下代碼將文件作為字符串讀取,嘗試用 java 代碼編寫。import org.apache.hadoop.conf.Configurationimport org.apache.hadoop.fs.Pathimport org.apache.hadoop.fs.FileSystemval inputPath = new Path("File")val conf = spark.sparkContext.hadoopConfigurationval fs = FileSystem.get(conf)  val inputStream = fs.open(inputPath)import java.io.{BufferedReader, InputStreamReader}val readLines = new BufferedReader(new InputStreamReader(inputStream)).readLine()JVM 正在退出并出現以下錯誤。ava HotSpot(TM) 64 位服務器虛擬機警告:INFO: os::commit_memory(0x00007fcb6ba00000, 2148532224, 0) 失?。籩rror='無法分配內存' (errno=12)Java 運行時環境沒有足夠的內存來繼續。本機內存分配 (mmap) 未能映射 2148532224 字節以提交保留內存。問題是整個數據都在單行中,使用 \n 來識別新記錄(新行)。因為有 \n 它試圖加載到產生內存問題的單行中我可以根據長度拆分那個長字符串,為每 200 個字符(0,200)的第一行添加換行符。(200,400) 是第二行。樣本輸入This is Achyuth This is ychyath This is Mansoor ... .... this line size is more than 4 gigs.輸出This is AchyuthThis is ychyathThis is Mansoor. . .
查看完整描述

2 回答

?
一只斗牛犬

TA貢獻1784條經驗 獲得超2個贊

如果文件大小是拆分大小的倍數并且字符編碼是固定長度的(ASCII、UTF-16、UTF-32、UTF-8 中沒有高于 127 的代碼點或類似...),則此方法有效。


給定文件


This is AchyuthThis is ychyathThis is Mansoor

val rdd = spark

  .sparkContext

  .binaryRecords(path, 15)

  .map(bytes => new String(bytes))

val df = spark.createDataset(rdd)

df.show()

輸出:


+---------------+

|          value|

+---------------+

|This is Achyuth|

|This is ychyath|

|This is Mansoor|

+---------------+


查看完整回答
反對 回復 2022-11-02
?
智慧大石

TA貢獻1946條經驗 獲得超3個贊

Spark 沒有為文本文件設置 EOL 分隔符的選項。

對我來說處理這個問題的最好方法是在 spark 中使用 Setting textinputformat.record.delimiter你會得到很多選擇。


查看完整回答
反對 回復 2022-11-02
  • 2 回答
  • 0 關注
  • 133 瀏覽
慕課專欄
更多

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號