亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

Spark從零開始

Terby JAVA開發工程師
難度初級
時長 2小時18分
學習人數
綜合評分9.80
56人評價 查看評價
9.8 內容實用
9.7 簡潔易懂
9.9 邏輯清晰
說對了,flink出來了hhh
老師講的挺好的,大概講的思路是按照《spark快速大數據分析》這本書講的,很適合初學者。
老師的課程講的很好,期待后續課程趕緊上線!

最新回答 / adime
辦法一:在spark的conf目錄下,在spark-env.sh文件中加入LD_LIBRARY_PATH環境變量LD_LIBRARY_PATH=$HADOOP_HOME/lib/native辦法二:在 ~/.bashrc 設置一下 export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native試試看有沒有用
老師講的好清晰,對于入門來說真的很不錯, 都是干貨,期待后續課程

最新回答 / 寶慕林1045435
spark如果你的提交作業的方式是local,是不需要配置任何東西的,視頻里面老師都是在spark-shell下進行操作的所以不需要配置任何東西,按照你的說法,spark-shell命令無效是因為沒有去到spark的bin目錄下執行命令,如果你往/etc/profile或者~/.bash_profile 下進行把spark的bin加入到PATH的的話就可以不用去到bin目錄下也可以執行spark-shell。如果你的spark作業是提交在yarn等外部框架上面則需要配置spark-env.sh文件。
map函數生成的應該是鍵值對吧,值是1
普通話口音感人~~~

最新回答 / Dev_Christopher
這與RDD的分區數量有關,你后面學過這個就會知道的
Windows環境下的安裝部署步驟 https://moon-rui.github.io/2018/11/26/spark_on_windows.html
入門了 感謝老師
課程須知
1、 簡單Linux的操作
老師告訴你能學到什么?
1、了解Spark到底是什么 2、了解Spark和Hadoop的區別 3、了解Spark的基礎知識和概念 4、掌握Spark RDD的基本操作和特性 5、掌握Spark程序的開發和部署流程

微信掃碼,參與3人拼團

微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

友情提示:

您好,此課程屬于遷移課程,您已購買該課程,無需重復購買,感謝您對慕課網的支持!

本次提問將花費2個積分

你的積分不足,無法發表

為什么扣積分?

本次提問將花費2個積分

繼續發表請點擊 "確定"

為什么扣積分?

舉報

0/150
提交
取消