如何在Apache Spark 2.0中使用SparkSession
1 回答

慕桂英546537
TA貢獻1848條經驗 獲得超10個贊
在Spark的早期版本,sparkContext是進入Spark的切入點。我們都知道RDD是Spark中重要的API,然而它的創建和操作得使用sparkContext提供的API;對于RDD之外的其他東西,我們需要使用其他的Context。比如對于流處理來說,我們得使用StreamingContext;對于SQL得使用sqlContext;而對于hive得使用HiveContext。
- 1 回答
- 0 關注
- 772 瀏覽
添加回答
舉報
0/150
提交
取消