亚洲在线久爱草,狠狠天天香蕉网,天天搞日日干久草,伊人亚洲日本欧美

為了賬號安全,請及時綁定郵箱和手機立即綁定

Spark入門(一):核心概念簡介

標簽:
大數據
1.Spark核心概念简介

1.1程序驱动器

每个 Spark 应用都由一个驱动器程序(driver program)来发起集群上的各种
并行操作。驱动器程序包含应用的 main 函数,并且定义了集群上的分布式数据集,还对这
些分布式数据集应用了相关操作。
驱动器程序通过一个 SparkContext 对象来访问 Spark。这个对象代表对计算集群的一个连
接。
使用Scala初始化SparkContext

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._

val conf  = new SparkConf().setAppName("wordCount")
val sc = new SparkContext(conf)

1.2弹性分布式数据集(RDDs)

Spark 中的 RDD 就是一个不可变的分布式对象集合。每个 RDD 都被分为多个==分区==,这些
分区运行在集群中的不同节点上。用户可以使用两种方法创建 RDD:读取一个外部数据集,或在驱动器程序里分发驱动器程
序中的对象集合。

// sc 就是SparkContext
val input = sc.textFile("derby.log") //从外部文件读取数据集创建RDD
val words = input.flatMap(line =>line.split(" ")) //从一个RDD生成出另一个RDD
val innerInput = sc.parallelize(Array("java","scala","python")) // 内部创建一个RDD,一般测试是用

1.3WordCount实例

import org.apache.spark.{SparkConf, SparkContext}
object WordCount {
  def main(args: Array[String]): Unit = {
    val conf  = new SparkConf().setAppName("wordCount")
    val sc = new SparkContext(conf) 
    val input = sc.textFile("derby.log")
    val words = input.flatMap(line =>line.split(" "))
    val count  = words.map(word => (word,1)).reduceByKey{ case (x,y) => x+y }
    val out = count.saveAsTextFile("wordcount.txt")
  }
}
2.总结

Spark编程其实就是通过一个驱动器程序创建一个 SparkContext 和一系列 RDD,然后进行并行操作。

點擊查看更多內容
2人點贊

若覺得本文不錯,就分享一下吧!

評論

作者其他優質文章

正在加載中
JAVA開發工程師
手記
粉絲
8547
獲贊與收藏
6550

關注作者,訂閱最新文章

閱讀免費教程

感謝您的支持,我會繼續努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦
今天注冊有機會得

100積分直接送

付費專欄免費學

大額優惠券免費領

立即參與 放棄機會
微信客服

購課補貼
聯系客服咨詢優惠詳情

幫助反饋 APP下載

慕課網APP
您的移動學習伙伴

公眾號

掃描二維碼
關注慕課網微信公眾號

舉報

0/150
提交
取消