SpringBoot對(duì)接Spark過程詳解
本文主要介紹 SpringBoot 與 Spark 如何對(duì)接,具體使用可以參考文章 SpringBoot 使用 Spark
pom 文件添加 maven 依賴
- spark-core:spark 的核心庫(kù),如:SparkConf
- spark-sql:spark 的 sql 庫(kù),如:sparkSession
- janino: Janino 是一個(gè)極小、極快的 開源Java 編譯器,若不添加,spark 獲取 MySQL 或 JSON 數(shù)據(jù)時(shí)會(huì)報(bào)錯(cuò)
org.springframework.web.util.NestedServletException: Handler dispatch failed; nested exception is java.lang.NoClassDefFoundError: org/codehaus/janino/InternalCompilerExceptio
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.13</artifactId>
<version>3.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.13</artifactId>
<version>3.2.1</version>
</dependency>
<dependency>
<groupId>org.codehaus.janino</groupId>
<artifactId>janino</artifactId>
<version>3.0.8</version>
</dependency>
application.yml 添加 spack 配置,master 使用 local 不需要搭建 spark,方便學(xué)習(xí)與測(cè)試
spark:
app:
name: fat
master:
uri: local[*]
配置 SparkConfig
- sparkConf:Spark 基礎(chǔ)信息配置
- JavaSparkContext:基于 sparkConf 生成,用于
- SparkSession:基于 SparkContext 生成
@Configuration
public class SparkConfig {
@Value("${spark.app.name}")
private String appName;
@Value("${spark.master.uri}")
private String sparkMasterUri;
@Bean
public SparkConf sparkConf() {
SparkConf sparkConf = new SparkConf()
.setAppName(appName)
.setMaster(sparkMasterUri);
return sparkConf;
}
@Bean
@ConditionalOnMissingBean(JavaSparkContext.class)
public JavaSparkContext javaSparkContext() {
return new JavaSparkContext(sparkConf());
}
@Bean
public SparkSession sparkSession() {
return SparkSession
.builder()
.sparkContext(javaSparkContext().sc())
.getOrCreate();
}
}
SparkContext:從Spark1.x開始,Spark SparkContext是Spark的入口點(diǎn),用于在集群上以編程方式創(chuàng)建Spark RDD、累加器和廣播變量。是spark執(zhí)行環(huán)境的客戶端,是spark執(zhí)行作業(yè)的入口點(diǎn),是spark應(yīng)用程序的主控。
SparkSession:從Spark2.0開始,SparkSession已經(jīng)成為Spark處理RDD、DataFrame 和 Dataset 的入口點(diǎn)。SparkSessio n封裝了SparkConf、SparkContext和SQLContext。為了向后兼容,SQLContext和HiveContext也被保存下來。它實(shí)質(zhì)上是SQLContext和HiveContext的組合(未來可能還會(huì)加上StreamingContext),所以在SQLContext和HiveContext上可用的API在 SparkSession 上同樣是可以使用的。SparkSession 內(nèi)部封裝了sparkContext,所以計(jì)算實(shí)際上是由 sparkContext 完成的。
SQLContext:在Spark version1.0中,為了處理結(jié)構(gòu)化數(shù)據(jù)(行和列),SQLContext (org.apache.spark.sql.SQLContext )是一個(gè)入口點(diǎn),但是在2.0版本中,SQLContext已經(jīng)被SparkSession所取代。Apache Spark SQLContext是SparkSQL的入口點(diǎn),Spark是Spark1.x中用于結(jié)構(gòu)化數(shù)據(jù)(行和列)的Spark模塊。正在處理。Spark SQLContext已初始化。
JavaSparkContext 是 Java友好版本的[org.apache.spark.SparkContext]返回[org.apache.spark.api.java.JavaRDD],并使用Java集合,而不是Scala集合。
到此這篇關(guān)于SpringBoot對(duì)接Spark過程詳解的文章就介紹到這了,更多相關(guān)SpringBoot Spark內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Maven setting配置鏡像倉(cāng)庫(kù)的方法步驟
這篇文章主要介紹了Maven setting配置鏡像倉(cāng)庫(kù)的方法步驟,小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧2018-12-12
Java實(shí)現(xiàn)二分查找樹及其相關(guān)操作
二分查找樹是一種有組織的二叉樹。我們可以通過鏈接節(jié)點(diǎn)表示這樣一棵樹,二分查找樹(Binary Search Tree)的基本操作有搜索、求最大值、求最小值、求前驅(qū)、求后繼、插入及刪除,對(duì)java二分查找樹相關(guān)知識(shí)感興趣的朋友一起看看吧2021-07-07
springboot+angular4前后端分離 跨域問題解決詳解
這篇文章主要介紹了springboot+angular4前后端分離 跨域問題解決詳解,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-09-09
Mybatis如何自動(dòng)生成數(shù)據(jù)庫(kù)表結(jié)構(gòu)總結(jié)
這篇文章主要給大家介紹了關(guān)于Mybatis如何自動(dòng)生成數(shù)據(jù)庫(kù)表結(jié)構(gòu)的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者使用Mybatis具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面來一起學(xué)習(xí)學(xué)習(xí)吧2019-11-11

