教你如何讓spark?sql寫mysql的時候支持update操作

如何讓sparkSQL在對接mysql的時候,除了支持:Append、Overwrite、ErrorIfExists、Ignore;還要在支持update操作
1、首先了解背景
spark提供了一個枚舉類,用來支撐對接數(shù)據(jù)源的操作模式

通過源碼查看,很明顯,spark是不支持update操作的
2、如何讓sparkSQL支持update
關(guān)鍵的知識點就是:
我們正常在sparkSQL寫數(shù)據(jù)到mysql的時候:
大概的api是:
dataframe.write
.format("sql.execution.customDatasource.jdbc")
.option("jdbc.driver", "com.mysql.jdbc.Driver")
.option("jdbc.url", "jdbc:mysql://localhost:3306/test?user=root&password=&useUnicode=true&characterEncoding=gbk&autoReconnect=true&failOverReadOnly=false")
.option("jdbc.db", "test")
.save()那么在底層中,spark會通過JDBC方言JdbcDialect , 將我們要插入的數(shù)據(jù)翻譯成:
insert into student (columns_1 , columns_2 , ...) values (? , ? , ....)
那么通過方言解析出的sql語句就通過PrepareStatement的executeBatch(),將sql語句提交給mysql,然后數(shù)據(jù)插入;
那么上面的sql語句很明顯,完全就是插入代碼,并沒有我們期望的 update操作,類似:
UPDATE table_name SET field1=new-value1, field2=new-value2
但是mysql獨家支持這樣的sql語句:
INSERT INTO student (columns_1,columns_2)VALUES ('第一個字段值','第二個字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵噠',columns_2 = '哈哈噠';
大概的意思就是,如果數(shù)據(jù)不存在則插入,如果數(shù)據(jù)存在,則 執(zhí)行update操作;
因此,我們的切入點就是,讓sparkSQL內(nèi)部對接JdbcDialect的時候,能夠生成這種sql:
INSERT INTO 表名稱 (columns_1,columns_2)VALUES ('第一個字段值','第二個字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵噠',columns_2 = '哈哈噠';
3、改造源碼前,需要了解整體的代碼設(shè)計和執(zhí)行流程
首先是:
dataframe.write
調(diào)用write方法就是為了返回一個類:DataFrameWriter
主要是因為DataFrameWriter是sparksql對接外部數(shù)據(jù)源寫入的入口攜帶類,下面這些內(nèi)容是給DataFrameWriter注冊的攜帶信息

然后在出發(fā)save()操作后,就開始將數(shù)據(jù)寫入;
接下來看save()源碼:

在上面的源碼里面主要是注冊DataSource實例,然后使用DataSource的write方法進行數(shù)據(jù)寫入
實例化DataSource的時候:
def save(): Unit = {
assertNotBucketed("save")
val dataSource = DataSource(
df.sparkSession,
className = source,//自定義數(shù)據(jù)源的包路徑
partitionColumns = partitioningColumns.getOrElse(Nil),//分區(qū)字段
bucketSpec = getBucketSpec,//分桶(用于hive)
options = extraOptions.toMap)//傳入的注冊信息
//mode:插入數(shù)據(jù)方式SaveMode , df:要插入的數(shù)據(jù)
dataSource.write(mode, df)
}然后就是dataSource.write(mode, df)的細節(jié),整段的邏輯就是:
根據(jù)providingClass.newInstance()去做模式匹配,然后匹配到哪里,就執(zhí)行哪里的代碼;

然后看下providingClass是什么:


拿到包路徑.DefaultSource之后,程序進入:

那么如果是數(shù)據(jù)庫作為寫入目標的話,就會走:dataSource.createRelation,直接跟進源碼:

很明顯是個特質(zhì),因此哪里實現(xiàn)了特質(zhì),程序就會走到哪里了;
實現(xiàn)這個特質(zhì)的地方就是:包路徑.DefaultSource , 然后就在這里面去實現(xiàn)數(shù)據(jù)的插入和update的支持操作;
4、改造源碼
根據(jù)代碼的流程,最終sparkSQL 將數(shù)據(jù)寫入mysql的操作,會進入:包路徑.DefaultSource這個類里面;
也就是說,在這個類里面既要支持spark的正常插入操作(SaveMode),還要在支持update;
如果讓sparksql支持update操作,最關(guān)鍵的就是做一個判斷,比如:
if(isUpdate){
sql語句:INSERT INTO student (columns_1,columns_2)VALUES ('第一個字段值','第二個字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵噠',columns_2 = '哈哈噠';
}else{
insert into student (columns_1 , columns_2 , ...) values (? , ? , ....)
}但是,在spark生產(chǎn)sql語句的源碼中,是這樣寫的:

沒有任何的判斷邏輯,就是最后生成一個:
INSERT INTO TABLE (字段1 , 字段2....) VALUES (? , ? ...)
所以首要的任務(wù)就是 ,怎么能讓當(dāng)前代碼支持:ON DUPLICATE KEY UPDATE
可以做個大膽的設(shè)計,就是在insertStatement這個方法中做個如下的判斷
def insertStatement(conn: Connection, savemode:CustomSaveMode , table: String, rddSchema: StructType, dialect: JdbcDialect)
: PreparedStatement = {
val columns = rddSchema.fields.map(x => dialect.quoteIdentifier(x.name)).mkString(",")
val placeholders = rddSchema.fields.map(_ => "?").mkString(",")
if(savemode == CustomSaveMode.update){
//TODO 如果是update,就組裝成ON DUPLICATE KEY UPDATE的模式處理
s"INSERT INTO $table ($columns) VALUES ($placeholders) ON DUPLICATE KEY UPDATE $duplicateSetting"
}esle{
val sql = s"INSERT INTO $table ($columns) VALUES ($placeholders)"
conn.prepareStatement(sql)
}
}這樣,在用戶傳遞進來的savemode模式,我們進行校驗,如果是update操作,就返回對應(yīng)的sql語句!
所以按照上面的邏輯,我們代碼這樣寫:

這樣我們就拿到了對應(yīng)的sql語句;
但是只有這個sql語句還是不行的,因為在spark中會執(zhí)行jdbc的prepareStatement操作,這里面會涉及到游標。
即jdbc在遍歷這個sql的時候,源碼會這樣做:

看下makeSetter:

所謂有坑就是:
insert into table (字段1 , 字段2, 字段3) values (? , ? , ?)
那么當(dāng)前在源碼中返回的數(shù)組長度應(yīng)該是3:
val setters: Array[JDBCValueSetter] = rddSchema.fields.map(_.dataType)
.map(makeSetter(conn, dialect, _)).toArray但是如果我們此時支持了update操作,既:
insert into table (字段1 , 字段2, 字段3) values (? , ? , ?) ON DUPLICATE KEY UPDATE 字段1 = ?,字段2 = ?,字段3=?;
那么很明顯,上面的sql語句提供了6個? , 但在規(guī)定字段長度的時候只有3

這樣的話,后面的update操作就無法執(zhí)行,程序報錯!
所以我們需要有一個 識別機制,既:
if(isupdate){
val numFields = rddSchema.fields.length * 2
}else{
val numFields = rddSchema.fields.length
}
row[1,2,3] setter(0,1) //index of setter , index of row setter(1,2) setter(2,3) setter(3,1) setter(4,2) setter(5,3)
所以在prepareStatment中的占位符應(yīng)該是row的兩倍,而且應(yīng)該是類似這樣的一個邏輯
因此,代碼改造前樣子:


改造后的樣子:
try {
if (supportsTransactions) {
conn.setAutoCommit(false) // Everything in the same db transaction.
conn.setTransactionIsolation(finalIsolationLevel)
}
// val stmt = insertStatement(conn, table, rddSchema, dialect)
//此處采用最新自己的sql語句,封裝成prepareStatement
val stmt = conn.prepareStatement(sqlStmt)
println(sqlStmt)
/**
* 在mysql中有這樣的操作:
* INSERT INTO user_admin_t (_id,password) VALUES ('1','第一次插入的密碼')
* INSERT INTO user_admin_t (_id,password)VALUES ('1','第一次插入的密碼') ON DUPLICATE KEY UPDATE _id = 'UpId',password = 'upPassword';
* 如果是下面的ON DUPLICATE KEY操作,那么在prepareStatement中的游標會擴增一倍
* 并且如果沒有update操作,那么他的游標是從0開始計數(shù)的
* 如果是update操作,要算上之前的insert操作
* */
//makeSetter也要適配update操作,即游標問題
?
val isUpdate = saveMode == CustomSaveMode.Update
val setters: Array[JDBCValueSetter] = isUpdate match {
case true =>
val setters: Array[JDBCValueSetter] = rddSchema.fields.map(_.dataType)
.map(makeSetter(conn, dialect, _)).toArray
Array.fill(2)(setters).flatten
case _ =>
rddSchema.fields.map(_.dataType)
val numFieldsLength = rddSchema.fields.length
val numFields = isUpdate match{
case true => numFieldsLength *2
case _ => numFieldsLength
val cursorBegin = numFields / 2
try {
var rowCount = 0
while (iterator.hasNext) {
val row = iterator.next()
var i = 0
while (i < numFields) {
if(isUpdate){
//需要判斷當(dāng)前游標是否走到了ON DUPLICATE KEY UPDATE
i < cursorBegin match{
//說明還沒走到update階段
case true =>
//row.isNullAt 判空,則設(shè)置空值
if (row.isNullAt(i)) {
stmt.setNull(i + 1, nullTypes(i))
} else {
setters(i).apply(stmt, row, i, 0)
}
//說明走到了update階段
case false =>
if (row.isNullAt(i - cursorBegin)) {
//pos - offset
stmt.setNull(i + 1, nullTypes(i - cursorBegin))
setters(i).apply(stmt, row, i, cursorBegin)
}
}else{
if (row.isNullAt(i)) {
stmt.setNull(i + 1, nullTypes(i))
} else {
setters(i).apply(stmt, row, i ,0)
}
//滾動游標
i = i + 1
}
stmt.addBatch()
rowCount += 1
if (rowCount % batchSize == 0) {
stmt.executeBatch()
rowCount = 0
}
if (rowCount > 0) {
stmt.executeBatch()
} finally {
stmt.close()
conn.commit()
committed = true
Iterator.empty
} catch {
case e: SQLException =>
val cause = e.getNextException
if (cause != null && e.getCause != cause) {
if (e.getCause == null) {
e.initCause(cause)
} else {
e.addSuppressed(cause)
throw e
} finally {
if (!committed) {
// The stage must fail. We got here through an exception path, so
// let the exception through unless rollback() or close() want to
// tell the user about another problem.
if (supportsTransactions) {
conn.rollback()
conn.close()
} else {
// The stage must succeed. We cannot propagate any exception close() might throw.
try {
conn.close()
} catch {
case e: Exception => logWarning("Transaction succeeded, but closing failed", e)// A `JDBCValueSetter` is responsible for setting a value from `Row` into a field for
// `PreparedStatement`. The last argument `Int` means the index for the value to be set
// in the SQL statement and also used for the value in `Row`.
//PreparedStatement, Row, position , cursor
private type JDBCValueSetter = (PreparedStatement, Row, Int , Int) => Unit
?
private def makeSetter(
conn: Connection,
dialect: JdbcDialect,
dataType: DataType): JDBCValueSetter = dataType match {
case IntegerType =>
(stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
stmt.setInt(pos + 1, row.getInt(pos - cursor))
case LongType =>
stmt.setLong(pos + 1, row.getLong(pos - cursor))
case DoubleType =>
stmt.setDouble(pos + 1, row.getDouble(pos - cursor))
case FloatType =>
stmt.setFloat(pos + 1, row.getFloat(pos - cursor))
case ShortType =>
stmt.setInt(pos + 1, row.getShort(pos - cursor))
case ByteType =>
stmt.setInt(pos + 1, row.getByte(pos - cursor))
case BooleanType =>
stmt.setBoolean(pos + 1, row.getBoolean(pos - cursor))
case StringType =>
// println(row.getString(pos))
stmt.setString(pos + 1, row.getString(pos - cursor))
case BinaryType =>
stmt.setBytes(pos + 1, row.getAs[Array[Byte]](pos - cursor))
case TimestampType =>
stmt.setTimestamp(pos + 1, row.getAs[java.sql.Timestamp](pos - cursor))
case DateType =>
stmt.setDate(pos + 1, row.getAs[java.sql.Date](pos - cursor))
case t: DecimalType =>
stmt.setBigDecimal(pos + 1, row.getDecimal(pos - cursor))
case ArrayType(et, _) =>
// remove type length parameters from end of type name
val typeName = getJdbcType(et, dialect).databaseTypeDefinition
.toLowerCase.split("\\(")(0)
val array = conn.createArrayOf(
typeName,
row.getSeq[AnyRef](pos - cursor).toArray)
stmt.setArray(pos + 1, array)
case _ =>
(_: PreparedStatement, _: Row, pos: Int,cursor:Int) =>
throw new IllegalArgumentException(
s"Can't translate non-null value for field $pos")
}完整代碼:
https://github.com/niutaofan/bazinga
到此這篇關(guān)于教你如何讓spark sql寫mysql的時候支持update操作的文章就介紹到這了,更多相關(guān)spark sql寫mysql支持update內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
mysql DBA:mysqladmin常用命令總結(jié)
mysqladmin是MySQL一個重要的客戶端,最常見的是使用它來關(guān)閉數(shù)據(jù)庫,除此,該命令還可以了解MySQL運行狀態(tài)、進程信息、進程等,本文介紹一下如何使用mysqladmin extended-status(因為沒有"歧義",所以可以使用ext代替)了解MySQL的運行狀態(tài)2014-03-03
mysql存儲過程之創(chuàng)建(CREATE PROCEDURE)和調(diào)用(CALL)及變量創(chuàng)建(DECLARE)和賦值(SET
這篇文章主要介紹了mysql存儲過程之創(chuàng)建(CREATE PROCEDURE)和調(diào)用(CALL)及變量創(chuàng)建(DECLARE)和賦值(SET)操作方法,結(jié)合實例形式較為詳細的分析了mysql存儲過程創(chuàng)建、調(diào)用及變量創(chuàng)建、賦值具體原理、操作技巧與相關(guān)注意事項,需要的朋友可以參考下2019-12-12
Win10下免安裝版MySQL8.0.16的安裝和配置教程圖解
這篇文章主要介紹了Win10下免安裝版MySQL8.0.16的安裝和配置 ,本文通過圖文并茂的形式給大家介紹的非常詳細,具有一定的參考解決價值,需要的朋友可以參考下2019-06-06

