pyspark自定義UDAF函數(shù)調(diào)用報(bào)錯(cuò)問(wèn)題解決
問(wèn)題場(chǎng)景:
在SparkSQL中,因?yàn)樾枰玫阶远x的UDAF函數(shù),所以用pyspark自定義了一個(gè),但是遇到了一個(gè)問(wèn)題,就是自定義的UDAF函數(shù)一直報(bào)
AttributeError: 'NoneType' object has no attribute '_jvm'
在此將解決過(guò)程記錄下來(lái)
問(wèn)題描述
在新建的py文件中,先自定義了一個(gè)UDAF函數(shù),然后在 if __name__ == '__main__': 中調(diào)用,死活跑不起來(lái),一遍又一遍的對(duì)源碼,看起來(lái)自定義的函數(shù)也沒(méi)錯(cuò):過(guò)程如下:
import decimal
import os
import pandas as pd
from pyspark.sql import SparkSession
from pyspark.sql import functions as F
os.environ['SPARK_HOME'] = '/export/server/spark'
os.environ["PYSPARK_PYTHON"] = "/root/anaconda3/bin/python"
os.environ["PYSPARK_DRIVER_PYTHON"] = "/root/anaconda3/bin/python"
@F.pandas_udf('decimal(17,12)')
def udaf_lx(qx: pd.Series, lx: pd.Series) -> decimal:
# 初始值 也一定是decimal類(lèi)型
tmp_qx = decimal.Decimal(0)
tmp_lx = decimal.Decimal(0)
for index in range(0, qx.size):
if index == 0:
tmp_qx = decimal.Decimal(qx[index])
tmp_lx = decimal.Decimal(lx[index])
else:
# 計(jì)算lx: 計(jì)算后,保證數(shù)據(jù)小數(shù)位為12位,與返回類(lèi)型的設(shè)置小數(shù)位保持一致
tmp_lx = (tmp_lx * (1 - tmp_qx)).quantize(decimal.Decimal('0.000000000000'))
tmp_qx = decimal.Decimal(qx[index])
return tmp_lx
if __name__ == '__main__':
# 1) 創(chuàng)建 SparkSession 對(duì)象,此對(duì)象連接 hive
spark = SparkSession.builder.master('local[*]') \
.appName('insurance_main') \
.config('spark.sql.shuffle.partitions', 4) \
.config('spark.sql.warehouse.dir', 'hdfs://node1:8020/user/hive/warehouse') \
.config('hive.metastore.uris', 'thrift://node1:9083') \
.enableHiveSupport() \
.getOrCreate()
# 注冊(cè)UDAF 支持在SQL中使用
spark.udf.register('udaf_lx', udaf_lx)
# 2) 編寫(xiě)SQL 執(zhí)行
excuteSQLFile(spark, '_04_insurance_dw_prem_std.sql')
然后跑起來(lái)就報(bào)了以下錯(cuò)誤:
Traceback (most recent call last):
File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 835, in _parse_datatype_string
return from_ddl_datatype(s)
File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 827, in from_ddl_datatype
sc._jvm.org.apache.spark.sql.api.python.PythonSQLUtils.parseDataType(type_str).json())
AttributeError: 'NoneType' object has no attribute '_jvm'
During handling of the above exception, another exception occurred:
Traceback (most recent call last):
File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 839, in _parse_datatype_string
return from_ddl_datatype("struct<%s>" % s.strip())
File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 827, in from_ddl_datatype
sc._jvm.org.apache.spark.sql.api.python.PythonSQLUtils.parseDataType(type_str).json())
AttributeError: 'NoneType' object has no attribute '_jvm'
During handling of the above exception, another exception occurred:
Traceback (most recent call last):
File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 841, in _parse_datatype_string
raise e
File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 831, in _parse_datatype_string
return from_ddl_schema(s)
File "/root/anaconda3/lib/python3.8/site-packages/pyspark/sql/types.py", line 823, in from_ddl_schema
sc._jvm.org.apache.spark.sql.types.StructType.fromDDL(type_str).json())
AttributeError: 'NoneType' object has no attribute '_jvm'
我左思右想,百思不得騎姐,嗐,跑去看 types.py里面的type類(lèi)型,以為我的 udaf_lx 函數(shù)的裝飾器里面的 ‘decimal(17,12)’ 類(lèi)型錯(cuò)了,但是一看,好家伙,types.py 里面的774行
_FIXED_DECIMAL = re.compile(r"decimal\(\s*(\d+)\s*,\s*(-?\d+)\s*\)")
這是能匹配上的,沒(méi)道理?。?/p>
原因分析及解決方案:
然后再往回看報(bào)錯(cuò)的信息的最后一行:
AttributeError: 'NoneType' object has no attribute '_jvm'
竟然是空對(duì)象沒(méi)有_jvm這個(gè)屬性!
一拍腦瓜子,得了,pyspark的SQL 在執(zhí)行的時(shí)候,需要用到 JVM ,而運(yùn)行pyspark的時(shí)候,需要先要為spark提供環(huán)境,也就說(shuō),內(nèi)存中要有SparkSession對(duì)象,而python在執(zhí)行的時(shí)候,是從上往下,將方法加載到內(nèi)存中,在加載自定義的UDAF函數(shù)時(shí),由于有裝飾器@F.pandas_udf的存在 , F 則是pyspark.sql.functions, 此時(shí)加載自定義的UDAF到內(nèi)存中,需要有SparkSession的環(huán)境提供JVM,而此時(shí)的內(nèi)存中尚未有SparkSession環(huán)境!因此,將自定義的UDAF 函數(shù)挪到 if __name__ == '__main__': 創(chuàng)建完SparkSession的后面,如下:
import decimal
import os
import pandas as pd
from pyspark.sql import SparkSession
from pyspark.sql import functions as F
os.environ['SPARK_HOME'] = '/export/server/spark'
os.environ["PYSPARK_PYTHON"] = "/root/anaconda3/bin/python"
os.environ["PYSPARK_DRIVER_PYTHON"] = "/root/anaconda3/bin/python"
if __name__ == '__main__':
# 1) 創(chuàng)建 SparkSession 對(duì)象,此對(duì)象連接 hive
spark = SparkSession.builder.master('local[*]') \
.appName('insurance_main') \
.config('spark.sql.shuffle.partitions', 4) \
.config('spark.sql.warehouse.dir', 'hdfs://node1:8020/user/hive/warehouse') \
.config('hive.metastore.uris', 'thrift://node1:9083') \
.enableHiveSupport() \
.getOrCreate()
@F.pandas_udf('decimal(17,12)')
def udaf_lx(qx: pd.Series, lx: pd.Series) -> decimal:
# 初始值 也一定是decimal類(lèi)型
tmp_qx = decimal.Decimal(0)
tmp_lx = decimal.Decimal(0)
for index in range(0, qx.size):
if index == 0:
tmp_qx = decimal.Decimal(qx[index])
tmp_lx = decimal.Decimal(lx[index])
else:
# 計(jì)算lx: 計(jì)算后,保證數(shù)據(jù)小數(shù)位為12位,與返回類(lèi)型的設(shè)置小數(shù)位保持一致
tmp_lx = (tmp_lx * (1 - tmp_qx)).quantize(decimal.Decimal('0.000000000000'))
tmp_qx = decimal.Decimal(qx[index])
return tmp_lx
# 注冊(cè)UDAF 支持在SQL中使用
spark.udf.register('udaf_lx', udaf_lx)
# 2) 編寫(xiě)SQL 執(zhí)行
excuteSQLFile(spark, '_04_insurance_dw_prem_std.sql')
運(yùn)行結(jié)果如圖:

至此,完美解決!更多關(guān)于pyspark自定義UDAF函數(shù)報(bào)錯(cuò)的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
利用Pytorch實(shí)現(xiàn)簡(jiǎn)單的線性回歸算法
今天小編就為大家分享一篇利用Pytorch實(shí)現(xiàn)簡(jiǎn)單的線性回歸算法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-01-01
Python如何使用隊(duì)列方式實(shí)現(xiàn)多線程爬蟲(chóng)
這篇文章主要介紹了Python如何使用隊(duì)列方式實(shí)現(xiàn)多線程爬蟲(chóng),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-05-05
使用PyInstaller庫(kù)把Python程序打包成exe
這篇文章介紹了使用PyInstaller庫(kù)把Python程序打包成exe的方法,文中通過(guò)示例代碼介紹的非常詳細(xì)。對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2022-05-05
詳解HttpRunner3的HTTP請(qǐng)是如何發(fā)出
這篇文章主要為大家介紹了HttpRunner3的HTTP請(qǐng)是如何發(fā)出詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-07-07
python將紅底證件照轉(zhuǎn)成藍(lán)底的實(shí)現(xiàn)方法
這篇文章主要介紹了python將紅底證件照轉(zhuǎn)成藍(lán)底,本文給大家分享四種方法通過(guò)示例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2022-08-08
Python學(xué)習(xí)筆記之自定義函數(shù)用法詳解
這篇文章主要介紹了Python學(xué)習(xí)筆記之自定義函數(shù)用法,結(jié)合實(shí)例形式詳細(xì)分析了自定義函數(shù)的功能、定義、使用方法及相關(guān)操作注意事項(xiàng),需要的朋友可以參考下2019-06-06
超級(jí)實(shí)用的8個(gè)Python列表技巧
這篇文章主要介紹了實(shí)用的8個(gè)Python列表技巧,幫助大家更好的理解和學(xué)習(xí)python列表的知識(shí),感興趣的朋友可以了解下2020-08-08

