深入淺析Python 中的sklearn模型選擇
1.主要功能如下:
1.classification分類
2.Regression回歸
3.Clustering聚類
4.Dimensionality reduction降維
5.Model selection模型選擇
6.Preprocessing預(yù)處理
2.主要模塊分類:
1.sklearn.base: Base classes and utility function基礎(chǔ)實(shí)用函數(shù)
2.sklearn.cluster: Clustering聚類
3.sklearn.cluster.bicluster: Biclustering 雙向聚類
4.sklearn.covariance: Covariance Estimators 協(xié)方差估計(jì)
5.sklearn.model_selection: Model Selection 模型選擇
6.sklearn.datasets: Datasets 數(shù)據(jù)集
7.sklearn.decomposition: Matrix Decomposition 矩陣分解
8.sklearn.dummy: Dummy estimators 虛擬估計(jì)
9.sklearn.ensemble: Ensemble Methods 集成方法
10.sklearn.exceptions: Exceptions and warnings 異常和警告
11.sklearn.feature_extraction: Feature Extraction 特征抽取
12.sklearn.feature_selection: Feature Selection 特征選擇
13。sklearn.gaussian_process: Gaussian Processes 高斯過(guò)程
14.sklearn.isotonic: Isotonic regression 保序回歸
15.sklearn.kernel_approximation: Kernel Approximation 核 逼近
16.sklearn.kernel_ridge: Kernel Ridge Regression 嶺回歸ridge
17.sklearn.discriminant_analysis: Discriminant Analysis 判別分析
18.sklearn.linear_model: Generalized Linear Models 廣義線性模型
19.sklearn.manifold: Manifold Learning 流形學(xué)習(xí)
20.sklearn.metrics: Metrics 度量 權(quán)值
21.sklearn.mixture: Gaussian Mixture Models 高斯混合模型
22.sklearn.multiclass: Multiclass and multilabel classification 多等級(jí)標(biāo)簽分類
23.sklearn.multioutput: Multioutput regression and classification 多元回歸和分類
24.sklearn.naive_bayes: Naive Bayes 樸素貝葉斯
25.sklearn.neighbors: Nearest Neighbors 最近鄰
26.sklearn.neural_network: Neural network models 神經(jīng)網(wǎng)絡(luò)
27.sklearn.calibration: Probability Calibration 概率校準(zhǔn)
28.sklearn.cross_decomposition: Cross decomposition 交叉求解
29.sklearn.pipeline: Pipeline 管道
30.sklearn.preprocessing: Preprocessing and Normalization 預(yù)處理和標(biāo)準(zhǔn)化
31.sklearn.random_projection: Random projection 隨機(jī)映射
32.sklearn.semi_supervised: Semi-Supervised Learning 半監(jiān)督學(xué)習(xí)
33.sklearn.svm: Support Vector Machines 支持向量機(jī)
34.sklearn.tree: Decision Tree 決策樹(shù)
35.sklearn.utils: Utilities 實(shí)用工具
3.數(shù)據(jù)預(yù)處理:
from sklearn import preprocessing
標(biāo)準(zhǔn)化處理函數(shù)
將數(shù)據(jù)轉(zhuǎn)化為標(biāo)準(zhǔn)正態(tài)分布(均值為0,方差為1)
preprocessing.scale(X,axis=0, with_mean=True, with_std=True, copy=True)
將數(shù)據(jù)在縮放在固定區(qū)間,默認(rèn)縮放到區(qū)間 [0, 1]
preprocessing.minmax_scale(X,feature_range=(0, 1), axis=0, copy=True)
數(shù)據(jù)的縮放比例為絕對(duì)值最大值,并保留正負(fù)號(hào),即在區(qū)間 [-1.0, 1.0] 內(nèi)。唯一可用于稀疏數(shù)據(jù) scipy.sparse的標(biāo)準(zhǔn)化
preprocessing.maxabs_scale(X,axis=0, copy=True)
通過(guò) Interquartile Range (IQR) 標(biāo)準(zhǔn)化數(shù)據(jù),即四分之一和四分之三分位點(diǎn)之間
preprocessing.robust_scale(X,axis=0, with_centering=True, with_scaling=True,copy=True)
標(biāo)準(zhǔn)化正態(tài)分布類
基于mean和std的標(biāo)準(zhǔn)化
classpreprocessing.StandardScaler(copy=True, with_mean=True,with_std=True) # 屬性: # scale_:ndarray,縮放比例 # mean_:ndarray,均值 # var_:ndarray,方差 # n_samples_seen_:int,已處理的樣本個(gè)數(shù),調(diào)用partial_fit()時(shí)會(huì)累加,調(diào)用fit()會(huì)重設(shè) # 這里可以根據(jù)訓(xùn)練集進(jìn)行標(biāo)準(zhǔn)化,測(cè)試集沿用訓(xùn)練集的標(biāo)準(zhǔn)化方法! scaler = preprocessing.StandardScaler().fit(train_data) scaler.transform(train_data) scaler.transform(test_data) # 將每個(gè)特征值歸一化到一個(gè)固定范圍 scaler = preprocessing.MinMaxScaler(feature_range=(0, 1)).fit(train_data) scaler.transform(train_data) scaler.transform(test_data)
將數(shù)據(jù)在縮放在固定區(qū)間的類,默認(rèn)縮放到區(qū)間 [0, 1]
classpreprocessing.MinMaxScaler(feature_range=(0, 1),copy=True): # 屬性: # min_:ndarray,縮放后的最小值偏移量 # scale_:ndarray,縮放比例 # data_min_:ndarray,數(shù)據(jù)最小值 # data_max_:ndarray,數(shù)據(jù)最大值 # data_range_:ndarray,數(shù)據(jù)最大最小范圍的長(zhǎng)度
數(shù)據(jù)的縮放比例為絕對(duì)值最大值,并保留正負(fù)號(hào),即在區(qū)間 [-1.0, 1.0] 內(nèi)??梢杂糜谙∈钄?shù)據(jù)scipy.sparse
classpreprocessing.MaxAbsScaler(copy=True): # 屬性: # scale_:ndarray,縮放比例 # max_abs_:ndarray,絕對(duì)值最大值 # n_samples_seen_:int,已處理的樣本個(gè)數(shù)
通過(guò) Interquartile Range (IQR) 標(biāo)準(zhǔn)化數(shù)據(jù),即四分之一和四分之三分位點(diǎn)之間
classpreprocessing.RobustScaler(with_centering=True,with_scaling=True, copy=True): # 屬性: # center_:ndarray,中心點(diǎn) # scale_:ndarray,縮放比例
生成 kernel 矩陣,用于將 svm kernel 的數(shù)據(jù)標(biāo)準(zhǔn)化
classpreprocessing.KernelCenterer:
以上幾個(gè)標(biāo)準(zhǔn)化類的方法:
fit(X[,y]):根據(jù)數(shù)據(jù) X 的值,設(shè)置標(biāo)準(zhǔn)化縮放的比例
transform(X[,y, copy]):用之前設(shè)置的比例標(biāo)準(zhǔn)化 X
fit_transform(X[, y]):根據(jù) X設(shè)置標(biāo)準(zhǔn)化縮放比例并標(biāo)準(zhǔn)化
partial_fit(X[,y]):累加性的計(jì)算縮放比例
inverse_transform(X[,copy]):將標(biāo)準(zhǔn)化后的數(shù)據(jù)轉(zhuǎn)換成原數(shù)據(jù)比例
get_params([deep]):獲取參數(shù)
set_params(**params):設(shè)置參數(shù)
正則化
# 計(jì)算兩個(gè)樣本的相似度時(shí)必不可少的一個(gè)操作,就是正則化。其思想是:首先求出樣本的p-范數(shù),然后該樣本的所有元素都要除以該范數(shù),這樣最終使得每個(gè)樣本的范數(shù)都為1。
# L1 norm 是指對(duì)每個(gè)樣本的每一個(gè)元素都除以該樣本的L1范數(shù). 使行和為1
# eg. 0.47619048 = 10 /(10+4+5+2) X = np.array([[10,4,5,2], [1,4,5,7]]) X_normalized = preprocessing.normalize(X, norm='l1') X_normalized array([[ 0.47619048, 0.19047619, 0.23809524, 0.0952381 ], [ 0.05882353, 0.23529412, 0.29411765, 0.41176471]]) #L2 norm 是指對(duì)每個(gè)樣本的每一個(gè)元素都除以該樣本的L2范數(shù). # eg. 0.4 = 1/sqrt(1+1+4) X = [[ 1., -1., 2.], [ 2., 0., 0.], [ 0., 1., -1.]] X_normalized = preprocessing.normalize(X, norm='l2') X_normalized array([[ 0.40, -0.40, 0.81], [ 1. , 0. , 0. ], [ 0. , 0.70, -0.70]])
4.數(shù)據(jù)集:
將數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集
from sklearn.mode_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) # arrays:樣本數(shù)組,包含特征向量和標(biāo)簽 # test_size: # float-獲得多大比重的測(cè)試樣本 (默認(rèn):0.25) # int - 獲得多少個(gè)測(cè)試樣本 # train_size: 同test_size # random_state: int - 隨機(jī)種子(種子固定,實(shí)驗(yàn)可復(fù)現(xiàn)) # shuffle - 是否在分割之前對(duì)數(shù)據(jù)進(jìn)行洗牌(默認(rèn)True)
5.模型選擇:
模型流程:
# 擬合模型 model.fit(X_train, y_train) # 模型預(yù)測(cè) model.predict(X_test) # 獲得這個(gè)模型的參數(shù) model.get_params() # 為模型進(jìn)行打分 model.score(data_X, data_y)
線性回歸
from sklearn.linear_model import LinearRegression # 定義線性回歸模型 model = LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=1) """ fit_intercept:是否計(jì)算截距。False-模型沒(méi)有截距 normalize: 當(dāng)fit_intercept設(shè)置為False時(shí),該參數(shù)將被忽略。 如果為真,則回歸前的回歸系數(shù)X將通過(guò)減去平均值并除以l2-范數(shù)而歸一化。 n_jobs:指定線程數(shù) """
邏輯回歸
from sklearn.linear_model import LogisticRegression # 定義邏輯回歸模型 model = LogisticRegression(penalty='l2', dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver='liblinear', max_iter=100, multi_class='ovr', verbose=0, warm_start=False, n_jobs=1) """ penalty:使用指定正則化項(xiàng)(默認(rèn):l2) dual: n_samples > n_features取False(默認(rèn)) C:正則化強(qiáng)度的反,值越小正則化強(qiáng)度越大 n_jobs: 指定線程數(shù) random_state:隨機(jī)數(shù)生成器 fit_intercept: 是否需要常量 """
樸素貝葉斯
from sklearn import naive_bayes model = naive_bayes.GaussianNB() model = naive_bayes.MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None) model = naive_bayes.BernoulliNB(alpha=1.0, binarize=0.0, fit_prior=True, class_prior=None) """ alpha:平滑參數(shù) fit_prior:是否要學(xué)習(xí)類的先驗(yàn)概率;false-使用統(tǒng)一的先驗(yàn)概率 class_prior: 是否指定類的先驗(yàn)概率;若指定則不能根據(jù)參數(shù)調(diào)整 binarize: 二值化的閾值,若為None,則假設(shè)輸入由二進(jìn)制向量組成 """
決策樹(shù)
from sklearn import tree model = tree.DecisionTreeClassifier(criterion='gini', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, class_weight=None, presort=False) """ criterion :特征選擇準(zhǔn)則gini/entropy max_depth:樹(shù)的最大深度,None-盡量下分 min_samples_split:分裂內(nèi)部節(jié)點(diǎn),所需要的最小樣本樹(shù) min_samples_leaf:葉子節(jié)點(diǎn)所需要的最小樣本數(shù) max_features: 尋找最優(yōu)分割點(diǎn)時(shí)的最大特征數(shù) max_leaf_nodes:優(yōu)先增長(zhǎng)到最大葉子節(jié)點(diǎn)數(shù) min_impurity_decrease:如果這種分離導(dǎo)致雜質(zhì)的減少大于或等于這個(gè)值,則節(jié)點(diǎn)將被拆分。 """
支持向量機(jī)SVM
from sklearn.svm import SVC model = SVC(C=1.0, kernel='rbf', gamma='auto') """ C:誤差項(xiàng)的懲罰參數(shù)C gamma: 核相關(guān)系數(shù)。浮點(diǎn)數(shù),If gamma is ‘a(chǎn)uto' then 1/n_features will be used instead. """
knn最近鄰算法
from sklearn import neighbors #定義kNN分類模型 model = neighbors.KNeighborsClassifier(n_neighbors=5, n_jobs=1) # 分類 model = neighbors.KNeighborsRegressor(n_neighbors=5, n_jobs=1) # 回歸 """ n_neighbors: 使用鄰居的數(shù)目 n_jobs:并行任務(wù)數(shù) """
多層感知器
from sklearn.neural_network import MLPClassifier
# 定義多層感知機(jī)分類算法
model = MLPClassifier(activation='relu', solver='adam', alpha=0.0001)
"""
hidden_layer_sizes: 元祖
activation:激活函數(shù)
solver :優(yōu)化算法{‘lbfgs', ‘sgd', ‘a(chǎn)dam'}
alpha:L2懲罰(正則化項(xiàng))參數(shù)。
"""
交叉驗(yàn)證
from sklearn.model_selection import cross_val_score cross_val_score(model, X, y=None, scoring=None, cv=None, n_jobs=1) """ model:擬合數(shù)據(jù)的模型 cv : k-fold scoring: 打分參數(shù)-‘a(chǎn)ccuracy'、‘f1'、‘precision'、‘recall' 、‘roc_auc'、'neg_log_loss'等等 """
檢驗(yàn)曲線
from sklearn.model_selection import validation_curve train_score, test_score = validation_curve(model, X, y, param_name, param_range, cv=None, scoring=None, n_jobs=1) """ model:用于fit和predict的對(duì)象 X, y: 訓(xùn)練集的特征和標(biāo)簽 param_name:將被改變的參數(shù)的名字 param_range: 參數(shù)的改變范圍 cv:k-fold """
6.模型保存:
# 保存為pickle文件
import pickle
# 保存模型
with open('model.pickle', 'wb') as f:
pickle.dump(model, f)
# 讀取模型
with open('model.pickle', 'rb') as f:
model = pickle.load(f)
model.predict(X_test)
# sklearn自帶方法joblib
from sklearn.externals import joblib
# 保存模型
joblib.dump(model, 'model.pickle')
#載入模型
model = joblib.load('model.pickle')
總結(jié)
以上所述是小編給大家介紹的Python sklearn模型選擇,希望對(duì)大家有所幫助,如果大家有任何疑問(wèn)請(qǐng)給我留言,小編會(huì)及時(shí)回復(fù)大家的。在此也非常感謝大家對(duì)腳本之家網(wǎng)站的支持!
如果你覺(jué)得本文對(duì)你有幫助,歡迎轉(zhuǎn)載,煩請(qǐng)注明出處,謝謝!
相關(guān)文章
Python數(shù)據(jù)類型之Tuple元組實(shí)例詳解
這篇文章主要介紹了Python數(shù)據(jù)類型之Tuple元組,結(jié)合實(shí)例形式分析了Python元組類型的概念、定義、讀取、連接、判斷等常見(jiàn)操作技巧與相關(guān)注意事項(xiàng),需要的朋友可以參考下2019-05-05
Python實(shí)現(xiàn)byte轉(zhuǎn)integer
這篇文章主要介紹了Python實(shí)現(xiàn)byte轉(zhuǎn)integer操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-06-06
用Python3通過(guò)PyCharm上傳代碼到Git服務(wù)器的詳細(xì)過(guò)程
上傳代碼到服務(wù)器,如果不知道的情況下還用傳統(tǒng)的方式上傳很麻煩,現(xiàn)在很多IDE都提供上傳代碼的功能,例如:VSCode,PyCharm等等,本文講解的是PyCharm,需要的朋友可以參考下2024-03-03
pytorch中獲取模型input/output shape實(shí)例
今天小編就為大家分享一篇pytorch中獲取模型input/output shape實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-12-12
Python黑魔法Descriptor描述符的實(shí)例解析
與迭代器和裝飾器等一樣,描述符也是Python編程中的一項(xiàng)高級(jí)技巧,這里我們就來(lái)講解Python黑魔法Descriptor描述符的實(shí)例解析:2016-06-06
tensorflow 報(bào)錯(cuò)unitialized value的解決方法
今天小編就為大家分享一篇tensorflow 報(bào)錯(cuò)unitialized value的解決方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-02-02
python3使用pandas獲取股票數(shù)據(jù)的方法
今天小編就為大家分享一篇python3使用pandas獲取股票數(shù)據(jù)的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-12-12
python數(shù)據(jù)寫入Excel文件中的實(shí)現(xiàn)步驟
Python作為時(shí)下流行的語(yǔ)言,數(shù)據(jù)寫入Excel是必要的操作,下面這篇文章主要給大家介紹了關(guān)于python數(shù)據(jù)寫入Excel文件中的簡(jiǎn)單實(shí)現(xiàn)方法,文中通過(guò)實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-04-04

