Python分析特征數(shù)據(jù)類別與預(yù)處理方法速學(xué)
前言
當(dāng)我們開始準(zhǔn)備數(shù)據(jù)建模、構(gòu)建機(jī)器學(xué)習(xí)模型的時候,第一時間考慮的不應(yīng)該是就考慮到選擇模型的種類和方法。而是首先拿到特征數(shù)據(jù)和標(biāo)簽數(shù)據(jù)進(jìn)行研究,挖掘特征數(shù)據(jù)包含的信息以及思考如何更好的處理這些特征數(shù)據(jù)。那么數(shù)據(jù)類型本身代表的含義就需要我們進(jìn)行思考,究竟是定量計(jì)算還是進(jìn)行定類分析更好呢?這就是這篇文章將要詳解的一個問題。
一、特征類型判別
特征類型判斷以及處理是前期特征工程重要的一環(huán),也是決定特征質(zhì)量好壞和權(quán)衡信息丟失最重要的一環(huán)。其中涉及到的數(shù)據(jù)有數(shù)值類型的數(shù)據(jù),例如:年齡、體重、身高這類特征數(shù)據(jù)。也有字符類型特征數(shù)據(jù),例如性別、社會階層、血型、國家歸屬等數(shù)據(jù)。
按照數(shù)據(jù)存儲的數(shù)據(jù)格式可以歸納為兩類:

按照特征數(shù)據(jù)含義又可分為:
- 離散型隨機(jī)變量:取值只能是可取范圍內(nèi)的指定數(shù)值類型的隨機(jī)變量,比如年齡、車流量此類數(shù)據(jù)。
- 連續(xù)隨機(jī)變量:按照測量或者計(jì)算方法得到,在某個范圍內(nèi)連取n個值,此類數(shù)據(jù)可化為定類數(shù)據(jù)。
- 二分類數(shù)據(jù):此類數(shù)據(jù)僅只有兩類:例如是與否、成功與失敗。
- 多分類數(shù)據(jù):此類數(shù)據(jù)有多類:例如天氣出太陽、下雨、陰天。
- 周期型數(shù)據(jù):此類數(shù)據(jù)存在一個周期循環(huán):例如周數(shù)月數(shù)。
二、定量數(shù)據(jù)特征處理
拿到獲取的原始特征,必須對每一特征分別進(jìn)行歸一化,比如,特征A的取值范圍是[-1000,1000],特征B的取值范圍是[-1,1].如果使用logistic回歸,w1x1+w2x2,因?yàn)閤1的取值太大了,所以x2基本起不了作用。所以,必須進(jìn)行特征的歸一化,每個特征都單獨(dú)進(jìn)行歸一化。
關(guān)于處理定量數(shù)據(jù)我已經(jīng)在:數(shù)據(jù)預(yù)處理歸一化詳細(xì)解釋這篇文章里面講述的很詳細(xì)了,這里進(jìn)行前后關(guān)聯(lián),共有min-max標(biāo)準(zhǔn)化、Z-score標(biāo)準(zhǔn)化、Sigmoid函數(shù)標(biāo)準(zhǔn)化三種方法:
根據(jù)特征數(shù)據(jù)含義類型來選擇處理方法:
- 離散型隨機(jī)變量處理方法:min-max標(biāo)準(zhǔn)化、Z-score標(biāo)準(zhǔn)化、Sigmoid函數(shù)標(biāo)準(zhǔn)
- 連續(xù)隨機(jī)變量處理:Z-score標(biāo)準(zhǔn)化,Sigmoid函數(shù)標(biāo)準(zhǔn)
三.定類數(shù)據(jù)特征處理
我的上篇文章[數(shù)據(jù)預(yù)處理歸一化詳細(xì)解釋]并沒有介紹關(guān)于定類數(shù)據(jù)我們?nèi)绾稳ヌ幚?,在本篇文章詳?xì)介紹一些常用的處理方法:
1.LabelEncoding
直接替換方法適用于原始數(shù)據(jù)集中只存在少量數(shù)據(jù)需要人工進(jìn)行調(diào)整的情況。如果需要調(diào)整的數(shù)據(jù)量非常大且數(shù)據(jù)格式不統(tǒng)一,直接替換的方法也可以實(shí)現(xiàn)我們的目的,但是這種方法需要的工作量會非常大。因此, 我們需要能夠快速對整列變量的所有取值進(jìn)行編碼的方法。
LabelEncoding,即標(biāo)簽編碼,作用是為變量的 n 個唯一取值分配一個[0, n-1]之間的編碼,將該變量轉(zhuǎn)換成連續(xù)的數(shù)值型變量。
from sklearn.preprocessing import LabelEncoder le = LabelEncoder() le.fit(['擁堵','緩行','暢行']) le.transform(['擁堵','擁堵','暢行','緩行'])
array([0, 0, 1, 2])
2.OneHotcoding
對于處理定類數(shù)據(jù)我們很容易想到將該類別的數(shù)據(jù)全部替換為數(shù)值:比如車輛擁堵情況,我們把擁堵標(biāo)為1,緩行為2,暢行為3.那么這樣是實(shí)現(xiàn)了標(biāo)簽編碼的,但同時也給這些無量綱的數(shù)據(jù)轉(zhuǎn)為了有量綱數(shù)據(jù),我們本意是沒有將它們比較之意的。機(jī)器可能會學(xué)習(xí)到“擁堵<緩行<暢行”,所以采用這個標(biāo)簽編碼是不夠的,需要進(jìn)一步轉(zhuǎn)換。因?yàn)橛腥N區(qū)間,所以有三個比特,即擁堵編碼為100,緩行為010,暢行為001.如此一來每兩個向量之間的距離都是根號2,在向量空間距離都相等,所以這樣不會出現(xiàn)偏序性,基本不會影響基于向量空間度量算法的效果。
自然狀態(tài)碼為:000,001,010,011,100,101
獨(dú)熱編碼為:000001,000010,000100,001000,010000,100000
我們可以使用sklearn的onehotencoder來實(shí)現(xiàn):
from sklearn import preprocessing enc = preprocessing.OneHotEncoder() enc.fit([[0, 0, 1], [0, 1, 0], [1, 0, 0]]) # fit來學(xué)習(xí)編碼 enc.transform([[0, 0, 1]]).toarray() # 進(jìn)行編碼
array([[1., 0., 1., 0., 0., 1.]])
數(shù)據(jù)矩陣是3*3的,那么原理是怎么來的呢?我們仔細(xì)觀察:

第一列的第一個特征維度有兩種取值0/1,所以對應(yīng)的編碼方式為10、01.
第二列的第二個特征也是一樣的,類比第三列的第三個特征。固001的獨(dú)熱編碼就是101001了。
因?yàn)榇蟛糠炙惴ㄊ腔谙蛄靠臻g中的度量來進(jìn)行計(jì)算的,為了使非偏序關(guān)系的變量取值不具有偏序性,并且到圓點(diǎn)是等距的。使用one-hot編碼,將離散特征的取值擴(kuò)展到了歐式空間,離散特征的某個取值就對應(yīng)歐式空間的某個點(diǎn)。將離散型特征使用one-hot編碼,會讓特征之間的距離計(jì)算更加合理。離散特征進(jìn)行one-hot編碼后,編碼后的特征,其實(shí)每一維度的特征都可以看做是連續(xù)的特征。就可以跟對連續(xù)型特征的歸一化方法一樣,對每一維特征進(jìn)行歸一化。比如歸一化到[-1,1]或歸一化到均值為0,方差為1。
將離散特征通過one-hot編碼映射到歐式空間,是因?yàn)椋诨貧w,分類,聚類等機(jī)器學(xué)習(xí)算法中,特征之間距離的計(jì)算或相似度的計(jì)算是非常重要的,而我們常用的距離或相似度的計(jì)算都是在歐式空間的相似度計(jì)算,計(jì)算余弦相似性,基于的就是歐式空間。
優(yōu)點(diǎn):
獨(dú)熱編碼解決了分類器不好處理屬性數(shù)據(jù)的問題,在一定程度上也起到了擴(kuò)充特征的作用。它的值只有0和1,不同的類型存儲在垂直的空間。
缺點(diǎn):
當(dāng)類別的數(shù)量很多時,特征空間會變得非常大。在這種情況下,一般可以用PCA來減少維度。而且one hot encoding+PCA這種組合在實(shí)際中也非常有用。
應(yīng)用場景:
獨(dú)熱編碼用來解決類別型數(shù)據(jù)的離散值問題。
無用場景:
將離散型特征進(jìn)行one-hot編碼的作用,是為了讓距離計(jì)算更合理,但如果特征是離散的,并且不用one-hot編碼就可以很合理的計(jì)算出距離,那么就沒必要進(jìn)行one-hot編碼。有些基于樹的算法在處理變量時,并不是基于向量空間度量,數(shù)值只是個類別符號,即沒有偏序關(guān)系,所以不用進(jìn)行獨(dú)熱編碼。 Tree Model不太需要one-hot編碼: 對于決策樹來說,one-hot的本質(zhì)是增加樹的深度。
代碼實(shí)現(xiàn)
方法一: 實(shí)現(xiàn)one-hot編碼有兩種方法:sklearn庫中的 OneHotEncoder() 方法只能處理數(shù)值型變量如果是字符型數(shù)據(jù),需要先對其使用 LabelEncoder() 轉(zhuǎn)換為數(shù)值數(shù)據(jù),再使用 OneHotEncoder() 進(jìn)行獨(dú)熱編碼處理,并且需要自行在原數(shù)據(jù)集中刪去進(jìn)行獨(dú)熱編碼處理的原變量。
import pandas as pd
from sklearn.preprocessing import LabelEncoder
from sklearn.preprocessing import LabelEncoder, OneHotEncoder
lE = LabelEncoder()
df=pd.DataFrame({'路況':['擁堵','暢行','暢行','擁堵','暢行','緩行','緩行','擁堵','緩行','擁堵','擁堵','擁堵']})
df['路況']=lE.fit_transform(df['路況'])
OHE = OneHotEncoder()
X = OHE.fit_transform(df).toarray()
df = pd.concat([df, pd.DataFrame(X, columns=['擁堵', '緩行','暢行'])],axis=1)
df

方法二:
pandas自帶get_dummies()方法
get_dummies() 方法可以對數(shù)值數(shù)據(jù)和字符數(shù)據(jù)進(jìn)行處理,直接在原數(shù)據(jù)集上應(yīng)用該方法即可。該方法產(chǎn)生一個新的Dataframe,列名由原變量延伸而成。將其合并入原數(shù)據(jù)集時,需要自行在原數(shù)據(jù)集中刪去進(jìn)行虛擬變量處理的原變量。
import pandas as pd
df=pd.DataFrame({'路況':['擁堵','暢行','暢行','擁堵','暢行','緩行','緩行','擁堵','緩行','擁堵','擁堵','擁堵']})
pd.get_dummies(df,drop_first=False)

以上就是Python分析特征數(shù)據(jù)類別與預(yù)處理方法速學(xué)的詳細(xì)內(nèi)容,更多關(guān)于Python 數(shù)據(jù)類別分析預(yù)處理的資料請關(guān)注腳本之家其它相關(guān)文章!
- python?OpenCV實(shí)現(xiàn)圖像特征匹配示例詳解
- python深度學(xué)習(xí)tensorflow1.0參數(shù)和特征提取
- caffe的python接口caffemodel參數(shù)及特征抽取示例
- Python計(jì)算機(jī)視覺SIFT尺度不變的圖像特征變換
- python神經(jīng)網(wǎng)絡(luò)特征金字塔FPN原理
- python機(jī)器學(xué)習(xí)基礎(chǔ)特征工程算法詳解
- Python機(jī)器學(xué)習(xí)利用隨機(jī)森林對特征重要性計(jì)算評估
- Python機(jī)器學(xué)習(xí)特征重要性分析的8個常用方法實(shí)例探究
相關(guān)文章
Django與pyecharts結(jié)合的實(shí)例代碼
這篇文章主要介紹了Django與pyecharts結(jié)合的實(shí)例代碼,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-05-05
Tensorflow中的placeholder和feed_dict的使用
這篇文章主要介紹了Tensorflow中的placeholder和feed_dict的使用,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-07-07
使用Python完成SAP客戶端的打開和系統(tǒng)登陸功能
這篇文章主要介紹了使用Python完成SAP客戶端的打開和系統(tǒng)登陸,涉及到SAP的打開和登錄過程,本文重點(diǎn)介紹如何通過Python完成SAP應(yīng)用程序的打開并進(jìn)入特定的”用戶指定系統(tǒng)“,需要的朋友可以參考下2022-05-05
創(chuàng)建Python Docker鏡像的詳細(xì)步驟
Python和Docker是兩個極其流行的技術(shù),結(jié)合它們可以創(chuàng)建強(qiáng)大的應(yīng)用程序,Docker允許將應(yīng)用程序及其依賴項(xiàng)打包到一個獨(dú)立的容器中,而Python則提供了豐富的庫和工具來開發(fā)應(yīng)用程序,本文將提供如何創(chuàng)建Python Docker鏡像的全面指南,,需要的朋友可以參考下2023-12-12

