8段用于數據清洗Python代碼(小結)
最近,大數據工程師Kin Lim Lee在Medium上發(fā)表了一篇文章,介紹了8個用于數據清洗的Python代碼。
數據清洗,是進行數據分析和使用數據訓練模型的必經之路,也是最耗費數據科學家/程序員精力的地方。
這些用于數據清洗的代碼有兩個優(yōu)點:一是由函數編寫而成,不用改參數就可以直接使用。二是非常簡單,加上注釋最長的也不過11行。在介紹每一段代碼時,Lee都給出了用途,也在代碼中也給出注釋。大家可以把這篇文章收藏起來,當做工具箱使用。
涵蓋8大場景的數據清洗代碼
這些數據清洗代碼,一共涵蓋8個場景,分別是:
刪除多列、更改數據類型、將分類變量轉換為數字變量、檢查缺失數據、刪除列中的字符串、刪除列中的空格、用字符串連接兩列(帶條件)、轉換時間戳(從字符串到日期時間格式)
刪除多列
在進行數據分析時,并非所有的列都有用,用df.drop可以方便地刪除你指定的列。
def drop_multiple_col(col_names_list, df): AIM -> Drop multiple columns based on their column names INPUT -> List of column names, df OUTPUT -> updated df with dropped columns ------ df.drop(col_names_list, axis=1, inplace=True) return df
轉換數據類型
當數據集變大時,需要轉換數據類型來節(jié)省內存。
def change_dtypes(col_int, col_float, df): AIM -> Changing dtypes to save memory INPUT -> List of column names (int, float), df OUTPUT -> updated df with smaller memory ------ df[col_int] = df[col_int].astype( int32 ) df[col_float] = df[col_float].astype( float32 )
將分類變量轉換為數值變量
一些機器學習模型要求變量采用數值格式。這需要先將分類變量轉換為數值變量。同時,你也可以保留分類變量,以便進行數據可視化。
def convert_cat2num(df):
# Convert categorical variable to numerical variable
num_encode = { col_1 : { YES :1, NO :0},
col_2 : { WON :1, LOSE :0, DRAW :0}}
df.replace(num_encode, inplace=True)
檢查缺失數據
如果你要檢查每列缺失數據的數量,使用下列代碼是最快的方法??梢宰屇愀玫亓私饽男┝腥笔У臄祿?,從而確定怎么進行下一步的數據清洗和分析操作。
def check_missing_data(df): # check for any missing data in the df (display in descending order) return df.isnull().sum().sort_values(ascending=False)
刪除列中的字符串
有時候,會有新的字符或者其他奇怪的符號出現在字符串列中,這可以使用df[‘col_1'].replace很簡單地把它們處理掉。
def remove_col_str(df): # remove a portion of string in a dataframe column - col_1 df[ col_1 ].replace(, , regex=True, inplace=True) # remove all the characters after &# (including &#) for column - col_1 df[ col_1 ].replace( &#.* , , regex=True, inplace=True)
刪除列中的空格
數據混亂的時候,什么情況都有可能發(fā)生。字符串開頭經常會有一些空格。在刪除列中字符串開頭的空格時,下面的代碼非常有用。
def remove_col_white_space(df): # remove white space at the beginning of string df[col] = df[col].str.lstrip()
用字符串連接兩列(帶條件)
當你想要有條件地用字符串將兩列連接在一起時,這段代碼很有幫助。比如,你可以在第一列結尾處設定某些字母,然后用它們與第二列連接在一起。根據需要,結尾處的字母也可以在連接完成后刪除。
def concat_col_str_condition(df): # concat 2 columns with strings if the last 3 letters of the first column are pil mask = df[ col_1 ].str.endswith( pil , na=False) col_new = df[mask][ col_1 ] + df[mask][ col_2 ] col_new.replace( pil , , regex=True, inplace=True) # replace the pil with emtpy space
轉換時間戳(從字符串到日期時間格式)
在處理時間序列數據時,我們很可能會遇到字符串格式的時間戳列。這意味著要將字符串格式轉換為日期時間格式(或者其他根據我們的需求指定的格式) ,以便對數據進行有意義的分析。
def convert_str_datetime(df): AIM -> Convert datetime(String) to datetime(format we want) INPUT -> df OUTPUT -> updated df with new datetime format ------ df.insert(loc=2, column= timestamp , value=pd.to_datetime(df.transdate, format= %Y-%m-%d
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
python中elasticsearch_dsl模塊的使用方法
這篇文章主要介紹了python中elasticsearch_dsl模塊的使用方法,elasticsearch-dsl是基于elasticsearch-py封裝實現的,提供了更簡便的操作elasticsearch的方法2022-09-09
ubuntu 18.04 安裝opencv3.4.5的教程(圖解)
這篇文章主要介紹了ubuntu 18.04 安裝opencv3.4.5的教程,本文圖文并茂給大家介紹的非常詳細,具有一定的參考借鑒價值,需要的朋友可以參考下2019-11-11
Flask實現的接口響應中存在中文時接口返回為unicode亂碼的解決方法
本文給大家分享了新版Flask實現的接口響應中存在中文時接口返回為unicode亂碼的解決方法,文中通過代碼示例和圖文介紹的非常詳細,如果有遇到相同問題的朋友,可以參考閱讀本文2023-11-11

