python實(shí)現(xiàn)樸素貝葉斯分類(lèi)器
本文用的是sciki-learn庫(kù)的iris數(shù)據(jù)集進(jìn)行測(cè)試。用的模型也是最簡(jiǎn)單的,就是用貝葉斯定理P(A|B) = P(B|A)*P(A)/P(B),計(jì)算每個(gè)類(lèi)別在樣本中概率(代碼中是pLabel變量)
以及每個(gè)類(lèi)下每個(gè)特征的概率(代碼中是pNum變量)。
寫(xiě)得比較粗糙,對(duì)于某個(gè)類(lèi)下沒(méi)有此特征的情況采用p=1/樣本數(shù)量。
有什么錯(cuò)誤有人發(fā)現(xiàn)麻煩提出,謝謝。
[python] view plain copy
# -*- coding:utf-8 -*-
from numpy import *
from sklearn import datasets
import numpy as np
class NaiveBayesClassifier(object):
def __init__(self):
self.dataMat = list()
self.labelMat = list()
self.pLabel = {}
self.pNum = {}
def loadDataSet(self):
iris = datasets.load_iris()
self.dataMat = iris.data
self.labelMat = iris.target
labelSet = set(iris.target)
labelList = [i for i in labelSet]
labelNum = len(labelList)
for i in range(labelNum):
self.pLabel.setdefault(labelList[i])
self.pLabel[labelList[i]] = np.sum(self.labelMat==labelList[i])/float(len(self.labelMat))
def seperateByClass(self):
seperated = {}
for i in range(len(self.dataMat)):
vector = self.dataMat[i]
if self.labelMat[i] not in seperated:
seperated[self.labelMat[i]] = []
seperated[self.labelMat[i]].append(vector)
return seperated
# 通過(guò)numpy array二維數(shù)組來(lái)獲取每一維每種數(shù)的概率
def getProbByArray(self, data):
prob = {}
for i in range(len(data[0])):
if i not in prob:
prob[i] = {}
dataSetList = list(set(data[:, i]))
for j in dataSetList:
if j not in prob[i]:
prob[i][j] = 0
prob[i][j] = np.sum(data[:, i] == j) / float(len(data[:, i]))
prob[0] = [1 / float(len(data[:,0]))] # 防止feature不存在的情況
return prob
def train(self):
featureNum = len(self.dataMat[0])
seperated = self.seperateByClass()
t_pNum = {} # 存儲(chǔ)每個(gè)類(lèi)別下每個(gè)特征每種情況出現(xiàn)的概率
for label, data in seperated.iteritems():
if label not in t_pNum:
t_pNum[label] = {}
t_pNum[label] = self.getProbByArray(np.array(data))
self.pNum = t_pNum
def classify(self, data):
label = 0
pTest = np.ones(3)
for i in self.pLabel:
for j in self.pNum[i]:
if data[j] not in self.pNum[i][j]:
pTest[i] *= self.pNum[i][0][0]
else:
pTest[i] *= self.pNum[i][j][data[j]]
pMax = np.max(pTest)
ind = np.where(pTest == pMax)
return ind[0][0]
def test(self):
self.loadDataSet()
self.train()
pred = []
right = 0
for d in self.dataMat:
pred.append(self.classify(d))
for i in range(len(self.labelMat)):
if pred[i] == self.labelMat[i]:
right += 1
print right / float(len(self.labelMat))
if __name__ == '__main__':
NB = NaiveBayesClassifier()
NB.test()
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- python 實(shí)現(xiàn)樸素貝葉斯算法的示例
- Python實(shí)現(xiàn)樸素貝葉斯的學(xué)習(xí)與分類(lèi)過(guò)程解析
- python實(shí)現(xiàn)基于樸素貝葉斯的垃圾分類(lèi)算法
- python實(shí)現(xiàn)樸素貝葉斯算法
- Python實(shí)現(xiàn)樸素貝葉斯分類(lèi)器的方法詳解
- 樸素貝葉斯分類(lèi)算法原理與Python實(shí)現(xiàn)與使用方法案例
- python機(jī)器學(xué)習(xí)之貝葉斯分類(lèi)
- 用Python從零實(shí)現(xiàn)貝葉斯分類(lèi)器的機(jī)器學(xué)習(xí)的教程
- 樸素貝葉斯算法的python實(shí)現(xiàn)方法
- python實(shí)現(xiàn)貝葉斯推斷的例子
相關(guān)文章
From CSV to SQLite3 by python 導(dǎo)入csv到sqlite實(shí)例
今天小編就為大家分享一篇From CSV to SQLite3 by python 導(dǎo)入csv到sqlite實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-02-02
基于tkinter中ttk控件的width-height設(shè)置方式
這篇文章主要介紹了基于tkinter中ttk控件的width-height設(shè)置方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-05-05
基于Python __dict__與dir()的區(qū)別詳解
下面小編就為大家?guī)?lái)一篇基于Python __dict__與dir()的區(qū)別詳解。小編覺(jué)得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-10-10
Python2.6版本中實(shí)現(xiàn)字典推導(dǎo) PEP 274(Dict Comprehensions)
這篇文章主要介紹了Python2.6版本中實(shí)現(xiàn)字典推導(dǎo) PEP 274(Dict Comprehensions),本文給出了表達(dá)式寫(xiě)法和for循環(huán)寫(xiě)法兩種方法實(shí)現(xiàn)字符推導(dǎo),需要的朋友可以參考下2015-04-04

