学习这个算法前,得知道一些概率论上面得知识。

 

 

 

 

 

 

 因此,使用朴素贝叶斯算法前,首先需要保证各个特征之间要保持相互独立。

API:sklearn.naive_bayes.MultinomialNB

 

 

 

 alpha时拉普拉斯平滑系数,默认为1。其作用时防止分类得时候类别为0时导致统计结果为0。

 

 上个例子:

读取20类新闻文本,并且将这些新闻文本划分为测试集和训练集,预测测试集的分类。

上代码:

 1 from sklearn.datasets import fetch_20newsgroups
 2 from sklearn.feature_extraction.text import TfidfVectorizer
 3 from sklearn.naive_bayes import MultinomialNB
 4 from sklearn.model_selection import train_test_split
 5 
 6 def naviebayes():
 7     \'\'\'
 8     朴素贝叶斯进行文本分类
 9     :return:
10     \'\'\'
11 
12     #加载数据集
13     news = fetch_20newsgroups(subset=\'all\')
14 
15     #将数据分割为训练集和测试集
16     x_train, x_test, y_train, y_test = train_test_split(news.data, news.target, test_size=0.25)
17 
18     #对数据集进行特征抽取 使用TF-IDF方法
19     tf = TfidfVectorizer()
20 
21     #以训练集当中的词的列表进行每篇文章重要性统计
22     x_train = tf.fit_transform(x_train)
23     print(tf.get_feature_names())
24 
25     x_test = tf.transform(x_test)
26 
27     #进行朴素贝叶斯算法的预测
28     mlt = MultinomialNB(alpha=1.0)
29     print(x_train.toarray())
30     mlt.fit(x_train,y_train)
31 
32     y_predict = mlt.predict(x_test)
33     print(\'预测的文章类别为:\',y_predict)
34 
35     #得出准确率
36     print(\'准确率为:\',mlt.score(x_test,y_test))
37 
38 if __name__ == \'__main__\':
39     naviebayes()

 

 准确度为 85%。还是不错的

通过这个例子,可以得出朴素贝叶斯算法时不需要调参的。

其优点时,分类效率高、算法简单、速度快。

缺点是需要样本特征之间相互独立;因为此算法时不需要调参,所以分类精度一旦计算出来就很难再提高。

 

版权声明:本文为GouQ原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/GouQ/p/11867320.html