特征工程

 

 

 特征抽取

文本特征提取-CountVectorizer

作用:对文本数据进行特征值化

  • sklearn.feature_extraction.text.CountVectorizer(stop_words=[])

    • 返回词频矩阵
  • CountVectorizer.fit_transform(X) X:文本或者包含文本字符串的可迭代对象 返回值:返回sparse矩阵
  • CountVectorizer.inverse_transform(X) X:array数组或者sparse矩阵 返回值:转换之前数据格
  • CountVectorizer.get_feature_names() 返回值:单词列表

应用

我们对以下数据进行特征提取

["life is short,i like python",
"life is too long,i dislike python"]

具体步骤:

  • 实例化类CountVectorizer
  • 调用fit_transform方法输入数据并转换 (注意返回格式,利用toarray()进行sparse矩阵转换array数组)
def count_demo():
    """
       文本特征抽取:CountVectorizer
       :return: None
    """
    data = ["life is short,i like like python", "life is too long,i dislike python"]
    #实例化转换器
    transfer=CountVectorizer(stop_words=["is","too"])
    #调用fit_transform
    data_new=transfer.fit_transform(data)
    print("data_new:\n",data_new.toarray())
    print("返回特征名字:\n", transfer.get_feature_names())
    return None

返回结果:

 

 接下来将英文换成中文

def count_chinese_demo():
    """
       中文文本特征抽取:CountVectorizer
       :return: None
    """
    data = ["我 爱 北京 天安门", "天安门 上 太阳 升"]
    #实例化转换器
    transfer=CountVectorizer()
    #调用fit_transform
    data_new=transfer.fit_transform(data)
    print("data_new:\n",data_new.toarray())
    print("返回特征名字:\n", transfer.get_feature_names())
    return None

结果是:

 

 可见不支持单个中文,需用空格分割,如若不进行分割,会把整个句子来作为特征处理

然后手动分词实现是不太可能的,我们采用jieba进行分词

jieba分词:

def cut_word(text):
    text=" ".join(list(jieba.cut(text)))
    return text

def count_chinese_demo2():
    """
       中文文本特征抽取,自动分词
       :return: None
    """
    data = ["一种还是一种今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。",
            "我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。",
            "如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。"]
    text_new=[]
    for item in data:
        text_new.append(cut_word(item))
    #实例化转换器
    transfer=CountVectorizer(stop_words=["一种","所以"])
    #调用fit_transform
    data_new=transfer.fit_transform(text_new)
    print("data_new:\n",data_new.toarray())
    print("返回特征名字:\n", transfer.get_feature_names())
    return None

实例化容器中加入:stop_words的目的是去除没有太大意义的词

结果为:

 

 总结

CountVectorizer做到的是:以单词作为统计词,并统计出现的次数

文本特征提取-Tf-idf

  • TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的概率高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。
  • TF-IDF作用:用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。

公式

  • 词频(term frequency,tf)指的是某一个给定的词语在该文件中出现的频率
  • 逆向文档频率(inverse document frequency,idf)是一个词语普遍重要性的度量。某一特定词语的idf,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取以10为底的对数得到

 

 案例

def tfidf():

    """
    用TF-IDF的方法进行文本特征抽取
    """
    data = ["一种还是一种今天很残酷,明天更残酷,后天很美好,但绝对大部分是死在明天晚上,所以每个人不要放弃今天。",
            "我们看到的从很远星系来的光是在几百万年之前发出的,这样当我们看到宇宙时,我们是在看它的过去。",
            "如果只用一种方式了解某样事物,你就不会真正了解它。了解事物真正含义的秘密取决于如何将其与我们所了解的事物相联系。"]
    text_new = []
    for item in data:
        text_new.append(cut_word(item))
    # 实例化转换器
    transfer = TfidfVectorizer(stop_words=["一种", "所以"])
    # 调用fit_transform
    data_new = transfer.fit_transform(text_new)
    print("data_new:\n", data_new.toarray())
    print("返回特征名字:\n", transfer.get_feature_names())
    return None

结果如下:

 

 总结

他所反映的是这些词的重要性,主要应用于机器学习算法进行文章分类中前期数据处理方式

特征预处理

什么是特征预处理?

特征预处理API

from sklearn.preprocessing import MinMaxScaler,StandardScaler

为什么我们要进行归一化/标准化?

特征的单位或者大小相差较大,或者某特征的方差相比其他的特征要大出几个数量级,容易影响(支配)目标结果,使得一些算法无法学习到其它的特征

归一化

1 定义

通过对原始数据进行变换把数据映射到(默认为[0,1])之间

2 公式

 

 作用于每一列,max为一列的最大值,min为一列的最小值,那么X’’为最终结果,mx,mi分别为指定区间值默认mx为1,mi为0

3 API

  • sklearn.preprocessing.MinMaxScaler (feature_range=(0,1)… )

    • MinMaxScalar.fit_transform(X)
      • X:numpy array格式的数据[n_samples,n_features]
    • 返回值:转换后的形状相同的array

4 数据计算

def minmax_demo():
    """
    归一化
    """
    #1.获取数据
    data=pd.read_csv("datingTestSet2.txt", sep=',')
    data=data.iloc[:,:3]

    #2.实例化一个转换器,范围在0-1
    transfer = MinMaxScaler(feature_range=[0,1])
    #3.调用fit_transform
    data_new=transfer.fit_transform(data)
    print("data_new:\n",data_new)
    print("特征:\n",data.columns)

    return None

结果如下:

5 归一化总结

注意最大值最小值是变化的,另外,最大值与最小值非常容易受异常点影响,所以这种方法鲁棒性较差,只适合传统精确小数据场景。

标准化

1 定义

通过对原始数据进行变换把数据变换到均值为0,标准差为1范围内

2 公式

作用于每一列,mean为平均值,σ为标准差

所以回到刚才异常点的地方,我们再来看看标准化

  • 对于归一化来说:如果出现异常点,影响了最大值和最小值,那么结果显然会发生改变
  • 对于标准化来说:如果出现异常点,由于具有一定数据量,少量的异常点对于平均值的影响并不大,从而方差改变较小。

3 API

  • sklearn.preprocessing.StandardScaler( )

    • 处理之后每列来说所有数据都聚集在均值0附近标准差差为1
    • StandardScaler.fit_transform(X)
      • X:numpy array格式的数据[n_samples,n_features]
    • 返回值:转换后的形状相同的array

4 数据计算

def stand_demo():
    """
    归一化
    """
    #1.获取数据
    data=pd.read_csv("datingTestSet2.txt", sep=',')
    data=data.iloc[:,:3]

    #2.实例化一个转换器
    transfer = StandardScaler()
    #3.调用fit_transform
    data_new=transfer.fit_transform(data)
    print("data_new:\n",data_new)
    print("每一列特征的平均值:\n", transfer.mean_)
    print("每一列特征的方差:\n", transfer.var_)

    return None

结果如下:

5 标准化总结

在已有样本足够多的情况下比较稳定,适合现代嘈杂大数据场景。

特征选择

1 定义

数据中包含冗余或无关变量(或称特征、属性、指标等),旨在从原有特征中找出主要特征。

2 方法

  • Filter(过滤式):主要探究特征本身特点、特征与特征和目标值之间关联

    • 方差选择法:低方差特征过滤
    • 相关系数
  • Embedded (嵌入式):算法自动选择特征(特征与目标值之间的关联)

    • 决策树:信息熵、信息增益
    • 正则化:L1、L2
    • 深度学习:卷积等

3API

from sklearn.feature_selection import VarianceThreshold

4低方差特征过滤

删除低方差的一些特征,前面讲过方差的意义。再结合方差的大小来考虑这个方式的角度。

  • 特征方差小:某个特征大多样本的值比较相近
  • 特征方差大:某个特征很多样本的值都有差别

难点:在于掌握阈值的大小,来进行合理的控制低方差的过滤

相关系数

反映变量之间相关关系密切程度的统计指标

 

 相关系数的值介于–1与+1之间,即–1≤ r ≤+1。

一般可按三级划分:|r|<0.4为低度相关;0.4≤|r|<0.7为显著性相关;0.7≤|r|<1为高度线性相关

#低方差过滤
def variance_demo():
    """
        删除低方差特征——特征选择
        :return: None
        """
    data = pd.read_csv("factor_returns.csv")
    data=data.iloc[:,1:-2]
    print("data:\n",data)
    # 1、实例化一个转换器类
    transfer = VarianceThreshold(threshold=10)
    # 2、调用fit_transform
    data_new = transfer.fit_transform(data)
    print("date_new:\n", data_new)
    print("形状:\n", data_new.shape)
    #计算两个变量之间的相关系数
    r=pearsonr(data["pe_ratio"],data["pb_ratio"])
    print("相关系数:\n",r)
    r2=pearsonr(data["revenue"],data["total_expense"])
    print("revenue与total_expense之间的相关性:\n",r2)
    plt.figure(figsize=(20,8),dpi=100)
    plt.scatter(data["revenue"],data["total_expense"])
    plt.show()
    return None

主成分分析

什么是主成分分析(PCA)

  • 定义:高维数据转化为低维数据的过程,在此过程中可能会舍弃原有数据、创造新的变量

  • 作用:是数据维数压缩,尽可能降低原数据的维数(复杂度),损失少量信息。

  • 应用:回归分析或者聚类分析当中

计算案例理解

假设对于给定5个点,数据如下

(-1,-2)
(-1, 0)
( 0, 0)
( 2, 1)
( 0, 1)

 

 要求:将这个二维的数据简化成一维? 并且损失少量的信息

 

 

这个过程如何计算的呢?找到一个合适的直线,通过一个矩阵运算得出主成分分析的结果(不需要理解)

 

 

2 API

  • sklearn.decomposition.PCA(n_components=None)

    • 将数据分解为较低维数空间
    • n_components:
      • 小数:表示保留百分之多少的信息
      • 整数:减少到多少特征
    • PCA.fit_transform(X) X:numpy array格式的数据[n_samples,n_features]
    • 返回值:转换后指定维度的array

3 数据计算

def pca_demo():
    """
    pca降维
    """
    data=[[2,8,4,5],[6,3,0,8],[5,4,9,1]]
    #实例化一个转换器
    transfer=PCA(n_components=0.95)
    #调用fit_transform
    data_new=transfer.fit_transform(data)
    print("保留95%的信息,降维结果为:\n",data_new)

    # 1、实例化PCA, 整数——指定降维到的维数
    transfer2 = PCA(n_components=3)
    # 2、调用fit_transform
    data2 = transfer2.fit_transform(data)
    print("降维到3维的结果:\n", data2)
    return None

结果如下:

 

 

 

版权声明:本文为xiaofengzai原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/xiaofengzai/p/14290458.html