pandas的拼接操作

pandas的拼接分为两种:

  • 级联:pd.concat, pd.append
  • 合并:pd.merge, pd.join

1. 使用pd.concat()级联

pandas使用pd.concat函数,与np.concatenate函数类似,只是多了一些参数:

objs
axis=0
keys
join=\'outer\' / \'inner\':表示的是级联的方式,outer会将所有的项进行级联(忽略匹配和不匹配),而inner只会将匹配的项级联到一起,不匹配的不级联
ignore_index=False

1.1 匹配级联
import numpy as np
import pandas as pd
from pandas import Series,DataFrame
df1 = DataFrame(data=np.random.randint(0,100,size=(3,4)),index=[\'A\',\'B\',\'C\'],columns=[\'a\',\'b\',\'c\',\'d\'])
df2 = DataFrame(data=np.random.randint(0,100,size=(3,4)),index=[\'A\',\'D\',\'C\'],columns=[\'a\',\'b\',\'e\',\'d\'])
display(df1,df2)

 

 

pd.concat((df1,df1,df1),axis=1,join=\'inner\') #将df1 进行行的拼接

 

2 不匹配的级联

不匹配指的是级联的维度的索引不一致。例如纵向级联时列索引不一致,横向级联时行索引不一致

有2种连接方式:

  • 外连接:补NaN(默认模式)
  • 内连接:只连接匹配的项
pd.concat((df1,df2),axis=0,join=\'inner\') # 将列进行拼接,内连接

 

使用pd.merge()合并

merge与concat的区别在于,merge需要依据某一共同的列来进行合并

使用pd.merge()合并时,会自动根据两者相同column名称的那一列,作为key来进行合并。

注意每一列元素的顺序不要求一致

参数:

  • how:out取并集 inner取交集
  • on:当有多列相同的时候,可以使用on来指定使用那一列进行合并,on的值为一个列表

1) 一对一的合并

创建数据

df1 = DataFrame({\'employee\':[\'Bob\',\'Jake\',\'Lisa\'],
                \'group\':[\'Accounting\',\'Engineering\',\'Engineering\'],
                })

 

 

df2 = DataFrame({\'employee\':[\'Lisa\',\'Bob\',\'Jake\'],
                \'hire_date\':[2004,2008,2012],
                })

 

 

pd.merge(df1,df2) # 合并 默认根据相同的字段合并

 

 

2)多对一合并

# 创建数据
df3 = DataFrame({ \'employee\':[\'Lisa\',\'Jake\'], \'group\':[\'Accounting\',\'Engineering\'], \'hire_date\':[2004,2016]})

 

df4 = DataFrame({\'group\':[\'Accounting\',\'Engineering\',\'Engineering\'],
                       \'supervisor\':[\'Carly\',\'Guido\',\'Steve\']
                })

pd.merge(df3,df4) # 合并数据

3) 多对多合并

df1 = DataFrame({\'employee\':[\'Bob\',\'Jake\',\'Lisa\'],
                 \'group\':[\'Accounting\',\'Engineering\',\'Engineering\']})

df5 = DataFrame({\'group\':[\'Engineering\',\'Engineering\',\'HR\'],
                \'supervisor\':[\'Carly\',\'Guido\',\'Steve\']
                })

pd.merge(df1,df5,how=\'outer\') # 合并外连接

4) key的规范化

  • 当列冲突时,即有多个列名称相同时,需要使用on=来指定哪一个列作为key,配合suffixes指定冲突列名

 

df1 = DataFrame({\'employee\':[\'Jack\',"Summer","Steve"],
                 \'group\':[\'Accounting\',\'Finance\',\'Marketing\']})

df2 = DataFrame({\'employee\':[\'Jack\',\'Bob\',"Jake"],
                 \'hire_date\':[2003,2009,2012],
                \'group\':[\'Accounting\',\'sell\',\'ceo\']})

pd.merge(df1,df2,on=\'employee\') #合并 指定固定的列

  • 当两张表没有可进行连接的列时,可使用left_on和right_on手动指定merge中左右两边的哪一列列作为连接的列
df1 = DataFrame({\'employee\':[\'Bobs\',\'Linda\',\'Bill\'],
                \'group\':[\'Accounting\',\'Product\',\'Marketing\'],
               \'hire_date\':[1998,2017,2018]})

df5 = DataFrame({\'name\':[\'Lisa\',\'Bobs\',\'Bill\'],
                \'hire_dates\':[1998,2016,2007]})

pd.merge(df1,df5,left_on=\'employee\',right_on=\'name\') # 指定左右合并的列

5) 内合并与外合并:out取并集 inner取交集

df6 = DataFrame({\'name\':[\'Peter\',\'Paul\',\'Mary\'],
               \'food\':[\'fish\',\'beans\',\'bread\']}
               )
df7 = DataFrame({\'name\':[\'Mary\',\'Joseph\'],
                \'drink\':[\'wine\',\'beer\']})
外合并 how=\'outer\':补NaN
df6 = DataFrame({\'name\':[\'Peter\',\'Paul\',\'Mary\'],
               \'food\':[\'fish\',\'beans\',\'bread\']}
               )
df7 = DataFrame({\'name\':[\'Mary\',\'Joseph\'],
                \'drink\':[\'wine\',\'beer\']})

 

 删除重复元素

使用duplicated()函数检测重复的行,返回元素为布尔类型的Series对象,每个元素对应一行,如果该行不是第一次出现,则元素为True

- keep参数:指定保留哪一重复的行数据
  • 创建具有重复元素行的DataFrame
import numpy as np
from pandas import DataFrame,Series
import pandas as pd

 # 创建数据

df = DataFrame(data=np.random.randint(0,100,size=(9,5)))
df.iloc[1] = [6,6,6,6,6] # 将第一行的数据赋值
df.iloc[3] = [6,6,6,6,6]
df.iloc[5] = [6,6,6,6,6]

 

 

使用drop_duplicates()函数删除重复的行

  • drop_duplicates(keep=\’first/last\’/False)

 first只留下第一行的重复的值

last 只留下最后一行的重复的值

False全部重复的值都删除 

df.drop_duplicates(keep=\'first\') 

 

映射

replace()函数:替换元素

DataFrame替换操作

  • 单值替换
    • 普通替换: 替换所有符合要求的元素:to_replace=15,value=\’e\’
    • 按列指定单值替换: to_replace={列标签:替换值} value=\’value\’
  • 多值替换
    • 列表替换: to_replace=[] value=[]
    • 字典替换(推荐) to_replace={to_replace:value,to_replace:value}

 

df.replace(to_replace=6,value=\'six\') 将值是6的元素,替换成six
df.replace(to_replace={3:\'three\'}) 将值是3的元素,替换成three
df.replace(to_replace={3:6},value=\'six\') 索引是3列的所有的6都替换six

map()函数:新建一列 , map函数并不是df的方法,而是series的方法

  • map()可以映射新一列数据
  • map()中可以使用lambd表达式
  • map()中可以使用方法,可以是自定义的方法

    eg:map({to_replace:value})

  • 注意 map()中不能使用sum之类的函数,for循环
  • 新增一列:给df中,添加一列,该列的值为中文名对应的英文名
dic = {
    \'name\':[\'jay\',\'tom\',\'jay\'],
    \'salary\':[9999,5000,9999]
}
df = DataFrame(data=dic)

 

dic = {
    \'jay\':\'周杰伦\',
    \'tom\':\'张三\'
}
# 将name 循环给dic函数 df[
\'c_name\'] = df[\'name\'].map(dic) # 根据键值替换,键是元数据 值是替换后的数据

 

map当做一种运算工具,至于执行何种运算,是由map函数的参数决定的(参数:lambda,函数)

  • 使用自定义函数
def after_sal(s):
    return s - (s-3000)*0.5
#超过3000部分的钱缴纳50%的税
df[\'after_sal\'] = df[\'salary\'].map(after_sal)
df

 

#超过3000部分的钱缴纳50%的税

def after_sal(s):
return s - (s-3000)*0.5
  
df[\'salary\'].apply(after_sal) #

注意:并不是任何形式的函数都可以作为map的参数。只有当一个函数具有一个参数且有返回值,那么该函数才可以作为map的参数

 使用聚合操作对数据异常值检测和过滤

使用df.std()函数可以求得DataFrame对象每一列的标准差

  • 创建一个1000行3列的df 范围(0-1),求其每一列的标准差
df = DataFrame(data=np.random.random(size=(1000,3)),columns=[\'A\',\'B\',\'C\'])

 

 

 

对df应用筛选条件,去除标准差太大的数据:假设过滤条件为 C列数据大于两倍的C列标准差

 

std_twice = df[\'C\'].std() * 2
0.5809347094044642
df[\'C\'] > std_twice
#异常值对应的行数据
df.loc[df[\'C\'] > std_twice]
indexs = df.loc[df[\'C\'] > std_twice].index
df.drop(labels=indexs,axis=0,inplace=True)

 

 

数据清洗

  • 清洗空值
    • dropna fillna isnull notnull any all
  • 清洗重复值
    • drop_duplicates(keep)
  • 清洗异常值
    • 异常值监测的结果(布尔值),作为清洗的过滤的条件

 

4. 排序

使用.take()函数排序

- take()函数接受一个索引列表,用数字表示,使得df根据列表中索引的顺序进行排序
- eg:df.take([1,3,4,2,5])

可以借助np.random.permutation()函数随机排序

df.take([2,1,0],axis=1).take(np.random.permutation(500),axis=0)
#随机取20行
df.take([2,1,0],axis=1).take(np.random.permutation(500),axis=0)[0:20]
  • np.random.permutation(x)可以生成x个从0-(x-1)的随机数列

随机抽样

当DataFrame规模足够大时,直接使用np.random.permutation(x)函数,就配合take()函数实现随机抽样

5. 数据分类处理【重点】

数据聚合是数据处理的最后一步,通常是要使每一个数组生成一个单一的数值。

数据分类处理:

  • 分组:先把数据分为几组
  • 用函数处理:为不同组的数据应用不同的函数以转换数据
  • 合并:把不同组得到的结果合并起来

数据分类处理的核心:

 - groupby()函数
 - groups属性查看分组情况
 - eg: df.groupby(by=\'item\').groups

分组

from pandas import DataFrame,Series
df = DataFrame({\'item\':[\'Apple\',\'Banana\',\'Orange\',\'Banana\',\'Orange\',\'Apple\'],
                \'price\':[4,3,3,2.5,4,2],
               \'color\':[\'red\',\'yellow\',\'yellow\',\'green\',\'green\',\'green\'],
               \'weight\':[12,20,50,30,20,44]})

  • 使用groupby实现分组
df.groupby(by=\'item\')
  • 使用groups查看分组情况
#该函数可以进行数据的分组,但是不显示分组情况
df.groupby(by=\'item\').groups
df.groupby(by=\'item\').mean()[\'price\']
{\'Apple\': Int64Index([0, 5], dtype=\'int64\'),
 \'Banana\': Int64Index([1, 3], dtype=\'int64\'),
 \'Orange\': Int64Index([2, 4], dtype=\'int64\')}
#给df创建一个新列,内容为各个水果的平均价格
df.groupby(by=\'item\').mean()[\'price\']

 

 item Apple 3.00 Banana 2.75 Orange 3.50 Name: price, dtype: float64、

mean_price_s = df.groupby(by=\'item\')[\'price\'].mean()
mean_price_s

 

 

item
Apple     3.00
Banana    2.75
Orange    3.50
Name: price, dtype: float64
dic = mean_price_s.to_dict()
{\'Apple\': 3.0, \'Banana\': 2.75, \'Orange\': 3.5}

 

df[\'mean_price\'] = df[\'item\'].map(dic)

 高级数据聚合

使用groupby分组后,也可以使用transform和apply提供自定义函数实现更多的运算

  • df.groupby(\’item\’)[\’price\’].sum() <==> df.groupby(\’item\’)[\’price\’].apply(sum)
  • transform和apply都会进行运算,在transform或者apply中传入函数即可
  • transform和apply也可以传入一个lambda表达式
def my_mean(s):
    sum = 0
    for i in s:
        sum += i
    return sum/s.size
df.groupby(by=\'item\')[\'price\'].transform(my_mean)
df.groupby(by=\'item\')[\'price\'].apply(my_mean)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 









版权声明:本文为lulin9501原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/lulin9501/p/11348387.html