python-案例总结-二--pandas预处理常用操作

python常用于数据分析,主要是因为有了数据分析利器--pandas。前两期已经介绍了pandas的数据结构、读写操作等,今天主要介绍一下常用的数据分析预处理的操作,分别是:

(1)缺失值处理:dropna(),fillna()

(2)重复值处理:drop_duplicates()

(3)离散化:cut(),qcut()

(4)分组聚合:groupby()

(5)数据透视表:pivot_table()

(6)排序:sort_values()

(1) 缺失值处理

缺失值的出现往往是因为登记的时候或者录入的时候不规范而出现的异常值或者不填写、无录入而导致的,在python中我们常用isnull()、info()、describe()等来判断缺失值的位置。而对于缺失值的处理,我们常用的方法有:直接删除(不影响原来数据的情况,也就是缺失值的量很少)、均值(受异常值影响较大)、中位数(受异常值影响较小)、众数(缺失值为字符,也就是类别)填充、向前向后填充、插补法等等。当然最合适的方法是寻找最接近的值进行填补。

dropna常用参数:

how:以什么方式删除,any表示有一个空值时即删除,all表示全为空值时才删除

axis:axis = 1是列操作,axis = 0是行操作

thresh:某行有多少个非空值时保留该行

#info()查看数据信息
import pandas as pd
data = pd.read_table(r"D:\迅雷下载\示例txt.txt",engine = "python",nrows= 10,index_col = 0)
print(data.info())
<class 'pandas.core.frame.DataFrame'>
Int64Index: 9 entries, 1 to 9
Data columns (total 5 columns):
性别      7 non-null object
年龄      7 non-null float64
省内省外    8 non-null float64
消费金额    7 non-null float64
贷款与否    8 non-null float64
dtypes: float64(4), object(1)
memory usage: 432.0+ bytes
None

我们可以看到数据集一共有9行,而各列的非空值分别有7或者8个,也就是说各列至少有一个空值。

print(data.dropna(how = "all",axis =0))  #how = "all",axis = 0表示当一行全是空值时,删除该行
性别    年龄  省内省外   消费金额  贷款与否
用户id                              
1       男  60.0   1.0  311.0   0.0
2     NaN  25.0   1.0  220.0   1.0
3       男  47.0   1.0  246.0   0.0
4       女  52.0   0.0    NaN   0.0
5       女  21.0   0.0  916.0   0.0
6       男  37.0   0.0  980.0   1.0
7       男  34.0   0.0  482.0   1.0
8       男   NaN   0.0  267.0   0.0

print(data.dropna(how = "any",axis = 0)) # how = "any",axis = 0表示当一行里有一个空值时,删除该行
性别    年龄  省内省外   消费金额  贷款与否
用户id                            
1     男  60.0   1.0  311.0   0.0
3     男  47.0   1.0  246.0   0.0
5     女  21.0   0.0  916.0   0.0
6     男  37.0   0.0  980.0   1.0
7     男  34.0   0.0  482.0   1.0

print(data.dropna(how = "any",axis = 1)) #how ="any",axis = 1表示当一列里有一个空值时,删除该列
Empty DataFrame
Columns: []
Index: [1, 2, 3, 4, 5, 6, 7, 8, 9]

data.dropna(how = "all",axis = 0,inplace = True)       #inplace = True将原数据替换成dropna后的数据
print(data)
性别    年龄  省内省外   消费金额  贷款与否
用户id                              
1       男  60.0   1.0  311.0   0.0
2     NaN  25.0   1.0  220.0   1.0
3       男  47.0   1.0  246.0   0.0
4       女  52.0   0.0    NaN   0.0
5       女  21.0   0.0  916.0   0.0
6       男  37.0   0.0  980.0   1.0
7       男  34.0   0.0  482.0   1.0
8       男   NaN   0.0  267.0   0.0

#thresh:当某行有多少个非空值时,保留该行
print(data.dropna(thresh = 3))
性别    年龄  省内省外   消费金额  贷款与否
用户id                              
1       男  60.0   1.0  311.0   0.0
2     NaN  25.0   1.0  220.0   1.0
3       男  47.0   1.0  246.0   0.0
4       女  52.0   0.0    NaN   0.0
5       女  21.0   0.0  916.0   0.0
6       男  37.0   0.0  980.0   1.0
7       男  34.0   0.0  482.0   1.0
8       男   NaN   0.0  267.0   0.0

#固定值填补
print(data.fillna(0))
性别    年龄  省内省外   消费金额  贷款与否
用户id                            
1     男  60.0   1.0  311.0   0.0
2     0  25.0   1.0  220.0   1.0
3     男  47.0   1.0  246.0   0.0
4     女  52.0   0.0    0.0   0.0
5     女  21.0   0.0  916.0   0.0
6     男  37.0   0.0  980.0   1.0
7     男  34.0   0.0  482.0   1.0
8     男   0.0   0.0  267.0   0.0

#利用字典同时多处填补
import numpy as np
data.fillna({"年龄":np.median(data["年龄"][data["年龄"].notnull()]),"消费金额":np.mean(data["消费金额"][data["消费金额"].notnull()])},inplace = True)
print(data)
性别    年龄  省内省外        消费金额  贷款与否
用户id                                   
1       男  60.0   1.0  311.000000   0.0
2     NaN  25.0   1.0  220.000000   1.0
3       男  47.0   1.0  246.000000   0.0
4       女  52.0   0.0  488.857143   0.0
5       女  21.0   0.0  916.000000   0.0
6       男  37.0   0.0  980.000000   1.0
7       男  34.0   0.0  482.000000   1.0
8       男  37.0   0.0  267.000000   0.0

#众数用value_counts()统计
print(data["性别"].value_counts())
男    5
女    2
Name: 性别, dtype: int64

#众数用describe()统计
print(data.describe(include = np.object))     #include = np.object 只统计字符型
性别
count   7
unique  2
top     男
freq    5

#replacet填补空值
data["性别"].replace(np.NaN,"男",inplace = True)
print(data)
性别    年龄  省内省外        消费金额  贷款与否
用户id                                 
1     男  60.0   1.0  311.000000   0.0
2     男  25.0   1.0  220.000000   1.0
3     男  47.0   1.0  246.000000   0.0
4     女  52.0   0.0  488.857143   0.0
5     女  21.0   0.0  916.000000   0.0
6     男  37.0   0.0  980.000000   1.0
7     男  34.0   0.0  482.000000   1.0
8     男  37.0   0.0  267.000000   0.0

#拉格朗日填补法(行索引为默认值,从0开始)
from scipy.interpolate import lagrange
def p_col(a,b,k= 5):         #a是数据,b是空值位置,k是前后多少位,这里设为默认5
    x = a[list(range(b-k,b)) + list(range(b+1,b+k+1))]    #取数
    x =x[x.notnull()]       #非空值
    return lagrange(x.index,list(x))(b)
df = pd.read_table(r"D:\迅雷下载\示例txt.txt",engine = "python")
for j in range(len(df)):
    if(df["消费金额"].isnull())[j]:     #找到需要插值的位置
        df["消费金额"][j] = p_col(df["消费金额"],j)    
print(df["消费金额"])
0     311.000000
1     220.000000
2     246.000000
3     529.257143
4     916.000000
5     980.000000
6     482.000000
7     267.000000
8    2264.257143
Name: 消费金额, dtype: float64

# 自定义一个函数填充不同格式的值
def insert_data(x):
    for i in x.columns:
        if x[i].dtype == "object":
            x[i] = x[i].fillna(x[i].value_counts().idxmax())
        elif x[i].dtype == "float64":
            x[i] = x[i].fillna(x[i][x[i].notnull()].mean())
        elif x[i].dtype == "int64":
            x[i] = x[i].fillna(x[i][x[i].notnull()].median())
insert_data(data)
print(data)
性别    年龄  省内省外        消费金额  贷款与否
用户id                                 
1     男  60.0   1.0  311.000000   0.0
2     男  25.0   1.0  220.000000   1.0
3     男  47.0   1.0  246.000000   0.0
4     女  52.0   0.0  488.857143   0.0
5     女  21.0   0.0  916.000000   0.0
6     男  37.0   0.0  980.000000   1.0
7     男  34.0   0.0  482.000000   1.0
8     男  37.0   0.0  267.000000   0.0

(2) 离散化处理

数据离散化处理就是将连续的属性值划分到不同的区间中,最后用不同的字符或者数值代表每个区间的数据,常用的方法有:等宽法、等频法和基于聚类分析的方法,在这里先不介绍聚类的方法。

#使用cut(),进行自定义区间的划分
data["年龄分层_bins"] = pd.cut(data["年龄"],bins = [0,25,35,45,55,65])
print(data["年龄分层_bins"].value_counts())
(45, 55]    2
(35, 45]    2
(0, 25]     2
(55, 65]    1
(25, 35]    1
Name: 年龄分层_bins, dtype: int64

#使用cut(),划分等宽区间
data["年龄分层_num"] = pd.cut(data["年龄"],4)
print(data["年龄分层_num"].value_counts())
(30.75, 40.5]      3
(50.25, 60.0]      2
(20.961, 30.75]    2
(40.5, 50.25]      1
Name: 年龄分层_num, dtype: int64

#使用qcut(),划分等频区间,也就时每个区间的数据量相等
data["年龄分层_qcut1"] = pd.qcut(data["年龄"],4)
print(data["年龄分层_qcut1"].value_counts())
(31.75, 37.0]      3
(48.25, 60.0]      2
(20.999, 31.75]    2
(37.0, 48.25]      1
Name: 年龄分层_qcut1, dtype: int64

这里用了qcut(),划分等频区间,理论是每个区间的数据量是相等的。但是呢因为示例中共有9个数,要划分为4份,所以有一个区间为3个数据。

(3) 分组聚合

分组往往与聚合函数一起使用,查看数据的分组情况:

#按照性别分组统计消费金额总和
print(data.groupby("性别")["消费金额"].sum())
性别
女    1404.857143
男    2506.000000
Name: 消费金额, dtype: float64

#聚合函数还可以是多个,比如用aggregate
import numpy as np
print(data.groupby("性别")[["年龄","消费金额"]].aggregate({"年龄":np.mean,"消费金额":sum}))
年龄         消费金额
性别                   
女   36.5  1404.857143
男   40.0  2506.000000

#除了根据已有的列进行分组,还可以自定义分组
age_cut = pd.cut(data["年龄"],bins = [0,23,35,45,55,65])
print(data["消费金额"].groupby(age_cut).sum())
年龄
(0, 23]      916.000000
(23, 35]     702.000000
(35, 45]    1247.000000
(45, 55]     734.857143
(55, 65]     311.000000
Name: 消费金额, dtype: float64

(4) 数据透视表与排序

这个操作相信不用我说,大家都清楚,它就是excel里面的数据透视表,常用参数有:

index: 行索引

columns: 列索引

values: 值

aggfunc: 聚合函数

fill_value: 空值填充

dropna: 删除空值,True/False

margins: 边际求和,True/False

margins_name: 边际求和的名字

print(pd.pivot_table(data,index = "性别",values = "消费金额",aggfunc = ["mean","sum"]))
         mean       sum
       消费金额     消费金额
性别                         
女   702.428571  1404.857143
男   417.666667  2506.000000

print(pd.pivot_table(data,index = "年龄分层_num",columns = "性别",values = "消费金额",aggfunc = ["mean","sum","count"]))
                        mean                     sum         count     
性别               女           男           女       男     女    男
年龄分层_num                                                              
(20.961, 30.75]  916.000000  220.000000  916.000000   220.0   1.0  1.0
(30.75, 40.5]           NaN  576.333333         NaN  1729.0   NaN  3.0
(40.5, 50.25]           NaN  246.000000         NaN   246.0   NaN  1.0
(50.25, 60.0]    488.857143  311.000000  488.857143   311.0   1.0  1.0

#根据单列排序
print(data.iloc[:,:6].sort_values(by = "消费金额",ascending =True))  # ascending = True为升序
   性别    年龄  省内省外  消费金额  贷款与否 年龄分层_bins
用户id                                           
2     男  25.0   1.0  220.000000   1.0   (0, 25]
3     男  47.0   1.0  246.000000   0.0  (45, 55]
8     男  37.0   0.0  267.000000   0.0  (35, 45]
1     男  60.0   1.0  311.000000   0.0  (55, 65]
7     男  34.0   0.0  482.000000   1.0  (25, 35]
4     女  52.0   0.0  488.857143   0.0  (45, 55]
5     女  21.0   0.0  916.000000   0.0   (0, 25]
6     男  37.0   0.0  980.000000   1.0  (35, 45]

#根据多列排序
print(data.iloc[:,:6].sort_values(by = ["省内省外","贷款与否","消费金额"],ascending =[True,False,True]))
  性别    年龄  省内省外    消费金额  贷款与否 年龄分层_bins
用户id                                           
7     男  34.0   0.0  482.000000   1.0  (25, 35]
6     男  37.0   0.0  980.000000   1.0  (35, 45]
8     男  37.0   0.0  267.000000   0.0  (35, 45]
4     女  52.0   0.0  488.857143   0.0  (45, 55]
5     女  21.0   0.0  916.000000   0.0   (0, 25]
2     男  25.0   1.0  220.000000   1.0   (0, 25]
3     男  47.0   1.0  246.000000   0.0  (45, 55]
1     男  60.0   1.0  311.000000   0.0  (55, 65]

猜你喜欢

转载自blog.csdn.net/OYY_90/article/details/89114342