Pandas 模块:表计算与数据分析

Pandas 之 Series

一、pandas 简单介绍

1、pandas 是一个强大的 Python 数据分析的工具包。
2、pandas 是基于 NumPy 构建的。
3、pandas 的主要功能

  • 具备对其功能的数据结构 DataFrame、Series
  • 集成时间序列功能
  • 提供丰富的数学运算和操作
  • 灵活处理缺失数据

4、安装方法:

pip install pandas

5、引用方法:

import pandas as pd

二、Series

Series 是一种类似于一位数组的对象,由一组数据和一组与之相关的数据标签(索引)组成。

创建方式:

    pd.Series([4,7,-5,3]) 
    pd.Series([4,7,-5,3],index=['a','b','c','d'])               
    pd.Series({'a':1, 'b':2})             
    pd.Series(0, index=['a','b','c','d’])

Pandas 模块:表计算与数据分析

三、Series 特性

Series 支持数组的特性:

  • 从 ndarray 创建 Series:Series(arr)
  • 与标量运算:sr*2
  • 两个 Series 运算:sr1+sr2
  • 索引:sr[0], sr1,2,4
  • 切片:sr[0:2](切片依然是视图形式)
  • 通用函数:np.abs(sr)
  • 布尔值过滤:sr[sr>0]

统计函数:

  • mean() #求平均数
  • sum() #求和
  • cumsum() #累加

Pandas 模块:表计算与数据分析

Series 支持字典的特性(标签):

  • 从字典创建 Series:Series(dic),
  • in 运算:’a’ in sr、for x in sr
  • 键索引:sr[‘a’], sr’a’, ’b’, ’d’
  • 键切片:sr[‘a’:‘c’]
  • 其他函数:get(‘a’, default=0) 等
In [12]: s = pd.Series(0,index=['a','b','c','d'])

In [13]: s.a
Out[13]: 0

In [14]: v = pd.Series({'a':1,'b':2})

In [15]: v.a
Out[15]: 1

In [16]: v.b
Out[16]: 2

In [17]: v[0]
Out[17]: 1

In [18]: s*2
Out[18]:
a    0
b    0
c    0
d    0
dtype: int64

In [19]: v*2
Out[19]:
a    2
b    4
dtype: int64

四、整数索引

整数索引的 pandas 对象往往会使新手抓狂。
例:

  • sr = np.Series(np.arange(4.))
  • sr[-1]
    如果索引是整数类型,则根据整数进行数据操作时总是面向标签的。
  • loc 属性 以标签解释

  • iloc 属性 以下标解释

五、pandas:Series 数据对齐

pandas在运算时,会按索引进行对齐然后计算。如果存在不同的索引,则结果的索引是两个操作数索引的并集。

    例:
    sr1 = pd.Series([12,23,34], index=['c','a','d'])
    sr2 = pd.Series([11,20,10], index=['d','c','a',])
    sr1+sr2
    sr3 = pd.Series([11,20,10,14], index=['d','c','a','b'])
    sr1+sr3

    如何在两个Series对象相加时将缺失值设为0?
    sr1.add(sr2, fill_value=0)
    灵活的算术方法:add, sub, div, mul

Pandas 模块:表计算与数据分析

六、pandas:Series 缺失数据

1、缺失数据:使用 NaN(Not a Number)来表示缺失数据。其值等于 np.nan。内置的 None 值也会被当做 NaN 处理。
2、处理缺失数据的相关方法:

  • dropna() 过滤掉值为 NaN 的行
  • fillna() 填充缺失数据
  • isnull() 返回布尔数组,缺失值对应为 True
  • notnull() 返回布尔数组,缺失值对应为 False

3、过滤缺失数据:sr.dropna()或 sr[data.notnull()]
4、填充缺失数据:fillna(0)

Pandas 之 DataFrame

七、pandas:DataFrame

DataFrame 是一个表格型的数据结构,含有一组有序的列。
DataFrame 可以被看做是由 Series 组成的字典,并且共用一个索引。

创建方式:

pd.DataFrame({'one':[1,2,3,4],'two':[4,3,2,1]})
pd.DataFrame({'one':pd.Series([1,2,3],index=['a','b','c']), 'two':pd.Series([1,2,3,4],index=['b','a','c','d'])})
……

csv 文件读取与写入:

df.read_csv('E:\算法\day110 Numpy、Pandas模块\601318.csv')
df.to_csv()

八、pandas:DataFrame 查看数据

查看数据常用属性及方法:
        index                    获取索引
        T                        转置
        columns                    获取列索引
        values                    获取值数组
        describe()                获取快速统计

    DataFrame各列name属性:列名
    rename(columns={})

九、pandas:DataFrame 索引和切片

1、DataFrame 有行索引和列索引。
2、DataFrame 同样可以通过标签和位置两种方法进行索引和切片。

3、DataFrame 使用索引切片:

  • 方法 1:两个中括号,先取列再取行。 df[‘A’][0]
  • 方法 2(推荐):使用 loc/iloc 属性,一个中括号,逗号隔开,先取行再取列。

loc 属性:解释为标签
iloc 属性:解释为下标
向 DataFrame 对象中写入值时只使用方法 2
行 / 列索引部分可以是常规索引、切片、布尔值索引、花式索引任意搭配。(注意:两部分都是花式索引时结果可能与预料的不同)

通过标签获取:
    df['A']
    df[['A', 'B']]
    df['A'][0]
    df[0:10][['A', 'C']]
    df.loc[:,['A','B']]  #行是所有的行,列取是A和B的
    df.loc[:,'A':'C']
    df.loc[0,'A']
    df.loc[0:10,['A','C']]
    
通过位置获取:
    df.iloc[3]
    df.iloc[3,3]
    df.iloc[0:3,4:6]
    df.iloc[1:5,:]
    df.iloc[[1,2,4],[0,3]]、
    
通过布尔值过滤:
  df[df['A']>0]
  df[df['A'].isin([1,3,5])]
  df[df<0] = 0

十、pandas:DataFrame 数据对齐与缺失数据

DataFrame 对象在运算时,同样会进行数据对齐,行索引与列索引分别对齐。
结果的行索引与列索引分别为两个操作数的行索引与列索引的并集。

DataFrame 处理缺失数据的相关方法:

  • dropna(axis=0,where=‘any’,…) 过滤掉值为 NaN 的行
  • fillna() 填充缺失数据
  • isnull() 返回布尔数组,缺失值对应为 True
  • notnull() 返回布尔数组,缺失值对应为 False

十一、pandas:其他常用方法

- mean        #求平均值
- sum         #求和
- sort_index  #按行或列索引排序
- sort_values  #按值排序
- apply(func,axis=0)  #axis=0指的是逐行,axis=1指的是逐列。
        df.apply(lamada x:x.mean())  #按列求平均
        df.apply(lamada x:x['high']+x["low"])/2,axis=1)  #按列求平均(最高价和最低价的平均)
        df.apply(lamada x:x['high']+x["low"])/2,axis=1)  #按列求平均(最高价和最低价的平均)
- applymap(func) #将函数应用在DataFrame各个元素上
- map(func) #将函数应用在Series各个元素上

十二、pandas:时间对象处理

时间序列类型:
    时间戳:特定时刻
    固定时期:如2017年7月
    时间间隔:起始时间-结束时间
Python标准库:datetime
    datetime.datetime.timedelta  # 表示 时间间隔
    dt.strftime() #f:format吧时间对象格式化成字符串
    strptime()  #吧字符串解析成时间对象p:parse
    灵活处理时间对象:dateutil包
        dateutil.parser.parse('2018/1/29') 
    成组处理时间对象:pandas
        pd.to_datetime(['2001-01-01', '2002-02-02'])

产生时间对象数组:date_range

  • start 开始时间
  • end 结束时间
  • periods 时间长度
  • freq 时间频率,默认为’D’,可选 H(our),W(eek),B(usiness),S(emi-)M(onth),(min)T(es), S(econd), A(year),…

十三、pandas:时间序列

1、时间序列就是以时间对象为索引的 Series 或 DataFrame。

2、datetime 对象作为索引时是存储在 DatetimeIndex 对象中的。

3、时间序列特殊功能:

  • 传入“年”或“年月”作为切片方式
  • 传入日期范围作为切片方式
  • 丰富的函数支持:resample(), strftime(), ……
  • 批量转换为 datetime 对象:to_pydatetime()

十四、pandas:从文件读取

1、时间序列就是以时间对象作为索引

  • 读取文件:从文件名、URL、文件对象中加载数据
  • read_csv 默认分隔符为 csv
  • read_table 默认分隔符为 \t
  • read_excel 读取 excel 文件
    2、读取文件函数主要参数:
  • sep 指定分隔符,可用正则表达式如’\s+’

  • header=None 指定文件无列名
  • name 指定列名
  • index_col 指定某列作为索引
  • skip_row 指定跳过某些行
  • na_values 指定某些字符串表示缺失值
  • parse_dates 指定某些列是否被解析为日期,布尔值或列表
df = pd.read_csv("601318.csv")   #默认以,为分隔符
    - pd.read_csv("601318.csv",sep='\s+')  #匹配空格,支持正则表达式
    - pd.read_table("601318.csv",sep=',')  #和df = pd.read_csv("601318.csv")   一样
    - pd.read_excle("601318.xlsx")  #读Excel文件
    sep:指定分隔符
    header = NOne,就会吧默认的表名去除 了
    df.rename(column={0:'a',1:"b"})  #修改列名
    pd.read_csv(index_col=0)  #第0列
    如果想让时间成为索引
        pd.read_csv(index_col='date')  #时间列
    pd.read_csv(index_col='date',parse_datas=True)  #时间列
    parse_datas转换为时间对象,设为true是吧所有能转的都转
    pd.read_csv(index_col='date',parse_datas=['date'])   #知识吧date的那一列转换成时间对象
        
    na_values=['None']  #吧表里面为None的转换成NaN,是吧字符串转换成缺失值
    na_rep()  #是吧缺失值nan转换成字符串

    cols #指定输出的列,传入列表

十五、pandas:写入到文件

1、写入到文件:

to_csv

2、写入文件函数的主要参数:

  • sep
  • na_rep 指定缺失值转换的字符串,默认为空字符串
  • header=False 不输出列名一行
  • index=False 不输出行索引一列
  • cols 指定输出的列,传入列表
    3、其他文件类型:json, XML, HTML, 数据库
    4、pandas 转换为二进制文件格式(pickle):
  • save

  • load

十六、pandas: 数据分组与聚合

分组
   df = pd.DateFrame({
       'data1':np.random.uniform(10,20,5),
       'data2':np.random.uniform(-10,10,5),
       'key1':list("sbbsb")
       'key2':
   })
   df.groupby('key1').mean()  #做平均
   df.groupby('key1').sum()  #做平均
   df.groupby(['key1','key2']).mean()  #做平均  支持分层索引,按多列分组
   
   df.groupby(len).mean()  #传一个函数的时候,x是每一个行的索引
   df.groupby(lambda x:len(x)).mean()  #传一个函数的时候,x是每一个行的索引
   
   df.groupby.groups()  #取得多有的组
   df.groupby.get_group()  #取得一个组
   
聚合
    df.groupby('key1').max()[['data1','data2']]   #去掉key2的data1,data2,花式索引
    df.groupby('key1').max()[['data1','data2']]- df.groupby('key1').min()[['data1','data2']]  #去掉key2
   
   df.groupby('key1').agg(lamada x:x.max()-x.min())
   
   既想看最大也可看最小
    df.groupby('key1').agg([np.max,np.min])
    不同的列不一样的聚合
    df.groupby('key1').agg({'data1':'min','data2':'max'})  #键是列名,值是
    
    a=_219  #219行的代码
    a.resample('3D'),mean()  #3D 3天,3M就是三周
    
数据合并
    - 数据拼接
        df = df.copy()
        pd.concat([df,df2,df3],ignore_index=True)  #不用之前的索引,
        pd.concat([df,df2,df3],axis=1)  #列
        pd.concat([df,df2,df3],keys=['a','b','c'])  #不用之前的索引,
        df2.appeng(df3)
    - 数据连接
    如果不指定on,默认是行索引进行join
    pd.merge(df,df3,on='key1')
    pd.merge(df,df3,on='['key1','key2'])