【Pandas】Pandas基础知识汇总

1. Pandas作用
用于数据分析、数据处理和数据可视化。
2. Pandas数据读取

使用pandas首先要导入包:
2.1 读取csv文件
加载以逗号为分隔符的CSV(Comma-Separated Values)文件
pd.read_csv(),参数如下:
sep: 指定分隔符
names: list类型,指定columns名称
engine: 使用的分析引擎。可以选择C或者是python。C引擎快但是Python引擎功能更加完备。
header: 用作列名的行号,以及数据。
默认是infer,会将文件第一行数据作为列名,等同于header=0。
None,会默认生成数字0,1,2,3...作为列名。
数字n,会将数据的第n行作为列名。
CSV文件的第一行指定列的数据头
如果CSV文件第一行没有数据头,read_csv参数中需要指定: header=None
2.2 读取excel文件
pd.read_excel(), 读取excel文件,参数如下:
skiprows: 忽略行数,pandas处理的时候会忽略前n行
df.to_execl(): 将df数据存入到excel文件,参数如下:
index: False,存文件时不会把索引名称 存进去;为True则会连索引一并存储。
2.3 读取json文件
2.4 读取数据库
2.4.1 读取Sqlite数据库
2.4.2 读取MySQL数据库
2.5 查看数据
3. pandas数据结构
3.1 DataFrame
DataFrame是二维数据。既有行索引index,也有列索引columns。
类型: <class 'pandas.core.frame.DataFrame'>
3.1.1 根据多个字典序列创建DataFrame
运行结果:

3.1.2 多维数组创建DataFrame
运行结果:

3.1.3 查询DataFrame数据
3.2 Series
Series: 一维数据,一行或一列。
3.2.1 使用list列表创建Series
运行结果:

也可以指定索引名称,替换掉自动生成的数字索引
运行结果:

3.2.2 使用字典创建Series
使用字典生成的Series,索引为字典的key值
运行结果:

3.2.3 根据标签索引查询数据

4. Pandas查询数据
4.1 loc方法
根据行、列的标签值查询。
4.1.1 使用单个label值查询数据
得到单个值:
得到一个Series:
4.1.2 使用值列表批量查询
获取行索引为1和2,列索引为‘身高’数据,返回类型为Series
获取行索引为1和2,列索引为‘身高’和'体重'的数据,返回类型为DataFrame
4.1.3 使用数值区间进行范围查询
行索引按区间查询:
列索引按区间查询:
行和列都按区间查询:
4.1.4 使用条件表达式查询
查询身高大于等于1.75的所有行记录:
当有多个条件时,可以像下面这些写,&符号不要切换成and
4.1.5 调用函数查询
1)使用匿名表达式查询
2)自定义函数查询
查找出爱好为看书的记录
4.2 iloc方法
根据行、列的数字位置查询
4.3 where方法
待补充...
4.4 query方法
待补充...
5. 数据新增与更新
5.1 直接赋值
例1:让所有记录的体重列增加1kg
例2: 新增列'身高/体重',计算所有记录的该比值
或者写为如下形式
5.2 df.apply方法
对某一列统一做函数处理,注意axis=1表示的是列索引,axis=0表示的是行索引。
5.3 df.assign方法
assign方法不会修改原有的dataframe
例1:将所有记录的体重翻倍,并赋给新列
5.4 按条件选择分组分别赋值
条件判断里写的时候需要注意,在python中1<a<10这种写法是可以的,但是在.loc方法里这样写会报错,所以遇到这种情况,需要使用&符号连接多个条件来写。
查看dataframe:

6. Pandas数据统计函数
6.1 汇总类统计
提取所有数字列统计结果

获取身高列的最小值
获取年龄列的平均值
6.2 唯一去重和按值计数
唯一性去重
按值计数

6.3 相关系数和协方差
6.3.1 概念
对于两个变量X、Y:
协方差: 衡量同向反向程度,如果协方差为正,说明X,Y通向变化,协方差越大说明同向程度越高;如果协方差为负,说明X,Y反向运动,协方差越小说明反向程度越高。
相关系数:衡量相似度程度,当他们的相关系数为1时,说明两个变量变化时的正向相似度最大,当相关系数为-1时,说明两个变量变化的反向相似度最大。
6.3.2 相关方法
协方差矩阵

相关系数矩阵

单独计算相关系数
计算年龄和体重的相关系数
7. Pandas对缺失值的处理
7.1 监测缺失值
isnull(): 判断df每个元素是否为null,是null为True,不是null为False。

单个列判断是否都为空:
notnull():和isnull()相反,判断df各个元素是否不为null,不是null为True,是null为False。

筛选体重已登记的行:

7.2 丢弃缺失值
dropna:丢弃、删除缺失值,以下是该函数的三个参数:
aixs:删除行还是列,{0 or 'index', 1 or 'columns'}, default 0。
how:如果等于any则任何值为空都删除,如果等于all则所有值都为空才删除。
inplace:如果为true则修改当前df,否则返回新的df。
删除全是空值的列
7.3 填充缺失值
fillna:填充空值,参数如下:
value: 用于填充的值,可以是单个值,或者字典(key是列明,value是值)。
method: 等于ffile使用前一个不为空的值填充forword fill;等于bfill使用后一个不为空的值填充 backword fill。
axis: 按行还是列填充,{0 or 'index', 1 or 'columns'}
inplace: 如果为true则修改当前df,否则返回新的df。
将体重为空的元素填充为100,默认是生成新的df,如果想在原有df上修改,需要添加参数inplace=True
等同于
8. Pandas的SettingWithCopyWarning告警
pandas不允许先筛选子dataframe,再进行修改写入。
两种解决方案:
使用.loc实现一个步骤直接修改源dataframe。
先复制一个dataframe再一个步骤执行修改。
9. Pandas数据排序
9.1 Series排序
Series.sort_values(): 对Series进行排序,参数如下:
ascending: 默认为True升序排序,为False降序排序
inplace: 是否修改原始Series
例子1:对体重列进行升序排序
例子2: 对体重列进行降序排列
9.2 DataFrame排序
DataFrame.sort_values(): 对DataFrame进行排序,参数说明如下:
by: 字符串或者list<字符串>,单列排序或者队列排序
ascending: bool或者list,升序还是降序,如果是list对应by的多列
inplace: 是否修改原始DataFrame
例子1:单列排序
按照体重进行排序,默认升序
如果想要降序排列,只需要添加参数ascending=False即可。

例子2: 多列排序
按照年龄和体重排序
按照年龄和体重排序,但是年龄按升序排,体重按降序排:
10. Pandas字符串处理
处理过程如下:
1)先获取Series的str属性,然后在属性上调用函数;
2)只能在字符串列上使用,不能数字列上使用;
3)DataFrame上没有str属性和处理方法;
4)Series.str并不是Python原生字符串,而是自己的一套方法,大部分和原生str很相似。
字符串替换: replace
将看替换为阅读
也可以写为如下形式,Series.str默认开启了正则表达式模式,也可以通过参数regex=False进行关闭。
判断是不是数字: isnumeric
计算字符串长度: len
以特定字符/字符串开头: startswith
包含特定字符/字符串: contains
11. Pandas的axis参数
axis=0或者"index"
如果是单行操作,就指的某一行
如果是聚合操作,指的是跨行cross rows
axis=1或者"columns"
如果是单列操作,就指的某一列
如果是聚合操作,指的是跨列cross columns
例子1: 删除一行数据
例子2: 删除一列数据
例子3: 验证axis=0,如果是聚合操作,指的是跨行cross rows
下方代码是跨行求平均值
先看下运行结果,发现计算的是每一列的平均值。跨行指的就是列不动,从行的方向上依次计算每列的聚合操作结果。

例子4: 验证axis=1, 如果是聚合操作,指的是跨列cross columns
下方代码是跨列求平均值
从结果看出,计算的确实是每一行的平均值。跨列指的就是行不动,从列的方向上依次计算每行的聚合操作结果。

12. Pandas的索引index用途
用途:
方便数据查询
获得性能提升
自动数据对齐功能
更多数据结构支持
索引上的一些方法:
索引是否单调递增,是返回True,否返回False
索引是否唯一,是返回True,否返回False
12.1 使用index查询数据
将索引修改为user_id列,drop=False会让user_id保留在column

drop=True之后,发现列user_id不见了。

根据索引,查询id为2的数据
查询结果:如果查询结果只有一条记录,会以键值对的形式展示出来.

如果查询结果有多条记录,会以表格形式展示出来。

12.2 使用index提升查询性能
如果index是唯一的,Pandas会使用哈希表优化,查询性能为O(1);
如果index不是唯一的,但是有序,Pandas会使用二分查找算法,查询性能为O(logN);
如果index是完全随机的,那么每次查询都要扫描全表,查询性能为O(N)。
12.3 使用index自动对齐数据
参考下方代码,当两个Series相加时,相等的index对应的列会被对应相加,但是各自独有的index,相加后变为了NaN。

12.4 使用index更多更强大的数据结构支持
CategoricalIndex,基于分类数据的Index,提升性能;
MultiIndex,多维索引,用于groupby多维聚合后结果等;
DatetimeIndex,时间类型索引,强大的日期和时间的方法支持。
13. Pandas的Merge语法
left, right: 要merge的dataframe或者有name的Series。
how: join类型, left, right, outer, inner
on: join的key,left和right都需要有这个key
left_on: left的df或者series的key
right_on: right的df或者series的key
left_index, right_index: 使用index而不是普通的column做join
suffixes: 两个元素的后缀,如果列有重名,自动添加后缀,默认是('_x', '_y')
左连接、右连接、内连接、外连接区别

14. Pandas的Concat合并
语法:pd.concat(objs, axis=0, join='outer', ignore_index=False)
objs: 一个列表,可以是DataFrame或者Series,也可以是DataFrame和Series的混合列表。
axis: 默认是0,按行合并,如果等于1代表按列合并。
join: 合并的时候索引的对齐方式,默认是outer join,也可以是inner join。
ignore_index: 是否忽略掉原来的数据索引。
15. Pandas拆分
拆分: df.iloc[]
例子:
16. Pandas分组统计groupby
groupby: 先对数据分组,然后在每个分组上应用聚合函数、转换函数。
16.1 groupby相关操作
遍历groupby结果

获取单个分组的数据
16.2 groupby实例
单个列groupby,查询所有数据列的统计
求电影的平均分

多个列groupby,查询所有数据列的统计
下方代码会先对userId分组,然后再对movieId分组,然后再求分组后的其他列的平均值。此时的userId和movieId变成了二级索引。

下方代码比上面的代码多了参数as_index=False,A和B不再是索引,而是结果中的一部分。

同时查看多种数据统计
求每部电影的评分总和、评分平均值、评分标准差
从结果可以看出列分出了二级索引。

查看单列的结果数据统计
分组之后获取某一列的总和、平均值和标准差
发现二级索引没了,这里提前对分组后的列做了过滤,性能会更好。

不同列使用不同的聚合函数
按电影id分组后,对评分求平均值和总和,对userId求个数。

17. Pandas分层索引
17.1 常用操作
查看索引
以下会生成一个二级索引

把二级索引变成列

把所有索引都变成列

设置索引
将元数据的userId和movieId设置为索引。
对索引排序
18. 数据转换函数map、apply、applymap
18.1 map
map只用于Series,实现每个值-》值的映射。
使用方法:
Series.map(dict)

Series.map(function)

18.2 apply
apply用于Series实现每个值的处理,用于Dataframe实现某个轴的Series的处理。
Series.apply(function)
DataFrame.apply(function)
18.3 applymap
只能用于DataFrame,用于处理该DataFrame的每个元素。
例子:

19. Pandas的stack和pivot实现数据透视
将列式数据变成二维交叉数据,便于分析,叫做重塑或透视。
透视的方法:
19.1 使用unstack实现数据二维透视
stack: DataFrame.stack(level=-1, dropna=True),将column变成index
level=-1代表多层索引的最内层,可以通过==0、1、2指定多层索引的对应层。
unstack: DataFrame.unstack(level=-1, fill_value=None),将index变成column。
例子:
原始数据如下:

unstack之后的数据如下:

stack之后的数据如下:

参考代码:
透视之后效果:

19.2 使用pivot简化透视
pivot: DataFrame.pivot(index=None, columns=None, values=None)
指定index、columns、values实现二维透视。
原始数据:

参考代码:
透视效果:

pivot方法相当于对df使用set_index创建分层索引,然后调用unstack。
20. 参考资料
Pandas官方中文文档: https://www.pypandas.cn/docs/getting_started/
电影数据集: https://grouplens.org/datasets/movielens/