数据分析 — Pandas①

导读:本篇文章讲解 数据分析 — Pandas①,希望对大家有帮助,欢迎收藏,转发!站点地址:www.bmabk.com,来源:原文

也许你感觉自己的努力总是徒劳无功,但不必怀疑,你每天都离顶点更进一步。今天的你离顶点还遥遥无期。但你通过今天的努力,积蓄了明天勇攀高峰的力量。加油!

Pandas简介

pandas 是 Python 的核心数据分析支持库,提供了快速、灵活、明确的数据结构,旨在简单、直观地处理关系型、标记型数据。
在这里插入图片描述
pandas 是第三方库,需要单独安装才能使用。如果你要在本地环境运行的话,可以通过以下命令安装:

pip install pandas -i https://pypi.doubanio.com/simple/
# 这句话后面 -i https://pypi.doubanio.com/simple/ 表示使用豆瓣的源,这样安装会更快

一般情况下,我们会像下面这样引入 pandas 模块:

import pandas as pd

将 pandas 简写成 pd 几乎成了一种不成文的规定。因此,只要你看到 pd 就应该联想到这是 pandas。

Pandas中的两个主要数据结构

要使用 pandas,你首先得熟悉它的两个主要数据结构:

  • Series(一维数据)
  • DataFrame(二维数据)

这两种数据结构足以处理金融、统计、社会科学、工程等领域里的大多数典型用例

Series

创建

Series 是一种类似于 Numpy 中一维数组的对象,它由一组任意类型的数据以及一组与之相关的数据标签(即索引)组成。举个最简单的例子:

import pandas as pd

print(pd.Series([2, 4, 6, 8]))

结果:

0    2
1    4
2    6
3    8
dtype: int64

左边的是数据的标签,默认从 0 开始依次递增。右边是对应的数据,最后一行表明了数据类型。
我们也可以像下面这样使用 index 参数自定义数据标签:

import pandas as pd

print(pd.Series([2, 4, 6, 8], index=['a', 'b', 'c', 'd']))

结果:

a    2
b    4
c    6
d    8
dtype: int64

我们还可以直接使用字典同时创建带有自定义数据标签的数据,pandas 会自动把字典的键作为数据标签,字典的值作为相对应的数据。

import pandas as pd

print(pd.Series({'a': 2, 'b': 4, 'c': 6, 'd': 8}))

结果:

a    2
b    4
c    6
d    8
dtype: int64

综上在pd.Series()中传入序列即可创建Series

访问

访问 Series 里的数据的方式,和 Python 里访问列表和字典元素的方式类似,也是使用中括号加数据标签的方式来获取里面的数据。
例如:

import pandas as pd

s1 = pd.Series([2, 4, 6, 8])
s2 = pd.Series({'a': 2, 'b': 4, 'c': 6, 'd': 8})

print(s1[0])
# 输出:2

print(s2['b'])
# 输出:4

有了带标签的数据有什么用呢?为什么不直接使用 Python 自带的列表或字典呢?是因为 pandas 有着强大的数据对齐功能。
举个例子:
假设你开了个小卖部,每天统计了一些零食的销量,你想看一下前两天的总销量如何。使用 pandas 的话,你可以这样写:

import pandas as pd

s1 = pd.Series({'辣条': 14, '面包': 7, '可乐': 8, '烤肠': 10})
s2 = pd.Series({'辣条': 20, '面包': 3, '可乐': 13, '烤肠': 6})
print(s1 + s2)

上面直接将两个 Series 相加的结果如下:

辣条    34
面包    10
可乐    21
烤肠    16
dtype: int64

pandas 自动帮我们将相同数据标签的数据进行了计算,这就是数据对齐。
而如果不用 Series,只用列表或字典,我们还要使用循环来进行计算。而用了 pandas 的 Series,只需要简单的相加即可。
在这里插入图片描述
你可能会有疑问,如果两天卖出的零食不一样怎么办,pandas 还能进行数据对齐吗?

import pandas as pd

s1 = pd.Series({'辣条': 14, '面包': 7, '可乐': 8, '烤肠': 10})
s2 = pd.Series({'辣条': 20, '面包': 3, '雪碧': 13, '泡面': 6})
print(s1 + s2)

上面的数据中,只有辣条和面包这两个数据标签是相同的,剩下的数据标签各不相同。上述代码的运行结果如下:

可乐     NaN
泡面     NaN
烤肠     NaN
辣条    34.0
雪碧     NaN
面包    10.0
dtype: float64

可以看到,对于数据标签不相同的数据,运算后结果是 NaN。NaN 是 Not a Number(不是一个数字)的缩写,因为其中一个 Series 中没有对应数据标签的数据,无法进行计算,因此返回了 NaN。
在这里插入图片描述
其实对于这种情况我们可以让没有的数据默认为 0,然后再进行计算。

调用 Series 的 add() 方法,并设置好默认值即可。

代码实现:

import pandas as pd

s1 = pd.Series({'辣条': 14, '面包': 7, '可乐': 8, '烤肠': 10})
s2 = pd.Series({'辣条': 20, '面包': 3, '雪碧': 13, '泡面': 6})
print(s1.add(s2, fill_value=0))  # fill_value 为数据缺失时的默认值

结果:

可乐     8.0
泡面     6.0
烤肠    10.0
辣条    34.0
雪碧    13.0
面包    10.0
dtype: float64

add() 方法对应的是加法,数学中的四则运算在 pandas 中都有一一对应的方法,它们的用法都是类似的。具体对应关系如下图所示:
在这里插入图片描述

DataFrame

Series 是一维数据,而 DataFrame 是二维数据。你可以把 DataFrame 想象成一个表格,表格有行和列这两个维度,所以是二维数据。
在这里插入图片描述
或者按列分,每一列数据加上左边的数据标签也是一个 Series。
在这里插入图片描述
现在我们用DataFrame实现上面的表格:

import pandas as pd

pd.set_option('display.unicode.ambiguous_as_wide', True)
pd.set_option('display.unicode.east_asian_width', True)

df = pd.DataFrame({'辣条': [14, 20], '面包': [7, 3], '可乐': [8, 13], '烤肠': [10, 6]})
print(df)

上面代码的运行结果如下:

    辣条   面包  可乐   烤肠
0    14     7     8    10
1    20     3    13     6

因为我们的表格中有中文,中文占用的字符和英文、数字占用的字符不一样,因此需要调用 pd.set_option() 使表格对齐显示。如果你是使用 Jupyter 来运行代码的,Jupyter 会自动渲染出一个表格,则无需这个设置。

创建

构建 DataFrame 的办法有很多,最常用的一种是传入一个由等长列表组成的字典。即字典里每个值都是列表,且它们的长度必需相等。这样我们就得到了一个表格,字典的键会作为表格的列名。最左边的是索引,也是默认从 0 开始依次增加。当然,我们也可以在构建 DataFrame 的时候传入 index 参数来自定义索引。
例如:

import pandas as pd

data = {
  '辣条': [14, 20],
  '面包': [7, 3],
  '可乐': [8, 13],
  '烤肠': [10, 6]
}
df = pd.DataFrame(data, index=['2020-01-01', '2020-01-02'])
print(df)

结果:

             辣条   面包  可乐   烤肠
2020-01-01    14     7     8    10
2020-01-02    20     3    13     6

列的查改增删

查看列

为了减少重复代码的出现,接下来的内容都基于下面的代码。

import pandas as pd

df = pd.DataFrame({'辣条': [14, 20], '面包': [7, 3], '可乐': [8, 13], '烤肠': [10, 6]})

# 结果
    辣条   面包  可乐   烤肠
0    14     7     8    10
1    20     3    13     6

如果我们只想查看有关可乐的销量数据,我们可以这样写:

print(df['可乐'])

写法和字典取值类似,用中括号加列名的方式获取对应列的数据。运行结果是表格中可乐一列的数据,它是一个 Series,结果如下所示:

0     8
1    13
Name: 可乐, dtype: int64

在这里插入图片描述
我们还能同时选择多列进行查看,只要把多个列名放到列表当中即可。

print(df[['可乐', '辣条']])

并且 pandas 会按照列表中列名的顺序重新排列,结果如下:

    可乐   辣条
0     8    14
1    13    20

在这里插入图片描述

修改列

如果我们发现表格中的数据有错误,想要修改,这其实非常的简单。和字典修改值的方式也类似,直接对已有列重新赋值即可。

df['可乐'] = [18, 23]
print(df)

结果:

    辣条   面包   可乐  烤肠
0    14     7    18    10
1    20     3    23     6

在这里插入图片描述

新增列

如果想要新增一列同样也非常的简单,对表格中不存在的列直接赋值就能添加新的列了(还是跟字典一样)。

df['糖果'] = [3, 5]
print(df)

结果:

    辣条   面包  可乐   烤肠   糖果
0    14     7     8    10     3
1    20     3    13     6     5

在这里插入图片描述

删除列

删除列和字典删除元素不一样,需要用到 drop() 方法。

df.drop('面包', axis=1, inplace=True)
print(df)
# 或者 print(df.drop('面包', axis=1))

drop() 方法的参数:

  • 第一个参数是要删除的列名或索引
  • axis 表示针对行或列进行删除,axis = 0 表示删除对应的行,axis = 1 表示删除对应的列,axis 默认为 0。
  • 最后的 inplace = True 表示直接修改原数据,否则 drop() 方法只是返回删除后的表格,对原表格没有影响。

在这里插入图片描述

导入/导出 表格文件以及常规操作

假设我们的电脑上有下面这样的一个表格文件,文件名为 2019年销售数据.csv。
在这里插入图片描述
首先我们来将其导入到 pandas 中,代码如下:

import pandas as pd

df = pd.read_csv('2019年销售数据.csv')
print(type(df))
# 输出:<class 'pandas.core.frame.DataFrame'>

可以看到,读取的内容是 DataFrame 类型的。我们可以根据 DataFrame 的知识对其进行一系列的操作。

用 pandas 导出表格数据也很简单,只需一行代码:

df.to_csv('2019年销售数据.csv', index=False)

上面代码中保存的表格名和原来的表格名一样,会覆盖原来的表格。如果你想保存到新的表格文件中,只要换个不同的表格名即可。传入 index=False 是因为不希望将最左侧的索引保存到文件中

①除了 csv 文件,Excel 文件也是常见的表格文件。导入导出 Excel 文件的代码是类似的,只是方法是 read_excel() 和 to_excel().
②如果你的 Excel 文件中有多个工作表的话,还可以通过 sheet_name 参数指定对应的工作表,默认情况下会读取第一张工作表。

head()方法

读取到表格数据后,可能表格数据很多,我们想大致确认一下表格内容,不需要打印出完整的表格。这时我们可以使用 head() 方法来查看前 5 条数据。

import pandas as pd

df = pd.read_csv('2019年销售数据.csv')
print(df.head())

结果:

   销售员 团队    第一季度   第二季度   第三季度    第四季度
0   刘一    A      6324      5621      6069      6005
1   陈二    B      4508      3391      5933      5002
2   张三    C      3426      3549      5872      5759
3   李四    D      2104      3939      3285      3461
4   王五    A      4830      5763      2923      4033

head() 方法还支持传入参数来控制显示前多少条数据,比如前 2 条数据:

import pandas as pd

df = pd.read_csv('2019年销售数据.csv')
print(df.head(2))

结果:

   销售员 团队    第一季度   第二季度   第三季度    第四季度
0   刘一    A      6324      5621      6069      6005
1   陈二    B      4508      3391      5933      5002

tail()方法

除了查看开头的一些数据,还可以使用 tail() 方法查看末尾的数据。用法和 head() 一致,默认显示 5 条,可以传入参数来改变显示的条数。
例如:

import pandas as pd

df = pd.read_csv('2019年销售数据.csv')
print(df.tail())

结果:

    销售员  团队   第一季度    第二季度   第三季度    第四季度
15  许十六    D      5369      3420      5169      5790
16  钱十七    A      6924      5912      5907      5263
17  沈十八    B      2733      2649      3402      3164
18  韩十九    C      1519      1553      1411      2091
19  杨二十    D      3268      5090      3898      4180

info()方法

我们还能通过 info() 方法查看整个表格的大致信息
例如:

import pandas as pd

df = pd.read_csv('2019年销售数据.csv')
print(df.info())

运行结果及主要含义如下图所示:
在这里插入图片描述
通过 info() 方法我们可以对表格大致有个了解,知道有几行几列,以及哪列有多少条缺失数据。

describe()方法

我们还能通过 describe() 方法来快速查看数据的统计摘要,方便我们对数据有一个直观上的认识。
例如:

import pandas as pd

df = pd.read_csv('2019年销售数据.csv')
print(df.describe())

结果:

           第一季度       第二季度      第三季度      第四季度
count    20.000000    20.000000    20.000000    20.000000
mean   3969.150000  4252.250000  4309.300000  4284.700000
std    1518.736084  1352.492275  1646.188871  1286.032377
min    1501.000000  1553.000000  1272.000000  2091.000000
25%    2760.000000  3412.750000  3194.500000  3469.250000
50%    4162.000000  4392.500000  4536.000000  4120.500000
75%    4888.500000  5412.250000  5818.000000  5202.250000
max    6924.000000  6176.000000  6499.000000  6683.000000

生成的摘要从上往下分别表示数量、平均数、标准差、最小值、25% 50% 75% 位置的值和最大值。

sort_values()方法

例如:

df.sort_values('总和', ascending=False, inplace=True)

sort_values() 方法第一个参数是排序针对的列名,排序默认是升序的,因此要将 ascending 设为 False 改成降序,这样总销售额最高的会排在第一个。最后的 inplace=True 和前面的 drop() 方法中的 inplace 一样,表示修改原数据,否则只是返回排序后的数据,对原数据没影响。

继承自Series的方法

因为 DataFrame 的每一列都是一个 Series,我们还可以调用 max()、min()、mean()、sum() 等方法来计算最大值、最小值、平均值以及求和等。
例如:(根据总和列进行相关操作)

# 总销售额最大值
df['总和'].max()

# 总销售额最小值
df['总和'].min()

# 总销售额平均值
df['总和'].mean()

# 所有人的总销售额求和
df['总和'].sum()

在这里插入图片描述

重要:到底如何去理解Pandas中的axis=0,axis=1

其实很多人应该已经发现了在NumPy中,例如我们求数组的平均值

  • axis = 0,代表列求平均值
  • axis = 1,代表行求平均值

Pandas保持了Numpy对关键字axis的用法,但是在例如我们删除列的时候发现:

  • axis = 0,代表删除行
  • axis = 1,代表删除列

这就让很多人摸不清楚头脑,怎么回事?
其实我们普遍的理解是:

axis = 0 代表列
axis = 1 代表行

但是更加准确的理解应该是:

axis=0表示跨行
axis=1表示跨列
作为方法动作的副词

当时我看过很多文章,我认为他们讲的其实并不是非常清楚,我在这里用一个笨办法,保证大家都可以理解。
我仍然使用经典的求最大值,和删除列举例子。
①先看求最大值:
在这里插入图片描述
例如我们现在想求列的最大值,我们随便拿一列出来,例如

1
5
4

按照方法:

一xx的(执行的操作)
若xx为‘行行’,则axis = 1
若xx为‘列列’,则axis = 0

很明显是一列列的求最大值,而不是一行行的求最大值。故axis = 0。
②同样再看删除列
在这里插入图片描述
例如我们想删除面包列,那么我们就把面包列单拿出来:

面包
7
3

很显然是一行行的删除面包列,而不是一列列的删除面包列,故axis = 1

其他情况都可以这么去理解。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/122289.html

(0)
飞熊的头像飞熊bm

相关推荐

发表回复

登录后才能评论
极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!