Pandas创建如下,可读性增加
Pandas中一共有三种数据结构,分别为:Series、DataFrame和MultiIndex(老版本中叫Panel )。
其中Series是一维数据结构,DataFrame是二维的表格型数据结构,MultiIndex是三维的数据结构。
Series是一个类似于一维数组的数据结构,它能够保存任何类型的数据,比如整数、字符串、浮点数等,主要由一组数据和与之相关的索引两部分构成。
import pandas as pd import numpy as np 创建Series一维数组 pd.Series(np.arange(10)) 0 0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9 dtype: int32
- 指定索引
pd.Series(np.arange(10,20),index=list(range(10))) 0 10 1 11 2 12 3 13 4 14 5 15 6 16 7 17 8 18 9 19 dtype: int32
## 通过字典创建 count_color=pd.Series({"red":100,"yellow":200,"blue":20,"green":30}) count_color count_color red 100 yellow 200 blue 20 green 30 dtype: int64
count_color=pd.Series({"red":100,"yellow":200,"blue":20,"green":30}) count_color.index Index(['red', 'yellow', 'blue', 'green'], dtype='object')
values属性
count_color.values array([100, 200, 20, 30], dtype=int64)
也可以使用索引来获取数据
DataFrame是一个类似于二维数组或表格(如excel)的对象,既有行索引,又有列索引
# 导入pandas import pandas as pd pd.DataFrame(data=None, index=None, columns=None)
参数:
- index:行标签。如果没有传入索引参数,则默认会自动创建一个从0-N的整数索引。
- columns: 列标签。如果没有传入索引参数,则默认会自动创建一个从0-N的整数索引。
创建方式
# 构造行索引序列 subjects = ["语文", "数学", "英语", "政治", "体育"] # 构造列索引序列 stu = ['同学' + str(i) for i in range(score_df.shape[0])] # 添加行索引 data = pd.DataFrame(score, columns=subjects, index=stu)
注意,此时的运行结果是
这是因为,此时的data是score,不是一个ndarray数组,也不是list,而是一个dataframe
type(score) pandas.core.frame.DaraFrame
改成,
score_df=np.random.randint(40,100,(10,5)) data2=pd.DataFrame(score_df,stu,subjects)
则结果为
data2.shape (10, 5)
data.index # 结果 Index(['同学0', '同学1', '同学2', '同学3', '同学4', '同学5', '同学6', '同学7', '同学8', '同学9'], dtype='object')
data.columns # 结果 Index(['语文', '数学', '英语', '政治', '体育'], dtype='object')
data.values array([[92, 55, 78, 50, 50], [71, 76, 50, 48, 96], [45, 84, 78, 51, 68], [81, 91, 56, 54, 76], [86, 66, 77, 67, 95], [46, 86, 56, 61, 99], [46, 95, 44, 46, 56], [80, 50, 45, 65, 57], [41, 93, 90, 41, 97], [65, 83, 57, 57, 40]])
data.T
结果
stu2=["同学_{}".format(i) for i in range(10)] data2.index=stu2
结果显示
注意以下修改方式是错的
# 错误修改方式 data.index[3] = '学生_3'
data3=data2.reset_index(level=0)
结果为
由于此时data3索引只有1行,只能设置level=0,则
df = pd.DataFrame({'month': [1, 4, 7, 10], 'year': [2012, 2014, 2013, 2014], 'sale':[55, 40, 84, 31]})
结果显示为:
2. 以月份重新设置新的索引
df.set_index("month")
结果显示为
3. 设置多个索引,以年和月份,注意设置多级索引一定要加中括号
df.set_index("year","month")
结果显示为:
而如果代码为:
df.set_index(["year","month"])
则结果为:
MultiIndex是三维的数据结构;
MultiIndex表示多级索引,它是从Index继承过来的,其中多级标签用元组对象来表示。
多级索引(也称层次化索引)是pandas的重要功能,可以在Series、DataFrame对象上拥有2个以及2个以上的索引。
打印刚才的df的行索引结果
df2=df.set_index(["year","month"]) df2.index
结果是
多级或者分层索引对象
m_index1=pd.Index([("A","x1"),("A","x2"),("B","y1"),("B","y2"),("B","y3")],name=["class1","class2"]) m_index1
代码结果
MultiIndex(levels=[['A', 'B'], ['x1', 'x2', 'y1', 'y2', 'y3']], labels=[[0, 0, 1, 1, 1], [0, 1, 2, 3, 4]], names=['class1', 'class2'])
arrays = [[1, 1, 2, 2], ['red', 'blue', 'red', 'blue']] pd.MultiIndex.from_arrays(arrays, names=('number', 'color'))
运行结果
为了更好的理解这些基本操作,我们将读取一个真实的股票数据。
# 读取文件 data = pd.read_csv("./code/data/stock_day.csv") # 删除一些列,让数据更简单些,再去做后面的操作 data = data.drop(["ma5","ma10","ma20","v_ma5","v_ma10","v_ma20"], axis=1)
数据读取如下:
Numpy当中我们已经讲过使用索引选取序列和切片选择,pandas也支持类似的操作,也可以直接使用列名、行名称,甚至组合使用。
获取’2018-02-27’这天的’close’的结果
# 直接使用行列索引名字的方式(先列后行) data['open']['2018-02-27'] 23.53 # 不支持的操作 # 错误 data['2018-02-27']['open'] # 错误 data[:1, :2]
获取从’2018-02-27’:‘2018-02-22’,'open’的结果,注意此时是先行后列,混合索引的话loc[data.index[索引下标]], iloc[data.columns.get_indexer[索引名称]]
# 使用loc:只能指定行列索引的名字,注意中括号,字符串加双引号 data.loc['2018-02-27':'2018-02-22', 'open'] #运行结果 2018-02-27 23.53 2018-02-26 22.80 2018-02-23 22.88 2018-02-22 22.25 Name: open, dtype: float64 # 使用iloc可以通过索引的下标去获取 # 获取前3天数据,前5列的结果 data.iloc[:3, :5] #运行结果 open high close low 2018-02-27 23.53 25.88 24.16 23.53 2018-02-26 22.80 23.78 23.53 22.80 2018-02-23 22.88 23.37 22.82 22.71
获取行第1天到第4天,[‘open’, ‘close’, ‘high’, ‘low’]这个四个指标的结果
# 使用ix进行下表和名称组合做引 data.ix[0:4, ['open', 'close', 'high', 'low']] # 推荐使用loc和iloc来获取的方式 data.loc[data.index[0:4], ['open', 'close', 'high', 'low']] data.iloc[0:4, data.columns.get_indexer(['open', 'close', 'high', 'low'])] # 运行结果 open close high low 2018-02-27 23.53 24.16 25.88 23.53 2018-02-26 22.80 23.53 23.78 22.80 2018-02-23 22.88 22.82 23.37 22.71 2018-02-22 22.25 22.28 22.76 22.02
对DataFrame当中的close列进行重新赋值为1
# 直接修改原来的值 data['close'] = 1 # 或者 data.close = 1
排序有两种形式,一种对于索引进行排序,一种对于内容进行排序
使用df.sort_values(by=, ascending=)
-单个键或者多个键进行排序
- 参数
- by: 指定排序参考的键
- ascending:默认升序
-ascending=False:降序
# 按照开盘价大小进行排序 , 使用ascending指定按照大小排序
运行结果
#按照多个建进行排序 data.sort_values(by=['open', 'high'])
-使用df.sort_index给索引排序
这个股票的日期索引原来是从大到小,现在重新排序,从小到大
data.sort_index()
data['p_change'].sort_values(ascending=True).head() 2015-09-01 -10.03 2015-09-14 -10.02 2016-01-11 -10.02 2015-07-15 -10.02 2015-08-26 -10.01 Name: p_change, dtype: float64
使用series.sort_index()进行排序
与df一致
# 对索引进行排序 data['p_change'].sort_index().head() 2015-03-02 2.62 2015-03-03 1.44 2015-03-04 1.57 2015-03-05 2.02 2015-03-06 8.51 Name: p_change, dtype: float64
data["open"].add(1) #运行结果 2018-02-27 24.53 2018-02-26 23.80 2018-02-23 23.88 2018-02-22 23.25 2018-02-14 22.49
data["open"] > 23 2018-02-27 True 2018-02-26 False 2018-02-23 False 2018-02-22 False 2018-02-14 False
# 逻辑判断的结果可以作为筛选的依据 data[data["open"] > 23].head()
运行结果如下图:
data[(data["open"]>23)&(data["open"]<24)].head()
运行结果
data.query("open<24&open>23").head()
运行结果
# 可以指定值进行一个判断,从而进行筛选操作 data[data["open"].isin([23.53, 23.85])]
综合分析: 能够直接得出很多统计结果,count, mean, std, min, max 等
# 计算平均值、标准差、最大值、最小值 data.describe()
结果:
Numpy当中已经详细介绍,在这里我们演示min(最小值), max(最大值), mean(平均值), median(中位数), var(方差), std(标准差),mode(众数)结果:
对于单个函数去进行统计的时候,坐标轴还是按照默认列“columns” (axis=0, default),如果要对行“index” 需要指定(axis=1)
data.max()
累计统计函数怎么用?
这里我们按照时间的从前往后来进行累计
# 排序之后,进行累计求和 data = data.sort_index()
#对p_change进行求和 stock_rise=data["p_change"] stock_rise.cumsun()
运行结果如下图:
如何让连续求和结果更好的展现?
import matplotlib.pyplot as plt # plot显示图形 plt.plot(stock_rise.cumsum()) # 需要调用show,才能显示出结果 plt.show()
结果显示
data[['open', 'close']].apply(lambda x: x.max() - x.min(), axis=0) open 22.74 close 22.85 dtype: float64
DataFrame.plot(kind="line")
更多细节:https://pandas.pydata.org/pandas-docs/stable/generated/pandas.Series.plot.html?highlight=plot#pandas.Series.plot
我们的数据大部分存在于文件当中,所以pandas会支持复杂的IO操作,pandas的API支持众多的文件格式,如CSV、SQL、XLS、JSON、HDF5。
注: 最常用的HDF5和CSV文件
# 读取文件,并且指定只获取'open', 'close'指标 data = pd.read_csv("./data/stock_day.csv", usecols=['open', 'close'])
运行结果如下:
data[:10].to_csv("./code/data/test.csv", columns=['open'])
运行结果:
检验索引:
data[:10]
运行结果:
两个索引:
data[:10][:1]
索引结果:
会发现将索引存入到文件当中,变成单独的一列数据。如果需要删除,可以指定index参数,删除原来的文件,重新保存一次。
data[:10].to_csv("./code/data/test2.csv",columns=['open'], index=False)
运行结果:
HDF5文件的读取和存储需要指定一个键,值为要存储的DataFrame
day_close=pd.read_hdf()
如果无法读取文件,可能需要pip install tables
pip install tables
如果出现以下问题:
原因:编码格式错误
无论是txt文件还是csv文件出现这样的问题,解决方法是一样的:
右击文件-以记事本的方式打开-另存为-注意窗口的下方–选择UTF-8 编码格式-保存。
涉及转化编码可能需要用库chardet
day_close.to_hdf("./data/test.h5", key="day_close")
注意:优先选择使用HDF5文件存储
HDF5在存储的时候支持压缩,使用的方式是blosc,这个是速度最快的也是pandas默认支持的
使用压缩可以提磁盘利用率,节省空间
HDF5还是跨平台的,可以轻松迁移到hadoop 上面
JSON是我们常用的一种数据交换格式,前面在前后端的交互经常用到,也会在存储的时候选择这种格式。所以我们需要知道Pandas如何进行读取和存储JSON格式。
pandas.read_json(path_or_buf=None, orient=None, typ=‘frame’, lines=False)
{"article_link": "https://www.huffingtonpost.com/entry/versace-black-code_us_5861fbefe4b0de3a08f600d5", "headline": "former versace store clerk sues over secret 'black code' for minority shoppers", "is_sarcastic": 0} {"article_link": "https://www.huffingtonpost.com/entry/roseanne-revival-review_us_5ab3a497e4b054d118e04365", "headline": "the 'roseanne' revival catches up to our thorny political mood, for better and worse", "is_sarcastic": 0}
json_read=pd.read_json("./code/data/Sarcasm_Headlines_Dataset.json",orient="records", lines=True)
运行结果为:
json_read.to_json("./jsontest.json",orient="records",lines=True)
如果不修改lines参数,则结果为
[{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/versace-black-code_us_5861fbefe4b0de3a08f600d5","headline":"former versace store clerk sues over secret 'black code' for minority shoppers","is_sarcastic":0},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/roseanne-revival-review_us_5ab3a497e4b054d118e04365","headline":"the 'roseanne' revival catches up to our thorny political mood, for better and worse","is_sarcastic":0},{"article_link":"https:\/\/local.theonion.com\/mom-starting-to-fear-son-s-web-series-closest-thing-she-1819576697","headline":"mom starting to fear son's web series closest thing she will have to grandchild","is_sarcastic":1},{"article_link":"https:\/\/politics.theonion.com\/boehner-just-wants-wife-to-listen-not-come-up-with-alt-1819574302","headline":"boehner just wants wife to listen, not come up with alternative debt-reduction ideas","is_sarcastic":1},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/jk-rowling-wishes-snape-happy-birthday_us_569117c4e4b0cad15e64fdcb","headline":"j.k. rowling wishes snape happy birthday in the most magical way","is_sarcastic":0},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/advancing-the-worlds-women_b_6810038.html","headline":"advancing the world's women","is_sarcastic":0},....]
当前结果为:
np.any(pd.isnull(df))组合判断是否有缺失值,有就需要处理
np.all(pd. notnull(df))组合判断缺失值是否全部处理完
# 不修改原数据 movie.dropna() # 可以定义新的变量接受或者用原来的变量名 data = movie.dropna()
for i in movie.columns: if np.all(pd.notnull(movie[i])) == False: print(i) movie[i].fillnal(movie[i].mean(),inplace=True)
wis = pd.read_csv("https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data")
数据读取如果出现错误,可以全局取消证书验证
# 全局取消证书验证 import ssl ssl._create_default_https_context = ssl._create_unverified_context
处理思路:
wis=wis.replace(to_replace='?', value=np.nan)
连续属性离散化的目的是为了简化数据结构,数据离散化技术可以用来减少给定连续属性值的个数。离散化方法经常作为数据挖掘的工具。
连续属性的离散化就是在连续属性的值域上,将值域划分为若干个离散的区间,最后用不同的符号或整数 值代表落在每个子区间中的属性值。
3.1 读取股票的数据
data = pd.read_csv("./data/stock_day.csv") p_change= data['p_change']
3.2 将股票涨跌幅进行分组
# 自己指定分组区间 bins = [-100, -7, -5, -3, 0, 3, 5, 7, 100] p_counts = pd.cut(p_change, bins)
# 得出one-hot编码矩阵 dummies = pd.get_dummies(p_counts, prefix="rise")
得到结果:
pd.concat([data1, data2], axis=1)
按照行或列进行合并,axis=0为列索引,axis=1为行索引
比如我们将刚才处理好的one-hot编码与原数据合并:
left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'], 'key2': ['K0', 'K1', 'K0', 'K1'], 'A': ['A0', 'A1', 'A2', 'A3'], 'B': ['B0', 'B1', 'B2', 'B3']}) right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'], 'key2': ['K0', 'K0', 'K0', 'K0'], 'C': ['C0', 'C1', 'C2', 'C3'], 'D': ['D0', 'D1', 'D2', 'D3']}) # 默认内连接 result = pd.merge(left, right, on=['key1', 'key2'])
左连接
右连接
外连接
探究股票的涨跌与星期几有关?
以下图当中表示,week代表星期几,1,0代表这一天股票的涨跌幅是好还是坏,里面的数据代表比例
可以理解为所有时间为星期一等等的数据当中涨跌幅好坏的比例
# 寻找星期几跟股票张得的关系 # 1、先把对应的日期找到星期几 date = pd.to_datetime(data.index).weekday data['week'] = date # 2、假如把p_change按照大小去分个类0为界限 data['posi_neg'] = np.where(data['p_change'] > 0, 1, 0) # 通过交叉表找寻两列数据的关系 count = pd.crosstab(data['week'], data['posi_neg']) # 算数运算,先求和 sum = count.sum(axis=1).astype(np.float32) # 进行相除操作,得出比例 pro = count.div(sum, axis=0)
pd.plot默认x是行索引,y是列
pro.plot(kind='bar', stacked=True) plt.show()
# 通过透视表,将整个过程变成更简单一些 data.pivot_table(['posi_neg'], index='week')
交叉表与透视表的作用【知道】
交叉表:计算一列数据对于另外一列数据的分组个数
透视表:指定某一列对另一列的关系
分组与聚合通常是分析数据的一种方式,通常与一些统计函数一起使用,查看数据的分组情况
col =pd.DataFrame({'color': ['white','red','green','red','green'], 'object': ['pen','pencil','pencil','ashtray','pen'],'price1':[5.56,4.20,1.30,0.56,2.75],'price2':[4.75,4.12,1.60,0.75,3.15]}) color object price1 price2 0 white pen 5.56 4.75 1 red pencil 4.20 4.12 2 green pencil 1.30 1.60 3 red ashtray 0.56 0.75 4 green pen 2.75 3.15
-对颜色分组,price进行聚合
# 分组,求平均值 col.groupby(['color'])['price1'].mean() col['price1'].groupby(col['color']).mean() color green 2.025 red 2.380 white 5.560 Name: price1, dtype: float64 # 分组,数据的结构不变 col.groupby(['color'], as_index=False)['price1'].mean() color price1 0 green 2.025 1 red 2.380 2 white 5.560
# 导入星巴克店的数据 starbucks = pd.read_csv("./data/starbucks/directory.csv")
# 按照国家分组,求出每个国家的星巴克零售店数量 count = starbucks.groupby(['Country']).count()
画图显示结果
count['Brand'].plot(kind='bar', figsize=(20, 8)) plt.show()
如果加入省市一起分组
# 设置多个索引,set_index() starbucks.groupby(['Country', 'State/Province']).count()
groupby进行数据的分组【知道】 pandas中,抛开聚合谈分组,无意义
现在我们有一组从2006年到2016年1000部最流行的电影数据
数据来源:https://www.kaggle.com/damianpanek/sunday-eda/data
问题1:我们想知道这些电影数据中评分的平均分,导演的人数等信息,我们应该怎么获取?
问题2:对于这一组电影数据,如果我们想rating,runtime的分布情况,应该如何呈现数据?
问题3:对于这一组电影数据,如果我们希望统计电影分类(genre)的情况,应该如何处理数据?
path="F:\PythonProjects\pythonML\pandas\code\data\IMDB-Movie-Data.csv" df=pd.read_csv(path) # 2.1 得出评分平均分 print(df["Rating"].mean()) # 2.2 得出导演人数 print("导演人数是:",np.unique(df["Director"]).shape[0]) # 2.3 呈现Rating,Runtime (Minutes)的分布情况 df["Rating"].plot(kind="bar",figsize=(20,8)) # 2.4 如果我们希望统计电影分类(genre)的情况,应该如何处理数据? '''思路分析 1. 创建一个表格,列索引是去重过的电影类别,temp_df 2. 遍历每一个电影,把temp_df中出现的分类设置为1 3. 求和 ''' # 2.4.1 创建一个全为0的dataframe,列索引置为电影的分类,temp_df # 进行字符串分割 temp_list=[i.split(",") for i in df["Genre"]] # 获取电影的分类 genere_list=np.unique([i for j in temp_list for i in j]) # 建立一个以genera_list为列索引、原dataframen行索引、元素全为O的列表 temp_df=pd.DataFrame(np.zeros([df.shape[0],genere_list.shape[0]]),index=df.index,columns=genere_list) # 2.4.2 遍历每一部电影,temp_df中把分类出现的列的值置为1 for i in range(temp_df.shape[0]): temp_df.loc[i][temp_list[i]]=1 print(temp_df.sum().sort_values()) # 2.4.3 求和、绘图 temp_df.sum().sort_values(ascending=False).plot(kind="bar",figsize=(20,8),fontsize=20) plt.show()
最后结果:
F:\PythonProjects\pythonML\venv\Scripts\python.exe F:/PythonProjects/pythonML/learnpandas/movietest.py 6.723199999999999 导演人数是: 644 Musical 5.0 Western 7.0 War 13.0 Music 16.0 Sport 18.0 History 29.0 Animation 49.0 Family 51.0 Biography 81.0 Fantasy 101.0 Mystery 106.0 Horror 119.0 Sci-Fi 120.0 Romance 141.0 Crime 150.0 Thriller 195.0 Adventure 259.0 Comedy 279.0 Action 303.0 Drama 513.0 dtype: float64 Process finished with exit code 0