把dataframe转换为list
输入多维dataframe:
df = pd.DataFrame({'a':[1,3,5,7,4,5,6,4,7,8,9], 'b':[3,5,6,2,4,6,7,8,7,8,9]})
把a列的元素转换成list:
# 方法1df['a'].values.tolist() # 方法2df['a'].tolist()
把a列中不重复的元素转换成list:
df['a'].drop_duplicates().values.tolist()
输入一维dataframe:
df = pd.DataFrame([3, 5, 6, 2, 4, 6, 7, 8, 7, 8, 9])
转换成list[list]:
df.values.tolist()
把series转换为list
Series.tolist()
Python 将Dataframe转化为字典(dict)
有时候我们需要Dataframe中的一列作为key,另一列作为key对应的value。比如说在已知词频画词云的时候,这个时候需要传入的数据类型是词典。
import pandas as pd data = pd.DataFrame([['a',1],['b',2]], columns=['key','value']) dict1 = dict(zip(data['key'],data['value']))
data Out[25]: key value 0 a 1 1 b 2
输出结果:
dict1
Out[8]: {'a': 1, 'b': 2}
Dataframe有自带的方法可以将Dataframe转换为字典的格式。但是,这种方法是复合的字典,每一列以dataframe的index为key而不是某一列的值,每一列的值作为字典的value,然后再将所有的列放在一个字典里面。
data.to_dict() Out[10]: {'key': {0: 'a', 1: 'b'}, 'value': {0: 1, 1: 2}}
其实我们把key列作为index,再用上面的方法也可以实现一列为字典key,另一列为value。
dict2 = data.set_index('key').to_dict()
在使用时需要注意的是,这种方法输出的字典也是复合的字典,有一个用做字典value的列的列名。
dict2 Out[24]: {'value': {'a': 1, 'b': 2}}
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件!
如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
白云城资源网 Copyright www.dyhadc.com
暂无“Pandas把dataframe或series转换成list的方法”评论...
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
2024年10月05日
2024年10月05日
- 群星《前途海量 电影原声专辑》[FLAC/分轨][227.78MB]
- 张信哲.1992-知道新曲与精丫巨石】【WAV+CUE】
- 王翠玲.1995-ANGEL【新艺宝】【WAV+CUE】
- 景冈山.1996-我的眼里只有你【大地唱片】【WAV+CUE】
- 群星《八戒 电影原声带》[320K/MP3][188.97MB]
- 群星《我的阿勒泰 影视原声带》[320K/MP3][139.47MB]
- 纪钧瀚《胎教古典音乐 钢琴与大提琴的沉浸时光》[320K/MP3][148.91MB]
- 刘雅丽.2001-丽花皇后·EMI精选王【EMI百代】【FLAC分轨】
- 齐秦.1994-黄金十年1981-1990CHINA.TOUR.LIVE精丫上华】【WAV+CUE】
- 群星.2008-本色·百代音乐人创作专辑【EMI百代】【WAV+CUE】
- 群星.2001-同步过冬AVCD【环球】【WAV+CUE】
- 群星.2020-同步过冬2020冀待晴空【环球】【WAV+CUE】
- 沈雁.1986-四季(2012梦田复刻版)【白云唱片】【WAV+CUE】
- 纪钧瀚《胎教古典音乐 钢琴与大提琴的沉浸时光》[FLAC/分轨][257.88MB]
- 《国语老歌 怀旧篇 3CD》[WAV/分轨][1.6GB]