importing large CSV file using Dask(使用DASK导入大型CSV文件)
本文介绍了使用DASK导入大型CSV文件的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我正在使用Dask680 GB导入一个非常大的CSV文件,然而,输出并不是我所期望的。我的目标是只选择一些列(6/50),并可能过滤它们(这一点我不确定,因为似乎没有数据?):
import dask.dataframe as dd
file_path = "/Volumes/Seagate/Work/Tickets/Third ticket/Extinction/species_all.csv"
cols = ['year', 'species', 'occurrenceStatus', 'individualCount', 'decimalLongitude', 'decimalLatitde']
dataset = dd.read_csv(file_path, names=cols,usecols=[9, 18, 19, 21, 22, 32])
当我将其读入Jupyter时,我无法理解输出-控制台输出:
Dask DataFrame Structure:
year species occurrenceStatus individualCount decimalLongitude decimalLatitde
npartitions=11397
object object object object object object
... ... ... ... ... ...
... ... ... ... ... ... ...
... ... ... ... ... ...
... ... ... ... ... ...
Dask Name: read-csv, 11397 tasks
推荐答案
您似乎已成功创建了DASK数据帧。如果您期待的是像 pandas 数据帧这样的内容,那么您可以使用dataset.head()
来查看数据。对于更复杂的计算,最好让DataSet保持惰性(作为DaskDataFrame),并对所有转换使用标准pandas
语法。
# this is needed to call dask.compute
import dask
# for example take a subset
subset_data = dataset[dataset['year']>2000]
# find out the total value for this column
lazy_result = subset_data['individualCount'].sum()
# now that the target is known use .compute
computed_result = dask.compute(lazy_result)
除了DASK,您还可以查看vaex
,出于某些目的,它可能更好:https://vaex.io/
这篇关于使用DASK导入大型CSV文件的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!
沃梦达教程
本文标题为:使用DASK导入大型CSV文件
基础教程推荐
猜你喜欢
- 症状类型错误:无法确定关系的真值 2022-01-01
- 哪些 Python 包提供独立的事件系统? 2022-01-01
- 使用 Google App Engine (Python) 将文件上传到 Google Cloud Storage 2022-01-01
- 使 Python 脚本在 Windows 上运行而不指定“.py";延期 2022-01-01
- 合并具有多索引的两个数据帧 2022-01-01
- 如何在Python中绘制多元函数? 2022-01-01
- 将 YAML 文件转换为 python dict 2022-01-01
- Python 的 List 是如何实现的? 2022-01-01
- 使用Python匹配Stata加权xtil命令的确定方法? 2022-01-01
- 如何在 Python 中检测文件是否为二进制(非文本)文 2022-01-01