Python数据集库Vaex秒开100GB加数据

目录
  • 前言
  • Vaex
  • 数据准备
  • 数据清洗
  • 具体分析
  • 更深入的分析
  • 结论

前言

如果你50GB甚至500GB的数据集,打开他们都很困难了,更别说分析了。

在处理这样的数据集时,我们通常采用3种方法。

第一种对数据进抽样:这里的缺点是显而易见的,样本数据能否代表整个数据。

第二种使用分布式计算:虽然在某些情况下这是一种有效的方法,但是它带来了管理和维护集群的巨大开销。想象一下,必须为一个刚好超出RAM范围的数据集设置一个集群,比如在30-50GB范围内。这有点过分了。

第三种租用一个强大的云服务:例如,AWS提供了具有TB内存的实例。在这种情况下,你仍然需要管理云数据,每次启动时都要等待一个个的数据传输。处理将数据放到云上所带来的遵从性问题,以及处理在远程机器上工作所带来的所有不便。更不用说成本了,尽管开始时成本很低,但随着时间的推移,成本往往会越来越高。

在本文中,我们将向你展示一种新的方法:一种更快、更安全、总体上更方便的方法,可以使用几乎任意大小的数据进行数据研究分析,只要它能够适用于笔记本电脑、台式机或服务器的硬盘驱动器。

Vaex

Vaex是一个开源的DataFrame库,它可以对表格数据集进行可视化、探索、分析,甚至机器学习,这些数据集和你的硬盘驱动器一样大。它可以在一个n维网格上每秒计算超过10亿(10^9)个对象的平均值、和、计数、标准差等统计信息。可视化使用直方图、使用直方图、密度图和3D立体渲染进行可视化。为此,Vaex采用了内存映射、高效的外核算法和延迟计算等概念来获得最佳性能(不浪费内存)。所有这些都封装在一个类似Pandas的API中。

GitHub:https://github.com/vaexio/vaex

为了说明Vaex的性能,我们为大家举个例子。

数据准备

我们使用纽约市出租车的数据集,该数据集包含了出租车在2009年至2015年间超过10亿次出租车出行的信息。数据可从下面的网站下载,并以 CSV 格式提供:

https://www1.nyc.gov/site/tlc/about/tlc-trip-record-data.page

数据清洗

第一步将数据转换为内存映射文件格式,如Apache Arrow、Apache Parque 或HDF5。一旦数据成为内存映射格式,使用Vaex打开它是瞬间的(数据的磁盘大小超过100GB)。有多块?

0.052秒!

将CSV数据转换为HDF5的代码如下:

为什么这么快?

当你使用Vaex打开内存映射文件时,实际上没有数据读取。Vaex只读取文件元数据,比如磁盘上数据的位置、数据结构(行数、列数、列名和类型)、文件描述等等。那么,如果我们想要检查或与数据交互呢?打开一个数据集会得到一个标准的DataFrame:

再次注意,单元执行时间非常短。这是因为显示Vaex DataFrame或列只需要从磁盘读取前5行和后5行。这就引出了另一个重要的问题:Vaex只会在必要时遍历整个数据集,而且它会尽可能少地遍历数据。

现在开始清理数据集。一个好的开始方法是使用describe方法获得数据的概览:

describe方法很好地说明了Vaex的性能和效率:所有这些统计数据都是在MacBook Pro(15英寸,2018年,2.6GHz Intel Core i7,32GB RAM)上用不到3分钟计算出来的。其他库或方法需要分布式计算或超过100GB的云才能预先相同的计算。有了Vaex,你所需要的只是数据,以及只有几GB内存的笔记本电脑。

查看description的输出,很容易注意到数据包含一些严重的异常值。由于我们使用的是如此庞大的数据集,直方图是最有效的可视化方法。用Vaex创建和显示柱状图和热图是如此的快,这样的图可又是交互式的!

df.plot_widget(df.pickup_longitude,
               df.pickup_latitude,
               shape=512,
               limits='minmax',
               f='log1p',
               colormap='plasma')

一旦我们决定了想要关注纽约的哪个区域,我们就可以简单地创建一个过滤后的 DataFrame:

上面的代码块的优点在于:它所需要的内存可以忽略不计!在过滤Vaex DataFrame时,不会生成数据副本。相反,只创建对原始对象的引用,并在其上应用二进制掩码。掩码选择显示哪些行并用于将来的计算。这为我们节省了100GB的RAM,如果要复制数据,就需要这样做,就像现在许多标准的数据分析所做的那样。

现在,让我们检查一下passenger_count列。单次乘坐出租车的最高记录是255人,这似乎有点极端。让我们数一数每一名乘客的出行次数。使用value_counts方法很容易做到这一点:

应用10亿行的“value_counts”方法只需要20秒!

从上图中我们可以看出,乘客超过6人的出行很可能是罕见的异常值,或者是数据输入错误。也有大量的出现,没有(0名)乘客。既然现在我们还不知道这些旅行是否合法,那就让我们把它们过滤掉吧。

让我们做一个关于类似出行距离的操作。由于这是一个连续的变量,我们可以画出出行距离的分布。看看最小和最大的距离,让我们用一个更合理的范围来绘制直方图。

从上图中我们可以看到,出行次数随着距离的增加而减少。在大约100英里的距离上,分布有很大的下降。现在,我们用这个作为分界点,来消除基于行程距离的极端异常值:

出行距离列中存在的极端离群值是调查出租车出行时间和平均速度的原因。这些特征在数据集中是不容易获得的,但是计算起来很简单:

上面的代码块需要零内存,不需要执行时间!这是因为代码会创建虚拟列。这些列只包含数学表达式,仅在需要时才计算它们。否则,虚列的行为与任何其他常规列一样。注意,其他标准库需要10s的GB内存来完成相同的操作。

让我们画出行程时间的分布图:

从上图我们可以看到,95% 的出租车行程花费不到30分钟到达目的地,尽管有些行程花费了4-5个小时。你能想象在纽约被困在出租车里超过3个小时的情景吗?考虑所有总共不超过3小时的行程:

现在让我们看一下出租车的平均速度,同时为数据限制选择一个合理的范围:

根据分布趋平的地方,我们可以推断出合理的出租车平均速度在每小时1到60英里之间,因此我们可以更新过滤后的dataframe:

让我们把焦点转移到出租车的费用上。从describe方法的输出中,我们可以看到在fare_amount、total_amount和tip_amount列中存在一些异常值。对于初学者来说,这些列中的任何值都不应该是负值。让我们看看这些数据的分布在一个相对合理的范围内:

我们看到上面的三个分布都有相当长的尾部。尾部的一些值可能是正确的,而其他值可能是错误的数据输入。无论如何,让我们现在保守一点,只考虑票价为fare_amount、total_amount和tip_amount低于200美元的乘客。我们还要求fare_amount、total_amount的值大于0。

最后,在所有初始数据清理之后,让我们看看还剩下多少出租车次数供我们分析:

超过11亿次的出行!

具体分析

假设我们使用这个数据集来学习如何最大化利润,最小化成本

让我们从找出从平均值而言,能带来较好收入的载客地点开始。我们只需绘制一张热点地区接送地点的热图,对平均票价进行颜色编码,然后查看热点地区。然而,出租车司机也有自己的成本。例如,燃料费用。因此,把乘客带到很远的地方可能会导致更高的票价,但这也意味着更大的燃料消耗和时间损失。此外,从偏远的地方载一个乘客去市中心可能不那么容易,因此在没有乘客的情况下开车回去可能会很贵。一种解释的方法是,用票价金额与出行距离之比的平均值来表示热图的颜色。让我们考虑一下这两种方法:

出租车司机是一份相当灵活的工作。除了知道应该去哪里,如果让他们知道什么时候开车最赚钱也是很有用的。为了回答这个问题,让我们制作一个图表,显示每天和每小时的平均票价与行程的比率:

上面的数字是合理的,最好的收入发生在高峰时间,特别是中午,在工作日。作为一名出租车司机,我们收入的一部分给了出租车公司,所以我们可能会对哪一天、哪段时间顾客给的小费最多感兴趣。让我们制作一个类似的图,这次显示的是平均小费的比例:

上面的结论很有趣。它告诉我们,乘客在早上7点到10点之间给出租车司机的小费最多,如果你在凌晨3点或4点接乘客,不要指望会有大额小费。

更深入的分析

在本文的前一部分中,我们简要地集中讨论了trip_distance列,在去除异常值时,我们保留了所有值小于100英里的行程。但这仍然是一个相当大的临界值,尤其是考虑到Yellow Taxi公司主要在曼哈顿运营。trip_distance列描述出租车从上客点到下客点的距离。然而,人们经常可以选择不同的路线,在两个确切的上落地点之间有不同的距离,例如为了避免交通堵塞或道路工程。因此,作为trip_distance列的一个对应项,让我们计算接送位置之间可能的最短距离,我们称之为arc_distance:

对于用Numpy编写的复杂表达式,vaex可以在Numba、Pythran甚至CUDA(如果你有NVIDIA GPU的话)的帮助下使用即时编译来极大地提高你的计算速度。

arc_distance的计算公式非常复杂,它包含了大量的三角函数和算术知识,特别是在处理大数据集的情况下,计算量很大。如果表达式或函数仅使用来自Numpy包的Python操作和方法编写,Vaex将使用计算机的所有核心并行地计算它。除此之外,Vaex通过Numba(使用LLVM)或Pythran(通过C++加速)支持即时编译,从而提供更好的性能。如果你有NVIDIA显卡,你可以通过jit_cuda方法使用CUDA来获得更快的性能。

无论如何,我们来画一下trip_distance和arc_distance的分布:

有趣的是,arc_distance从未超过21英里,但出租车实际行驶的距离可能是它的5倍。事实上,在数百万次的出租车行程中,落客点距离接客点只有100米(0.06英里)。

我们这次试用的数据集跨越了7年。我们可以看看在这段时间里,人们对某些东西的兴趣是如何演变的,可能会很有趣。使用Vaex,我们可以进行out-of-core group-by和aggregation操作。让我们来看看这7年中票价和旅行距离的变化:

在拥有四核处理器的笔记本电脑上,对一个拥有超过10亿个样本的Vaex DataFrame进行8个聚合的分组操作只需不到2分钟。

在上面的单元格格中,我们执行groupby操作,然后执行8个聚合,其中2个位于虚拟列上。上面的单元格在我们的笔记本电脑上执行不到2分钟。考虑到我们使用的数据包含超过10亿个样本,这是相当令人印象深刻的。不管怎样,让我们看看结果。以下是多年来乘坐出租车的费用是如何演变的:

我们看到,随着时间的流逝,出租车费和小费都在上涨。现在让我们看看出租车的trip_distance 和arc_distance作为年的函数:

上图显示,trip_distance和arc_distance都有一个小的增长,这意味着,平均而言,人们倾向于每年走得更远一点。

让我们再调查一下乘客是如何支付他们的车费的:payment_type列,让我们看看它包含的值:

从数据集中,我们可以看到只有6个有效的条目:

  • 1=信用卡支付
  • 2=现金支付
  • 3=不收费
  • 4=纠纷
  • 5=未知
  • 6=无效行程

因此,我们可以简单地将payment_type列中的条目映射到整数:

现在我们可以根据每年的数据进行分组,看看纽约人在支付打车费用方面的习惯是如何改变的:

我们发现,随着时间的推移,信用卡支付慢慢变得比现金支付更频繁。在上面的代码块中,一旦我们聚合了数据,小型的Vaex dataframe就可以很容易地转换为Pandas DataFrame,将其传递给Seaborn。

最后,让我们通过绘制现金支付与信用卡支付之间的比率来查看付款方法是否取决于当天的时间或星期几。为此,我们将首先创建一个过滤器,它只选择用现金或信用卡支付。下一步是具有Vaex特色功能的操作:带有选择的聚合。其他库要求对每个支付方法进行聚合,然后将这些支付方法后来合并为一个支付方法。 另一方面,我们可以通过在聚合函数中提供的参数,一步完成这个操作。 这非常方便,只需要传递一次数据,就可以获得更好的性能。 然后,我们可以用标准的方式绘制出最终的DataFrame:

从上面的图可以看出,显示的小费百分比可以作为一周的某天或一天的某时段的函数。从这两个图中表明,用信用卡支付的乘客比用现金支付的乘客更倾向于给小费。看看分布:

乘客多久付一次小费?

但是让我们看看_fareamount和_totalamount的分布,这取决于支付方式是刷卡还是现金。

结论

有了Vaex,你可以在短短几秒钟内浏览超过10亿行数据,计算各种统计数据、聚合信息,并生成信息图表,而这一切都是在你自己的笔记本电脑上完成的。而且它是免费和开源的!

以上就是Python数据集库Vaex秒开100GB加数据的详细内容,更多关于Python库Vaex秒开100GB数据的资料请关注我们其它相关文章!

(0)

相关推荐

  • Python数据集库Vaex秒开100GB加数据

    目录 前言 Vaex 数据准备 数据清洗 具体分析 更深入的分析 结论 前言 如果你50GB甚至500GB的数据集,打开他们都很困难了,更别说分析了. 在处理这样的数据集时,我们通常采用3种方法. 第一种对数据进抽样:这里的缺点是显而易见的,样本数据能否代表整个数据. 第二种使用分布式计算:虽然在某些情况下这是一种有效的方法,但是它带来了管理和维护集群的巨大开销.想象一下,必须为一个刚好超出RAM范围的数据集设置一个集群,比如在30-50GB范围内.这有点过分了. 第三种租用一个强大的云服务:例

  • python pdfplumber库批量提取pdf表格数据转换为excel

    目录 需求 一.实现效果图 二.pdfplumber 库 三.代码实现 1.导入相关包 2.读取 pdf , 并获取 pdf 的页数 3.提取单个 pdf 文件,保存成 excel 4.提取文件夹下多个 pdf 文件,保存成 excel 小结 需求 想要提取 pdf 的数据,保存到 excel 中.虽然是可以直接利用 WPS 将 pdf 文件输出成 excel,但这个功能是收费的,而且如果将大量pdf转excel的时候,手动去输出是非常耗时的.我们可以利用 python 的三方工具库 pdfpl

  • 利用Python第三方库xlrd读取Excel中数据实例代码

    目录 1. 安装 xlrd 库 2. 使用 xlrd 库 2.1 打开 Excel 工作表对象 2.2 读取单个单元格数据 2.3 读取多个单元格数据 2.3 读取所有单元格数据 附:行.列操作 3. 总结 1. 安装 xlrd 库 Python 读取 Excel 中的数据主要用到 xlrd 第三方库.xlrd 其实就是两个单词的简化拼接,我们可以把它拆开来看,xl 代表 excel, rd 代表 read, 合并起来就是 xlrd, 意思就是读 excel 的第三方库. 这种命名风格也正是我们

  • 使用Python爬虫库requests发送表单数据和JSON数据

    导入Python爬虫库Requests import requests 一.发送表单数据 要发送表单数据,只需要将一个字典传递给参数data payload = {'key1': 'value1', 'key2': 'value2'} r = requests.post("http://httpbin.org/post", data=payload) print(r.text) {"args":{},"data":"",&qu

  • python requests库爬取豆瓣电视剧数据并保存到本地详解

    首先要做的就是去豆瓣网找对应的接口,这里就不赘述了,谷歌浏览器抓包即可,然后要做的就是分析返回的json数据的结构: https://movie.douban.com/j/search_subjects?type=tv&tag=%E5%9B%BD%E4%BA%A7%E5%89%A7&sort=recommend&page_limit=20&page_start=0 这是接口地址,可以大概的分析一下各个参数的规则: type=tv,表示的是电视剧的分类 tag=国产剧,表示是

  • 浅谈哪个Python库才最适合做数据可视化

    数据可视化是任何探索性数据分析或报告的关键步骤,它可以让我们一眼就能洞察数据集.目前有许多非常好的商业智能工具,比如Tableau.googledatastudio和PowerBI,它们可以让我们轻松地创建图形. 然而,数据分析师或数据科学家还是习惯使用 Python 在 Jupyter notebook 上创建可视化效果.目前最流行的用于数据可视化的 Python 库:Matplotlib.Seaborn.plotlyexpress和Altair.每个可视化库都有自己的特点,没有完美的可视化库

  • python pandas库读取excel/csv中指定行或列数据

    目录 引言 1.根据index查询 2.已知数据在第几行找到想要的数据 3.根据条件查询找到指定行数据 4.找出指定列 5.找出指定的行和指定的列 6.在规定范围内找出符合条件的数据 总结 引言 关键!!!!使用loc函数来查找. 话不多说,直接演示: 有以下名为try.xlsx表: 1.根据index查询 条件:首先导入的数据必须的有index 或者自己添加吧,方法简单,读取excel文件时直接加index_col 代码示例: import pandas as pd #导入pandas库 ex

  • 推荐技术人员一款Python开源库(造数据神器)

    1. 背景 在软件需求.开发.测试过程中,有时候需要使用一些测试数据,针对这种情况,我们一般要么使用已有的系统数据,要么需要手动制造一些数据.由于现在的业务系统数据多种多样,千变万化.在手动制造数据的过程中,可能需要花费大量精力和工作量,此项工作既繁复又容易出错,比如要构造一批用户三要素(姓名.手机号.身份证).构造一批银行卡数据.或构造一批地址通讯录等. 这时候,人们常常为了偷懒快捷,测试数据大多数可能是类似这样子的: 测试, 1300000 000123456 张三, 1310000 000

  • 利用Python第三方库xlwt写入数据到Excel工作表实例代码

    目录 1. 安装 xlwt 库 2. 使用 xlwt 库 2.1 向 Excel 工作表写入单个数据 2.2 向 Excel 工作表写入多个数据 2.3 向 Excel 工作表写入多个数据(进阶) 3. 总结 1. 安装 xlwt 库 Python 写入数据到 Excel 工作簿中可以使用第三方库 xlwt. xlwt 拆分下来看就是 excel 和 write 的简化拼接,意思就是写数据到 Excel. 这个第三方库的 pip 安装命令如下所示: pip install xlwt -i htt

  • Python imgaug库安装与使用教程(图片加模糊光雨雪雾等特效)

    目录 简介 安装 Overview 特效 Project 结构 程序 参考的源代码(来源于网络) 简易变换 试效果 使用 模糊光雨雪雾 else 重命名00001.jpg 重命名1.jpg 效果图 简介 imgaug:机器学习实验中的图像增强库,特别是卷积神经网络.支持以多种不同方式增强图像.关键点/地标.边界框.热图和分割图. 安装 在anaconda prompt里进行 pip install imgaug 看了几篇文章,出错的话可以先安装依赖库shapely Overview 特效 官网网

随机推荐