飞道的博客

Pandas处理数据太慢,来试试Polars吧!

386人阅读  评论(0)

大家好,我是小F~

很多人在学习数据分析的时候,肯定都会用到Pandas这个库,非常的实用!

从创建数据到读取各种格式的文件(text、csv、json),或者对数据进行切片和分割组合多个数据源,Pandas都能够很好的满足。

Pandas最初发布于2008年,使用Python、Cython和C编写的。是一个超级强大、快速和易于使用的Python库,用于数据分析和处理。

当然Pandas也是有不足之处的,比如不具备多处理器,处理较大的数据集速度很慢。

今天,小F就给大家介绍一个新兴的Python库——Polars。

使用语法和Pandas差不多,处理数据的速度却比Pandas快了不少。

一个是大熊猫,一个是北极熊~

GitHub地址:https://github.com/ritchie46/polars

使用文档:https://ritchie46.github.io/polars-book/

Polars是通过Rust编写的一个库,Polars的内存模型是基于Apache Arrow。

Polars存在两种API,一种是Eager API,另一种则是Lazy API。

其中Eager API和Pandas的使用类似,语法差不太多,立即执行就能产生结果。

而Lazy API就像Spark,首先将查询转换为逻辑计划,然后对计划进行重组优化,以减少执行时间和内存使用。

安装Polars,使用百度pip源。


   
  1. # 安装polars
  2. pip install polars -i https: //mirror.baidu.com/pypi/simple/

安装成功后,开始测试,比较Pandas和Polars处理数据的情况。

使用某网站注册用户的用户名数据进行分析,包含约2600万个用户名的CSV文件。

文件已上传公众号,获取方式见文末。


   
  1. import pandas  as pd
  2. df = pd.read_csv( 'users.csv')
  3. print(df)

数据情况如下。

此外还使用了一个自己创建的CSV文件,用以数据整合测试。


   
  1. import pandas  as pd
  2. df = pd.read_csv( 'fake_user.csv')
  3. print(df)

得到结果如下。

首先比较一下两个库的排序算法耗时。


   
  1. import timeit
  2. import pandas  as pd
  3. start = timeit.default_timer()
  4. df = pd.read_csv( 'users.csv')
  5. df.sort_values( 'n', ascending= False)
  6. stop = timeit.default_timer()
  7. print( 'Time: ', stop - start)
  8. -------------------------
  9. Time:   27.555776743218303

可以看到使用Pandas对数据进行排序,花费了大约28s。


   
  1. import timeit
  2. import polars  as pl
  3. start = timeit.default_timer()
  4. df = pl.read_csv( 'users.csv')
  5. df.sort(by_column= 'n', reverse= True)
  6. stop = timeit.default_timer()
  7. print( 'Time: ', stop - start)
  8. -----------------------
  9. Time:   9.924110282212496

Polars只花费了约10s,这意味着Polars比Pandas快了2.7倍。

下面,我们来试试数据整合的效果,纵向连接。


   
  1. import timeit
  2. import pandas  as pd
  3. start = timeit.default_timer()
  4. df_users = pd.read_csv( 'users.csv')
  5. df_fake = pd.read_csv( 'fake_user.csv')
  6. df_users.append(df_fake, ignore_index= True)
  7. stop = timeit.default_timer()
  8. print( 'Time: ', stop - start)
  9. ------------------------
  10. Time:   15.556222308427095

使用Pandas耗时15s。


   
  1. import timeit
  2. import polars  as pl
  3. start = timeit.default_timer()
  4. df_users = pl.read_csv( 'users.csv')
  5. df_fake = pl.read_csv( 'fake_user.csv')
  6. df_users.vstack(df_fake)
  7. stop = timeit.default_timer()
  8. print( 'Time: ', stop - start)
  9. -----------------------
  10. Time:   3.475433263927698

Polars居然最使用了约3.5s,这里Polars比Pandas快了4.5倍。

通过上面的比较,Polars在处理速度上表现得相当不错。

可以是大家在未来处理数据时,另一种选择~

当然,Pandas目前历时12年,已经形成了很成熟的生态,支持很多其它的数据分析库。

Polars则是一个较新的库,不足的地方还有很多。

如果你的数据集对于Pandas来说太大,对于Spark来说太小,那么Polars便是你可以考虑的一个选择。

最后在公众号回复「Polars」,获取到本次使用到的数据,大家可以自行学习。

万水千山总是情,点个  ????  行不行。

推荐阅读

···  END  ···


转载:https://blog.csdn.net/river_star1/article/details/115912587
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场