暴减内存!pandas 自动优化骚操作

共 3329字,需浏览 7分钟

 ·

2021-11-28 13:11

↑ 关注 + 星标 ,每天学Python新技能

后台回复【大礼包】送你Python自学大礼包

https://github.com/xiaoyusmd/PythonDataScience


平日工作里经常会听到周边小伙伴说:我X,内存又爆了!

对于这样的话我听了不下百遍。正因为如此,在资源有限的情况下,我们都是变着法的减少内存占用,一些常用的方法如:

  1. gc.collectdel回收
  2. 使用csv的替代品,如featherParquet
  3. 优化代码,尽量使用Numpy矩阵代替for循环和apply
  4. ...

本次再分享一个骚操作,就是通过改变数据类型来压缩内存空间。之前也和大家介绍过category类型,也可以减少一些内存占用。和这个方法一样,我们可以延伸到所有数据类型。

正常情况下,pandas 会给数据列自动设置默认的数据类型,其中最令人讨厌并且最消耗内存的数据类型就是object(O),这也恰好限制了 pandas 的一些功能。下面是 pandasPythonNumpy的数据类型列表,对比你就发现pandas的数据类型是有很大优化空间的。

Pandas dtypePython typeNumPy typeUsage
objectstrstring_,unicodeText
int64intint,int8,intl6,int32,int64,uint8,uint16,uint32,uint64Integer numbers
float64floatfloat,float16,float32,float64Floating point numbers
boolboolbool_True/False values
datetime64NAdatetime64[ns]Date and time values
timedelta[ns]NANADifferences between two datetimes
categoryNANAFinite list of text values

来源:http : //pbpython.com/pandas_dtypes.html

很多默认的数据类型占用很多内存空间,其实根据没有必要,我们完全可以压缩到可能小的子类型。

Data typeDescription
bool_Boolean(True or False) stored as a byte
int_Default integer type(same as C 1ong ; normally either int64or int32)
intcldentical to C int(normally int32 or int64)
intpInteger used for indexing(same as C ssize_t; normally either int32 or int64)
int8Byte(-128 to 127)
int16Integer(-32768 to 32767)
int32Integer(-2147483648 to 2147483647)
int64Integer(-9223372036854775808 to 9223372036854775807)
uint8Unsigned integer(0 to 255)
uint16Unsigned integer(0 to 65535)
uint32Unsigned integer(0 to 4294967295)
uint64Unsigned integer(0 to 18446744073709551615)
float_Shorthand for float64.
float16Half precision float: sign bit,5 bits exponent,10 bits mantissa
float32Single precision float: sign bit,8 bits exponent,23 bits mantissa
float64Double precision float: sign bit,11 bits exponent,52 bits mantissa
complex_Shorthand for complex128.
complex64Complex number, represented by two 32-bit floats(real and imaginary components)
complex128Complex number, represented by two 64-bit floats(real and imaginary components)

来源:https : //docs.scipy.org/doc/numpy-1.13.0/user/basics.types.html

上面是scipy文档中列出的所有数据类型,从简单到复杂。我们希望将类型简单化,以此节省内存,比如将浮点数转换为float16/32,或者将具有正整数和负整数的列转为int8/16/32,还可以将布尔值转换为uint8,甚至仅使用正整数来进一步减少内存消耗。

基于上面所说的变量类型简化的思考,写出一个自动转化的函数,它可以根据上表将浮点数和整数转换为它们的最小子类型

def reduce_memory_usage(df, verbose=True):
    numerics = ["int8""int16""int32""int64""float16""float32""float64"]
    start_mem = df.memory_usage().sum() / 1024 ** 2
    for col in df.columns:
        col_type = df[col].dtypes
        if col_type in numerics:
            c_min = df[col].min()
            c_max = df[col].max()
            if str(col_type)[:3] == "int":
                if c_min > np.iinfo(np.int8).min and c_max < np.iinfo(np.int8).max:
                    df[col] = df[col].astype(np.int8)
                elif c_min > np.iinfo(np.int16).min and c_max < np.iinfo(np.int16).max:
                    df[col] = df[col].astype(np.int16)
                elif c_min > np.iinfo(np.int32).min and c_max < np.iinfo(np.int32).max:
                    df[col] = df[col].astype(np.int32)
                elif c_min > np.iinfo(np.int64).min and c_max < np.iinfo(np.int64).max:
                    df[col] = df[col].astype(np.int64)
            else:
                if (
                    c_min > np.finfo(np.float16).min
                    and c_max < np.finfo(np.float16).max
                ):
                    df[col] = df[col].astype(np.float16)
                elif (
                    c_min > np.finfo(np.float32).min
                    and c_max < np.finfo(np.float32).max
                ):
                    df[col] = df[col].astype(np.float32)
                else:
                    df[col] = df[col].astype(np.float64)
    end_mem = df.memory_usage().sum() / 1024 ** 2
    if verbose:
        print(
            "Mem. usage decreased to {:.2f} Mb ({:.1f}% reduction)".format(
                end_mem, 100 * (start_mem - end_mem) / start_mem
            )
        )
    return df

当然,这个函数不是固定,东哥只是提供个模板,大家可以直接复制拿过去改成自己习惯的方式。

下面来看一下这个转化函数能给我们具体带来多少内存占用的减少。这里我用了一个加载进来会占用2.2GB内存的数据集,使用reduce_memory_usage以后的情况是这样的。

>>> reduce_memory_usage(tps_october)
Mem. usage decreased to 509.26 Mb (76.9% reduction)

数据集的内存占用从原来的 2.2GB 压缩到 510MB。不要小看这个压缩量,因为数据分析或者建模的过程中,要做很多数据处理操作,就这导致数据集会被重复使用很多次。如果开始的数据集就很大,那么后面的内存占用也会跟着大,这样一算下来整个就放大了很多倍。

但有一点需要提示一下,尽管在我们运行时会减少内存,但当我们保存数据时,内存减少的效果会丢失掉,不过磁盘空间往往是够用的,这个影响没那么大。

推荐阅读

  1. 丢掉Pycharm,这款神器值得拥有!

  2. 零代码爬虫神器 -- Web Scraper 的使用

  3. 用Python玩金融是什么样的体验?

  4. 比 Python 快得吓人,PyPy 极简入门


浏览 31
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报