CSV 10GB 怎么处理?我用“分块 + 流式写入”把电脑救活(只推关键计算,不把内存当垃圾桶)
10GB CSV 最大的坑不是“文件大”,而是:
你一旦pd.read_csv()全量读进来,内存会被 DataFrame 的列对象、字符串、索引、dtype 推到爆。
解决思路也不复杂:永远不要把 10GB 当成一个 DataFrame 来处理,而是当成一个“数据流”。
10GB CSV 最大的坑不是“文件大”,而是:
你一旦pd.read_csv()全量读进来,内存会被 DataFrame 的列对象、字符串、索引、dtype 推到爆。
解决思路也不复杂:永远不要把 10GB 当成一个 DataFrame 来处理,而是当成一个“数据流”。