关于读取 csv 组件运行崩溃
如题,现有的生产场景会下载一个 csv 文件,有时 csv 数据会达到 20w 条以上,但是现在一旦数据接近 20w,运行读取 csv 文件组件时,rpa 就会崩溃报错,有没有解决办法
"如题,现有的生产场景会下载一个 csv 文件,有时 csv 数据会达到 20w 条以上,但是现在一旦数据接近 20w,运行读取 csv 文件组件时,rpa 就会崩溃报错,有没有解决办法"
如题,现有的生产场景会下载一个 csv 文件,有时 csv 数据会达到 20w 条以上,但是现在一旦数据接近 20w,运行读取 csv 文件组件时,rpa 就会崩溃报错,有没有解决办法
网上教程很多
报错问题是什么,百度进行解决鸭 ~
pandas 也报错 =。= 用的 read_csv()
建议使用 pandas,源生代码直接自己读取。
问一下如何分块读取啊??????读取部分列我试过了,不行,报错 memory error
分块读取,或者读取需要的部分列,减轻内存压力