easypoi导入大文件内存溢出解决方案

【筑基】超-云淡风轻 14:03:08
有时候就是空间换时间

【筑基】超-云淡风轻 14:11:22
有时候导入大文件经常内存溢出,就直接简单粗暴的限制了导入文件大小。这个有更好的解决方案吗?

【管理员】狗管理表示,不会看文档,没资格写代码 14:11:41


【管理员】狗管理表示,不会看文档,没资格写代码 14:11:49
想要时间还是想要空间

【筑基】超-云淡风轻 14:12:41
要空间

【筑基】超-云淡风轻 14:12:47
不宕机就行啊

【筑基】苏京彬 14:13:00
小孩子才做选择,成年人当然是全都要

【管理员】狗管理表示,不会看文档,没资格写代码 14:13:17
全都要就必须进行线程化

【管理员】狗管理表示,不会看文档,没资格写代码 14:13:33
如果当前的目的是只要空间

【管理员】狗管理表示,不会看文档,没资格写代码 14:13:55
分批量将导入的数据存入库中就行

【管理员】狗管理表示,不会看文档,没资格写代码 14:14:29
在此之前,将文件优先分割

【筑基】超-云淡风轻 14:14:33
从文件读取数据到集合这个会不会内存溢出

【筑基】超-云淡风轻 14:14:45
怎么分割

【管理员】狗管理表示,不会看文档,没资格写代码 14:14:52
百度分割文件

【管理员】狗管理表示,不会看文档,没资格写代码 14:15:30
有一个分割excel文件的jar

【筑基】S 14:15:37
EasyExcel可以2000W条

【筑基】S 14:15:39
亲测过

【管理员】狗管理表示,不会看文档,没资格写代码 14:16:33
看需求是多少条吧

【管理员】狗管理表示,不会看文档,没资格写代码 14:16:43
觉得麻烦可以走easyexcel

【管理员】狗管理表示,不会看文档,没资格写代码 14:17:04
不觉得麻烦就使用easypoi的大数据导入接口

【管理员】狗管理表示,不会看文档,没资格写代码 14:17:27
反正官网里写的很明白,多看看就好了

 

【筑基】Happer 14:46:03
大数据导入接口已经足够满足90%的业务场景了

【筑基】超-云淡风轻 14:46:37
大数据导入接口,最大数据量是多少?

【筑基】Happer 14:48:31
200w 10列

【管理员】狗管理表示,不会看文档,没资格写代码 14:55:52
在这个数据量里起码不会出现oom

【筑基】S 15:02:27

 


easyexcel的量也很大啊

【筑基】S 15:02:33
一个sheet可以100W

【筑基】S 15:02:40
来20个sheet

【筑基】超-云淡风轻 15:09:35
那也就是如果要导入几千W甚至更多的,要分割文件分页分批调用大数据导入接口再利用多线程提高效率?分割的文件用大数据导入接口也能获取到数据吧?

【管理员】狗管理表示,不会看文档,没资格写代码 15:09:57
废话

【筑基】超-云淡风轻 15:11:43
好吧,我是确认下思路,以后如果有这样的需求直接这样做了。

posted @ 2022-08-02 14:42  super超人  阅读(1944)  评论(0)    收藏  举报