<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
在專案開發中往往需要使用到資料的匯入和匯出,匯入就是從Excel中匯入到DB中,而匯出就是從DB中查詢資料然後使用POI寫到Excel上。
巨量資料的匯入和匯出,相信大家在日常的開發、面試中都會遇到。
很多問題只要這一次解決了,總給覆盤記錄,後期遇到同樣的問題就好解決了。好啦,廢話不多說開始正文!
其實想到資料的匯入匯出,理所當然的會想到apache的poi技術,以及Excel的版本問題。
HSSFWorkbook
這個實現類是我們早期使用最多的物件,它可以操作Excel2003以前(包含2003)的所有Excel版本。在2003以前Excel的版本字尾還是.xls
XSSFWorkbook
這個實現類現在在很多公司都可以發現還在使用,它是操作的Excel2003–Excel2007之間的版本,Excel的擴充套件名是.xlsx
SXSSFWorkbook
這個實現類是POI3.8之後的版本才有的,它可以操作Excel2007以後的所有版本Excel,擴充套件名是.xlsx
HSSFWorkbook
它是POI版本中最常用的方式,不過:
XSSFWorkbook
SXSSFWorkbook
從POI 3.8版本開始,提供了一種基於XSSF的低記憶體佔用的SXSSF方式:
優點:
缺點:
經過了解也知道了這三種Workbook的優點和缺點,那麼具體使用哪種方式還是需要看情況的:
我一般會根據這樣幾種情況做分析選擇:
1、當我們經常匯入匯出的資料不超過7w的情況下,可以使用 HSSFWorkbook 或者 XSSFWorkbook都行;
2、當資料量查過7w並且匯出的Excel中不牽扯對Excel的樣式,公式,格式等操作的情況下,推薦使用SXSSFWorkbook;
3、當資料量查過7w,並且我們需要操做Excel中的表頭,樣式,公式等,這時候我們可以使用 XSSFWorkbook 配合進行分批查詢,分批寫入Excel的方式來做;
想要解決問題我們首先要明白自己遇到的問題是什麼?
1、 我遇到的資料量超級大,使用傳統的POI方式來完成匯入匯出很明顯會記憶體溢位,並且效率會非常低;
2、 資料量大直接使用select * from tableName肯定不行,一下子查出來300w條資料肯定會很慢;
3、 300w 資料匯出到Excel時肯定不能都寫在一個Sheet中,這樣效率會非常低;估計開啟都得幾分鐘;
4、 300w資料匯出到Excel中肯定不能一行一行的匯出到Excel中。頻繁IO操作絕對不行;
5、 匯入時300萬資料儲存到DB如果迴圈一條條插入也肯定不行;
6、匯入時300w資料如果使用Mybatis的批次插入肯定不行,因為Mybatis的批次插入其實就是SQL的迴圈;一樣很慢。
解決思路:
針對1 :
其實問題所在就是記憶體溢位,我們只要使用對上面介紹的POI方式即可,主要問題就是原生的POI解決起來相當麻煩。
經過查閱資料翻看到阿里的一款POI封裝工具EasyExcel,上面問題等到解決;
針對2:
不能一次性查詢出全部資料,我們可以分批進行查詢,只不過時多查詢幾次的問題,況且市面上分頁外掛很多。此問題好解決。
針對3:
可以將300w條資料寫到不同的Sheet中,每一個Sheet寫一百萬即可。
針對4:
不能一行一行的寫入到Excel上,我們可以將分批查詢的資料分批寫入到Excel中。
針對5:
匯入到DB時我們可以將Excel中讀取的資料儲存到集合中,到了一定數量,直接批次插入到DB中。
針對6:
不能使用Mybatis的批次插入,我們可以使用JDBC的批次插入,配合事務來完成批次插入到DB。即 Excel讀取分批+JDBC分批插入+事務。
需求:使用EasyExcel完成500w資料的匯出。
500w資料的匯出解決思路:
ps:我們需要計算Sheet個數,以及迴圈寫入次數。特別是最後一個Sheet的寫入次數
因為你不知道最後一個Sheet會寫入多少資料,可能是100w,也可能是25w因為我們這裡的500w只是模擬資料,有可能匯出的資料比500w多也可能少
ps:我們需要計算寫入次數,因為我們使用的分頁查詢,所以需要注意寫入的次數。
其實查詢資料庫多少次就是寫入多少次
準備工作
1.基於maven搭建springboot工程,引入easyexcel依賴,這裡我是用的時3.0版本
<dependency> <groupId>com.alibaba</groupId> <artifactId>easyexcel</artifactId> <version>3.0.5</version> </dependency>
2.建立海量資料的sql指令碼
CREATE TABLE dept( /*部門表*/ deptno MEDIUMINT UNSIGNED NOT NULL DEFAULT 0, dname VARCHAR(20) NOT NULL DEFAULT "", loc VARCHAR(13) NOT NULL DEFAULT "" ) ; #建立表EMP僱員 CREATE TABLE emp (empno MEDIUMINT UNSIGNED NOT NULL DEFAULT 0, /*編號*/ ename VARCHAR(20) NOT NULL DEFAULT "", /*名字*/ job VARCHAR(9) NOT NULL DEFAULT "",/*工作*/ mgr MEDIUMINT UNSIGNED NOT NULL DEFAULT 0,/*上級編號*/ hiredate DATE NOT NULL,/*入職時間*/ sal DECIMAL(7,2) NOT NULL,/*薪水*/ comm DECIMAL(7,2) NOT NULL,/*紅利*/ deptno MEDIUMINT UNSIGNED NOT NULL DEFAULT 0 /*部門編號*/ ) ; #工資級別表 CREATE TABLE salgrade ( grade MEDIUMINT UNSIGNED NOT NULL DEFAULT 0, losal DECIMAL(17,2) NOT NULL, hisal DECIMAL(17,2) NOT NULL ); #測試資料 INSERT INTO salgrade VALUES (1,700,1200); INSERT INTO salgrade VALUES (2,1201,1400); INSERT INTO salgrade VALUES (3,1401,2000); INSERT INTO salgrade VALUES (4,2001,3000); INSERT INTO salgrade VALUES (5,3001,9999); delimiter $$ #建立一個函數,名字 rand_string,可以隨機返回我指定的個數位符串 create function rand_string(n INT) returns varchar(255) #該函數會返回一個字串 begin #定義了一個變數 chars_str, 型別 varchar(100) #預設給 chars_str 初始值 'abcdefghijklmnopqrstuvwxyzABCDEFJHIJKLMNOPQRSTUVWXYZ' declare chars_str varchar(100) default 'abcdefghijklmnopqrstuvwxyzABCDEFJHIJKLMNOPQRSTUVWXYZ'; declare return_str varchar(255) default ''; declare i int default 0; while i < n do # concat 函數 : 連線函數mysql函數 set return_str =concat(return_str,substring(chars_str,floor(1+rand()*52),1)); set i = i + 1; end while; return return_str; end $$ #這裡我們又自定了一個函數,返回一個隨機的部門號 create function rand_num( ) returns int(5) begin declare i int default 0; set i = floor(10+rand()*500); return i; end $$ #建立一個儲存過程, 可以新增僱員 create procedure insert_emp(in start int(10),in max_num int(10)) begin declare i int default 0; #set autocommit =0 把autocommit設定成0 #autocommit = 0 含義: 不要自動提交 set autocommit = 0; #預設不提交sql語句 repeat set i = i + 1; #通過前面寫的函數隨機產生字串和部門編號,然後加入到emp表 insert into emp values ((start+i) ,rand_string(6),'SALESMAN',0001,curdate(),2000,400,rand_num()); until i = max_num end repeat; #commit整體提交所有sql語句,提高效率 commit; end $$ #新增8000000資料 call insert_emp(100001,8000000)$$ #命令結束符,再重新設定為; delimiter ;
3.實體類
@Data @NoArgsConstructor @AllArgsConstructor public class Emp implements Serializable { @ExcelProperty(value = "員工編號") private Integer empno; @ExcelProperty(value = "員工名稱") private String ename; @ExcelProperty(value = "工作") private String job; @ExcelProperty(value = "主管編號") private Integer mgr; @ExcelProperty(value = "入職日期") private Date hiredate; @ExcelProperty(value = "薪資") private BigDecimal sal; @ExcelProperty(value = "獎金") private BigDecimal comm; @ExcelProperty(value = "所屬部門") private Integer deptno; }
4.vo類
@Data public class EmpVo { @ExcelProperty(value = "員工編號") private Integer empno; @ExcelProperty(value = "員工名稱") private String ename; @ExcelProperty(value = "工作") private String job; @ExcelProperty(value = "主管編號") private Integer mgr; @ExcelProperty(value = "入職日期") private Date hiredate; @ExcelProperty(value = "薪資") private BigDecimal sal; @ExcelProperty(value = "獎金") private BigDecimal comm; @ExcelProperty(value = "所屬部門") private Integer deptno; }
匯出核心程式碼
@Resource private EmpService empService; /** * 分批次匯出 */ @GetMapping("/export") public void export() throws IOException { StopWatch stopWatch = new StopWatch(); stopWatch.start(); empService.export(); stopWatch.stop(); System.out.println("共計耗時: " + stopWatch.getTotalTimeSeconds()+"S"); }
public class ExcelConstants { //一個sheet裝100w資料 public static final Integer PER_SHEET_ROW_COUNT = 1000000; //每次查詢20w資料,每次寫入20w資料 public static final Integer PER_WRITE_ROW_COUNT = 200000; }
@Override public void export() throws IOException { OutputStream outputStream =null; try { //記錄總數:實際中需要根據查詢條件進行統計即可 //LambdaQueryWrapper<Emp> lambdaQueryWrapper = new QueryWrapper<Emp>().lambda().eq(Emp::getEmpno, 1000001); Integer totalCount = empMapper.selectCount(null); //每一個Sheet存放100w條資料 Integer sheetDataRows = ExcelConstants.PER_SHEET_ROW_COUNT; //每次寫入的資料量20w,每頁查詢20W Integer writeDataRows = ExcelConstants.PER_WRITE_ROW_COUNT; //計算需要的Sheet數量 Integer sheetNum = totalCount % sheetDataRows == 0 ? (totalCount / sheetDataRows) : (totalCount / sheetDataRows + 1); //計算一般情況下每一個Sheet需要寫入的次數(一般情況不包含最後一個sheet,因為最後一個sheet不確定會寫入多少條資料) Integer oneSheetWriteCount = sheetDataRows / writeDataRows; //計算最後一個sheet需要寫入的次數 Integer lastSheetWriteCount = totalCount % sheetDataRows == 0 ? oneSheetWriteCount : (totalCount % sheetDataRows % writeDataRows == 0 ? (totalCount / sheetDataRows / writeDataRows) : (totalCount / sheetDataRows / writeDataRows + 1)); ServletRequestAttributes requestAttributes = (ServletRequestAttributes) RequestContextHolder.getRequestAttributes(); HttpServletResponse response = requestAttributes.getResponse(); outputStream = response.getOutputStream(); //必須放到迴圈外,否則會重新整理流 ExcelWriter excelWriter = EasyExcel.write(outputStream).build(); //開始分批查詢分次寫入 for (int i = 0; i < sheetNum; i++) { //建立Sheet WriteSheet sheet = new WriteSheet(); sheet.setSheetName("測試Sheet1"+i); sheet.setSheetNo(i); //迴圈寫入次數: j的自增條件是當不是最後一個Sheet的時候寫入次數為正常的每個Sheet寫入的次數,如果是最後一個就需要使用計算的次數lastSheetWriteCount for (int j = 0; j < (i != sheetNum - 1 ? oneSheetWriteCount : lastSheetWriteCount); j++) { //分頁查詢一次20w Page<Emp> page = empMapper.selectPage(new Page(j + 1 + oneSheetWriteCount * i, writeDataRows), null); List<Emp> empList = page.getRecords(); List<EmpVo> empVoList = new ArrayList<>(); for (Emp emp : empList) { EmpVo empVo = new EmpVo(); BeanUtils.copyProperties(emp, empVo); empVoList.add(empVo); } WriteSheet writeSheet = EasyExcel.writerSheet(i, "員工資訊" + (i + 1)).head(EmpVo.class) .registerWriteHandler(new LongestMatchColumnWidthStyleStrategy()).build(); //寫資料 excelWriter.write(empVoList, writeSheet); } } // 下載EXCEL response.setContentType("application/vnd.openxmlformats-officedocument.spreadsheetml.sheet"); response.setCharacterEncoding("utf-8"); // 這裡URLEncoder.encode可以防止瀏覽器端匯出excel檔名中文亂碼 當然和easyexcel沒有關係 String fileName = URLEncoder.encode("員工資訊", "UTF-8").replaceAll("\+", "%20"); response.setHeader("Content-disposition", "attachment;filename*=utf-8''" + fileName + ".xlsx"); excelWriter.finish(); outputStream.flush(); } catch (IOException e) { e.printStackTrace(); } catch (BeansException e) { e.printStackTrace(); }finally { if (outputStream != null) { outputStream.close(); } } }
這是我電腦測試時記憶體佔用和CPU使用情況,當然開了其他一些應用。
匯出500w資料共計耗時,可以看到差不多400s左右,當然還要考慮業務複雜度已經電腦設定,我這裡只是一個匯出的demo並不涉及其他業務邏輯,在實際開發中可能時間會比這個更長一些
看下匯出效果,我上面的指令碼向插入了500w資料,100w一個sheet因此正好五個
500W資料的匯入解決思路
1、首先是分批讀取讀取Excel中的500w資料,這一點EasyExcel有自己的解決方案,我們可以參考Demo即可,只需要把它分批的引數5000調大即可。
2、其次就是往DB裡插入,怎麼去插入這20w條資料,當然不能一條一條的迴圈,應該批次插入這20w條資料,同樣也不能使用Mybatis的批次插入語,因為效率也低。
3、使用JDBC+事務的批次操作將資料插入到資料庫。(分批讀取+JDBC分批插入+手動事務控制)
程式碼實現
controller層測試介面
@Resource private EmpService empService; @GetMapping("/importData") public void importData() { String fileName = "C:\Users\asus\Desktop\員工資訊.xlsx"; //記錄開始讀取Excel時間,也是匯入程式開始時間 long startReadTime = System.currentTimeMillis(); System.out.println("------開始讀取Excel的Sheet時間(包括匯入資料過程):" + startReadTime + "ms------"); //讀取所有Sheet的資料.每次讀完一個Sheet就會呼叫這個方法 EasyExcel.read(fileName, new EasyExceGeneralDatalListener(empService)).doReadAll(); long endReadTime = System.currentTimeMillis(); System.out.println("------結束讀取Excel的Sheet時間(包括匯入資料過程):" + endReadTime + "ms------"); System.out.println("------讀取Excel的Sheet時間(包括匯入資料)共計耗時:" + (endReadTime-startReadTime) + "ms------"); }
Excel匯入事件監聽
// 事件監聽 public class EasyExceGeneralDatalListener extends AnalysisEventListener<Map<Integer, String>> { /** * 處理業務邏輯的Service,也可以是Mapper */ private EmpService empService; /** * 用於儲存讀取的資料 */ private List<Map<Integer, String>> dataList = new ArrayList<Map<Integer, String>>(); public EasyExceGeneralDatalListener() { } public EasyExceGeneralDatalListener(EmpService empService) { this.empService = empService; } @Override public void invoke(Map<Integer, String> data, AnalysisContext context) { //資料add進入集合 dataList.add(data); //size是否為100000條:這裡其實就是分批.當資料等於10w的時候執行一次插入 if (dataList.size() >= ExcelConstants.GENERAL_ONCE_SAVE_TO_DB_ROWS) { //存入資料庫:資料小於1w條使用Mybatis的批次插入即可; saveData(); //清理集合便於GC回收 dataList.clear(); } } /** * 儲存資料到DB * * @param * @MethodName: saveData * @return: void */ private void saveData() { empService.importData(dataList); dataList.clear(); } /** * Excel中所有資料解析完畢會呼叫此方法 * * @param: context * @MethodName: doAfterAllAnalysed * @return: void */ @Override public void doAfterAllAnalysed(AnalysisContext context) { saveData(); dataList.clear(); } }
核心業務程式碼
public interface EmpService { void export() throws IOException; void importData(List<Map<Integer, String>> dataList); }
/* * 測試用Excel匯入超過10w條資料,經過測試發現,使用Mybatis的批次插入速度非常慢,所以這裡可以使用 資料分批+JDBC分批插入+事務來繼續插入速度會非常快 */ @Override public void importData(List<Map<Integer, String>> dataList) { //結果集中資料為0時,結束方法.進行下一次呼叫 if (dataList.size() == 0) { return; } //JDBC分批插入+事務操作完成對20w資料的插入 Connection conn = null; PreparedStatement ps = null; try { long startTime = System.currentTimeMillis(); System.out.println(dataList.size() + "條,開始匯入到資料庫時間:" + startTime + "ms"); conn = JDBCDruidUtils.getConnection(); //控制事務:預設不提交 conn.setAutoCommit(false); String sql = "insert into emp (`empno`, `ename`, `job`, `mgr`, `hiredate`, `sal`, `comm`, `deptno`) values"; sql += "(?,?,?,?,?,?,?,?)"; ps = conn.prepareStatement(sql); //迴圈結果集:這裡迴圈不支援lambda表示式 for (int i = 0; i < dataList.size(); i++) { Map<Integer, String> item = dataList.get(i); ps.setString(1, item.get(0)); ps.setString(2, item.get(1)); ps.setString(3, item.get(2)); ps.setString(4, item.get(3)); ps.setString(5, item.get(4)); ps.setString(6, item.get(5)); ps.setString(7, item.get(6)); ps.setString(8, item.get(7)); //將一組引數新增到此 PreparedStatement 物件的批次處理命令中。 ps.addBatch(); } //執行批次處理 ps.executeBatch(); //手動提交事務 conn.commit(); long endTime = System.currentTimeMillis(); System.out.println(dataList.size() + "條,結束匯入到資料庫時間:" + endTime + "ms"); System.out.println(dataList.size() + "條,匯入用時:" + (endTime - startTime) + "ms"); } catch (Exception e) { e.printStackTrace(); } finally { //關連線 JDBCDruidUtils.close(conn, ps); } } }
jdbc工具類
//JDBC工具類 public class JDBCDruidUtils { private static DataSource dataSource; /* 建立資料Properties集合物件載入載入組態檔 */ static { Properties pro = new Properties(); //載入資料庫連線池物件 try { //獲取資料庫連線池物件 pro.load(JDBCDruidUtils.class.getClassLoader().getResourceAsStream("druid.properties")); dataSource = DruidDataSourceFactory.createDataSource(pro); } catch (Exception e) { e.printStackTrace(); } } /* 獲取連線 */ public static Connection getConnection() throws SQLException { return dataSource.getConnection(); } /** * 關閉conn,和 statement獨物件資源 * * @param connection * @param statement * @MethodName: close * @return: void */ public static void close(Connection connection, Statement statement) { if (connection != null) { try { connection.close(); } catch (SQLException e) { e.printStackTrace(); } } if (statement != null) { try { statement.close(); } catch (SQLException e) { e.printStackTrace(); } } } /** * 關閉 conn , statement 和resultset三個物件資源 * * @param connection * @param statement * @param resultSet * @MethodName: close * @return: void */ public static void close(Connection connection, Statement statement, ResultSet resultSet) { close(connection, statement); if (resultSet != null) { try { resultSet.close(); } catch (SQLException e) { e.printStackTrace(); } } } /* 獲取連線池物件 */ public static DataSource getDataSource() { return dataSource; } }
druid.properties組態檔
這裡我將檔案建立在類路徑下,需要注意的是連線mysql資料庫時需要指定rewriteBatchedStatements=true批次處理才會生效,否則還是逐條插入效率較低,allowMultiQueries=true表示可以使sql語句中有多個insert或者update語句(語句之間攜帶分號),這裡可以忽略。
# druid.properties設定 driverClassName=com.mysql.jdbc.Driver url=jdbc:mysql://localhost:3306/llp?autoReconnect=true&useUnicode=true&useSSL=false&serverTimezone=GMT%2B8&allowMultiQueries=true&rewriteBatchedStatements=true username=root password=root initialSize=10 maxActive=50 maxWait=60000
測試結果
------開始讀取Excel的Sheet時間(包括匯入資料過程):1674181403555ms------
200000條,開始匯入到資料庫時間:1674181409740ms
2023-01-20 10:23:29.943 INFO 18580 --- [nio-8888-exec-1] com.alibaba.druid.pool.DruidDataSource : {dataSource-1} inited
200000條,結束匯入到資料庫時間:1674181413252ms
200000條,匯入用時:3512ms
200000條,開始匯入到資料庫時間:1674181418422ms
200000條,結束匯入到資料庫時間:1674181420999ms
200000條,匯入用時:2577ms
.....
200000條,開始匯入到資料庫時間:1674181607405ms
200000條,結束匯入到資料庫時間:1674181610154ms
200000條,匯入用時:2749ms
------結束讀取Excel的Sheet時間(包括匯入資料過程):1674181610155ms------
------讀取Excel的Sheet時間(包括匯入資料)共計耗時:206600ms------
這裡我刪除裡部分紀錄檔,從列印結果可以看出,在我的電腦上匯入500w資料差不多需要20多秒的時間,還是很快的。當然公司的業務邏輯很複雜,資料量也比較多,表的欄位也比較多,匯入和匯出的速度會比現在測試的要慢一點。
1.如此大批次資料的匯出和匯入操作,會佔用大量的記憶體實際開發中還應限制操作人數。
2.在做大批次的資料匯入時,可以使用jdbc手動開啟事務,批次提交。
以上就是基於EasyExcel實現百萬級資料匯入匯出詳解的詳細內容,更多關於EasyExcel資料匯入匯出的資料請關注it145.com其它相關文章!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45