mybatis批量更新数据两种方法效率对比
实现方式有两种,
一种用for循环通过循环传过来的参数集合,循环出N条sql,
另一种 用mysql的case when 条件判断变相的进行批量更新
下面进行实现。
注意第一种方法要想成功,需要在db链接url后面带一个参数 &allowMultiQueries=true
即: jdbc:mysql://localhost:3306/mysqlTest?characterEncoding=utf-8&allowMultiQueries=true
其实这种东西写过来写过去就是差不多一样的代码,不做重复的赘述,直接上代码。
List<Customer> findByName(String name); int batchUpdate(Map<String,Object> param); int batchUpdateCaseWhen(Map<String,Object> param);
实现类
/** * 用于更新时,获取更新数据 * @param name * @return */ public List<Customer> findByName(String name) { SqlSession sqlSession = null; try { sqlSession = SqlsessionUtil.getSqlSession(); return sqlSession.selectList("customer.findByName", name); } catch (Exception e) { e.printStackTrace(); } finally { SqlsessionUtil.closeSession(sqlSession); } return new ArrayList<Customer>(); } /** * 批量更新第一种方式 * @param param * @return */ public int batchUpdate(Map<String,Object> param) { return bathUpdate("customer.batchUpdate",param); } /** * 批量更新第二种方式 * @param param * @return */ public int batchUpdateCaseWhen(Map<String,Object> param) { return bathUpdate("customer.batchUpdateCaseWhen",param); } /** * 公共部分提出 * @param statementId * @param param * @return */ private int bathUpdate(String statementId,Map param){ SqlSession sqlSession = null; try { sqlSession = SqlsessionUtil.getSqlSession(); int key = sqlSession.update(statementId, param); // commit sqlSession.commit(); return key; } catch (Exception e) { sqlSession.rollback(); e.printStackTrace(); } finally { SqlsessionUtil.closeSession(sqlSession); } return 0; }
测试前准备 首先用上节的 mybatis学习之路----批量更新数据 批量插入,插入10000条数据以备下面的批量更新用。
@Test public void batchInsert() throws Exception { Map<String,Object> param = new HashMap<String,Object>(); List<Customer> list = new ArrayList<Customer>(); for(int i=0;i<10000;i++){ Customer customer = new Customer(); customer.setName("准备数据" + i); customer.setAge(15); customer.setCeroNo("111111111111"+i); customer.setCeroType(2); customer.setSex(1); list.add(customer); } param.put("list",list); Long start = System.currentTimeMillis(); int result = customerDao.batchInsert(param); System.out.println("耗时 : "+(System.currentTimeMillis() - start)); }
开始进行测试效率问题。
首先进行的是测试十条数据。调整查询数据为查询十条
@Test public void batchudpate() throws Exception { Map<String,Object> param = new HashMap<String,Object>(); param.put("list",getFindByName("准备数据","批量更新01")); Long start = System.currentTimeMillis(); customerDao.batchUpdate(param); System.out.println("耗时 : "+(System.currentTimeMillis() - start)); } @Test public void batchudpateCaseWhen() throws Exception { Map<String,Object> param = new HashMap<String,Object>(); param.put("list",getFindByName("批量更新01","准备数据")); Long start = System.currentTimeMillis(); customerDao.batchUpdateCaseWhen(param); System.out.println("耗时 : "+(System.currentTimeMillis() - start)); } private List<Customer> getFindByName(String name, String change){ List<Customer> list = customerDao.findByName(name); System.out.println("查询出来的条数 : " + list.size()); if(null != change && !"".equals(change)){ for(Customer customer : list){ customer.setName(change); } } return list; }
第一种拼完整sql的方式耗时:
第二种case when 耗时情况:
结果可以看出,其实case when 耗时比较多。
下面来加大数据量到100条;
第一种拼完整sql的方式耗时:
第二种case when 耗时情况:
结果可以看出,其实case when 耗时仍然比第一种多。
继续加大数据量到1000条
第一种拼完整sql的方式耗时:
第二种case when 耗时情况:
结果可以看出,其实case when 耗时仍然比第一种多。
继续加大数据量到10000条
第一种拼完整sql的方式耗时:
第二种case when 耗时情况:
结果可以看出,两种方式进行批量更新,效率已经不在一个数量级了。case when明显的慢的多。
看网上有人说第一种的效率跟用代码循环着一条一条的循环着插入的效率差不多,通过测试我就有疑问了,他是怎么做到的。难道我的代码有问题?明明第一种的效率很高嘛。
第一种效率其实相当高的,因为它仅仅有一个循环体,只不过最后update语句比较多,量大了就有可能造成sql阻塞。
第二种虽然最后只会有一条更新语句,但是xml中的循环体有点多,每一个case when 都要循环一遍list集合,所以大批量拼sql的时候会比较慢,所以效率问题严重。使用的时候建议分批插入。
根据效率,安全方面综合考虑,选择适合的很重要。