摘录自:http://www.linuxidc.com/Linux/2012-05/60863.htm

MyBatis的前身就是著名的Ibatis,不知何故脱离了Apache改名为MyBatis。
MyBatis所说是轻量级的ORM框架,在网上看过一个测试报告,感觉相比于Hibernate来说,优势并不明显。

下面说一下比较有趣的现象,根据MyBatis的官方文档,在获得sqlSession时,它有为批量更新而专门准备的:

  1. session = sessionFactory.openSession();//用于普通update
  2. session = sessionFactory.openSession(ExecutorType.BATCH, true);//用于批量update
 一般来说,对MYSQL数据库批量操作时速度取决于,是为每一个处理分别建立一个连接,还是为这一批处理一共建立一个连接。按MyBatis的手册说明,选择ExecutorType.BATCH意味着,获得的sqlSession会批量执行所有更新语句。不过我测试了一下,批量插入1000条数据,发觉ExecutorType.BATCH方式的效率居然比普通的方式差很多。我测试用的Mapper中的insert配置如下,再用for循环插入1000条记录:
  1. <insert id="insert" parameterType="sdc.mybatis.test.Student">
  2. <!-- WARNING - @mbggenerated This element is automatically generated by
  3. MyBatis Generator, do not modify. This element was generated on Mon May 09
  4. 11:09:37 CST 2011. -->
  5. insert into student (id, name, sex,
  6. address, telephone, t_id
  7. )
  8. values (#{id,jdbcType=INTEGER}, #{name,jdbcType=VARCHAR},
  9. #{sex,jdbcType=VARCHAR},
  10. #{address,jdbcType=VARCHAR}, #{telephone,jdbcType=VARCHAR}, #{tId,jdbcType=INTEGER}
  11. )
  12. </insert>

1、 我不清楚原因在哪里, 就配置了MyBatis的log4j,想查看下日志。下载了log4j.jar和commons-logging.jar并配置到项目的类路径,然后在代码路径下新建文件log4j.properties,内容如下:

    1. log4j.rootLogger=DEBUG, stdout
    2. # SqlMap logging configuration...
    3. log4j.logger.com.ibatis=DEBUG
    4. log4j.logger.com.ibatis.common.jdbc.SimpleDataSource=DEBUG
    5. log4j.logger.com.ibatis.sqlmap.engine.cache.CacheModel=DEBUG
    6. log4j.logger.com.ibatis.sqlmap.engine.impl.SqlMapClientImpl=DEBUG
    7. log4j.logger.com.ibatis.sqlmap.engine.builder.xml.SqlMapParser=DEBUG
    8. log4j.logger.com.ibatis.common.util.StopWatch=DEBUG
    9. log4j.logger.java.sql.Connection=DEBUG
    10. log4j.logger.java.sql.Statement=DEBUG
    11. log4j.logger.java.sql.PreparedStatement=DEBUG
    12. log4j.logger.java.sql.ResultSet=DEBUG
    13. # Console output...
    14. log4j.appender.stdout=org.apache.log4j.ConsoleAppender
    15. log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
    16. log4j.appender.stdout.layout.ConversionPattern=%5p [%t] - %m%n

2、然后再次测试普通的sqlSession,发现日志内容中虽然插入了1000条数据,但只新建了一次连接,最后又关闭了该连接(日志如下)。也就是说MyBatis中的普通sqlSession好像已经对批量插入默认是一次连接中完成,那么还提供ExecutorType.BATCH方式干什么,况且该方式好像效率也不行,或者是我使用ExecutorType.BATCH方式不对??

  1. DEBUG [main] - Created connection 3502256.
  2. DEBUG [main] - ooo Connection Opened
  3. DEBUG [main] - ==>  Executing: insert into student ( name, sex, address, telephone, t_id ) values ( ?, ?, ?, ?, ? )
  4. DEBUG [main] - ==> Parameters: 新人0(String), male(String), addr0(String), dd(String), 3(Integer)
  5. DEBUG [main] - ==>  Executing: insert into student ( name, sex, address, telephone, t_id ) values ( ?, ?, ?, ?, ? )
  6. DEBUG [main] - ==> Parameters: 新人1(String), male(String),
  7. ...............
  8. ...............
  9. DEBUG [main] - xxx Connection Closed
  10. DEBUG [main] - Returned connection 3502256 to pool.

3、最后一点是关于数据库批量插入时sql语句级的优化,我特意测试了两种方式,在StudentMapper中配置了两种insert模式。第一种对应insert value1,insert value2,,,,;第二种对应insert values (value1, value2,....)。发现后者果然比前者快很多啊。下面是两种insert模式,及测试结果对应图:

  1. <!-- 在外部for循环调用一千次 -->
  2. <insert id="insert" parameterType="sdc.mybatis.test.Student">
  3. insert into student (id, name, sex,
  4. address, telephone, t_id
  5. )
  6. values (#{id,jdbcType=INTEGER}, #{name,jdbcType=VARCHAR},
  7. #{sex,jdbcType=VARCHAR},
  8. #{address,jdbcType=VARCHAR}, #{telephone,jdbcType=VARCHAR}, #{tId,jdbcType=INTEGER}
  9. )
  10. </insert>
  11. <!--  批量 ,传入一个长度为1000的list  -->
  12. <insert id="insertBatch" >
  13. insert into student ( <include refid="Base_Column_List" /> )
  14. values
  15. <foreach collection="list" item="item" index="index" separator=",">
  16. (null,#{item.name},#{item.sex},#{item.address},#{item.telephone},#{item.tId})
  17. </foreach>
  18. </insert>

MyBatis的关于批量数据操作的测试的更多相关文章

  1. C#利用SqlDataAdapte对DataTable进行批量数据操作

    C#利用SqlDataAdapte对DataTable进行批量数据操作,可以让我们大大简化操作数据的代码量,我们几乎不需要循环和不关心用户到底是新增还是修改,更不用编写新增和修改以及删除的SQL语句, ...

  2. MyBatis注解方式批量插入操作

    @Insert({ "<script>", "insert into table_name(column1, column2, column3) values ...

  3. Mybatis+mysql批量插入性能分析测试

    前言 今天在网上看到一篇文章(后文中的文章指的就是它) https://www.jianshu.com/p/cce617be9f9e 发现了一种有关于mybatis批量插入的新方法,而且看了文章发现我 ...

  4. SpringCloud或SpringBoot+Mybatis-Plus利用AOP+mybatis插件实现数据操作记录及更新对比

    引文 本文主要介绍如何使用Spring AOP + mybatis插件实现拦截数据库操作并根据不同需求进行数据对比分析,主要适用于系统中需要对数据操作进行记录.在更新数据时准确记录更新字段 核心:AO ...

  5. Maven 工程下 Spring MVC 站点配置 (二) Mybatis数据操作

    详细的Spring MVC框架搭配在这个连接中: Maven 工程下 Spring MVC 站点配置 (一) Maven 工程下 Spring MVC 站点配置 (二) Mybatis数据操作 这篇主 ...

  6. Mybatis数据操作

    Maven 工程下 Spring MVC 站点配置 (二) Mybatis数据操作   详细的Spring MVC框架搭配在这个连接中: Maven 工程下 Spring MVC 站点配置 (一) M ...

  7. mybatis 2 -常用数据操作

    1.写入数据并获取自增ID XML配置: <!-- 写入数据获取自增ID --> <insert id="insertLog" parameterType=&qu ...

  8. SpringCloud或SpringBoot+Mybatis-Plus利用mybatis插件实现数据操作记录及更新对比

    引文 本文主要介绍如何使用mybatis插件实现拦截数据库操作并根据不同需求进行数据对比分析,主要适用于系统中需要对数据操作进行记录.在更新数据时准确记录更新字段 核心:mybatis插件(拦截器). ...

  9. MyBatis Plus 批量数据插入功能,yyds!

    最近 Review 小伙伴代码的时候,发现了一个小小的问题,小伙伴竟然在 for 循环中进行了 insert (插入)数据库的操作,这就会导致每次循环时都会进行连接.插入.断开连接的操作,从而导致一定 ...

随机推荐

  1. Robot Framework学习笔记(六)------RIDE界面说明

    RIDE是一款专门用来编辑Robot Framework用例的软件,用Python编写并且开源. 1.测试项目.测试套件Edit 标签 测试项目和测试套件所提供的 Edit 标签的功能是一样的. 在 ...

  2. Python的locals()函数

    Python的locals()函数会以dict类型返回当前位置的全部局部变量. 示例代码: def func(): arg_a, arg_b = 'a', 'b' def func_a(): pass ...

  3. android开发文章收藏

    1.activity [Android的从零单排开发日记]之入门篇(四)——Android四大组件之Activity 两分钟彻底让你明白Android Activity生命周期(图文)! 2.serv ...

  4. Python 字典中一键对应多个值

    #字典的一键多值 print'方案一 list作为dict的值 值允许重复' d1={} key=1 value=2 d1.setdefault(key,[]).append(value) value ...

  5. JAVA中的按值传递

    Java中只有按值传递,没有按引用传递! 方法参数共有两种类型: 基本数据类型 对象引用 一:基本数据类型 首先看一个小例子: package chuandi; public class Test1 ...

  6. 关于JS中变量提升的规则和原理的一点理解

        关于变量提升,以前在一些教程和书籍上都听到过,平时开发中也知道有这个规律,但是今天突然在一个公开课中听到时,第一反应时一脸懵逼,然后一百度,瞬间觉得好熟悉啊,差点被这个概念给唬住了,不信我给你 ...

  7. Redis与数据库同步问题

    缓存数据与持久化数据的一致性,这个问题总结了一下(看到了一个不错的博文),其实就是读和写,还有就是要注意谁先谁后的问题. Redis 是一个高性能的key-value数据库. redis的出现,很大程 ...

  8. 使用elk转存储日志

    ELK指的是由Elastic公司提供的三个开源组件Elasticsearch.Logstash和Kibana. Logstash:开源的服务器端数据处理管道,能够同时 从多个来源采集数据.转换数据,然 ...

  9. 存储库-MongoDB简单的操作

    简介: MongoDB是一款强大.灵活.且易于扩展的通用型数据库 1.易用性 MongoDB是一个面向文档的数据库,而不是关系型的数据库: 不采用关系型主要是为了可扩展性 2.易扩展性 存储在Mong ...

  10. 2017"百度之星"程序设计大赛 - 资格赛【1001 Floyd求最小环 1002 歪解(并查集),1003 完全背包 1004 01背包 1005 打表找规律+卡特兰数】

    度度熊保护村庄 Accepts: 13 Submissions: 488 Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 32768/3276 ...