https://blog.csdn.net/RicardoDing/article/details/79899686 近期,在使用spring和mybatis框架编写代码时,sqlSession不需要手动关闭这一点引起了我的兴趣.我们都知道,单独使用mybatis时,sqlSeesion使用完毕后是需要进行手动关闭的,但为什么在和spring整合后就不需要了呢?在查阅了资料后得知,这是使用了spring中的AOP面向切面编程和动态代理技术.但是我认为脱离代码谈技术就是耍流氓.因此,我对 MyBa…
Redis的下载与安装 在Linux上使用wget http://download.redis.io/releases/redis-5.0.0.tar.gz下载源码到指定位置 解压:tar -xvf redis-5.0.0.tar.gz cd redis-5.0.0.tar.gz make:编译(如果Linux上没有装gcc编译环境,则执行yum -y install gcc-c++) make install:把Redis的cli和server添加到bin中,相当于配置环境变量 vim red…
在log4j.properties中添加如下代码 log4j.logger.org.apache.kafka.common.metrics.Metrics=OFF log4j.logger.org.apache.kafka.clients.FetchSessionHandler=OFF log4j.logger.org.apache.kafka.clients.consumer.internals.Fetcher=OFF log4j.logger.org.apache.kafka.clients…
异常如下: 在整合spring和Mybatis,刚开始进行查询映射时没有问题,在进行插入映射时一直报空指针异常,后来把插入部分的Mapper映射文件和Dao层接口方法删除到原来还是不行,后来网上查了查,发现问题,在使用接口传递参数时,原来使用的是Map传递参数,后来使用JavaBean传递参数,新增加了一个Bean,但是忘记使用@Autowired注解修饰.所以会报空指针异常.…
@Test public void testSpringJedisPool(){ ApplicationContext ac = new ClassPathXmlApplicationContext("classpath:spring/applicationContext-*.xml"); JedisPool pool = (JedisPool)ac.getBean("redisClient"); Jedis jedis = pool.getResource();…
写在前面: 1. 本例使用 Hibernate3 + Spring3: 2. 本例的查询使用了 HibernateTemplate: 1. 导入 ehcache-x.x.x.jar 包: 2. 在 applicationContext.xml 文件中找到 sessionFactory 相应的配置信息并在设置 hibernateProperties 中添加如下代码: ? 1 2 3 4 5 6 <!-- 配置使用查询缓存 --> <prop key="hibernate.cach…
这个情况是由于导入错了Entity包所导致的. 按住Alt+T时,会有两个关于@Entity的提示 org.hibernate.annotations.Entity 和 javax.persistence.Entity,我们应该使用javax.persistence.Entity.此时就不会出现过时的提示. @org.hibernate.annotations.Entity 和 @javax.persistence.Entity 的区别: JPA的Entity类和Hibernate的Entity…
问题 1.学习测试时发现了一级缓存并没有生效,先看案例: setting配置: <settings> <!-- (1) 提供可控制Mybatis框架运行行为的属性信息 --> <setting name="lazyLoadingEnabled" value="false" /> <setting name="logImpl" value="STDOUT_LOGGING" /> &…
1. 写在前面 在利用flink实时计算的时候,往往会从kafka读取数据写入数据到kafka,但会发现当kafka多个Partitioner时,特别在P量级数据为了kafka的性能kafka的节点有十几个时,一个topic的Partitioner可能有几十个甚至更多,发现flink写入kafka的时候没有全部写Partitioner,而是写了部分的Partitioner,虽然这个问题不容易被发现,但这个问题会影响flink写入kafka的性能和造成单个Partitioner数据过多的问题,更严…
只需要在application.properties中加入 spring.output.ansi.enabled=ALWAYS 即可…