如何在mybatis中向BLOB字段批量插入数据

  最近接手一个需求,需要用xxl-job定时任务同步三方库中新增的数据,粗略一看挺得意,以为一两小时就搞定了,但事与愿违,编码两小时却被一个BLOB字段玩了一下午。

  每次获取50条数据过来,每条数据中有一个字段是BLOB类型的图片,需求也要将图片放入数据库(个人不建议这么玩,生产上千万的数据会造成数据库很臃肿,建议放到ftp或者minio上比较好),字段中的图片过来时已经被转换成了base64的格式,在往数据库批量插入时,数据库BLOB字段对应的实体使用byte[],程序执行时报了如下错误: 

org.springframework.jdbc.UncategorizedSQLException:
### Error updating database.  Cause: java.sql.SQLException: ORA-01461: 仅能绑定要插入 LONG 列的 LONG 值
### The error may exist in file [D:\ZtlandCode\AreaCodeVersion\WX\land-core-wx\land-core-common\target\classes\mapper\DjSfzbMapper.xml]
### The error may involve com.ztland.core.common.mapper.DjSfzbMapper.savaSfzBatch-Inline
### The error occurred while setting parameters
### SQL: INSERT INTO DJ_SFZB (ID, SFZXM, SFZZH, SFZXBMC, SFZMZ, SFZSR, SFZDZ, SFZQPDW, SFZYXQ, SFZTP, SFYX, CJSJ, ZHXGSJ) SELECT DJ_SFZB_ID.nextval AS ID, A.* FROM <br>(SELECT ? AS SFZXM, ? AS SFZZH, ? AS SFZXBMC, ? AS SFZMZ, ? AS SFZSR, ? AS SFZDZ, ? AS SFZQPDW, ? AS SFZYXQ, ? AS SFZTP, '1' AS SFYX, sysdate AS CJSJ, sysdate AS ZHXGSJ FROM dual) A
### Cause: java.sql.SQLException: ORA-01461: 仅能绑定要插入 LONG 列的 LONG 值;

uncategorized SQLException; SQL state [72000]; error code [1461]; ORA-01461: 仅能绑定要插入 LONG 列的 LONG 值;

nested exception is java.sql.SQLException: ORA-01461: 仅能绑定要插入 LONG 列的 LONG 值

  原因是oracle中保存大长度字段时,长度介于2000-4000之间的字段会先转换为LONG类型,报错时的SQL如下:

INSERT INTO DJ_SFZB
(
ID,SFZXM,SFZZH,SFZXBMC,SFZMZ,SFZSR,SFZDZ,SFZQPDW,SFZYXQ,SFZTP,
SFYX,CJSJ,ZHXGSJ
)
select DJ_SFZB_ID.NEXTVAL as ID,A.* from (
<foreach collection ="list" item="item" index= "index" separator =" union all ">
 select
 #{item.sfzxm} as SFZXM,#{item.sfzzh} as SFZZH,
 #{item.sfzxbmc} as SFZXBMC,#{item.sfzmz} as SFZMZ,#{item.sfzsr} as SFZSR,
 #{item.sfzdz} as SFZDZ,#{item.sfzqpdw} as SFZQPDW,#{item.sfzyxq} as SFZYXQ,
 #{item.sfztp,jdbcType=BLOB} as SFZTP,'1' as SFYX,sysdate as CJSJ,sysdate as ZHXGSJ
 from dual
</foreach >
) A

  问题排查发现:批量就byte[]保存到BLOB字段时,不能使用Union all,不能使用from dual虚表查询获取数据的方式,因为字段长度介于2000-4000之间时,oracle会将字段类型转为long类型

  解决方法:使用”begin...;end;“的方式,修改后的SQL如下:

begin
<foreach collection ="list" item="item" index= "index" separator =";">
 INSERT INTO DJ_SFZB
 (
 ID,SFZXM,SFZZH,SFZXBMC,SFZMZ,SFZSR,SFZDZ,SFZQPDW,SFZYXQ,SFZTP,
 SFYX,CJSJ,ZHXGSJ
 ) values (
 #{item.id,jdbcType=NUMERIC},
 #{item.sfzxm,jdbcType=VARCHAR},#{item.sfzzh,jdbcType=VARCHAR},
 #{item.sfzxbmc,jdbcType=VARCHAR},#{item.sfzmz,jdbcType=VARCHAR},#{item.sfzsr,jdbcType=VARCHAR},
 #{item.sfzdz,jdbcType=VARCHAR},#{item.sfzqpdw,jdbcType=VARCHAR},#{item.sfzyxq,jdbcType=VARCHAR},
 #{item.sfztp,jdbcType=BLOB},'1',sysdate,sysdate
 )
</foreach >
;end;

  问题得以解决。

到此这篇关于如何在mybatis中向BLOB字段批量插入数据的文章就介绍到这了,更多相关mybatis批量插入数据内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • 详解MyBatis批量插入数据Mapper配置文件的写法

    对于MyBatis配置文件的用法一直不是很熟悉,之前一直是使用注解来开发的,但是注解也有不好的地方就是如果数据库的表结构发生变化在代码中修改起来很麻烦. 其实批量插入很简单,这里做些简要的说明.请看配置文件的写法: <insert id="insertAll" parameterType="java.util.List" useGeneratedKeys="true"> <selectKey resultType="l

  • MyBatis批量插入数据到Oracle数据库中的两种方式(实例代码)

    一.mybatis批量插入数据到Oracle中的两种方式: 第一种: <insert id="addList" parameterType="java.util.List" useGeneratedKeys="false"> INSERT ALL <foreach item="item" index="index" collection="list"> INTO

  • MyBatis批量插入数据过程解析

    在程序中封装了一个List集合对象,然后需要把该集合中的实体插入到数据库中,由于项目使用了Spring+MyBatis的配置,所以打算使用MyBatis批量插入,由于之前没用过批量插入,在网上找了一些资料后最终实现了,把详细过程贴出来. 实体类TrainRecord结构如下: public class TrainRecord implements Serializable { private static final long serialVersionUID = -12069604621179

  • mybatis foreach批量插入数据:Oracle与MySQL区别介绍

    下面给大家介绍mybatis foreach批量插入数据:Oracle与MySQL不同点: •主要不同点在于foreach标签内separator属性的设置问题: •separator设置为","分割时,最终拼接的代码形式为:insert into table_name (a,b,c) values (v1,v2,v3) ,(v4,v5,v6) ,... •separator设置为"union all"分割时,最终拼接的代码形式为:insert into table

  • Java实现mybatis批量插入数据到Oracle

    最近项目中遇到一个问题:导入数据到后台并将数据插入到数据库中,导入的数据量有上万条数据,考虑采用批量插入数据的方式:  结合网上资料,写了个小demo,文章末尾附上demo下载地址 1.新建项目:项目目录结构如下图所示,添加相应的jar包 2.新建数据库表:ACCOUNT_INFO CREATE TABLE ACCOUNT_INFO ( "ID" NUMBER(12) NOT NULL , "USERNAME" VARCHAR2(64 BYTE) NULL , &q

  • Mybatis批量插入数据返回主键的实现

    响应效果(id为主键): { "data": [ {"studentName": "张三","classNo": "一班","id": 111}, {"studentName": "李四","classNo": "二班","id": 112}, {"studentName&quo

  • 如何在mybatis中向BLOB字段批量插入数据

    最近接手一个需求,需要用xxl-job定时任务同步三方库中新增的数据,粗略一看挺得意,以为一两小时就搞定了,但事与愿违,编码两小时却被一个BLOB字段玩了一下午. 每次获取50条数据过来,每条数据中有一个字段是BLOB类型的图片,需求也要将图片放入数据库(个人不建议这么玩,生产上千万的数据会造成数据库很臃肿,建议放到ftp或者minio上比较好),字段中的图片过来时已经被转换成了base64的格式,在往数据库批量插入时,数据库BLOB字段对应的实体使用byte[],程序执行时报了如下错误: or

  • MyBatis实现批量插入数据,多重forEach循环

    目录 批量插入数据,多重forEach循环 下面是一个实际应用 mybatis insert foreach 项目场景 批量插入数据,多重forEach循环 在业务开发过程中,遇到批量插入时,需要进行多重forEach循环的情况. 下面是一个实际应用 public class SysRoleData extends DataEntity<SysRoleData> {    private static final long serialVersionUID = 1L;    private S

  • Mybatis中使用updateBatch进行批量更新

    背景描述:通常如果需要一次更新多条数据有两个方式,(1)在业务代码中循环遍历逐条更新.(2)一次性更新所有数据(更准确的说是一条sql语句来更新所有数据,逐条更新的操作放到数据库端,在业务代码端展现的就是一次性更新所有数据).两种方式各有利弊,下面将会对两种方式的利弊做简要分析,主要介绍第二种方式在mybatis中的实现. 逐条更新 这种方式显然是最简单,也最不容易出错的,即便出错也只是影响到当条出错的数据,而且可以对每条数据都比较可控,更新失败或成功,从什么内容更新到什么内容,都可以在逻辑代码

  • 如何在MyBatis中实现DataSource

    一.DataSource 首先大家要清楚DataSource属于MyBatis三层架构设计的基础层    然后我们来看看具体的实现. 在数据持久层中,数据源是一个非常重要的组件,其性能直接关系到整个数据持久层的性能,在实际开发中我们常用的数据源有 Apache Common DBCP,C3P0,Druid 等,MyBatis不仅可以集成第三方数据源,还提供的有自己实现的数据源. 在MyBatis中提供了两个 javax.sql.DataSource 接口的实现,分别是 PooledDataSou

  • mybatis学习之路mysql批量新增数据的方法

    接下来两节要探讨的是批量插入和批量更新,因为这两种操作在企业中也经常用到. mysql新增语句 insert into 表名(字段,字段...) values ( 值,值 ...):此种适合单条插入. 批量插入,一种可以在代码中循环着执行上面的语句,但是这种效率太差,下面会有对比,看看它有多差. 另一种,可以用mysql支持的批量插入语句, insert into 表名(字段,字段...) values ( 值,值 ...),( 值,值 ...),( 值,值 ...).... 这种方式相比起来,

  • MyBatis批量插入数据的三种方法实例

    目录 前言 准备工作 1.循环单次插入 2.MP 批量插入 ① 控制器实现 ② 业务逻辑层实现 ③ 数据持久层实现 MP 性能测试 MP 源码分析 3.原生批量插入 ① 业务逻辑层扩展 ② 数据持久层扩展 ③ 添加 UserMapper.xml 原生批量插入性能测试 缺点分析 解决方案 总结 前言 批量插入功能是我们日常工作中比较常见的业务功能之一,之前我也写过一篇关于<MyBatis Plus 批量数据插入功能,yyds!>的文章,但评论区的反馈不是很好,主要有两个问题:第一,对 MyBat

  • C#批量插入数据到Sqlserver中的三种方式

    本篇,我将来讲解一下在Sqlserver中批量插入数据. 先创建一个用来测试的数据库和表,为了让插入数据更快,表中主键采用的是GUID,表中没有创建任何索引.GUID必然是比自增长要快的,因为你生成一个GUID算法所花的时间肯定比你从数据表中重新查询上一条记录的ID的值然后再进行加1运算要少.而如果存在索引的情况下,每次插入记录都会进行索引重建,这是非常耗性能的.如果表中无可避免的存在索引,我们可以通过先删除索引,然后批量插入,最后再重建索引的方式来提高效率. create database C

随机推荐