sharding-jdbc5.0.0实现分表实践

本文基于shardingsphere-jdbc-core-spring-boot-starter 5.0.0,请注意不同版本的sharding-jdbc配置可能有不一样的地方,本文不一定适用于其它版本

相关的maven配置如下:

        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-data-jpa</artifactId>
        </dependency>
       <dependency>
            <groupId>org.apache.shardingsphere</groupId>
            <artifactId>shardingsphere-jdbc-core-spring-boot-starter</artifactId>
            <version>5.0.0</version>
        </dependency>
      <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
        </dependency>

以下为单库分表的配置,根据对象的trade_no字段hash后mod进行分片,把数据分散到12个表中

spring:
  shardingsphere:
    datasource:  ##数据源配置
      ds0:
        driver-class-name: com.mysql.jc.jdbc.Driver
        jdbc-url: jdbc:mysql://...
        password: ...
        type: com.zaxxer.hikari.HikariDataSource
        username: root
      names: ds0
    mode:
      type: Memory
    props:
      sql-show: false ##为true时会打印sharding-jdbc生成的逻辑sql跟实际执行语句
    rules: ##分片规则配置
      sharding:
        binding-tables:
        - trade_info
        sharding-algorithms:
          trade-info-inline:  #分片算法配置
            props:
              sharding-count: '12'
            type: HASH_MOD
        tables:
          trade_info:
            actual-data-nodes: ds0.trade_info_$->{0..11}
            table-strategy:
              standard:
                sharding-algorithm-name: trade-info-inline  ##使用的分片算法名
                sharding-column: trade_no  ##分片键

jpa提供了TABLE(使用一个特定的数据库表格来保存主键,在使用时从该表取数据做为主键)、SEQUENCE(由底层数据库的序列来生成主键,需要数据库支持序列)、IDENTITY(由数据库自动生成主键,主要在自增ID列使用 )三种生成主键值的策略。但对于分库分表来讲都不太适用,所以自定义了一个使用雪花算法来生成主键值

public class SnowFlakeIdGenerator implements IdentifierGenerator {

    @Override
    public Serializable generate(SharedSessionContractImplementor sharedSessionContractImplementor, Object o) throws HibernateException {
        return SnowFlakeUtil.nextId();
    }

    @Override
    public boolean supportsJdbcBatchInserts() {
        return true;
    }
}

实体类id的配置

    @Id
    @GenericGenerator(name = "snowflake",strategy = "com.****.****.****.SnowFlakeIdGenerator")
    @GeneratedValue(generator = "snowflake")
    private Long id;

配置完后,试了下新增、删除、查询都没有问题,但更新记录的时候出错了,报错信息为ShardingSphereException: Can not update sharding key, logic table: [**], column: [**]。从报错信息看来是因为我更新了原有记录的分片键,奇怪的

    public void preValidate(ShardingRule shardingRule, SQLStatementContext<UpdateStatement> sqlStatementContext, List<Object> parameters, ShardingSphereSchema schema) {
        this.validateMultipleTable(shardingRule, sqlStatementContext);
        UpdateStatement sqlStatement = (UpdateStatement)sqlStatementContext.getSqlStatement();
        String tableName = (String)sqlStatementContext.getTablesContext().getTableNames().iterator().next();
        Iterator var7 = sqlStatement.getSetAssignment().getAssignments().iterator();

        String shardingColumn;
        Optional shardingColumnSetAssignmentValue;
        Optional shardingValue;
        do {
            AssignmentSegment each;
            do {
                if (!var7.hasNext()) {
                    return;
                }

                each = (AssignmentSegment)var7.next();
                shardingColumn = ((ColumnSegment)each.getColumns().get(0)).getIdentifier().getValue();
            } while(!shardingRule.isShardingColumn(shardingColumn, tableName));

            shardingColumnSetAssignmentValue = this.getShardingColumnSetAssignmentValue(each, parameters);
            shardingValue = Optional.empty();
            Optional<WhereSegment> whereSegmentOptional = sqlStatement.getWhere();
            if (whereSegmentOptional.isPresent()) {
                shardingValue = this.getShardingValue((WhereSegment)whereSegmentOptional.get(), parameters, shardingColumn);
            }
        } while(shardingColumnSetAssignmentValue.isPresent() && shardingValue.isPresent() && shardingColumnSetAssignmentValue.get().equals(shardingValue.get()));

        throw new ShardingSphereException("Can not update sharding key, logic table: [%s], column: [%s].", new Object[]{tableName, shardingColumn});
    }

是我并没有更新分片键,调用栈中最开始出错的代码如下:

这方法在做的事情就是,如果update语句的set里面存在分片键,将会从where中获取的分片键的值,然后将where语句中获取到分片键值跟set语句中的分片键值比较是否发生改变,发生改变就会抛出ShardingSphereException。比如我的trade_info表分片键为trade_no,执行的更新语句为update trade_info t set t.trade_no = 123,t.a = 1 where t.trade_no = 123,这段代码就会去比较set中trade_no与where中trade_no的值是否一样,不一样或者where中没有分片键而set中包含分片键就会抛异常。

打印了一下执行的update语句,我提交的更新语句为update t set t.b = ? where t.a = ?,被sharding-jdbc拦下来检查时语句变成了update t set t.a = ? ,t.b = ?,t.c = ? where t.id = ? ,语句发生了两个变化:我原本语句只是更新了对象的部分属性,执行语句变成了全量更新;where子句被改变了,原本更新的条件是t.a=?,提交执行时变成了t.id=?。原因是JPA对语句做了优化,修改了我写的语句,实体类中加上注解@DynamicUpdate,更新时只更新发生改变的字段,解决了问题。

更多的功能配置可以参考官方文档:https://shardingsphere.apache.org/document/5.0.0/cn/user-manual/shardingsphere-jdbc/

到此这篇关于sharding-jdbc5.0.0实现分表实践的文章就介绍到这了,更多相关sharding-jdbc5.0.0分表 内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • Sharding-Jdbc 自定义复合分片的实现(分库分表)

    目录 Sharding-JDBC的数据分片策略 分片键 分片算法 分片策略 SQL Hint 实战–自定义复合分片策略 小结 Sharding-JDBC中的分片策略有两个维度,分别是: 数据源分片策略(DatabaseShardingStrategy) 表分片策略(TableShardingStrategy) 其中,数据源分片策略表示:数据路由到的物理目标数据源,表分片策略表示数据被路由到的目标表. 特别的,表分片策略是依赖于数据源分片策略的,也就是说要先分库再分表,当然也可以只分表. Shar

  • 利用Sharding-Jdbc进行分库分表的操作代码

    目录 1. Sharding-Jdbc介绍 2. Sharding-Jdbc引入使用 3. 配置广播表 4. 配置绑定表 5. 读写分离配置 1. Sharding-Jdbc介绍 https://shardingsphere.apache.org/ sharding-jdbc是一个分布式的关系型数据库中间件 客户端代理模式,不需要搭建服务器,只需要后端数据库即可,有个IDE就行了 定位于轻量级的Java框架,以jar的方式提供服务 可以理解为增强版的jdbc驱动 完全兼容主流的ORM框架 sha

  • springboot实现以代码的方式配置sharding-jdbc水平分表

    目录 关于依赖 shardingsphere-jdbc-core-spring-boot-starter shardingsphere-jdbc-core 数据源DataSource 原DataSource ShardingJdbcDataSource 完整的ShardingJdbcDataSource配置 分表策略 主要的类 其他的分表配置类 groovy行表达式说明 properties配置 Sharding-jdbc的坑 结语 多数项目可能是已经运行了一段时间,才开始使用sharding-

  • SpringBoot整合sharding-jdbc实现自定义分库分表的实践

    目录 一.前言 二.简介 1.分片键 2.分片算法 三.程序实现 一.前言 SpringBoot整合sharding-jdbc实现分库分表与读写分离 本文将通过自定义算法来实现定制化的分库分表来扩展相应业务 二.简介 1.分片键 用于数据库/表拆分的关键字段 ex: 用户表根据user_id取模拆分到不同的数据库中 2.分片算法 可参考:https://shardingsphere.apache.org/document/current/cn/user-manual/shardingsphere

  • Java使用Sharding-JDBC分库分表进行操作

    目录 主从库搭建 Compose File Master 配置 Slave 配置 主从配置 创建分库分表 Order 1 库 Order 2 库 User 库 Sharding-JDBC 引入 Sharding-JDBC 配置 可选配置 数据源配置 主从复制配置 数据节点配置 Demo 程序 Sharding-JDBC 是无侵入式的 MySQL 分库分表操作工具,所有库表设置仅需要在配置文件中配置即可,无须修改任何代码. 本文写了一个 Demo,使用的是 SpringBoot 框架,通过 Doc

  • SpringBoot整合sharding-jdbc实现分库分表与读写分离的示例

    目录 一.前言 二.数据库表准备 三.整合 四.docker-compose部署mysql主从 五.本文案例demo源码 一.前言 本文将基于以下环境整合sharding-jdbc实现分库分表与读写分离 springboot2.4.0 mybatis-plus3.4.3.1 mysql5.7主从 https://github.com/apache/shardingsphere 二.数据库表准备 温馨小提示:此sql执行时,如果之前有存在相应库和表会进行自动删除后再创建! DROP DATABAS

  • 使用sharding-jdbc实现水平分库+水平分表的示例代码

    前面的文章使用sharding-jdbc实现水平分表中详细记录了如何使用sharding-jdbc实现水平分表,即根据相应的策略,将一部分数据存入到表1中,一部分数据存入到表2中,逻辑上为同一张表,分表操作全部交由sharding-jdbc进行处理. 可能根据需要,还需要将一张表的数据拆分存入到多个数据库中,甚至多个数据库的多个表中,使用sharding-jdbc同样可以实现. 重复的篇幅则不再赘述,下面重点记录升级的过程. 分库分表策略:将id为偶数的存入到库1中,奇数存入到库2中,在每个库中

  • 利用Sharding-Jdbc组件实现分表

    看到了当当开源的Sharding-JDBC组件,它可以在几乎不修改代码的情况下完成分库分表的实现.摘抄其中一段介绍: Sharding-JDBC直接封装JDBC API,可以理解为增强版的JDBC驱动,旧代码迁移成本几乎为零: 可适用于任何基于java的ORM框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template或直接使用JDBC. 可基于任何第三方的数据库连接池,如:DBCP, C3P0, BoneCP, Druid等. 理论上可支持任意实现JDB

  • 使用sharding-jdbc实现水平分表的示例代码

    目录 在mysql中新建数据库sharding_db,新增两张结构一样的表student_1和student_2. 添加依赖 编写配置文件 编写实体类 编写mapper接口 编写测试类 执行测试 在mysql中新建数据库sharding_db,新增两张结构一样的表student_1和student_2. CREATE TABLE `student_1` ( `ID` bigint(20) NOT NULL , `NAME` varchar(50) CHARACTER SET utf8mb4 CO

  • sharding-jdbc5.0.0实现分表实践

    本文基于shardingsphere-jdbc-core-spring-boot-starter 5.0.0,请注意不同版本的sharding-jdbc配置可能有不一样的地方,本文不一定适用于其它版本 相关的maven配置如下:         <dependency>             <groupId>org.springframework.boot</groupId>             <artifactId>spring-boot-sta

  • MariaDB Spider 数据库分库分表实践记录

    目录 分库分表 部署 MariaDB 实例 Docker 部署 虚拟机部署 MariaDB 配置 检查每个实例 配置 Spider 远程表 基准性能测试 加入后端数据库 哈希分片 根据值范围分片 根据列表分片 分库分表 一般来说,数据库分库分表,有以下做法: 按哈希分片:根据一条数据的标识计算哈希值,将其分配到特定的数据库引擎中: 按范围分片:根据一条数据的标识(一般是值),将其分配到特定的数据库引擎中: 按列表分片:根据某些字段的标识,如果符合条件则分配到特定的数据库引擎中. 分库分表的做法有

  • 浅谈订单重构之 MySQL 分库分表实战篇

    目录 一.目标 二.环境准备 1.基本信息 2.数据库环境准备 3.建库 & 导入分表 三.配置&实践 1.pom文件 2.常量配置 3.yml 配置 4.分库分表策略 5.dao层编写 6.单元测试 四.总结 一.目标 本文将完成如下目标: 分表数量: 256    分库数量: 4 以用户ID(user_id) 为数据库分片Key 最后测试订单创建,更新,删除, 单订单号查询,根据user_id查询列表操作. 架构图: 表结构如下: CREATE TABLE `order_XXX` (

  • Docker实现Mariadb分库分表及读写分离功能

    一.简介 本文使用docker实现mysql主从配置,读写分离.分库分表等功能. 二.环境准备 1.基础环境 java java version "1.8.0_111" Java(TM) SE Runtime Environment (build 1.8.0_111-b14) Java HotSpot(TM) 64-Bit Server VM (build 25.111-b14, mixed mode) docker Client: Version: 18.03.0-ce API ve

  • Mybatis实现分表插件

    背景 事情是酱紫的,阿星的上级leader负责记录信息的业务,每日预估数据量是15万左右,所以引入sharding-jdbc做分表. 上级leader完成业务的开发后,走了一波自测,git push后,就忙其他的事情去了. 项目的框架是SpringBoot+Mybaits 出问题了 阿星负责的业务也开发完了,熟练的git pull,准备自测,单元测试run一下,上个厕所回来收工,就是这么自信. 回来后,看下控制台,人都傻了,一片红,内心不禁感叹"如果这是股票基金该多好". 出了问题就要

  • .Net极限生产力之分表分库全自动化Migrations Code-First

    目录 开始 移除静态容器 原生efcore 启动程序 添加todo字段并迁移 集成AbpVNext 新建两个接口用于赋值创建时间和guid AbpDbContext抽象类 新增分库分表路由 编写sqlserver分片迁移脚本生成 abp的efcore模块注入 启动abp迁移项目 集成Furion 新增todoitem 新增分表分库路由 新增分表路由 编写迁移文件 启动注入 添加迁移文件 集成WTM 添加依赖 新增分表分库路由 创建DbContextCreator 静态构造IShardingRun

  • SpringBoot 2.0 整合sharding-jdbc中间件实现数据分库分表

    一.水平分割 1.水平分库 1).概念:  以字段为依据,按照一定策略,将一个库中的数据拆分到多个库中. 2).结果  每个库的结构都一样:数据都不一样:  所有库的并集是全量数据: 2.水平分表 1).概念  以字段为依据,按照一定策略,将一个表中的数据拆分到多个表中. 2).结果  每个表的结构都一样:数据都不一样:  所有表的并集是全量数据: 二.Shard-jdbc 中间件 1.架构图 2.特点 1).Sharding-JDBC直接封装JDBC API,旧代码迁移成本几乎为零. 2).适

  • MySQL 分库分表的项目实践

    目录 一.为什么要分库分表 二.库表太大产生的问题 三.垂直拆分 1. 垂直分库 2. 垂直分表 四.水平分库分表 一.为什么要分库分表 数据库架构演变 刚开始多数项目用单机数据库就够了,随着服务器流量越来越大,面对的请求也越来越多,我们做了数据库读写分离, 使用多个从库副本(Slave)负责读,使用主库(Master)负责写,master和slave通过主从复制实现数据同步更新,保持数据一致.slave 从库可以水平扩展,所以更多的读请求不成问题 但是当用户量级上升,写请求越来越多,怎么保证数

  • SpringBoot 如何使用sharding jdbc进行分库分表

    目录 基于4.0版本,Springboot2.1 在pom里确保有如下引用 里面我profiles.active了另一个 之后手工把表都建好 写个测试代码 需要注意一个坑 基于4.0版本,Springboot2.1 之前写过一篇使用sharding-jdbc进行分库分表的文章,不过当时的版本还比较早,现在已经不能用了.这一篇是基于最新版来写的. 新版已经变成了shardingsphere了,https://shardingsphere.apache.org/. 有点不同的是,这一篇,我们是采用多

随机推荐