sharding-jdbc5.0.0实现分表实践
本文基于shardingsphere-jdbc-core-spring-boot-starter 5.0.0,请注意不同版本的sharding-jdbc配置可能有不一样的地方,本文不一定适用于其它版本
相关的maven配置如下:
<dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-data-jpa</artifactId> </dependency> <dependency> <groupId>org.apache.shardingsphere</groupId> <artifactId>shardingsphere-jdbc-core-spring-boot-starter</artifactId> <version>5.0.0</version> </dependency> <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> </dependency>
以下为单库分表的配置,根据对象的trade_no字段hash后mod进行分片,把数据分散到12个表中
spring: shardingsphere: datasource: ##数据源配置 ds0: driver-class-name: com.mysql.jc.jdbc.Driver jdbc-url: jdbc:mysql://... password: ... type: com.zaxxer.hikari.HikariDataSource username: root names: ds0 mode: type: Memory props: sql-show: false ##为true时会打印sharding-jdbc生成的逻辑sql跟实际执行语句 rules: ##分片规则配置 sharding: binding-tables: - trade_info sharding-algorithms: trade-info-inline: #分片算法配置 props: sharding-count: '12' type: HASH_MOD tables: trade_info: actual-data-nodes: ds0.trade_info_$->{0..11} table-strategy: standard: sharding-algorithm-name: trade-info-inline ##使用的分片算法名 sharding-column: trade_no ##分片键
jpa提供了TABLE(使用一个特定的数据库表格来保存主键,在使用时从该表取数据做为主键)、SEQUENCE(由底层数据库的序列来生成主键,需要数据库支持序列)、IDENTITY(由数据库自动生成主键,主要在自增ID列使用 )三种生成主键值的策略。但对于分库分表来讲都不太适用,所以自定义了一个使用雪花算法来生成主键值
public class SnowFlakeIdGenerator implements IdentifierGenerator { @Override public Serializable generate(SharedSessionContractImplementor sharedSessionContractImplementor, Object o) throws HibernateException { return SnowFlakeUtil.nextId(); } @Override public boolean supportsJdbcBatchInserts() { return true; } }
实体类id的配置
@Id @GenericGenerator(name = "snowflake",strategy = "com.****.****.****.SnowFlakeIdGenerator") @GeneratedValue(generator = "snowflake") private Long id;
配置完后,试了下新增、删除、查询都没有问题,但更新记录的时候出错了,报错信息为ShardingSphereException: Can not update sharding key, logic table: [**], column: [**]。从报错信息看来是因为我更新了原有记录的分片键,奇怪的
public void preValidate(ShardingRule shardingRule, SQLStatementContext<UpdateStatement> sqlStatementContext, List<Object> parameters, ShardingSphereSchema schema) { this.validateMultipleTable(shardingRule, sqlStatementContext); UpdateStatement sqlStatement = (UpdateStatement)sqlStatementContext.getSqlStatement(); String tableName = (String)sqlStatementContext.getTablesContext().getTableNames().iterator().next(); Iterator var7 = sqlStatement.getSetAssignment().getAssignments().iterator(); String shardingColumn; Optional shardingColumnSetAssignmentValue; Optional shardingValue; do { AssignmentSegment each; do { if (!var7.hasNext()) { return; } each = (AssignmentSegment)var7.next(); shardingColumn = ((ColumnSegment)each.getColumns().get(0)).getIdentifier().getValue(); } while(!shardingRule.isShardingColumn(shardingColumn, tableName)); shardingColumnSetAssignmentValue = this.getShardingColumnSetAssignmentValue(each, parameters); shardingValue = Optional.empty(); Optional<WhereSegment> whereSegmentOptional = sqlStatement.getWhere(); if (whereSegmentOptional.isPresent()) { shardingValue = this.getShardingValue((WhereSegment)whereSegmentOptional.get(), parameters, shardingColumn); } } while(shardingColumnSetAssignmentValue.isPresent() && shardingValue.isPresent() && shardingColumnSetAssignmentValue.get().equals(shardingValue.get())); throw new ShardingSphereException("Can not update sharding key, logic table: [%s], column: [%s].", new Object[]{tableName, shardingColumn}); }
是我并没有更新分片键,调用栈中最开始出错的代码如下:
这方法在做的事情就是,如果update语句的set里面存在分片键,将会从where中获取的分片键的值,然后将where语句中获取到分片键值跟set语句中的分片键值比较是否发生改变,发生改变就会抛出ShardingSphereException。比如我的trade_info表分片键为trade_no,执行的更新语句为update trade_info t set t.trade_no = 123,t.a = 1 where t.trade_no = 123,这段代码就会去比较set中trade_no与where中trade_no的值是否一样,不一样或者where中没有分片键而set中包含分片键就会抛异常。
打印了一下执行的update语句,我提交的更新语句为update t set t.b = ? where t.a = ?,被sharding-jdbc拦下来检查时语句变成了update t set t.a = ? ,t.b = ?,t.c = ? where t.id = ? ,语句发生了两个变化:我原本语句只是更新了对象的部分属性,执行语句变成了全量更新;where子句被改变了,原本更新的条件是t.a=?,提交执行时变成了t.id=?。原因是JPA对语句做了优化,修改了我写的语句,实体类中加上注解@DynamicUpdate,更新时只更新发生改变的字段,解决了问题。
更多的功能配置可以参考官方文档:https://shardingsphere.apache.org/document/5.0.0/cn/user-manual/shardingsphere-jdbc/
到此这篇关于sharding-jdbc5.0.0实现分表实践的文章就介绍到这了,更多相关sharding-jdbc5.0.0分表 内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!