利用Redis实现SQL伸缩的方法

这篇文章主要介绍了利用Redis实现SQL伸缩的方法,包括讲到了锁和时间序列等方面来提升传统数据库的性能,需要的朋友可以参考下。

缓解行竞争

我们在Sentry开发的早起采用的是sentry.buffers。 这是一个简单的系统,它允许我们以简单的Last Write Wins策略来实现非常有效的缓冲计数器。 重要的是,我们借助它完全消除了任何形式的耐久性 (这是Sentry工作的一个非常可接受的方式)。

操作非常简单,每当一个更新进来我们就做如下几步:

  • 创建一个绑定到传入实体的哈希键(hash key)
  • 使用HINCRBY使计数器值增加
  • HSET所有的LWW数据(比如 "最后一次见到的")
  • 用当前时间戳ZADD哈希键(hash key)到一个"挂起" set

现在每一个时间刻度 (在Sentry中为10秒钟) 我们要转储(dump)这些缓冲区并且扇出写道(fanout the writes)。 看起来像下面这样:

  • 使用ZRANGE获取所有的key
  • 为每一个挂起的key发起一个作业到RabbitMQ

现在RabbitMQ作业将能够读取和清除哈希表,和“悬而未决”更新已经弹出了一套。有几件事情需要注意:

  • 在下面我们想要只弹出一个设置的数量的例子中我们将使用一组排序(举例来说我们需要那100个旧集合)。
  • 假使我们为了处理一个键值来结束多道排序的作业,这个人会得到no-oped由于另一个已经存在的处理和清空哈希的过程。
  • 该系统能够在许多Redis节点上不断扩展下去仅仅是通过在每个节点上安置把一个'悬置'主键来实现。

我们有了这个处理问题的模型之后,能够确保“大部分情况下”每次在SQL中只有一行能够被马上更新,而这样的处理方式减轻了我们能够预见到的锁问题。考虑到将会处理一个突然产生且所有最终组合在一起进入同一个计数器的数据的场景,这种策略对Sentry用处很多。

速度限制

出于哨兵的局限性,我们必须终结持续的拒绝服务攻击。我们通过限制连接速度来应对这种问题,其中一项是通过Redis支持的。这无疑是在sentry.quotas范围内更直接的实现。

它的逻辑相当直接,如同下面展示的那般:

def incr_and_check_limit(user_id, limit):
 key = '{user_id}:{epoch}'.format(user_id, int(time() / 60)) 

 pipe = redis.pipeline()
 pipe.incr(key)
 pipe.expire(key, 60)
 current_rate, _ = pipe.execute() 

 return int(current_rate) > limit 

我们所阐明的限制速率的方法是 Redis在高速缓存服务上最基本的功能之一:增加空的键字。在高速缓存服务中实现同样的行为可能最终使用这种方法:

def incr_and_check_limit_memcache(user_id, limit):
 key = '{user_id}:{epoch}'.format(user_id, int(time() / 60)) 

 if cache.add(key, 0, 60):
  return False 

 current_rate = cache.incr(key) 

 return current_rate > limit 

事实上我们最终采取这种策略可以使哨兵追踪不同事件的短期数据。在这种情况下,我们通常对用户数据进行排序以便可以在最短的时间内找到最活跃用户的数据。

基本锁

虽然Redis的是可用性不高,我们的用例锁,使其成为工作的好工具。我们没有使用这些在哨兵的核心了,但一个示例用例是,我们希望尽量减少并发性和简单无操作的操作,如果事情似乎是已经在运行。这对于可能需要执行每隔一段时间类似cron任务非常有用,但不具备较强的协调。

在Redis的这样使用SETNX操作是相当简单的:

from contextlib import contextmanagerr = Redis()@contextmanagerdef lock(key, nowait=True):
 while not r.setnx(key, '1'):
  if nowait:
   raise Locked('try again soon!')
  sleep(0.01) 

 # limit lock time to 10 seconds
 r.expire(key, 10) 

 # do something crazy
 yield 

 # explicitly unlock
 r.delete(key) 

而锁()内的哨兵利用的memcached的,但绝对没有理由我们不能在其切换到Redis。
时间序列数据

近来我们创造一个新的机制在Sentry(包含在sentry.tsdb中) 存储时间序列数据。这是受RRD模型启发,特别是Graphite。我们期望一个快速简单的方式存储短期(比如一个月)时间序列数,以便于处理高速写入数据,特别是在极端情况下计算潜在的短期速率。尽管这是第一个模型,我们依旧期望在Redis存储数据,它也是使用计数器的简单范例。

在目前的模型中,我们使用单一的hash map来存储全部时间序列数据。例如,这意味所有数据项在都将同一个哈希键拥有一个数据类型和1秒的生命周期。如下所示:

{ 

  "<type enum>:<epoch>:<shard number>": { 

    "<id>": <count> 

  }} 

因此在这种状况,我们需要追踪事件的数目。事件类型映射到枚举类型"1".该判断的时间是1s,因此我们的处理时间需要以秒计。散列最终看起来是这样的:

 { 

  "1:1399958363:0": { 

    "1": 53, 

    "2": 72, 

  }} 

一个可修改模型可能仅使用简单的键并且仅在存储区上增加一些增量寄存器。

"1:1399958363:0:1": 53 

我们选择哈希映射模型基于以下两个原因:

我们可以将所有的键设为一次性的(这也可能产生负面影响,但是目前为止是稳定的)

大幅压缩键值,这是相当重要的处理

此外,离散的数字键允许我们在将虚拟的离散键值映射到固定数目的键值上,并在此分配单一存储区(我们可以使用64,映射到32个物理结点上)

现在通过使用 Nydus和它的map()(依赖于一个工作区)(),数据查询已经完成。这次操作的代码是相当健壮的,但幸好它并不庞大。

def get_range(self, model, keys, start, end, rollup=None):
 """ To get a range of data for group ID=[1, 2, 3]: Start and end are both inclusive. >>> now = timezone.now() >>> get_keys(tsdb.models.group, [1, 2, 3], >>>   start=now - timedelta(days=1), >>>   end=now) """
 normalize_to_epoch = self.normalize_to_epoch
 normalize_to_rollup = self.normalize_to_rollup
 make_key = self.make_key 

 if rollup is None:
  rollup = self.get_optimal_rollup(start, end) 

 results = []
 timestamp = end
 with self.conn.map() as conn:
  while timestamp >= start:
   real_epoch = normalize_to_epoch(timestamp, rollup)
   norm_epoch = normalize_to_rollup(timestamp, rollup) 

   for key in keys:
    model_key = self.get_model_key(key)
    hash_key = make_key(model, norm_epoch, model_key)
    results.append((real_epoch, key, conn.hget(hash_key, model_key))) 

   timestamp = timestamp - timedelta(seconds=rollup) 

 results_by_key = defaultdict(dict)
 for epoch, key, count in results:
  results_by_key[key][epoch] = int(count or 0) 

 for key, points in results_by_key.iteritems():
  results_by_key[key] = sorted(points.items())
 return dict(results_by_key) 

归结如下:

  • 生成所必须的键。
  • 使用工作区,提取所有连接操作的最小结果集(Nydus负责这些)。
  • 给出结果,并且基于指定的时间间隔内和给定的键值将它们映射到当前的存储区内。

以上就是如何利用Redis实现SQL伸缩的方法,希望对大家的学习有所帮助。

(0)

相关推荐

  • 在Ruby on Rails上使用Redis Store的方法

    Redis Store 是一个专为Ruby应用程序服务的工具包,原生就支持分片,主从复制,编组以及超时和命名空间.此外,在Ruby on Rails上使用它也是非常的简单.  如何使用: 对于在Rails上使用Redis Store,首先我们需要在Gemfile文件中添加入口 gem 'redis-rails' gem 'redis-rack-cache' # optional 然后我们就会有如下选择: ## Cache Store # config/environments/productio

  • 在Mac下如何安装phpredis扩展

    最近把开发环境从windows转到Mac下,所有的环境都要重新来配置.由于Mac是基于unix系统的不太熟悉,所以遇到了很多问题,下面小编给大家整理下分享给大家. 安装phpredis扩展: 首先,大家先下载phpredis的扩展包,这是地址https://nodeload.github.com/nicolasff/phpredis/zip/master(建议大家手动下载再进行复制). 其次,大家使用命令进入文件夹  复制代码 代码如下: cd phpredis-master/   phpize

  • php-redis中的sort排序函数总结

    很多人把redis当成一种数据库,其实是利用redis来构造数据库的模型,有那种数据库的味道.但是在怎么构建还是key和value的关系,与真正的关系型数据库还是不一样的. 效率高,不方便:方便的,效率不高:又方便,效率又高的要花钱. php-redis里面的sort函数,在做web的时候取数据还是比较方便,有点关系型数据库的味道.在说sort前,先说一下前面漏的几个比较常用的函数.  1) keys 描述:查找符合给定模式的key 参数:匹配模式 返回值:符合给定模式的key列表 2) mse

  • Redis的11种Web应用场景简介

    下面列出11种Web应用场景,在这些场景下可以充分的利用Redis的特性,大大提高效率. 1.在主页中显示最新的项目列表 Redis使用的是常驻内存的缓存,速度非常快.LPUSH用来插入一个内容ID,作为关键字存储在列表头部.LTRIM用来限制列表中的项目数最多为5000.如果用户需要的检索的数据量超越这个缓存容量,这时才需要把请求发送到数据库. 2.删除和过滤 如果一篇文章被删除,可以使用LREM从缓存中彻底清除掉. 3.排行榜及相关问题 排行榜(leader board)按照得分进行排序.Z

  • 详解Redis中的双链表结构

    Redis中双链表实现的基本结构: 1.节点结构 typedef struct listNode { struct listNode *prev; //前向节点 struct listNode *next; //后向节点 void *value; //该节点的值 } listNode; 2.双向链表结构 typedef struct list { listNode *head; //头节点 listNode *tail; //尾节点 void *(*dup)(void *ptr); //复制函数

  • Redis中的动态字符串学习教程

    sds 的用途 Sds 在 Redis 中的主要作用有以下两个: 实现字符串对象(StringObject): 在 Redis 程序内部用作 char* 类型的替代品: 以下两个小节分别对这两种用途进行介绍. 实现字符串对象 Redis 是一个键值对数据库(key-value DB), 数据库的值可以是字符串.集合.列表等多种类型的对象, 而数据库的键则总是字符串对象. 对于那些包含字符串值的字符串对象来说, 每个字符串对象都包含一个 sds 值. "包含字符串值的字符串对象",这种说

  • python操作redis的方法

    本文实例讲述了python操作redis的方法.分享给大家供大家参考.具体如下: #!/usr/bin/python #coding=utf-8 import redis class CRedis: def __init__(self): self.host = 'localhost' self.port = 6379 self.db = 0 self.r = redis.Redis(host = self.host, port = self.port, db = self.db) #1. st

  • 图文介绍PHP添加Redis模块及连接

    下面通过图文并茂的方式给大家展示如下: 上几篇文章介绍了Redis的安装及使用,下面将介绍php如何添加Redis扩展! php手册并没有提供Redis的类和方法,也没有提供相关的扩展模块,但我们可以在Redis的官网下载PHP的扩展,里面的扩展比较多,仅以phpredis为例. 1.phpredis下载    1.点击"Repository"进入Redis的学习库,里面有Redis扩展的代码文件和相关的介绍以及类和方法 2.点击"releases"进入phpred

  • Redis sort 排序命令详解

    本文介绍redis排序命令 redis支持对list,set,sorted set元素的排序 sort 排序命令格式: sort key [BY pattern] [LIMIT start count] [GET pattern] [ASC|DESC] [ALPHA] [STORE dstkey] 1) sort key (list) 这是最简单的情况,没有任何选项对集合自身元素排序并返回排序结果,默认为value升序. 示例: 复制代码 代码如下: 127.0.0.1:6379> lpush

  • 用Redis实现微博关注关系

    关注关系产生的四种关系状态 关注 粉丝 双向关注(互粉) 无关系 需求分析 在微博中,每一个用户都会有一个关注列表,一个粉丝列表.用户可以查看自己的关注,粉丝列表,也可以查看别人的关注,粉丝列表.并且,要展示列表里每个人与当前查看者的关注状态.状态的可能性就是上面讲到得四种关系状态. 问题可以分两种情况来看: 1.看自己的关注,粉丝列表 2.看别人的关注,粉丝列表 看自己的关注,粉丝列表: 这种情况相对简单一点.比如看自己的关注列表,列表里的人的与自己的关系状态不可能是"无关系"和&q

  • Windows下Redis的安装使用图解

    Redis是一个key-value存储系统.和Memcached类似,它支持存储的value类型相对更多,包括string(字符串).list(链表).set(集合).zset(sorted set --有序集合)和hash(哈希类型).这些数据类型都支持push/pop.add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的.在此基础上,redis支持各种不同方式的排序.与memcached一样,为了保证效率,数据都是缓存在内存中.区别的是redis会周期性的把更新的数

随机推荐