Redis在新浪微博中的应用.doc

上传人:scccc 文档编号:13794202 上传时间:2022-01-23 格式:DOC 页数:7 大小:60KB
返回 下载 相关 举报
Redis在新浪微博中的应用.doc_第1页
第1页 / 共7页
Redis在新浪微博中的应用.doc_第2页
第2页 / 共7页
Redis在新浪微博中的应用.doc_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《Redis在新浪微博中的应用.doc》由会员分享,可在线阅读,更多相关《Redis在新浪微博中的应用.doc(7页珍藏版)》请在三一文库上搜索。

1、内容目录:Redis 在新浪微博中的应用Redis 简介1. 支持 5 种数据结构支持 strings, hashes, lists, sets, sorted setsstring 是很好的存储方式,用来做计数存储。 sets 用于建立索引库非常棒;2. K-V 存储 vs K-V 缓存新浪微博目前使用的 98%都是持久化的应用, 2%的是缓存,用到了 600+服务器 Redis 中持久化的应用和非持久化的方式不会差别很大:非持久化的为 8-9 万 tps ,那么持久化在 7-8 万 tps 左右; 当使用持久化时,需要考虑到持久化和写性能的配比,也就是要考虑 redis 使 用的内存大小和

2、硬盘写的速率的比例计算;3. 社区活跃Redis 目前有 3万多行代码 , 代码写的精简,有很多巧妙的实现,作者有技术 洁癖Redis 的社区活跃度很高,这是衡量开源软件质量的重要指标,开源软件的初 期一般都没有商业技术服务支持,如果没有活跃社区做支撑,一旦发生问题都 无处求救;Redis 基本原理redis 持久化 (aof) append online file :写 log(aof), 到一定程度再和内存合并 . 追加再追加 , 顺序写磁盘 , 对性能影 响非常小1. 单实例单进程Redis 使用的是单进程,所以在配置时,一个实例只会用到一个CPU;在配置时,如果需要让 CPU使用率最大

3、化,可以配置 Redis实例数对应CPU数,Redis实例数对应端口数(8核Cpu, 8个实例,8个端口 ),以提高并发: 单机测试时,单条数据在200字节,测试的结果为89万tps ;2. Replication过程 : 数据写到 master-master 存储到 slave 的 rdb 中-slave 加载 rdb 到 内存。存储点 (save point): 当网络中断了 , 连上之后 , 继续传 . Master-slave 下第一次同步是全传,后面是增量同步;、3. 数据一致性长期运行后多个结点之间存在不一致的可能性;开发两个工具程序:1. 对于数据量大的数据,会周期性的全量检查;

4、2. 实时的检查增量数据,是否具有一致性; 对于主库未及时同步从库导致的不一致,称之为延时问题; 对于一致性要求不是那么严格的场景,我们只需要要保证最终一致性即可; 对于延时问题,需要根据业务场景特点分析,从应用层面增加策略来解决这个 问题;例如:1. 新注册的用户,必须先查询主库;2. 注册成功之后,需要等待3s之后跳转,后台此时就是在做数据同步。新浪 Redis 使用历程2009年,使用memcache用于非持久化内容),memcacheDB(用于持久化+计数), memcacheD是新浪在 memcach的基础上,使用 BerkeleyDB作为数据持久化的 存储实现;1. 面临的问题?

5、数据结构(Data Structure) 需求越来越多,但memcach曲没有,影响开 发效率? 性能需求 , 随着读操作的量的上升需要解决,经历的过程有 : 数据库读写分离 (M/S)- 数据库使用多个 Slave- 增加 Cache (memcache)- 转到 Redis? 解决写的问题: 水平拆分,对表的拆分,将有的用户放在这个表,有的用户放在另外一 个表;? 可靠性需求Cache的雪崩问题让人纠结Cache面临着快速恢复的挑战? 开发成本需求Cache和DB的一致性维护成本越来越高(先清理DB,再清理缓存,不行 啊, 太慢了 !) 开发需要跟上不断涌入的产品需求 硬件成本最贵的就是数

6、据库层面的机器,基本上比前端的机器要贵几 倍,主 要是 IO 密集型,很耗硬件;? 维护性复杂 一致性维护成本越来越高; BerkeleyDB使用B树,会一直写新的,内部不会有文件重新组织;这样 会导致文件越来越大;大的时候需要进行文件归档,归档的操作要定期 做; 这样,就需要有一定的 down time ;基于以上考虑, 选择了 Redis2. 寻找开源软件的方式及评判标准? 对于开源软件,首先看其能做什么,但更多的需要关注它不能做什么, 它会有什么问题?? 上升到一定规模后,可能会出现什么问题,是否能接受?? google code 上, 国外论坛找材料 (国内比国外技术水平滞后 5年)?

7、 观察作者个人的代码水平Redis 应用场景1. 业务使用方式? hash sets: 关注列表 , 粉丝列表 , 双向关注列表 (key-value(field), 排序)? string(counter):微博数 , 粉丝数 , .( 避免了 select count(*)from .)? sort sets( 自动排序 ): TopN, 热门微博等 , 自动排序? lists(queue): push/sub提醒 ,.上述四种 , 从精细化控制方面, hash sets 和 string(counter) 推荐使用 , sort sets 和 lists(queue) 不推荐使用还可通过

8、二次开发,进行精简。比如 : 存储字符改为存储整形 , 16 亿数据, 只 需要16G内存存储类型保存在 3 种以内,建议不要超过 3 种;将 memcache +myaql 替换为 Redis :Redis 作为存储并提供查询,后台不再使用 mysql ,解决数据多份之间的一致性 问题;2. 对大数据表的存储(eg: 140字微博的存储) 一个库就存唯一性 id 和 140 个字; 另一个库存 id 和用户名,发布日期、点击数等信息,用来计算、排序等,等计 算出最后需要展示的数据时再到第一个库中提取微博内容; 改进的 3 个步骤 :1 )发现现有系统存在问题 ;2)发现了新东西 , 怎么看怎

9、么好 , 全面转向新东西 ;3)理性回归 , 判断哪些适合新东西 , 哪些不适合 , 不合适的回迁到老系统3. 一些技巧? 很多应用 , 可以承受数据库连接失败 , 但不能承受处理慢? 一份数据 , 多份索引 ( 针对不同的查询场景 )? 解决 IO 瓶颈的唯一途径 : 用内存? 在数据量变化不大的情况下,优先选用 Redis遇到的问题及解决办法( 注意 : 都是量特别大时候会出现的 , 量小了怎么都好说 )1.Problem: Replication中断后, 重发- 网络突发流量Solution:重写 Replication代码, rdb+aof( 滚动)2.Problem: 容量问题Sol

10、ution:容量规划和 M/S的sharding功能(share nothing,抽象出来的数据对象之间的关联数据很小 )增加一些配置 , 分流, 比如: 1,2,3,4, 机器1处理%2=1的, 机器 2处理%2=0 的.低于内存的 1/2 使用量, 否则就扩容(建议 Redis 实例使用的数据,最大不要 超过内存的 80%)我们线上96G/128G内存服务器不建议单实例容量大于 20/30G。微博应用中单表数据最高的有 2T的数据,不过应用起来已经有些力不从心; 每个的端口不要超过20G测试磁盘做save所需要的时间,需要多长时间能够 全部写入;内存越大,写的时间也就越长; 单实例内存容量

11、较大后,直接带来的问题就是故障恢复或者 Rebuild 从库的时 候时间较长,对于普通硬盘的加载速度而言,我们的经验一般是 redis 加载 1G 需要 1 分钟;(加载的速度依赖于数据量的大小和数据的复杂度)Redis rewrite aof 和 save rdb 时,将会带来非常大且长的系统压力,并占用 额外内存,很可能导致系统内存不足等严重影响性能的线上故障。reblance: 现有数据按照上述配置重新分发。后面使用中间层,路由 HA;注:目前官方也正在做这个事,Redis Cluster,解决HA问题;3. Problem: bgsave or bgwriteaof 的冰晶问题Solu

12、tion:磁盘性能规划和限制写入的速度,比如:规定磁盘以200M/s的速度写入, 细水长流 , 即使到来大量数据 . 但是要注意写入速度要满足两个客观限 制:符合磁盘速度符合时间限制 (保证在高峰到来之前 , 就得写完 )4. Problem: 运维问题1) Inner Crontab:把 Crontab 迁移到 Redis 内部, 减少迁移时候的压力 本机多端口避免同时做 - 能做到同一业务多端口 (分布在多机上 ), 避免同时做 - 做不到2)动态升级 : 先加载 .so 文件 , 再管理配置 , 切换到新代码上 (Config set 命 令)把对 redis 改进的东西都打包成 lib

13、.so 文件,这样能够支持动态升级 自己改的时候要考虑社区的升级。当社区有新的版本,有很好用的新功能时, 要能很容易的与我们改进后的版本很好的 merge; 升级的前提条件 : 模块化 , 以模块为单位升级加载时间取决于两个方面 : 数据大小, 数据结构复杂度 . 一般, 40G 数据耗时40 分钟分布式系统的两个核心问题:A.路由问题B.HA问题3)危险命令的处理 : 比如: fresh all删除全部数据 , 得进行控制运维不能只讲数据备份,还得考虑数据恢复所需要的时间; 增加权限认证 ( 管理员才有权限 )eg :flashall权限认证,得有密码才能做;当然,高速数据交互一般都不会在每

14、次都进行权限认证,通用的处理策略是第 一次认证,后期都不用再认证;控制hash策略(没有key,就找不到value;不知道hash策略,就无法得到 key)4)Config Dump:内存中的配置项动态修改过 , 按照一定策略写入到磁盘中 (Redis 已支持 )5)bgsave 带来 aof 写入很慢 :fdatasync 在做 bgsave 时, 不做 sync aof( 会有数据出入 )6)成本问题:(22T内存,有10T用来计数)Redisscounter(16亿数据占用16G内存)-全部变为整型存储,其余(字符串 等)全不要Redis+SSD(counterService 计数服务

15、)顺序自增,table 按照顺序写,写满10个table就自动落地(到SSD)存储分级:内存分配问题,10K和100K写到一块,会有碎片.Sina已经优化到 浪费只占 5%以内(已经很好了 !)5. Problem: 分布式问题1. Config Server:命名空间 , 特别大的告诉访问 , 都不适合用代理 , 因为代理降低速度 , 但是 , Sina 用了( 单机多端口 , Redis Cluster, sentinel)Config Server 放到 Zookeeper 上 最前面是命名服务,后面跟的是无状态的 twmemproxy(twitter 的改进的,用 C写的),后面才是r

16、edis ;2. twmemproxy应用不必关心连接失败 , 由代理负责重连把 Hash 算法放到代理商代理后边的升级,前端不关心,解决了 HA的问题无状态 , 多台代理无所谓3. AS - Proxy -Redis4.Sina 的 Redis 都是单机版 , 而 Redis-Cluster 交互过于复杂,没有使用 做HA的话,一定要配合监控来做,如果挂了之后,后续该如何做; 并不是追求单机性能,而是集群的吞吐量,从而可以支持无线扩展;经验总结? 提前做好数据量的规划 , 减少 sharding( 互联网公司一般以年为单位 )? 只存精细化数据 (内存很金贵 !)? 存储用户维度的数据对象维

17、度的数据要有生命周期 特别是数据量特别大的时候,就很有必要来进行划分了;? 暴露服务的常见过程 : IP- 负载均衡 - 域名- 命名服务 (一张表 : 名 字+资源(IP+端口)?对于硬件消耗,10、网络和CPU相比,Redis最消耗的是CPU复杂的数 据类型必定带来CPU消耗;?新浪微博响应时间超时目前设置为 5s;(返回很慢的记录key,需记录 下来分析,慢日志);? 备份的数据要定期要跑一下生产的数据;用来检查备份数据的有效性;? slave 挂多了肯定会对 master 造成比较的影响;新浪微博目前使用的M/S 是一拖一,主要用来做容灾;同步时,是 fork 出一个单独进程来和 slave 进行同步;不会占用查询的 进程;? 升级到 以后的 linux 内核;在 以上对软中断的问题处理的很好,性能提升效果明显,差不多 有 15%到 30%的差距;? redis 不用读写分离,每个请求都是单线程,为什么要进行读写分离。Posted by: 大 CC | 19DEC,2013博客:微博:

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 社会民生


经营许可证编号:宁ICP备18001539号-1