缓存一致性和跨服务器查询的数据异构解决方案

服务器
当项目的请求量上去了之后,通常有两种做法来应对高并发,第一是尽最大可能的使用cache来对抗,第二是尽最大可能的分库分表对抗。。。说起来容易,做起来并不那么乐观,这一篇就来浅析下。

 [[349730]]

当项目的请求量上去了之后,通常有两种做法来应对高并发,第一是尽最大可能的使用cache来对抗,第二是尽最大可能的分库分表对抗。。。说起来容易,做起来并不那么乐观,这一篇就来浅析下。

一:如何保证缓存一致性

如我们的千人千面系统中,会针对商品,订单等多维度为某一个商家店铺自动化建立大约400个数据模型,然后买家在淘宝下订单之后,淘宝会将订单推送过来,订单会在400个模型中兜一圈,从而推送更贴切符合该买家行为习惯的触达,为了应对高并发,这些模型自然都是缓存在Cache中,如果有新的模型进来了,我如何通知redis进行缓存更新呢?通常的做法就是在添加模型的时候,顺便更新redis。。。对吧,如下图:

说的简单,web开发的程序员会说,麻蛋的,我管你什么业务,凭啥要我做推送,把我代码搞出问题了,你负责呀???所以你必须得碰一鼻子灰。就算搞定了web程序员,你可能还会遇到更新database成功,更新redis的时候失败,可人家不管,而且错误日志还在别人的日志系统里面,所以你很难甚至无法保证这个db和cache的缓存一致性,那这个时候能不能换个思路,我直接写个程序订阅database的binlog,从binlog中分析出模型数据的CURD操作,根据这些CURD的实际情况更新Redis的缓存数据,第一个可以实现和web的解耦,第二个实现了高度的缓存一致性,所以新的架构是这样的。

上面这张图,相信大家都能看得懂,重点就是这个处理binlog程序,从binlog中分析出CURD从而更新Redis,其实这个binlog程序就是本篇所说的canal。。。一个伪装成mysql的slave,不断的通过dump命令从mysql中盗出binlog日志,从而完美的实现了这个需求。

二:如何实现跨服务器 join 查询

本篇开头也说到了,数据量大了之后,必然会存在分库分表,甚至database都要分散到多台服务器上,现在的电商项目,都是业务赶着技术跑。。。谁也不知道下一个业务会是一个怎样的奇葩,所以必然会导致你要做一些跨服务器join查询,你以为自己很聪明,其实DBA早就把跨服务器查询的函数给你关掉了,求爹爹拜奶奶都不会给你开的,除非你杀一个DBA祭天,不过如果你的业务真的很重要,可能DBA会给你做数据异构,所谓的数据异构,那就是将需要join查询的多表按照某一个维度又聚合在一个DB中。让你去查询。。。。。

那如果用canal来订阅binlog,就可以改造成下面这种架构。

三:搭建一览

好了,canal的应用场景给大家也介绍到了,最主要是理解这种思想,人家搞不定的东西,你的价值就出来了。

1. 开启mysql的binlog功能

开启binlog,并且将binlog的格式改为Row,这样就可以获取到CURD的二进制内容,windows上的路径为:C:\ProgramData\MySQL\MySQL Server 5.7\my.ini。

log-bin=mysql-bin #添加这一行就ok 
binlog-format=ROW #选择row模式 
server_id=1 
  • 1.
  • 2.
  • 3.

2. 验证binlog是否开启

使用命令验证,并且开启binlog的过期时间为30天,默认情况下binlog是不过期的,这就导致你的磁盘可能会爆满,直到挂掉。

show variables like 'log_%';  
#设置binlog的过期时间为30天 
show variables like '%expire_logs_days%'
set global expire_logs_days=30; 
  • 1.
  • 2.
  • 3.
  • 4.

3. 给canal服务器分配一个mysql的账号权限,方便canal去偷binlog日志。

CREATE USER canal IDENTIFIED BY 'canal';     
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';   
FLUSH PRIVILEGES;   
 
show grants for 'canal' 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.

4. 下载canal

github的地址:https://github.com/alibaba/canal/releases

5. 然后就是各种tar解压 canal.deployer-1.0.24.tar.gz => canal

[root@localhost myapp]# ls 
apache-maven-3.5.0-bin.tar.gz                        dubbo-monitor-simple-2.5.4-SNAPSHOT.jar     nginx                tengine-2.2.0.tar.gz 
canal                                                gearmand                                    nginx-1.13.4.tar.gz  tengine_st 
canal.deployer-1.0.24.tar.gz                         gearmand-1.1.17                             nginx_st             tomcat 
dubbo                                                gearmand-1.1.17.tar.gz                      redis                zookeeper 
dubbo-monitor-simple-2.5.4-SNAPSHOT                  maven                                       redis-4.0.1.tar.gz   zookeeper-3.4.9.tar.gz 
dubbo-monitor-simple-2.5.4-SNAPSHOT-assembly.tar.gz  mysql-5.7.19-linux-glibc2.12-x86_64.tar.gz  tengine 
[root@localhost myapp]# cd canal 
[root@localhost canal]# ls 
bin  conf  lib  logs 
[root@localhost canal]# cd conf 
[root@localhost conf]# ls 
canal.properties  example  logback.xml  spring 
[root@localhost conf]# cd example 
[root@localhost example]# ls 
instance.properties  meta.dat 
[root@localhost example]# 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.

6. canal 和 instance 配置文件

canal的模式是这样的,一个canal里面可能会有多个instance,也就说一个instance可以监控一个mysql实例,多个instance也就可以对应多台服务器的mysql实例。也就是一个canal就可以监控分库分表下的多机器mysql。

1) canal.properties

它是全局性的canal服务器配置,具体如下,这里面的参数涉及到方方面面。

################################################# 
#########               common argument         #############  
################################################# 
canal.id= 1 
canal.ip= 
canal.port= 11111 
canal.zkServers= 
# flush data to zk 
canal.zookeeper.flush.period = 1000 
# flush meta cursor/parse position to file 
canal.file.data.dir = ${canal.conf.dir} 
canal.file.flush.period = 1000 
## memory store RingBuffer size, should be Math.pow(2,n) 
canal.instance.memory.buffer.size = 16384 
## memory store RingBuffer used memory unit size , default 1kb 
canal.instance.memory.buffer.memunit = 1024  
## meory store gets mode used MEMSIZE or ITEMSIZE 
canal.instance.memory.batch.mode = MEMSIZE 
     
## detecing config 
canal.instance.detecting.enable = false 
#canal.instance.detecting.sql = insert into retl.xdual values(1,now()) on duplicate key update x=now() 
canal.instance.detecting.sql = select 1 
canal.instance.detecting.interval.time = 3 
canal.instance.detecting.retry.threshold = 3 
canal.instance.detecting.heartbeatHaEnable = false 
 
# support maximum transaction size, more than the size of the transaction will be cut into multiple transactions delivery 
canal.instance.transaction.size =  1024 
# mysql fallback connected to new master should fallback times 
canal.instance.fallbackIntervalInSeconds = 60 
 
# network config 
canal.instance.network.receiveBufferSize = 16384 
canal.instance.network.sendBufferSize = 16384 
canal.instance.network.soTimeout = 30 
 
# binlog filter config 
canal.instance.filter.query.dcl = false 
canal.instance.filter.query.dml = false 
canal.instance.filter.query.ddl = false 
canal.instance.filter.table.error = false 
canal.instance.filter.rows = false 
 
# binlog format/image check 
canal.instance.binlog.format = ROW,STATEMENT,MIXED  
canal.instance.binlog.image = FULL,MINIMAL,NOBLOB 
 
# binlog ddl isolation 
canal.instance.get.ddl.isolation = false 
 
################################################# 
#########               destinations            #############  
################################################# 
canal.destinations= example 
# conf root dir 
canal.conf.dir = ../conf 
# auto scan instance dir add/remove and start/stop instance 
canal.auto.scan = true 
canal.auto.scan.interval = 5 
 
canal.instance.global.mode = spring  
canal.instance.global.lazy = false 
#canal.instance.global.manager.address = 127.0.0.1:1099 
#canal.instance.global.spring.xml = classpath:spring/memory-instance.xml 
canal.instance.global.spring.xml = classpath:spring/file-instance.xml 
#canal.instance.global.spring.xml = classpath:spring/default-instance.xml 
 
#################################################   
## mysql serverId   
canal.instance.mysql.slaveId = 1234   
 
# position info,需要改成自己的数据库信息   
canal.instance.master.address = 127.0.0.1:3306    
canal.instance.master.journal.name = 
canal.instance.master.position = 
canal.instance.master.timestamp = 
 
#canal.instance.standby.address =    
#canal.instance.standby.journal.name =   
#canal.instance.standby.position =    
#canal.instance.standby.timestamp =    
 
# username/password,需要改成自己的数据库信息   
canal.instance.dbUsername = root 
canal.instance.dbPassword = 123456 
canal.instance.defaultDatabaseName = datamip   
canal.instance.connectionCharset = UTF-8   
 
table regex   
canal.instance.filter.regex = .*\\..*   
 
################################################# 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
  • 36.
  • 37.
  • 38.
  • 39.
  • 40.
  • 41.
  • 42.
  • 43.
  • 44.
  • 45.
  • 46.
  • 47.
  • 48.
  • 49.
  • 50.
  • 51.
  • 52.
  • 53.
  • 54.
  • 55.
  • 56.
  • 57.
  • 58.
  • 59.
  • 60.
  • 61.
  • 62.
  • 63.
  • 64.
  • 65.
  • 66.
  • 67.
  • 68.
  • 69.
  • 70.
  • 71.
  • 72.
  • 73.
  • 74.
  • 75.
  • 76.
  • 77.
  • 78.
  • 79.
  • 80.
  • 81.
  • 82.
  • 83.
  • 84.
  • 85.
  • 86.
  • 87.
  • 88.
  • 89.
  • 90.
  • 91.
  • 92.
  • 93.

由于是全局性的配置,所以上面三处标红的地方要注意一下:

  • canal.port= 11111       当前canal的服务器端口号
  • canal.destinations= example     当前默认开启了一个名为example的instance实例,如果想开多个instance,用","逗号隔开就可以了。。。
  • canal.instance.filter.regex = .\..   mysql实例下的所有db的所有表都在监控范围内。

2) instance.properties

这个就是具体的某个instances实例的配置,未涉及到的配置都会从canal.properties上继承。

################################################# 
## mysql serverId 
canal.instance.mysql.slaveId = 1234 
 
# position info 
canal.instance.master.address = 192.168.23.1:3306 
canal.instance.master.journal.name = 
canal.instance.master.position = 
canal.instance.master.timestamp = 
 
#canal.instance.standby.address =  
#canal.instance.standby.journal.name = 
#canal.instance.standby.position =  
#canal.instance.standby.timestamp =  
 
# username/password 
canal.instance.dbUsername = canal 
canal.instance.dbPassword = canal 
canal.instance.defaultDatabaseName =datamip 
canal.instance.connectionCharset = UTF-8 
 
table regex 
canal.instance.filter.regex = .*\\..* 
table black regex 
canal.instance.filter.black.regex = 
 
################################################# 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.

上面标红的地方注意下就好了,去偷binlog的时候,需要知道的mysql地址和用户名,密码。

7. 开启canal

大家要记得把 /canal/bin 目录配置到 /etc/profile 的 Path中,方便快速开启,通过下图你会看到11111端口已经在centos上开启了。

[root@localhost bin]# ls 
canal.pid  startup.bat  startup.sh  stop.sh 
[root@localhost bin]# pwd 
/usr/myapp/canal/bin 
[root@localhost example]# startup.sh 
cd to /usr/myapp/canal/bin for workaround relative path 
LOG CONFIGURATION : /usr/myapp/canal/bin/../conf/logback.xml 
canal conf : /usr/myapp/canal/bin/../conf/canal.properties 
CLASSPATH :/usr/myapp/canal/bin/../conf:/usr/myapp/canal/bin/../lib/zookeeper-3.4.5.jar:/usr/myapp/canal/bin/../lib/zkclient-0.1.jar:/usr/myapp/canal/bin/../lib/spring-2.5.6.jar:/usr/myapp/canal/bin/../lib/slf4j-api-1.7.12.jar:/usr/myapp/canal/bin/../lib/protobuf-java-2.6.1.jar:/usr/myapp/canal/bin/../lib/oro-2.0.8.jar:/usr/myapp/canal/bin/../lib/netty-all-4.1.6.Final.jar:/usr/myapp/canal/bin/../lib/netty-3.2.5.Final.jar:/usr/myapp/canal/bin/../lib/logback-core-1.1.3.jar:/usr/myapp/canal/bin/../lib/logback-classic-1.1.3.jar:/usr/myapp/canal/bin/../lib/log4j-1.2.14.jar:/usr/myapp/canal/bin/../lib/jcl-over-slf4j-1.7.12.jar:/usr/myapp/canal/bin/../lib/guava-18.0.jar:/usr/myapp/canal/bin/../lib/fastjson-1.2.28.jar:/usr/myapp/canal/bin/../lib/commons-logging-1.1.1.jar:/usr/myapp/canal/bin/../lib/commons-lang-2.6.jar:/usr/myapp/canal/bin/../lib/commons-io-2.4.jar:/usr/myapp/canal/bin/../lib/commons-beanutils-1.8.2.jar:/usr/myapp/canal/bin/../lib/canal.store-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.sink-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.server-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.protocol-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.parse.driver-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.parse.dbsync-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.parse-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.meta-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.instance.spring-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.instance.manager-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.instance.core-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.filter-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.deployer-1.0.24.jar:/usr/myapp/canal/bin/../lib/canal.common-1.0.24.jar:/usr/myapp/canal/bin/../lib/aviator-2.2.1.jar: 
cd to /usr/myapp/canal/conf/example for continue 
[root@localhost example]# netstat -tln 
Active Internet connections (only servers) 
Proto Recv-Q Send-Q Local Address           Foreign Address         State       
tcp        0      0 0.0.0.0:11111           0.0.0.0:*               LISTEN      
tcp        0      0 0.0.0.0:111             0.0.0.0:*               LISTEN      
tcp        0      0 192.168.122.1:53        0.0.0.0:*               LISTEN      
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      
tcp        0      0 127.0.0.1:631           0.0.0.0:*               LISTEN      
tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN      
tcp6       0      0 :::111                  :::*                    LISTEN      
tcp6       0      0 :::22                   :::*                    LISTEN      
tcp6       0      0 ::1:631                 :::*                    LISTEN      
tcp6       0      0 ::1:25                  :::*                    LISTEN      
[root@localhost example]# 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.

8. Java Client 代码

canal driver 需要在maven仓库中获取一下:http://www.mvnrepository.com/artifact/com.alibaba.otter/canal.client/1.0.24,不过依赖还是蛮多的。

<!-- https://mvnrepository.com/artifact/com.alibaba.otter/canal.client --> 
  <dependency> 
      <groupId>com.alibaba.otter</groupId> 
      <artifactId>canal.client</artifactId> 
      <version>1.0.24</version> 
  </dependency> 
  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.

 

9. 启动java代码进行验证

下面的代码对table的CURD都做了一个基本的判断,看看是不是能够智能感知,然后可以根据实际情况进行redis的更新操作。。。

package com.datamip.canal; 
 
import java.awt.Event; 
import java.net.InetSocketAddress; 
import java.util.List; 
 
import com.alibaba.otter.canal.client.CanalConnector; 
import com.alibaba.otter.canal.client.CanalConnectors; 
import com.alibaba.otter.canal.protocol.CanalEntry.Column
import com.alibaba.otter.canal.protocol.CanalEntry.Entry; 
import com.alibaba.otter.canal.protocol.CanalEntry.EntryType; 
import com.alibaba.otter.canal.protocol.CanalEntry.EventType; 
import com.alibaba.otter.canal.protocol.CanalEntry.Header; 
import com.alibaba.otter.canal.protocol.CanalEntry.RowChange; 
import com.alibaba.otter.canal.protocol.Message; 
import com.google.protobuf.InvalidProtocolBufferException; 
 
public class App { 
 
    public static void main(String[] args) throws InterruptedException { 
 
        // 第一步:与canal进行连接 
        CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("192.168.23.170", 11111), 
                "example"""""); 
        connector.connect(); 
 
        // 第二步:开启订阅 
        connector.subscribe(); 
 
        // 第三步:循环订阅 
        while (true) { 
            try { 
                // 每次读取 1000 条 
                Message message = connector.getWithoutAck(1000); 
 
                long batchID = message.getId(); 
 
                int size = message.getEntries().size(); 
 
                if (batchID == -1 || size == 0) { 
                    System.out.println("当前暂时没有数据"); 
                    Thread.sleep(1000); // 没有数据 
                } else { 
                    System.out.println("-------------------------- 有数据啦 -----------------------"); 
                    PrintEntry(message.getEntries()); 
                } 
 
                // position id ack (方便处理下一条) 
                connector.ack(batchID); 
 
            } catch (Exception e) { 
                // TODO: handle exception 
 
            } finally { 
                Thread.sleep(1000); 
            } 
        } 
    } 
 
    // 获取每条打印的记录 
    @SuppressWarnings("static-access"
    public static void PrintEntry(List<Entry> entrys) { 
 
        for (Entry entry : entrys) { 
 
            // 第一步:拆解entry 实体 
            Header header = entry.getHeader(); 
            EntryType entryType = entry.getEntryType(); 
 
            // 第二步: 如果当前是RowData,那就是我需要的数据 
            if (entryType == EntryType.ROWDATA) { 
 
                String tableName = header.getTableName(); 
                String schemaName = header.getSchemaName(); 
 
                RowChange rowChange = null
 
                try { 
                    rowChange = RowChange.parseFrom(entry.getStoreValue()); 
                } catch (InvalidProtocolBufferException e) { 
                    e.printStackTrace(); 
                } 
 
                EventType eventType = rowChange.getEventType(); 
 
                System.out.println(String.format("当前正在操作 %s.%s, Action= %s", schemaName, tableName, eventType)); 
 
                // 如果是‘查询’ 或者 是 ‘DDL’ 操作,那么sql直接打出来 
                if (eventType == EventType.QUERY || rowChange.getIsDdl()) { 
                    System.out.println("rowchange sql ----->" + rowChange.getSql()); 
                    return
                } 
 
                // 第三步:追踪到 columns 级别 
                rowChange.getRowDatasList().forEach((rowData) -> { 
 
                    // 获取更新之前的column情况 
                    List<Column> beforeColumns = rowData.getBeforeColumnsList(); 
 
                    // 获取更新之后的 column 情况 
                    List<Column> afterColumns = rowData.getAfterColumnsList(); 
 
                    // 当前执行的是 删除操作 
                    if (eventType == EventType.DELETE) { 
                        PrintColumn(beforeColumns); 
                    } 
 
                    // 当前执行的是 插入操作 
                    if (eventType == eventType.INSERT) { 
                        PrintColumn(afterColumns); 
                    } 
 
                    // 当前执行的是 更新操作 
                    if (eventType == eventType.UPDATE) { 
                        PrintColumn(afterColumns); 
                    } 
                }); 
            } 
        } 
    } 
 
    // 每个row上面的每一个column 的更改情况 
    public static void PrintColumn(List<Column> columns) { 
 
        columns.forEach((column) -> { 
 
            String columnName = column.getName(); 
            String columnValue = column.getValue(); 
            String columnType = column.getMysqlType(); 
            boolean isUpdated = column.getUpdated(); // 判断 该字段是否更新 
 
            System.out.println(String.format("columnName=%s, columnValue=%s, columnType=%s, isUpdated=%s", columnName, 
                    columnValue, columnType, isUpdated)); 
 
        }); 
 
    } 

  • 1.
  • 2.
  • 3.
  • 4.
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13.
  • 14.
  • 15.
  • 16.
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28.
  • 29.
  • 30.
  • 31.
  • 32.
  • 33.
  • 34.
  • 35.
  • 36.
  • 37.
  • 38.
  • 39.
  • 40.
  • 41.
  • 42.
  • 43.
  • 44.
  • 45.
  • 46.
  • 47.
  • 48.
  • 49.
  • 50.
  • 51.
  • 52.
  • 53.
  • 54.
  • 55.
  • 56.
  • 57.
  • 58.
  • 59.
  • 60.
  • 61.
  • 62.
  • 63.
  • 64.
  • 65.
  • 66.
  • 67.
  • 68.
  • 69.
  • 70.
  • 71.
  • 72.
  • 73.
  • 74.
  • 75.
  • 76.
  • 77.
  • 78.
  • 79.
  • 80.
  • 81.
  • 82.
  • 83.
  • 84.
  • 85.
  • 86.
  • 87.
  • 88.
  • 89.
  • 90.
  • 91.
  • 92.
  • 93.
  • 94.
  • 95.
  • 96.
  • 97.
  • 98.
  • 99.
  • 100.
  • 101.
  • 102.
  • 103.
  • 104.
  • 105.
  • 106.
  • 107.
  • 108.
  • 109.
  • 110.
  • 111.
  • 112.
  • 113.
  • 114.
  • 115.
  • 116.
  • 117.
  • 118.
  • 119.
  • 120.
  • 121.
  • 122.
  • 123.
  • 124.
  • 125.
  • 126.
  • 127.
  • 128.
  • 129.
  • 130.
  • 131.
  • 132.
  • 133.
  • 134.
  • 135.
  • 136.
  • 137.
  • 138.

Update操作

Insert操作

Delete 操作

从结果中看,没毛病,有图有真相,好了,本篇就说到这里,对于开发的你,肯定是有帮助的~~~

本文转载自微信公众号「 一线码农聊技术」,可以通过以下二维码关注。转载本文请联系 一线码农聊技术公众号。

 

责任编辑:武晓燕 来源: 一线码农聊技术
相关推荐

2023-05-09 10:59:33

缓存技术派MySQL

2023-06-29 08:00:59

redis数据MySQL

2023-06-07 08:10:29

2022-12-14 08:23:30

2021-06-06 12:45:41

分布式CAPBASE

2021-08-10 11:05:09

服务器缓存 架构

2022-06-21 21:47:13

数据系统

2010-05-24 11:35:11

WCDMA

2020-05-12 10:43:22

Redis缓存数据库

2019-09-20 21:50:47

数据库缓存

2024-12-26 15:01:29

2013-05-16 14:10:02

MySQL主从服务器数据

2020-06-01 22:09:48

缓存缓存同步缓存误用

2021-12-01 08:26:27

数据库缓存技术

2018-09-11 10:46:10

缓存数据库一致性

2025-02-04 15:48:21

悲观锁数据库应用

2021-06-11 09:21:58

缓存数据库Redis

2022-03-29 10:39:10

缓存数据库数据

2024-10-28 12:41:25

2022-09-06 15:30:20

缓存一致性
点赞
收藏

51CTO技术栈公众号