集群到集群
一.物理导入
简介
redis集群在存储数据时,是根据槽点进行存储。例如老集群A如下:
都在一台机器,实际可以在多台机器上。
主节点:7000(0-5460) 7001(5461-10922) 7002(10923-16383)
从节点:7003 7004 7005
那如果有10万数据,它们就会按照hash值进行计算,按槽点存储。每个槽点将存储一些数据,那槽点的拥有者也将拥有和存储那些数据。
实际操作
老集群:1.1.1.1
主节点:7000(0-5460) 7001(5461-10922) 7002(10923-16383)
从节点:7003 7004 7005
新集群:1.1.1.2
主节点:6000(0-3000) 6001(3001-5460) 6002(5461-10922) 6003(10923-16383)
从节点:6004 6005 6006 6007
可以发现新集群的节点多了一个,他把6000节点的曹点分了一些过去,承担压力。
将老集群的7000节点的appendonly.aof用pipe方法导入到6000节点上。再将同文件导入到6001节点上。肯定会有一半左右报错,因为那些值在hash后,槽点为3555,但你要导入到6000节点里,那是不接受的,其他对应的会导入进去。所以不用管报错,效验数据总数即可。
cat /redis/7000/appendonly.aof | redis-cli -c -p 6000 -h 1.1.1.2 --pipe
cat /redis/7000/appendonly.aof | redis-cli -c -p 6001 -h 1.1.1.2 --pipe
aof文件里就是写入的命令语句,再利用pipe批量导入,是非常快捷而稳定的。
像上面,槽点是分开的,就都导入,多余的自然是没法写入的,只导入固定部分即可。然后用dbsize
命令去对比一下所有节点总数据量,也要考虑数据中可能有过期策略的值,会导致数据总数一直减少。
相关文章
- 搭建高可用mongodb集群(转)
- ORA-01291: missing logfile Oracle RAC 集群环境下日志文件结构
- apache+3tomcat+jk+memcached集群环境搭建
- 关于websocket集群中不同服务器的用户间通讯问题
- Redis集群原理篇之图文并茂
- y99.第六章 微服务、服务网格及Envoy实战 -- 集群管理(十)
- 【云原生之kubernetes】kubernetes集群高级资源对象statefulesets
- Kubernetes集群Pod控制器之ReplicaSet控制器(二十二)
- Etcd Kubernetes 集群稳定性:LIST 请求源码分析、性能评估与大规模基础服务部署调优
- kubeadm 安装 k8s 集群(版本自选)
- Ceph分布式集群部署01