cassandra集群环境搭建——注意seeds节点,DHT p2p集群管理难道初始化都应如此吗?
2023-09-14 09:11:57 时间
解压cassandra的安装包后可以查看主要的配置文件,都在conf/目录下,conf/cassandra.yaml比较重要,其中需要着重注意的有以下一些配置项:
cluster_name: 'TC01' num_tokens: 256 seed_provider: - class_name: org.apache.cassandra.locator.SimpleSeedProvider parameters: - seeds: "192.168.2.103" listen_address: 192.168.2.103 rpc_address: 192.168.2.103 endpoint_snitch: SimpleSnitch
cluster_name一定要修改,免得用默认的“Test Cluster”和他人冲突,所有有显示ip的地方都需要注意并修改,将127.0.0.1和localhost改为你的对外访问的ip,比如我的局域网ip就是192.168.2.103。
启动cassandra,
XXXXX@XXXXX-asus:~/apache-cassandra-2.0.6$ cd bin/ XXXXX@XXXXX-asus:~/apache-cassandra-2.0.6/bin$ ./cassandra -f
现在cassandra已经启动了节点1,节点2在一台虚拟机上(ip:192.168.2.102),其配置与节点1非常类似,要改动配置里面的seeds那一项的ip为节点1的ip
cluster_name: 'TC01'
num_tokens: 256
seed_provider:
- class_name: org.apache.cassandra.locator.SimpleSeedProvider
parameters:
- seeds: "192.168.2.103"
listen_address: 192.168.2.102
rpc_address: 192.168.2.102
endpoint_snitch: SimpleSnitch
以同样的方式启动节点2,就可以在节点1中看到节点2已经加入到集群。此时,节点1的log中可以看到以下信息
WARN 17:36:15,477 Gossip stage has 1 pending tasks; skipping status check (no nodes will be marked down)
INFO 17:36:16,358 Handshaking version with /192.168.2.102
INFO 17:36:17,999 Node /192.168.2.102 is now part of the cluster
INFO 17:36:18,496 Handshaking version with /192.168.2.102
INFO 17:36:18,727 InetAddress /192.168.2.102 is now UP
INFO 17:36:53,523 [Stream #24d92630-c2ef-11e3-9d13-81bcfc870408] Received streaming plan for Bootstrap
INFO 17:36:54,336 [Stream #24d92630-c2ef-11e3-9d13-81bcfc870408] Session with /192.168.2.102 is complete
INFO 17:36:54,586 [Stream #24d92630-c2ef-11e3-9d13-81bcfc870408] All sessions completed
如果用nodetool来看,可以看到以下信息
XXXXX@XXXXX-asus:~/apache-cassandra-2.0.6/bin$ ./nodetool status Datacenter: datacenter1 ======================= Status=Up/Down |/ State=Normal/Leaving/Joining/Moving -- Address Load Tokens Owns (effective) Host ID Rack UN 192.168.2.102 54.74 KB 256 100.0% 00782976-b020-43a7-8fa5-b7dee95e6f1e rack1 UN 192.168.2.103 45.75 KB 256 100.0% 80a96105-819a-40f2-ac7c-489285017de1 rack1
很清楚的可以看到2个节点全部在线。
然后
./cassandra-cli -h 192.168.2.103 -p 9160
就可以去操作集群数据了!
相关文章
- k8s学习四-部署节点加入集群
- 二级节点工业互联网标识解析
- 【Groovy】自定义 Xml 生成器 BuilderSupport ( 继承 BuilderSupport 抽象类 | 在 createNode 方法中获取节点名称、节点属性、节点值信息 )
- linux No space left on device由索引节点(inode)爆满引发500问题
- sql server递归子节点、父节点sql查询表结构的实例
- 特性研究深入Linux系统的i节点特性(linux的i节点)
- MongoDB仲裁节点:保障集群可靠性(mongodb仲裁节点)
- Linux中如何删除节点(linux删除节点)
- 构建Redis集群:从主节点复制到从节点(redis集群主从)
- Linux RARP命令——洞悉网络节点IP地址(linux rarp命令)
- 实现Redis集群订阅同时订阅多个节点(订阅多个redis节点)
- 基于多节点连接的Redis实现高效分布式缓存(多节点连接redis)
- 开启Redis集群新篇章启动Redis节点(启动redis节点)
- Redis集群之苦节点起不来(redis集群节点起不来)
- 境搭建简易搭建Redis集群节点环境(redis集群节点环)
- 境搭建搭建Redis集群节点环境踏上新篇章(redis集群节点环)
- 数最小化部署Redis集群的最低节点数(redis集群最小节点)
- 建立Redis集群添加新节点(redis集群 新增节点)
- Redis集群添置新节点,构建更健壮的分布式环境(redis集群新增实例)
- 谨慎选择Redis 集群主节点定位(redis集群如何选主)
- 故障的解决方案构建健壮的Redis集群解决单节点故障(redis集群单节点)
- Redis集群内存监控多节点管理可靠性保障(redis集群内存监控)
- 修改Redis集群中的从节点(redis集群修改从节点)
- 要求Redis集群之为何要求节点数量为奇数(redis集群为什么奇数)
- 搭建Redis集群简单两步搞定两个节点(redis集群两个节点)
- 构建Redis三节点集群,轻松实现高可用(redis集群三台服务器)
- 建立Redis集群6个节点共赢攻略(redis集群6个节点)
- 节点利用Redis智能选择节点(redis选取一个)
- Oracle 19C 双节点集群环境搭建(oracle19c 集群)
- JS获取父节点方法
- mongodbreplicaset添加删除节点的2种方法
- DevExpress实现TreeList向上递归获取符合条件的父节点
- 用JavaScript实现用一个DIV来包装文本元素节点