zl程序教程

您现在的位置是:首页 >  工具

当前栏目

Docker篇之秒杀项目环境部署

Docker项目部署 环境 秒杀
2023-09-27 14:27:53 时间

1. 秒杀项目环境(基于Centos7.6测试全部成功)

1.Docker和JDK安装

Docker安装

# 设置仓库
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo

#安装
yum install -y docker-ce docker-ce-cli containerd.io

#启动
systemctl start docker

#设置开机启动
systemctl enable docker

#安装好后,可以查看docker的版本
docker -v

#修改Docker配置文件,使用国内的Docker镜像:
vi /etc/docker/daemon.json

# 添加以下内容
{"registry-mirrors":["https://ncwlarc2.mirror.aliyuncs.com"]}

#使之生效
systemctl daemon-reload

#重启
systemctl restart docker

安装Docker Compose

#国内资源(建议)
curl -L https://get.daocloud.io/docker/compose/releases/download/1.25.4/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose

# 将可执行权限应用于二进制文件:
chmod +x /usr/local/bin/docker-compose

# 创建软链:
ln -s /usr/local/bin/docker-compose /usr/bin/docker-compose

# 测试是否安装成功:
docker-compose --version

JDK安装

# jdk镜像仓库:https://repo.huaweicloud.com/java/jdk/8u171-b11/

# 下载、解压jdk
wget https://repo.huaweicloud.com/java/jdk/8u171-b11/jdk-8u171-linux-x64.tar.gz
tar -zxf jdk-8u171-linux-x64.tar.gz
mv jdk1.8.0_171 /usr/local/jdk8

# 配置环境
vi /etc/profile

# 添加内容:
export JAVA_HOME=/usr/local/jdk8
export PATH=$JAVA_HOME/bin:$PATH

# 配置生效命令
source /etc/profile
#查看j版本命令
java -version

unzip命令安装

yum install -y unzip

2. 创建Nacos

# 启动容器
docker run -id --name nacos \
--restart=always -p 8848:8848 \
-e MODE=standalone nacos/nacos-server:1.4.1

3. 创建MySQL

后期要使用Canal,需要把MySQL的配置文件提取出来,所以要进行相关的配置文件的编写

#创建MySQL配置文件
mkdir -p /mnt/mysql/conf
#创建配置文件mysql.cnf
vim /mnt/mysql/conf/mysql.cnf

#内容如下:
[mysqld]
# 设置关闭二进制日志
skip-log-bin

启动MySQL容器

# 创建MySQL网络环境,指定子网网段
docker network create --subnet=172.36.0.0/16 seckill_network

# 启动MySQL 指定容器IP,固定IP地址
docker run -id --name seckill_mysql \
--net seckill_network --ip 172.36.0.3 \
-v /mnt/mysql/data:/var/lib/mysql \
-v /mnt/mysql/conf:/etc/mysql/conf.d \
--restart=always -p 3306:3306 \
-e MYSQL_ROOT_PASSWORD=eVcWs1dsEgiv4ijEZ1b6 mysql:8.0.18

4. 创建Canal数据同步

配置MySQL

需要让canal伪装成salve并正确获取mysql中的binary log,首先要开启 Binlog 写入功能,配置 binlog-format 为 ROW 模式

修改MySQL配置文件,如下操作:

# 执行修改命令
vi /mnt/mysql/conf/mysql.cnf
# 配置文件 mysql.cnf 内容如下
[mysqld]
# 设置关闭二进制日志
#skip-log-bin

# 开启二进制日志
log-bin=mysql-bin

#开启binlog 选择ROW模式
binlog-format=ROW

#server_id不要和canal的slaveId重复
server_id=1

配置文件修改完成后重启MySQL

docker restart seckill_mysql

在MySQL中执行以下sql,查询数据库状态

show variables like 'log_bin';
show variables like 'binlog_format';
show master status;

创建连接MySQL的账号canal并授予作为 MySQL slave 的权限,执行以下sql:

# 创建账号
CREATE USER canal IDENTIFIED BY 'canal'; 
# 授予权限
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';
# 修改数据库加密算法
ALTER USER 'canal'@'%' IDENTIFIED WITH mysql_native_password BY 'canal'; 
# 刷新并应用
FLUSH PRIVILEGES;

创建并配置Cancal

创建canal-server容器

docker run -d --name canal-server \
--net seckill_network --ip 172.36.0.8 \
--restart=always -p 11111:11111 \
canal/canal-server:v1.1.4

配置Canal

# 进入Canal容器
docker exec -it canal-server /bin/bash

# 修改配置文件
vi /home/admin/canal-server/conf/example/instance.properties

# instance.properties需要修改以下三个部分
# 修改Canal的slaveId,不能和MySQL的server_id重复
canal.instance.mysql.slaveId=101
# 修改需要进行同步操作的MySQL的连接地址
canal.instance.master.address=172.36.0.3:3306
# 修改需要进行监听的数据库表
canal.instance.filter.regex=seckill_goods.tb_sku

# 修改完成后重启Canal服务
docker restart canal-server

监听数据库表的配置 canal.instance.filter.regex 如下:

mysql 数据解析关注的表,Perl正则表达式.
多个正则之间以逗号(,)分隔,转义符需要双斜杠(\\) 
常见例子:
1.  所有表:.*   or  .*\\..*
2.  canal schema下所有表: canal\\..*
3.  canal下的以canal打头的表:canal\\.canal.*
4.  canal schema下的一张表:canal.test1
5.  多个规则组合使用:canal\\..*,mysql.test1,mysql.test2 (逗号分隔)
注意:此过滤条件只针对row模式的数据有效(ps. mixed/statement因为不解析sql,所以无法准确提取tableName进行过滤)

5. 创建Elasticsearch和kibana

准备IK分词器

# 创建存放IK分词器的目录
mkdir -p /mnt/elasticsearch/plugins/ik

# 上传IK分词器

# 解压IK到指定路径
tar -xf ik-7.4.0.tar -C /mnt/elasticsearch/plugins/ik

启动docker服务

# 创建单机版elasticsearch容器
docker run -id --name elasticsearch \
--net seckill_network --ip 172.36.0.13 \
-v /mnt/elasticsearch/plugins:/usr/share/elasticsearch/plugins \
--restart=always -p 9200:9200 -p 9300:9300 \
-e "discovery.type=single-node" elasticsearch:7.4.0

# 创建kibana
docker run -id --name kibana --net seckill_network \
-e ELASTICSEARCH_HOSTS=http://172.36.0.13:9200 \
--restart=always -p 5601:5601 kibana:7.4.0

连接kibana,测试中文分词

GET /_analyze
{
  "analyzer": "ik_smart",
  "text": "乒乓球明年总冠军"
}

初始化索引库

GET goodsindex
PUT goodsindex
{
	"mappings": {
		"properties": {
			"name": {
				"type": "text",
				"analyzer": "ik_smart"
			},
			"price": { 
				"type": "long"
			},
			"seckillPrice": { 
				"type": "long"
			},
			"image": { 
				"type": "text"
			},
			"updateTime": {
				"type": "date"
			},
			"category1Id": { 
				"type": "text"
			},
			"category2Id": { 
				"type": "text"
			},
			"category3Id": { 
				"type": "text"
			},
			"category1Name": {	
				"type": "keyword"
			},
			"category2Name": {	
				"type": "keyword"
			},
			"category3Name": {	
				"type": "keyword"
			},
			"brandName": {	
				"type": "keyword"
			},
			"bgtime": {	
				"type": "keyword"
			},
			"brandId": {	
				"type": "text"
			},
			"seckillBegin": {
				"type": "date"
			},
			"seckillEnd": {
				"type": "date"
			},
			"status": {
				"type": "integer"
			},
	
			"spec": {		
				"type": "text"
			},
			
			"points": {	
				"type": "integer"
			}
		}
	}
}

6. 创建Redis集群

准备环境:

#创建文件目录
mkdir -p /mnt/redis/r1/data
mkdir -p /mnt/redis/r2/data
mkdir -p /mnt/redis/r3/data
mkdir -p /mnt/redis/r4/data
mkdir -p /mnt/redis/r5/data
mkdir -p /mnt/redis/r6/data

准备Redis配置文件,需要准备6份,第一份:

执行命令 vi /mnt/redis/r1/redis.conf 内容为:

port 7001
bind 0.0.0.0
protected-mode no
databases 1
appendonly yes
#开启集群
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 15000

配置文件注意路径不同,端口号为7001~7006

编写 vim /mnt/redis/docker-compose.yml ,内容为:

version: "3.6"
services:
  redis1:
    container_name: redis1
    image: redis:5.0.9
    network_mode: host
    volumes:
      - /mnt/redis/r1/redis.conf:/config/redis.conf
      - /mnt/redis/r1/data:/data
    command: [ "redis-server", /config/redis.conf ]
    restart: always
  redis2:
    container_name: redis2
    image: redis:5.0.9
    network_mode: host
    volumes:
      - /mnt/redis/r2/redis.conf:/config/redis.conf
      - /mnt/redis/r2/data:/data
    command: [ "redis-server", /config/redis.conf ]
    restart: always
  redis3:
    container_name: redis3
    image: redis:5.0.9
    network_mode: host
    volumes:
      - /mnt/redis/r3/redis.conf:/config/redis.conf
      - /mnt/redis/r3/data:/data
    command: [ "redis-server", /config/redis.conf ]
    restart: always
  redis4:
    container_name: redis4
    image: redis:5.0.9
    network_mode: host
    volumes:
      - /mnt/redis/r4/redis.conf:/config/redis.conf
      - /mnt/redis/r4/data:/data
    command: [ "redis-server", /config/redis.conf ]
    restart: always
  redis5:
    container_name: redis5
    image: redis:5.0.9
    network_mode: host
    volumes:
      - /mnt/redis/r5/redis.conf:/config/redis.conf
      - /mnt/redis/r5/data:/data
    command: [ "redis-server", /config/redis.conf ]
    restart: always
  redis6:
    container_name: redis6
    image: redis:5.0.9
    network_mode: host
    volumes:
      - /mnt/redis/r6/redis.conf:/config/redis.conf
      - /mnt/redis/r6/data:/data
    command: [ "redis-server", /config/redis.conf ]
    restart: always

执行服务编排:

#进入指定路径
cd /mnt/redis

#服务编排启动Redis集群
docker-compose up -d

启动集群:

# 进入容器内部
docker exec -it redis1 /bin/bash

#执行Redis集群创建命令,注意要修改所有的192.168.200.188为自己设备的实际IP,如果使用云服务器,则使用公网IP
redis-cli --cluster create 192.168.200.188:7001 192.168.200.188:7002 192.168.200.188:7003 192.168.200.188:7004 192.168.200.188:7005 192.168.200.188:7006 --cluster-replicas 1

redis-cli --cluster create 39.103.206.202:7001 39.103.206.202:7002 39.103.206.202:7003 39.103.206.202:7004 39.103.206.202:7005 39.103.206.202:7006 --cluster-replicas 1


#集群节点信息
redis-cli -p 7001 cluster nodes

# 连接集群
redis-cli -h 127.0.0.1 -p 7001 -c

如果卡在 Waiting for the cluster to join 这一步,检查端口号是否开放。redis集群除了需要使用7001~7006,还需要开通集群总线端口,端口号为redis端口号+10000 在这里就是端口号为17001~17006的都需要开放

注意:

集群启动成功后,需要在宿主机中检查集群节点的配置文件(Ctrl+d可以退出容器)

#查看配置文件命令:
cat vi /mnt/redis/r1/data/nodes.conf

# 如果出现内网IP(例如172.x.x.x),则需要修改宿主机的集群配置文件
# 检查6个配置文件,把所有的内网IP都改为当前公网IP
# 在宿主机分别执行以下命令,分别进行修改:
vi /mnt/redis/r1/data/nodes.conf
vi /mnt/redis/r2/data/nodes.conf
vi /mnt/redis/r3/data/nodes.conf
vi /mnt/redis/r4/data/nodes.conf
vi /mnt/redis/r5/data/nodes.conf
vi /mnt/redis/r6/data/nodes.conf

#服务编排启动Redis集群
docker-compose up -d

#服务编排停止Redis集群并删除容器
docker-compose down

7. 创建Zookeeper

docker run -d --name zk \
--net seckill_network --ip 172.36.0.16 \
--restart=always \
-v /etc/localtime:/etc/localtime \
-p 3181:2181 zookeeper:3.4.14

8. 创建Kafka

创建Kafka之前,必须先确保Zookeeper已经存在,请先确认 7.创建Zookeeper 是否完成。

使用Docker启动Kafka:

docker run -d --name kafka \
--restart=always -p 9092:9092 \
-e KAFKA_BROKER_ID=0 \
-e KAFKA_ZOOKEEPER_CONNECT=192.168.200.188:3181/kafka \
-e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.200.188:9092 \
-e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 \
-v /etc/localtime:/etc/localtime \
wurstmeister/kafka:2.12-2.4.1

注意:需要修改192.168.200.188为宿主机的实际ip地址(如果有公网IP,填写公网IP地址)

测试Kafka

创建队列:

# 进入容器
docker exec -it kafka /bin/bash

# 进入目录
cd /opt/kafka_2.12-2.4.1/bin

# 创建队列
./kafka-topics.sh --create --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1 --topic itemaccess

使用kafka-topics.sh创建队列:
–create:执行创建一个新的队列操作

​ --bootstrap-server:需要链接的kafka配置,必填

​ --partitions 1:设置一个topic设置几个分区(就是把数据切割成几块,分别存储)

​ --replication-factor 1:设置分区的副本数量(就是设置多少个备份,有了备份,一个挂了没事,可以使用备份)

​ --topic itemaccess:队列的名字叫itemaccess

消息发布

在kafka容器中执行消息发送(接着上面的步骤执行):

# 发送消息
./kafka-console-producer.sh --broker-list localhost:9092 --topic itemaccess

# 发送内容为
{"actime":"2021-4-10 9:50:10","uri":"http://www-seckill.itheima.net/items/333.html","IP":"119.123.33.231","Token":"Bearer itcast"}

消息订阅

# 进入容器
docker exec -it kafka /bin/bash

# 进入目录
cd /opt/kafka_2.12-2.4.1/bin

# 订阅消息
./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic itemaccess --from-beginning

其他命令

# 进入容器
docker exec -it kafka /bin/bash

# 进入目录
cd /opt/kafka_2.12-2.4.1/bin

# 查看topic列表
./kafka-topics.sh --bootstrap-server localhost:9092 --list

# 查看指定的topic信息
./kafka-topics.sh --bootstrap-server localhost:9092 --list

# 删除topics
./kafka-topics.sh --bootstrap-server localhost:9092 --delete --topic itemaccess2

9. 创建OpenRestry

如果因为本地计算机的内存不够,不能使用本地虚拟机而使用云服务器,最好还是把OpenRestry放在本地。

也就是说,除了OpenRestry以外的服务都可以安装到云服务器上,OpenRestry需要安装到本地虚拟机中。后面在进行秒杀抢单的时候,需要进行Nginx转发,OpenRestry在本地更方便配置。

9.1 安装OpenRestry

安装OpenRestry:

# 安装环境
yum -y install pcre-devel openssl-devel gcc curl

# 上传openresty-1.11.2.5.tar.gz

# 解压
tar -xf openresty-1.11.2.5.tar.gz

# 进入到解压目录
cd openresty-1.11.2.5

# 安装
./configure --prefix=/usr/local/openresty \
--with-luajit \
--without-http_redis2_module \
--with-http_stub_status_module \
--with-http_v2_module \
--with-http_gzip_static_module \
--with-http_sub_module

# 编译
make
#安装
make install

配置环境变量:

# 修改环境文件
vi /etc/profile

# 修改为以下内容
export JAVA_HOME=/usr/local/jdk8
export OPENRESTY_HOME=/usr/local/openresty/nginx
export PATH=$JAVA_HOME/bin:$OPENRESTY_HOME/sbin:$PATH

# 使环境文件生效
source /etc/profile

9.2 安装Lua的Kafka插件

# 上传lua-resty-kafka-master.zip

# 解压
unzip lua-resty-kafka-master.zip

# 移动到指定目录
mv lua-resty-kafka-master /usr/local/openresty/

# 修改nginx.conf
vi /usr/local/openresty/nginx/conf/nginx.conf

# 添加内容  在配置文件中指定lua-resty-kafka的库文件位置
# 配置到http里面,和server平级
lua_package_path "/usr/local/openresty/lua-resty-kafka-master/lib/?.lua;;";

配置效果如下:

http {
    ......
    
    #gzip  on;

    #添加内容  在配置文件中指定lua-resty-kafka的库文件位置
    lua_package_path "/usr/local/openresty/lua-resty-kafka-master/lib/?.lua;;";


    server {
        listen       80;
        server_name  localhost;   
        
    ......
}

9.2 安装Lua的Jwt插件

# 安装环境
yum install -y yum-utils

# 设置yum的资源地址
yum-config-manager --add-repo https://openresty.org/package/centos/openresty.repo

# 安装resty和opm工具
yum install -y openresty-resty
yum install -y openresty-opm

# 安装jwt组件
opm get SkyLothar/lua-resty-jwt

9.3 安装Lua的Redis插件

# 安装环境
yum install -y lua-devel

# 上传资料中的lua-resty-redis-cluster-master.zip到服务器的 /root目录下

# 解压
cd /root
unzip lua-resty-redis-cluster-master.zip

# 拷贝redis_slot.c:
cp /root/lua-resty-redis-cluster-master/lib/redis_slot.c /usr/local/openresty/lualib/

# 拷贝rediscluster.lua:
cp /root/lua-resty-redis-cluster-master/lib/resty/rediscluster.lua /usr/local/openresty/lualib/resty/

# 编译
cd /usr/local/openresty/lualib
gcc redis_slot.c -fPIC -shared -o libredis_slot.so

lua-resty-redis-cluster中有部分redis指令并未开放,我们可以手动修改,开放相关指令,我们这里开放过期指令,因为后面会用到该指令。

开放设置过期时间的指令,步骤如下:

# 修改配置文件
vi /usr/local/openresty/lualib/resty/rediscluster.lua

# 进入指定的行数
:90
# 插入空行
o
# 在空行中添加指令,设置过期时间的指令如下:(注意""和,都不能少)
"expire",
# 按 Esc 进入一般模式,保存退出
:wq

10. 创建Druid

下载Druid安装包 https://mirrors.aliyun.com/apache/druid/,注意下载bin版本,不是src源码

# 上传资料中的apache-druid-0.20.2-bin.tar.gz,
# 也可以使用命令 wget https://mirrors.aliyun.com/apache/druid/0.20.2/apache-druid-0.20.2-bin.tar.gz获取安装包

# 解压
tar -zxf apache-druid-0.20.2-bin.tar.gz

# 移动到指定位置
mv apache-druid-0.20.2 /usr/local/druid

# 修改时区
cd /usr/local/druid/conf/druid/single-server
sed -i "s/Duser.timezone=UTC/Duser.timezone=UTC+8/g" `grep Duser.timezone=UTC -rl ./`

# 进入启动脚本的目录
cd /usr/local/druid/bin

# 选择合适的方式启动(根据实际情况选择不同的启动命令)
# Nano-Quickstart,要求硬件环境:1 CPU, 4GB RAM
./start-nano-quickstart

# 微型快速,要求硬件环境: 4 CPU, 16GB RAM
./start-micro-quickstart

# 小型,要求硬件环境:8 CPU,64GB RAM
./start-single-server-small

# 中型,要求硬件环境:16 CPU,128GB RAM
./start-single-server-medium

# 大型,要求硬件环境:32 CPU,256GB RAM
./start-single-server-large

# 大型X,要求硬件环境:64 CPU,512GB RAM
./start-single-server-xlarge

使用文档参考:http://www.apache-druid.cn/GettingStarted/chapter-1.html

11. 创建seata

docker run -d --name seata-server \
-p 8191:8191 -e SEATA_PORT=8191 \
--restart=always \
seataio/seata-server:1.4.1

12. 创建sentinel

docker run -d --name sentinel \
--restart=always -p 8858:8858 \
bladex/sentinel-dashboard:1.7.2

2. Kafka集群

以上的环境已经可以满足开发要求。但是如果需要支撑更大的并发,还需要实现排队下单的集群化部署。

排队下单主要用到Kafka集群,这里提供Kafka集群的搭建。

Kafka自身就支持集群,我们需要保证集群协调服务 Zookeeper集群化 ,然后再部署多个Kafka节点即可。

在使用Kafka集群的时候,创建topic的时候需要设置多个分片以及副本即可

2.1 创建Zookeeper集群

Zookeeper集群需要选举投票,所以至少由三个节点组成。当然可以有更多节点,我们这里用三个节点演示

使用服务编排进行Zookeeper集群创建,Zookeeper集群的三个节点端口号为 3183、3184、3185

首先创建目录,执行命令

mkdir -p /mnt/zookeeper

创建服务编排配置文件:

vim /mnt/zookeeper/docker-compose.yml

文件内容为:

version: '3.6'

services:
  zoo1:
    image: zookeeper:3.4.14
    restart: always
    hostname: zoo1
    container_name: zoo1
    ports:
    - 3183:2181
    volumes:
    - "/mnt/zookeeper/zoo1/data:/data"
    - "/mnt/zookeeper/zoo1/datalog:/datalog"
    - "/etc/localtime:/etc/localtime"
    environment:
      ZOO_MY_ID: 1
      ZOO_SERVERS: server.1=0.0.0.0:2888:3888 server.2=zoo2:2888:3888 server.3=zoo3:2888:3888
    networks:
      seckill_network:
        ipv4_address: 172.36.0.83

  zoo2:
    image: zookeeper:3.4.14
    restart: always
    hostname: zoo2
    container_name: zoo2
    ports:
    - 3184:2181
    volumes:
    - "/mnt/zookeeper/zoo2/data:/data"
    - "/mnt/zookeeper/zoo2/datalog:/datalog"
    - "/etc/localtime:/etc/localtime"
    environment:
      ZOO_MY_ID: 2
      ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=0.0.0.0:2888:3888 server.3=zoo3:2888:3888
    networks:
      seckill_network:
        ipv4_address: 172.36.0.84

  zoo3:
    image: zookeeper:3.4.14
    restart: always
    hostname: zoo3
    container_name: zoo3
    ports:
    - 3185:2181
    volumes:
    - "/mnt/zookeeper/zoo3/data:/data"
    - "/mnt/zookeeper/zoo3/datalog:/datalog"
    - "/etc/localtime:/etc/localtime"
    environment:
      ZOO_MY_ID: 3
      ZOO_SERVERS: server.1=zoo1:2888:3888 server.2=zoo2:2888:3888 server.3=0.0.0.0:2888:3888
    networks:
      seckill_network:
        ipv4_address: 172.36.0.85

networks:
  seckill_network:
    external:
      name: seckill_network

启动命令

# 进入目录
cd /mnt/zookeeper/

# 服务编排启动Zookeeper集群
docker-compose up -d

# 进入容器内部
docker exec -it zoo3 /bin/bash
# 查看节点信息
zkServer.sh status

# 服务编排停止Zookeeper集群并删除容器
docker-compose down

8.2 创建Kafka集群版

首先创建目录,执行命令

mkdir -p /mnt/kafka

创建服务编排配置文件:

vim /mnt/kafka/docker-compose.yml

文件内容为:(192.168.200.188需要改为实际的IP)

version: '3.6'

services:
  kafka1:
    image: wurstmeister/kafka:2.12-2.4.1
    restart: always
    hostname: kafka1
    container_name: kafka1
    privileged: true
    ports:
    - 9093:9093
    environment:
      KAFKA_BROKER_ID: 1
      KAFKA_ADVERTISED_HOST_NAME: kafka1
      KAFKA_LISTENERS: PLAINTEXT://0.0.0.0:9093
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://192.168.200.188:9093
      KAFKA_ADVERTISED_PORT: 9093
      KAFKA_ZOOKEEPER_CONNECT: 192.168.200.188:3183,192.168.200.188:3184,192.168.200.188:3185/kafka
    networks:
      seckill_network:
        ipv4_address: 172.36.0.93


  kafka2:
    image: wurstmeister/kafka:2.12-2.4.1
    restart: always
    hostname: kafka2
    container_name: kafka2
    privileged: true
    ports:
    - 9094:9094
    environment:
      KAFKA_BROKER_ID: 2
      KAFKA_ADVERTISED_HOST_NAME: kafka2
      KAFKA_LISTENERS: PLAINTEXT://0.0.0.0:9094
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://192.168.200.188:9094
      KAFKA_ADVERTISED_PORT: 9094
      KAFKA_ZOOKEEPER_CONNECT: 192.168.200.188:3183,192.168.200.188:3184,192.168.200.188:3185/kafka
    networks:
      seckill_network:
        ipv4_address: 172.36.0.94


  kafka3:
    image: wurstmeister/kafka:2.12-2.4.1
    restart: always
    hostname: kafka3
    container_name: kafka3
    privileged: true
    ports:
    - 9095:9095
    environment:
      KAFKA_BROKER_ID: 3
      KAFKA_ADVERTISED_HOST_NAME: kafka3
      KAFKA_LISTENERS: PLAINTEXT://0.0.0.0:9095
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://192.168.200.188:9095
      KAFKA_ADVERTISED_PORT: 9095
      KAFKA_ZOOKEEPER_CONNECT: 192.168.200.188:3183,192.168.200.188:3184,192.168.200.188:3185/kafka
    networks:
      seckill_network:
        ipv4_address: 172.36.0.95


networks:
  seckill_network:
    external:
      name: seckill_network

启动命令:

# 进入目录
cd /mnt/kafka/

# 服务编排启动Kafka集群
docker-compose up -d

# 服务编排停止Kafka集群并删除容器
docker-compose down

8.3 测试Kafka

创建队列:

# 进入容器  Kafka1为容器的名字,可以选择任意节点进入
docker exec -it kafka1 /bin/bash

# 进入目录
cd /opt/kafka_2.12-2.4.1/bin

# 创建队列 9093需要改为当前节点监听的端口号
./kafka-topics.sh --create --bootstrap-server localhost:9093 --partitions 3 --replication-factor 2 --topic itemaccess

使用kafka-topics.sh创建队列:
–create:执行创建一个新的队列操作

​ --bootstrap-server:需要链接的kafka配置,必填

​ --partitions 1:设置一个topic设置几个分区(就是把数据切割成几块,分别存储)

​ --replication-factor 1:设置分区的副本数量(就是设置多少个备份,有了备份,一个挂了没事,可以使用备份)

​ --topic itemaccess:队列的名字叫itemaccess

消息发布

在kafka容器中执行消息发送(接着上面的步骤执行):

# 发送消息
./kafka-console-producer.sh --broker-list localhost:9093 --topic itemaccess

# 发送内容为
{"actime":"2021-4-10 9:50:10","uri":"http://www-seckill.itheima.net/items/333.html","IP":"119.123.33.231","Token":"Bearer itcast"}

消息订阅

# 进入容器  Kafka3为容器的名字,测试集群选择任意节点进入
docker exec -it kafka3 /bin/bash

# 进入目录
cd /opt/kafka_2.12-2.4.1/bin

# 订阅消息  9095需要改为当前节点监听的端口号
./kafka-console-consumer.sh --bootstrap-server localhost:9095 --topic itemaccess --from-beginning

其他命令

# 进入容器
docker exec -it kafka1 /bin/bash

# 进入目录
cd /opt/kafka_2.12-2.4.1/bin

# 查看topic列表   注意修改9093为当前节点端口号
./kafka-topics.sh --bootstrap-server localhost:9093 --list

# 查看指定的topic信息   注意修改9093为当前节点端口号
./kafka-topics.sh --bootstrap-server localhost:9093 --list

# 删除topics   注意修改9093为当前节点端口号
./kafka-topics.sh --bootstrap-server localhost:9093 --delete --topic itemaccess2