本次 Apache ShardingSphere 5.1.2 版本更新为大家带来了三大全新功能,其中之一即为使用 ShardingSphere-Proxy chart 在云环境中快速部署一套 ShardingSphere-Proxy 集群,本篇将带大家详细了解该项功能。
一、背景和痛点
在云原生的环境下,一个应用可以在多个不同环境中进行批量的部署,使用原始的 yaml 进行重用,部署到新环境中也是困难重重。
可以看到,在进行 Kubernetes 软件部署时,我们面临下述问题:
- 如何管理,编辑和更新这些分散的 Kubernetes 应用配置文件?
- 如何把一套的相关配置文件作为一个应用进行管理?
- 如何分发和复用 Kubernetes 的应用配置?
在迁移 Apache ShardingSphere-Proxy 从 Docker 或者虚拟机到 Kubernetes 环境下,也存在上述这些问题。
由于 Apache ShardingSphere-Proxy 的灵活性特点,在一个集群中可能需要多个 Apache ShardingSphere-Proxy 副本。传统部署方式下,需要针对每一个副本进行单独的部署文件配置。没有版本化管理的部署方式,在升级过程中,也面临着不能快速回滚,影响应用稳定性的风险。
在今天的企业中,不仅仅有一个集群,它在多个集群中进行重用配置,并确保生产和测试集群配置的一致性和测试的正确性。这也是没有版本化管理的传统部署模式面临的主要问题之一。
[En]
In today’s enterprises, there is not only one cluster, which carries out reuse configuration in multi-clusters, and ensures the consistency of the configuration of production and test clusters and the correctness of tests. it is also one of the major problems faced by the traditional deployment mode without versioned management.
二、设计目标
由于 Apache ShardingSphere-Proxy 首次官方正式支持在云上进行标准化部署,对于部署方式的考虑就变得尤为重要。需要考虑到用户的易用性,复用的便捷性,对后续版本的兼容性,在调研了 Kubernetes 现有的几种部署方式后,我们最终选择了使用 Helm 对 Apache ShardingSphere-Proxy 制作一个 chart 提供给用户,使其能够对 Apache ShardingSphere-Proxy 部署进行管理,使其能够版本化,可复用。
三、设计内容
Helm 管理名为 chart 的 Kubernetes 包的工具,Helm 可以做以下的事情:
- 从头开始创建新的 chart
- 将 chart 打包成归档(tgz)文件
- 与存储 chart 的仓库进行交互
- 在现有的 Kubernetes 集群中安装和卸载 chart
- 管理与 Helm 一起安装的 chart 的发布周期
使用 Helm 去构建 Apache ShardingSphere-Proxy 云上部署 chart,将大大简化用户在 Kubernetes 环境下部署的复杂度,并且可以使 Apache ShardingSphere-Proxy 在多个环境之间进行快速复制。
由于现阶段,Apache ShardingSphere-Proxy 的部署依赖注册中心,在 Apache ShardingSphere-Proxy chart 中也同时对 ZooKeeper 集群的部署进行支持,这样给用户提供了一个一站式、开箱即用的体验。只需要执行一条命令,即可在 Kubernetes 中部署一个带有治理节点的 Apache ShardingSphere-Proxy 集群,并且可以依托于 Kubernetes 的功能,对治理节点数据进行持久化。
四、实战指南
在 5.1.2 文档中提供了 quick start 使用默认的配置文件进行 Apache ShardingSphere-Proxy 集群部署,下面我们将使用源码进行安装,详细地对其中的配置进行说明并实战在 Kubernetes 集群中部署一个 Apache ShardingSphere-Proxy 集群。
环境准备
在部署之前,我们需要准备环境。Apache ShardingSphere-Proxy charts 需要以下环境:
- Kubernetes 集群 1.18+
- kubectl 1.18+
- Helm 3.8.0
以上需要在实战之前进行安装配置。
charts 源码准备
在仓库中下载 Apache ShardingSphere-Proxy charts:
helm repo add shardingsphere https://shardingsphere.apache.org/charts
helm pull shardingsphere/apache-shardingsphere-proxy
tar -zxvf apache-shardingsphere-proxy-1.1.0-chart.tgz
cd apache-shardingsphere-proxy
Apache ShardingSphere-Proxy charts 配置
配置 values.yaml 文件
将:
governance:
...
zookeeper:
replicaCount: 1
...
compute:
...
serverConfig: ""
改为:
governance:
...
zookeeper:
replicaCount: 3
...
compute:
...
serverConfig:
authority:
privilege:
type: ALL_PRIVILEGES_PERMITTED
users:
- password: root
user: root@%
mode:
overwrite: true
repository:
props:
maxRetries: 3
namespace: governance_ds
operationTimeoutMilliseconds: 5000
retryIntervalMilliseconds: 500
server-lists: "{{ printf \"%s-zookeeper.%s:2181\" .Release.Name .Release.Namespace }}"
timeToLiveSeconds: 600
type: ZooKeeper
type: Cluster
⚠️:保持缩进
剩余配置请查看文档配置一项
安装 Apache ShardingSphere-Proxy & ZooKeeper 集群
现在的文件夹层级为:
helm
├── apache-shardingsphere-proxy
...
| |
│ └── values.yaml
└── apache-shardingsphere-proxy-1.1.0-chart.tgz
回到 helm 文件夹,进行安装 Apache ShardingSphere-Proxy & ZooKeeper 集群。
helm install shardingsphere-proxy apache-shardingsphere-proxy
在集群的 default 命名空间下,部署了 ZooKeeper & Apache ShardingSphere-Proxy 集群:

简单功能测试
使用 kubectl forward 进行本地调试:
kubectl port-forward service/shardingsphere-proxy-apache-shardingsphere-proxy 3307:3307
创建后端数据库 Database:

使用 MySQL client 进行连接并使用 DistSQL 添加数据源:
mysql -h 127.0.0.1 -P 3307 -uroot -proot

创建规则

写入数据,查询结果


升级
使用 Helm 可以快速对 Apache ShardingSphere-Proxy 进行升级。
helm upgrade shardingsphere-proxy apache-shardingsphere-proxy

回滚
如果升级过程中出错,可以使用 helm rollback 命令对已经升级的 release 进行快速回滚。
helm rollback shardingsphere-proxy

清理
在体验完成后,可以使用 helm uninstall 命令对 release 快速进行清理:
helm uninstall shardingsphere-proxy
Helm 安装的资源将被全部删除。


五、结语
使用 Apache ShardingSphere-Proxy charts 可以在 Kubernetes 集群中快速部署一套 Apache ShardingSphere-Proxy 集群进行使用,简化了运维人员在迁移 Apache ShardingSphere-Proxy 至 Kubernetes 环境下复杂的配置 yaml 的过程。加上了版本化管理后,可以轻松的对 Apache ShardingSphere-Proxy 集群进行部署、升级、回归和清理。未来我们还会对 Apache ShardingSphere-Proxy chart 进行继续迭代和完善,欢迎大家持续关注。
欢迎点击链接,了解更多内容:
Apache ShardingSphere 官网:https://shardingsphere.apache.org/
Apache ShardingSphere GitHub 地址:https://github.com/apache/shardingsphere
SphereEx 官网:https://www.sphere-ex.com
欢迎添加社区经理微信(ss_assistant_1)加入交流群,与众多 ShardingSphere 爱好者一同交流。
Original: https://www.cnblogs.com/sphereex/p/16469439.html
Author: SphereEx
Title: ShardingSphere 云上实践:开箱即用的 ShardingSphere-Proxy 集群
相关阅读
Title: Zookeeper应用场景汇总(超详细)
Zookeeper典型应用场景汇总
数据发布与订阅(配置中心)
发布与订阅模型,即所谓的配置中心,顾名思义就是发布者将数据发布到ZK节点上,供订阅者动态获取数据,实现配置信息的集中式管理和动态更新。例如全局的配置信息、服务式服务框架的服务地址列表等就非常适合使用。
- 应用中用到的一些配置信息放到ZK上进行集中管理。这类场景通常是这样的:应用在启动的时候会主动来获取一次配置,同时,在节点上注册一个 Watcher,这样一来,以后每次配置有更新的时候,都会实时通知到订阅的客户端,从而达到获取最新配置信息的目的。
- 分布式搜索服务中,索引的元信息和服务器集群机器的节点状态存放在ZK的一些指定节点,供各个客户端订阅使用。
- 分布式日志收集系统。这个系统的核心工作是收集分布在不同机器的日志。收集器通常按照应用来分配收集任务单元,因此需要在ZK上创建一个以应用名作为path的节点P,并将这个应用的所有机器ip,以子节点的形式注册到节点P上,这样一来就能够实现机器变动的时候,能够实时通知到收集器调整任务分配。
- 系统中有些信息需要动态获取,并且会存在人工手动去修改这个信息的场景。通常是暴露出接口,例如JMX接口,来获取一些运行时的信息。引入ZK之后,就不用自己实现一套方案了,只要将这些信息存放到指定的ZK节点上即可。
*[En]*
**
负载均衡
这里说的负载均衡是指软负载均衡。在分布式环境中,为了保证高可用性,通常同一个应用或同一个服务的提供方都会部署多份,达到对等服务。而消费者就需要在这些对等的服务器中选择一个来执行相关的业务逻辑,其中比较典型的是消息中间件中的生产者,消费者负载均衡。
消息中间件中发布者和订阅者的负载均衡linkedin开源的Kafka和阿里开源的metaq(RocketMQ的前身)都是通过zookeeper来做到生产者、消费者的负载均衡。这里以 metaq为例讲下:
metaq发送消息的时候,生产者在发送消息的时候必须选择一台broker上的一个分区来发送消息,因此metaq在运行过程中,会把所有broker和对应的分区信息全部注册到ZK指定节点上,默认的策略是轮询,生产者在通过ZK获取分区列表之后,会按照brokerld和partition的顺序排列组织成一个有序的分区列表,发送的时候按照从头到尾循环往复的方式选择一个分区来发送消息。
在消费过程中,一个消费者会消费一个或多个分区中的消息,但是一个分区只会由一个消费者来消费。MetaQ的消费策略是:
- 每个分区针对同一个group只挂载一个消费者。
- 如果同一个group的消费者数目大于分区数目,则多出来的消费者将不参与消费。
- 如果同一个qroup的消费者数目小于分区数目,则有部分消费者需要额外承担消费任务。
在某个消费者故障或者重启等情况下,其他消费者会感知到这一变化(通过zookeeper watch消费者列表),然后重新进行负载均衡,保证所有的分区都有消费者进行消费。
命名服务(Naming Service)
命名服务也是分布式系统中比较常见的一类场景。在分布式系统中,通过使用命名服务,客户端应用能够根据指定名字来获取资源或服务的地址,提供者等信息。被命名的实体通常可以是集群中的机器,提供的服务地址,远程对象等等。这些我们都可以统称他们为名字(Name)。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用ZK提供的创建节点的API,能够很容易创建一个全局唯一的path,这个path就可以作为一个名称。
阿里开源的分布式服务框架Dubbo中使用ZooKeeper来作为其命名服务,维护全局的服务地址列表。在Dubbo实现中:
服务提供者
在启动的时候,向ZK上的指定节点 /dubbo/${serviceName}/providers
目录下写入自己的URL地址,这个操作就完成了服务的发布。
服务消费者
启动的时候,订阅 /dubbo/${serviceName}/providers
目录下的提供者URL地址,并向 /dubbo/${serviceName}/consumers
目录下写入自己的URL地址。
注意,所有向ZK上注册的地址都是临时节点,这样就能够保证服务提供者和消费者能够自动感应资源的变化。
另外,Dubbo还有针对服务粒度的监控,方法是订阅 /dubbo/${serviceName}
目录下所有提供者和消费者的信息。
分布式通知/协调
ZooKeeper中特有watcher注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知与协调,实现对数据变更的实时处理。使用方法通常是不同系统都对ZK上同一个znode进行注册,监听znode的变化(包括znode本身内容及子节点的),其中一个系统update了znode,那么另一个系统能够收到通知,并作出相应处理。
- 另一种心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是通过zk上某个节点关联,大大减少系统耦合。
- 另一种系统调度模式:某系统由控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台做的一些操作,实际上是修改了ZK上某些节点的状态,而ZK就把这些变化通知给他们注册Watcher的客户端,即推送系统,于是,作出相应的推送任务。
- 另一种工作汇报模式:一些类似于任务分发系统,子任务启动后,到zk来注册一个临时节点,并且定时将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。
总之,使用zookeeper来进行分布式通知和协调能够大大降低系统之间的耦合
集群管理与Master选举
这通常用于那种对集群中机器状态,机器在线率有较高要求的场景,能够快速对集群中机器变化作出响应。这样的场景中,往往有一个监控系统,实时检测集群机器是否存活。过去的做法通常是:监控系统通过某种手段(比如ping)定时检测每个机器,或者每个机器自己定时向监控系统汇报”我还活着”。这种做法可行,但是存在两个比较明显的问题:
1、集群中机器有变动的时候,牵连修改的东西比较多。
2、有一定的延时。
利用ZooKeeper有两个特性,就可以实现另一种集群机器存活性监控系统:
1、客户端在节点x上注册一个Watcher,那么如果x的子节点变化了,会通知该客户端。
2、创建EPHEMERAL类型的节点,一旦客户端和服务器的会话结束或过期,那么该节点就会消失。
例如,监控系统在 /clusterServers
节点上注册一个Watcher,以后每动态加机器,那么就往 /clusterServers
下创建一个EPHEMERAL类型的节点: /clusterServers/${hostname}
,这样,监控系统就能够实时知道机器的增减情况,至于后续处理就是监控系统的业务了。
Master是zookeeper中最为经典的应用场景了。
在分布式环境中,相同的业务应用分布在不同的机器上,有些业务逻辑(例如一些耗时的计算,网络I/O处理),往往只需要让整个集群中的某一台机器进行执行,其余机器可以共享这个结果,这样可以大大减少重复劳动,提高性能,于是这个master选举便是这种场景下的碰到的主要问题。
利用ZooKeeper的强一致性,能够保证在分布式高并发情况下节点创建的全局唯一性,即:同时有多个客户端请求创建 /currentMaster
节点,最终一定只有一个客户端请求能够创建成功。利用这个特性,就能很轻易的在分布式环境中进行集群Master选取了。
另外,这种场景演化一下,就是动态Master选举。这就要用到EPHEMERAL SEQUENTIAL类型节点的特性了。
上文中提到,所有客户端创建请求,最终只有一个能够创建成功。在这里稍微变化下,就是允许所有请求都能够创建成功,但是得有个创建顺序,于是所有的请求最终在ZK上创建结果的一种可能情况是这样: /currentMaster/{sessionId}-1
、 /currentMaster/{sessionId}-2
、 /currentMaster/{sessionId}-3
…. 每次选取序列号最小的那个机器作为Master,如果这个机器挂了,由于他创建的节点会马上消失,那么之后最小的那个机器就是Master了。
在搜索系统中,如果集群中每个机器都生成一份全量索引,不仅耗时,而且不能保证彼此之间索引数据一致。因此让集群中的Master来进行全量索引的生成,然后同步到集群中其它机器。另外,Master选举的容灾措施是,可以随时进行手动指定Master,就是说应用在ZK无法获取master信息时,可以通过比如http方式,从一个地方获取Master。
在Hbase中,也是使用ZooKeeper来实现动态HMaster的选举。在Hbase实现中,会在ZK上存储一些ROOT表的地址和HMaster的地址,HReaionServer也会把自己以临时节点(Ephemeral)的方式注册到Zookeeper中,使得HMaster可以随时感知到各个HRegionServer的存活状态,同时,一旦HMaster出现问题,会重新选举出一个HMaster来运行,从而避免了HMaster的单点问题。
分布式锁
分布式锁,这个主要得益于ZooKeeper为我们保证了数据的强一致性。锁服务可以分为两类,一个是保持独占,另一个是控制时序。
- 所谓保持独占,就是所有试图来获取这个锁的客户端,最终只有一个可以成功获得这把锁。通常的做法是把zk上的一个znode看作是一把锁,通过create znode的方式来实现。所有客户端都去创建
/distribute_lock
节点,最终成功创建的那个客户端也即拥有了这把锁。 - 控制时序,就是所有试图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里
/distribute_lock
已经预先存在,客户端在它下面创建临时有序节点(这个可以通过节点的属性控制:CreateMode.EPHEMERAL SEQUENTIAL来指定)。Zk的父节点(/distribute_lock
)维持一份sequence,保证子节点创建的时序性,从而也形成了每个客户端的全局时序。
分布式队列
*[En]*
**
第二种队列其实是在FIFO队列的基础上作了一个增强。通常可以在 /queue
这个znode下预先建立一个/queue/num 节点,并且赋值为n(或者直接给 /queue
赋值n),表示队列大小,之后每次有队列成员加入后,就判断下是否已经到达队列大小,决定是否可以开始执行了。这种用法的典型场景是,分布式环境中,一个大任务TaskA,需要在很多子任务完成(或条件就绪)情况下才能进行。这个时候,凡是其中一个子任务完成(就绪),那么就去 /taskList
下建立自己的临时时序节点(CreateMode. EPHEMERAL SEQUENTIAL),当/taskList 发现自己下面的子节点满足指定个数,就可以进行下一步按序进行处理了。
Original: https://www.cnblogs.com/ibigboy/p/15877781.html
Author: 问北
Title: Zookeeper应用场景汇总(超详细)
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/172871/
转载文章受原作者版权保护。转载请注明原作者出处!