nacos面经详解

1 为什么要懂nacos的详细原理?

  1. 只要你简历写过你用过nacos,则大厂(阿里),尤其是使用过这款产品的大中厂,基本必问其中的原理。
  2. 里面的设计理念还有很多分布式系统的原理值得学习和深究。

2 分布式理论基础

2.1 CAP

在这里插入图片描述

2.2 BASE理论

在这里插入图片描述

2.3 CAP中的AP和CP分别关于BASE中的哪些点

在这里插入图片描述

2.4 AP能保证百分百可用吗

在这里插入图片描述

2.5 但是CP可以保证百分百对吧

在这里插入图片描述

2.6 "CP"意味着一个系统在面对网络分区(Partition tolerance)时,会优先保证数据的一致性(Consistency),即所有节点在同一时刻看到的数据是一致的。如何理解

在这里插入图片描述

2.7 解释一下线性一致性或者原子一致性

在这里插入图片描述

2.8 raft,paxos等算法能保证线性一致性吗

是的,Raft 和 Paxos 算法都是设计来保证线性一致性(Linearizability)的。

Paxos 是一种解决分布式系统中的一致性问题的算法,它提供了一种在网络中的节点可能会出现故障或者通信可能会丢失的情况下,仍然能达成一致决定的机制。通过使用 Paxos,你可以在一个分布式系统中的多个节点之间达成一致性,即使部分节点发生故障。

Raft 是为了提供 Paxos 相同的功能和保证,但是设计得更加直观和易于理解。它主要的目标是提供线性一致性,同时保证系统可用性。

在实际中,这些算法通常被用来实现分布式系统的一致性部分,例如 Google 的 Chubby 锁服务和 Apache ZooKeeper 都使用了 Paxos 算法,而 etcd 和 Consul 则使用了 Raft 算法。这些服务通常被用作分布式系统的元数据存储和协调服务。

2.9 以一个分布式计数器为例,如果一个节点将计数器从0增加到1,那么在这个操作完成后,所有的节点都应该能立刻看到计数器的值是1,而不会看到任何其他的值。但是在raft算法中,各个节点之间也有通信时间,并不是立即看到的吧?

在任何分布式系统中,都存在网络延迟的问题。这就意味着,当领导者节点完成某个操作并将其复制到其他节点时,其他节点不可能立刻看到这个变更。它们需要等待这个变更通过网络传递,并在本地应用这个变更。

当我们说 Raft 算法能够实现线性一致性时,我们其实是在讨论的是一个理想的情况,也就是忽略了网络延迟。实际上,为了应对网络延迟带来的问题,Raft 算法引入了 “提交” 的概念。一条日志被提交,意味着它已经被复制到了大多数的节点,并且将会被应用到状态机。

因此,虽然网络延迟意味着不可能立刻实现全局的一致性,但是 Raft 算法通过引入 “提交” 的概念和通过领导者进行日志复制,保证了一旦一条日志被提交,所有的节点最终都会看到这个变更,并且这个变更的顺序在所有节点上是一致的。这就实现了线性一致性。

回到你的计数器例子,如果一个节点将计数器从 0 增加到 1,那么在这个操作被提交并被复制到大多数的节点之后,所有的节点最终都会看到计数器的值是 1。虽然这个过程并非瞬时的,但是在忽略网络延迟的情况下,我们可以认为它实现了线性一致性。

3 nacos经典问题

3.1 如果nacos所有节点宕机了,各个服务节点实例还能正常通信吗?

在这里插入图片描述

3.2 微服务系统中的各个服务本地会缓存nacos中的配置吗?

在这里插入图片描述

3.3 集群中大部分节点都故障,会停止服务吗?

Nacos的服务能否继续运行,主要依赖于它所运行的模式以及故障的节点情况。

  1. 对于Nacos配置服务,它使用的是Raft协议来保证数据的一致性,如果大部分节点发生故障(超过半数的节点不能工作),那么根据Raft协议,剩下的节点将不能形成新的Leader,因此不能提供写服务,如发布新的配置等。但是它仍可以提供读服务,如获取配置等。

  2. 对于Nacos注册服务,它使用的是AP模式,即侧重可用性和分区容错性,所以即使大部分节点故障,只要有节点还能工作,它就能提供服务。但是,注册服务的数据可能不是最新的,因为新的服务实例注册、服务实例的健康状态变更等信息可能还没有同步到故障前的所有节点。

所以,Nacos服务是否会停止,取决于具体的故障情况以及你的业务需求。如果你的业务对数据的一致性要求较高,你可能需要等待大部分节点恢复后才能继续提供服务。如果你的业务对数据的一致性要求较低,但要求服务的高可用性,那么你可能可以接受在部分节点故障的情况下继续提供服务。

3.4 配置中心使用的是raft协议,但是注册中心呢

对于Nacos而言,它的服务注册中心部分并没有采用Raft或者其他强一致性协议,而是优先保证了高可用和分区容忍性,也就是所谓的AP模式(Availability 和 Partition tolerance)。

在服务注册中心部分,Nacos采用了一种称为“增量更新”的数据同步策略。在节点之间的数据同步,主要是节点之间定时的、增量的数据同步,而不是对数据强一致性的保证。这样做的目的是为了能够在分布式环境下更好的保证系统的可用性和对网络分区的容忍性。

当然,为了在某种程度上保证数据的一致性,Nacos服务注册中心部分也会定期进行数据校验。如果发现数据不一致,会触发重新同步数据,使得集群内所有节点的数据尽量保持一致。

3.5 能详细介绍一下注册中心的增量更新机制吗

Nacos 的增量更新机制主要指的是服务注册中心在数据同步时并不是每次都全量同步所有服务实例的信息,而是只同步那些自上次更新以来发生变更的服务实例信息。

对于服务实例的注册、注销、以及健康状态的改变等操作,Nacos都会记录下这些变化。当需要进行数据同步时,Nacos只会将这些变化的部分发送给其他节点,这就是所谓的增量更新。

比如说,有一个服务实例新注册到了Nacos,而其他的服务实例都没有任何变化,那么在下一次数据同步时,Nacos只需要将这个新注册的服务实例的信息发送给其他节点,而无需发送所有服务实例的信息。这样大大减少了数据同步所需要的网络带宽,提高了效率。

同时,为了防止由于网络问题导致增量更新的信息丢失,导致节点间数据不一致,Nacos还会定期进行全量数据同步,使得集群内所有节点的数据尽量保持一致。

3.6 Nacos 的增量更新机制是指将发生了变更的服务实例通知给其他类型的服务实例吗?

Nacos的增量更新机制的主要目标是对Nacos集群内的其他服务节点进行通知。当在Nacos注册中心中一个服务实例发生了变更(如新的服务实例注册,已有的服务实例注销,或者服务实例的健康状态变更等),这个变更的信息会通过增量更新的方式发送给集群内的其他Nacos节点,以此来更新他们的服务实例列表。

然后,这个服务实例的变更信息也会通知给所有订阅了这个服务的客户端。这通常是通过长轮询的方式实现的,即客户端会定期向Nacos发送请求,询问是否有服务实例的变更。如果有变更,Nacos会将这个变更的信息返回给客户端,然后客户端会更新自己的服务实例列表。

这样,无论是Nacos集群内的其他节点,还是订阅了服务的客户端,都能够及时得知服务实例的变更,从而更新自己的服务实例列表,实现服务实例的动态发现。

3.7 比如说,有一个服务实例新注册到了Nacos,而其他的服务实例都没有任何变化,那么在下一次数据同步时,Nacos只需要将这个新注册的服务实例的信息发送给其他节点,而无需发送所有服务实例的信息。这样大大减少了数据同步所需要的网络带宽,提高了效率。在你给的这个例子中,集群内没有主从之分,所有节点对等吗?

是的,你说的是正确的。在Nacos中,没有主从之分的概念,所有的节点都是对等的。每个节点都会保持和其他节点的通信,以保证数据的一致性。

在注册中心中,Nacos 使用了一种名为 “CAP理论中的AP模式” 的设计原则。在此模式中,所有节点都是对等的(Peer-to-Peer),每个节点都有相同的功能和责任。这种设计有助于提高系统的可用性和容错性。

在你提到的服务实例新注册的情况中,新的服务实例会将自己的信息发送给集群中的所有其他节点。然后,每个节点都会独立地更新自己的服务实例列表。这就确保了,即使其中一些节点由于网络问题或其他原因无法接收到新的服务实例信息,集群中的其他节点仍然可以正常更新,整个系统的可用性和稳定性不会受到影响。

3.8 这种方式能保证最终一致性吗

"最终一致性"是一种较弱的数据一致性模型。在这种模型中,系统不保证在所有时刻对所有节点都维护同样的数据。然而,它确保了如果没有新的更新发生,最终所有的节点都会看到相同的数据。这种一致性模型通常用在高可用性和可扩展性是首要考虑的分布式系统中。

Nacos注册中心的设计就是这样的。服务实例的注册、注销或者是心跳超时,这些变更信息,都会通过增量数据同步的方式发送给其他节点。每个节点在接收到这些变化信息后,都会更新自己的数据,最终达到所有的节点数据一致。

需要注意的是,因为网络延迟、节点故障等原因,可能会造成部分节点更新延迟,即短时间内的数据不一致,但是只要不再有新的数据更新,最终所有的节点数据是一致的,所以这称之为最终一致性。

3.9 nacos注册中心为什么要保证AP而不是CP?

对于注册中心来说,它的主要职责是提供服务发现和服务健康检查。在大多数情况下,我们希望即使在网络分区的情况下,注册中心仍然可以正常提供服务,也就是说,可用性(Availability)是关键。因此,Nacos注册中心选择了保证AP。

3.10 我们希望即使在网络分区的情况下,注册中心仍然可以正常提供服务,也就是说,可用性(Availability)是关键,为什么注册中心保证可用性是关键?

在微服务架构中,服务的发现和注册是所有服务通信的基础。只有通过注册中心,服务才能找到其他服务的位置,并与它们进行通信。这就是为什么注册中心需要保证高可用性的原因。

3.11 为什么nacos配置中心要保证一致性?

Nacos配置中心需要保证一致性主要是为了确保所有的微服务在同一时间可以看到相同的配置。配置中心通常被用来存储和分发微服务的配置,这些配置可能会影响到微服务的行为和功能。如果配置中心不能保证一致性,那么微服务可能会读取到旧的或者不一致的配置,这可能会导致一些预期之外的问题和行为。

例如,考虑一个微服务需要从配置中心读取数据库连接参数。如果配置中心不能保证一致性,那么这个微服务可能会读取到旧的数据库连接参数,导致它无法连接到数据库。或者在更糟糕的情况下,这个微服务可能会读取到错误的数据库连接参数,导致它连接到错误的数据库,这可能会导致数据丢失或者数据错误。

因此,为了避免这些问题,Nacos配置中心需要保证一致性,确保所有的微服务在同一时间可以看到相同的配置。这是通过使用分布式一致性算法,如Raft,来实现的。

3.12 我也可以理解为,nacos注册中心对一致性要求不高,因为这个不一致不会导致各个服务实例发生不一致,顶多只是服务不可用,对吗?

在这里插入图片描述

3.13 一主多备能够保证数据的最终一致性吗,为什么

Nacos 的一主多备的设计理念确实可以保证数据的最终一致性。原因在于,即使在发生节点故障或网络分区的情况下,Nacos 通过备份节点(或称为备份副本)来确保数据的可用性和一致性。

一主多备的机制中,主节点负责处理所有的读写请求,同时也负责将数据的变化同步到备份节点。因此,当主节点正常工作时,所有的读写操作都会被立即反映到备份节点,保证数据的一致性。

即使在主节点发生故障的情况下,Nacos 也可以通过选举算法从备份节点中选择一个新的主节点,接替原主节点的角色,继续提供服务。新的主节点会将其已有的数据(也就是原主节点同步过来的数据)提供给客户端,因此,数据的一致性仍然可以得到保证。

这种机制虽然不能保证实时一致性(因为数据同步需要时间),但是可以保证最终一致性,即在一段时间后,所有的节点都能看到相同的数据。

然而,值得注意的是,一主多备机制并不能解决所有的一致性问题。例如强一致性,如果在数据同步过程中发生网络分区,导致部分备份节点无法获取到最新的数据,那么这些节点的数据将会与主节点的数据不一致。但是在网络恢复后,这些节点会再次从主节点获取数据,最终实现数据一致。这是 “最终一致性” 的含义。

总结,一主多备机制通过同步数据和在主节点故障时替换主节点的方式,可以在大部分情况下保证数据的最终一致性,但并不能解决所有的一致性问题。在某些情况下,如网络分区,可能会导致数据暂时不一致。

3.14 一主多备,有几台备用主机,有什么规律吗?

“一主多备”(Master-Slave)模式并没有严格规定备机的数量,实际上,备机的数量可以根据系统的具体需求和实际情况来决定。但在实际设计中,为了系统的高可用性和数据的安全性,通常会有多台备用主机。

以下几点因素可以影响备机数量的设定:

  1. 可用性:备用主机的数量越多,系统的可用性就越高。因为当主机发生故障时,可以从多台备用主机中选举出新的主机,从而减少系统的停机时间。此外,多台备用主机也能在主机发生故障时分担其工作负载。

  2. 数据安全性:备用主机的数量越多,系统的数据就越安全。因为每一台备用主机都存储着主机的数据副本,即使有些备用主机发生故障,也能从其他正常的备用主机中恢复数据。

  3. 系统性能和成本:备用主机的数量越多,系统的性能就可能越高,但相应的,系统的成本也会增加。因为每增加一台备用主机,就需要更多的硬件资源(如存储空间、网络带宽等),以及更多的维护工作。

因此,在实际系统设计中,需要根据系统的实际需求和资源限制,权衡上述因素,合理地设定备用主机的数量。另外,备用主机的数量也可能随着系统的运行状态和工作负载动态调整。

3.15 讲讲nacos的distro协议

Nacos 使用的 Distro 协议是一种自研的、专为服务发现场景设计的数据一致性协议。这个协议是基于 AP 模型设计的,并且在实际运行中能够保证在大多数场景下的最终一致性。

Distro 协议的名字来源于“Data distribution protocol”,即“数据分发协议”。它的主要目标是在大规模服务实例(百万级别)和大量元数据的场景下,保证高效、准确的数据同步。

Distro 协议在设计上将数据同步分为了两个层次,一是元数据同步,二是服务实例数据同步。元数据同步负责同步集群节点信息,以及节点的权重信息,而服务实例数据同步则负责同步服务实例的健康状态。

以下是一些 Distro 协议的关键特性:

  1. 增量同步:Distro 协议只会同步数据变化部分,而非所有数据,大大降低了网络带宽的消耗。
  2. 数据分片:Distro 协议会将所有数据分为若干个片(shard),然后将每个数据片分配给一组节点(一主多备),每个数据片的主节点负责处理该数据片的读写请求,以及与其他节点的数据同步。
  3. 数据校验:为了确保数据的完整性和一致性,Distro 协议还引入了数据校验机制,通过比较数据的校验和(checksum)来检查数据是否一致。如果发现数据不一致,就会触发全量数据同步。
  4. 服务实例一致性保障:为了确保服务实例的健康状态一致,Distro 协议引入了服务实例心跳机制,每个服务实例会定期向主节点发送心跳,主节点会根据心跳更新服务实例的状态,并将状态变化同步给其他节点。

Nacos 通过使用 Distro 协议,可以实现大规模服务注册发现场景下的数据一致性,并确保服务的高可用性和可靠性。

3.16 ”Nacos的增量同步机制在这里主要是指,只有当服务的注册信息(如服务的增加,减少,健康状态的变化等)发生改变时,才会同步这些变更的信息给其他节点“。 这里的其他节点是指各个微服务吗?

这里的“其他节点”主要是指Nacos集群中的其他服务节点。

在Nacos的服务注册与发现过程中,一旦一个服务实例的状态发生了变化(例如新的服务实例注册,已有的服务实例下线,或者服务实例的健康状态发生变化等),这个变化就需要被同步到Nacos集群中的其他节点,这样其他节点才能获取到最新的服务列表,并根据这个列表进行服务调用。

同时,增量同步也会将这些服务变化的信息推送给依赖这些服务的客户端,以便客户端能够感知到这些服务的变化,并对自己的服务调用策略进行相应的调整。

所以,这里的“其他节点”包括了Nacos集群中的其他服务节点,以及依赖这些服务的客户端。

3.17 但是不是说分片存储在多个主备集群吗, 为什么增量还要同步给其他集群中的leader?

对的,Nacos使用分片数据存储,并且每一个分片都会在多个节点上进行复制以提供冗余,形成主备集群。这就形成了一个分布式的、可伸缩的、高可用的数据存储架构。

当我提到“其他节点”时,我是在更宏观的层面上描述,指的是Nacos集群中除了发生状态变化的服务节点以外的所有节点,这包括其他主备集群的所有节点。

当一个服务实例的状态发生变化时,首先会在其所在的主备集群中同步这个变化,然后这个变化会被广播到Nacos集群中的其他所有主备集群。这就是Nacos实现服务注册和发现的方式。

同时,依赖这些服务的客户端也会收到这些服务状态变化的通知,这样它们就能对自己的服务调用策略进行相应的调整。

3.18 你能给一个nacos注册中心的大概架构吗

Nacos注册中心的大概架构主要由以下几个部分组成:

  1. Nacos Server:这是Nacos注册中心的核心部分,它负责处理服务的注册和发现请求,存储服务的状态信息,并通过Nacos Client向服务消费者推送服务状态的变更。

  2. Nacos Client:这是部署在微服务应用端的组件,负责和Nacos Server进行通信。服务提供者会通过Nacos Client向Nacos Server注册自己,而服务消费者则通过Nacos Client查询需要调用的服务的当前状态。

  3. 数据存储:Nacos Server会将服务的状态信息存储在数据库中,以保证服务状态信息的持久化。Nacos支持多种类型的数据库,如MySQL、PostgreSQL等。

  4. 分片和复制:为了提高数据的可用性和容错能力,Nacos Server会将服务状态信息分片存储,并在多个节点上对每个分片进行复制。这样即使某个节点发生故障,也可以通过其他节点上的副本恢复数据。

  5. Distro协议:Nacos使用自己开发的Distro协议来处理数据的一致性问题。当服务状态发生变化时,这个变化会先在相应分片的主备集群中进行同步,然后再通过Distro协议广播到其他所有的主备集群。

  6. 集群管理:Nacos Server可以以集群模式运行,通过Raft协议进行集群管理,实现了高可用和故障转移。

在这个架构中,Nacos Server和Nacos Client之间通过HTTP或者TCP协议进行通信,服务的注册和发现请求都是通过这两种协议中的一种发送的。

3.19 在Nacos的服务注册与发现过程中,一旦一个服务实例的状态发生了变化(例如新的服务实例注册,已有的服务实例下线,或者服务实例的健康状态发生变化等),这个变化就需要被同步到Nacos集群中的其他节点,这里的节点下线应该指主节点下线才有必要通知其他集群吧?

在这里插入图片描述

3.20 nacos主备集群中的选举规则

在Nacos注册中心的分片(sharding)架构中,实现了一种分布式一致性算法叫做Distro。Distro并没有使用像Raft或Paxos这样的经典的一致性协议,而是实现了一种基于网络数据分片的自适应一致性协议。在Distro中,数据是分片存储的,每一个数据分片(例如一个服务实例的信息)在Nacos集群中都有一个主节点和多个备份节点。这样,即使主节点宕机,备份节点也能接替主节点的角色,保证服务的高可用性。

对于主节点的选举规则,Nacos采用了一种基于权重的选举算法。集群中的每个节点都会周期性地计算自己的权重,并且与集群中其他节点交换信息。权重最高的节点被选为主节点。

权重的计算取决于多个因素,例如节点的负载情况、网络状况等。这种基于权重的选举算法可以确保在任何时候,数据的主节点都是集群中最适合的节点,从而提高系统的整体性能。

当然,这里的主节点并不是像Raft协议中的Leader节点那样对集群有绝对的控制权,而只是对某个数据分片有读写和同步的权利。因此,即使主节点宕机,也不会影响到集群的正常工作,只需要从备份节点中选举一个新的主节点即可。

3.21 为什么这种基于权重的选举算法也能保证一致性?

在Nacos的Distro协议中,保证一致性的主要机制是基于一主多备的数据复制和同步机制,而不是基于权重的选举算法。

基于权重的选举算法主要是用来选择主节点,也就是数据分片的读写和同步的责任节点。一旦主节点被选出,它就负责将数据的读写操作同步到备份节点。这样,即使主节点宕机,备份节点上仍然有最新的数据副本,从而保证了数据的一致性。

选举算法的目标是选出最合适的主节点,而不是保证数据一致性。数据一致性是通过数据复制和同步机制来保证的。 在这个机制中,只要主节点和备份节点之间的数据同步正常进行,数据的一致性就能得到保证。

总的来说,基于权重的选举算法和数据复制及同步机制相结合,可以在保证数据一致性的同时,提高系统的性能和可用性。

3.22 只要实现了复制的集群,都能够保证一致性吗?

不完全是。简单的复制并不能保证一致性。例如,如果有两个节点 A 和 B,它们开始时都有同样的数据。然后,节点 A 接收到一个更新操作并更新了它的数据,但是在将这个更新操作复制给节点 B 之前,它崩溃了。结果,节点 B 的数据就过时了。即使之后节点 A 恢复了,并将更新操作复制给了节点 B,由于这段时间内 B 的数据是过时的,所以一致性在这段时间内就被破坏了。

保证一致性需要的是一种协议或者机制,这个协议或者机制需要处理各种可能出现的故障情况,包括节点崩溃、网络分区、消息丢失或者延迟等,并确保在任何情况下,所有节点看到的数据都是一致的。

例如,Raft 或 Paxos 等一致性算法,它们不仅仅复制数据,还包含了一整套复杂的机制来处理各种故障情况,并确保在任何情况下都能达到一致性。在 Raft 或 Paxos 中,一个操作在被应用到系统的状态之前,必须先被大多数节点接受。这样就能确保即使一部分节点崩溃,剩下的节点仍然可以保持一致性。

所以,简单的复制并不能保证一致性。而保证一致性需要一种强大的一致性协议或者机制。

3.23 也就是nacos注册中心的一个节点存储所有数据,但是只对于客户端来说该节点只负责一部分数据的读写(nacos架构的重点理解)

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/yxg520s/article/details/131752645