备战秋招——算法与数据结构(14)

1. 使用“反向代理服务器”的优点是什么?

(1)提高访问速度
由于目标主机返回的数据会存在代理服务器的硬盘中,因此下一次客户再访问相同的站 点数据时,会直接从代理服务器的硬盘中读取,起到了缓存的作用,尤其对于热门站点 能明显提高请求速度。
(2)防火墙作用
由于所有的客户机请求都必须通过代理服务器访问远程站点,因此可在代理服务器上设 限,过滤某些不安全信息。
(3)通过代理服务器访问不能访问的目标站点
互联网上有许多开发的代理服务器,客户机可访问受限时,可通过不受限的代理服务器 访问目标站点,通俗说,我们使用的翻墙浏览器就是利用了代理服务器,可直接访问外 网。

2. 右值引用和move语义

1.move语义
最原始的左值和右值定义可以追溯到C语言时代,左值是可以出现在赋值符的左边 和右边,然而右值只能出现在赋值符的右边。在C++里,这种方法作为初步判断左 值或右值还是可以的,但不只是那么准确了。你要说C++中的右值到底是什么,这 真的很难给出一个确切的定义。你可以对某个值进行取地址运算,如果不能得到地 址,那么可以认为这是个右值。例如:

int& foo();
foo() = 3; //ok, foo() is an lvalue
 
int bar();
int a = bar(); // ok, bar() is an rvalue

为什么要move语义呢?它可以让你写出更高效的代码。看下面代码:

string foo();
string name("jack");
name = foo();

第三句赋值会调用string的赋值操作符函数,发生了以下事情:
1.首先要销毁name的字符串吧
2.把foo()返回的临时字符串拷贝到name吧
3.最后还要销毁foo()返回的临时字符串吧

这就显得很不高效,在C++11之前,你要些的高效点,可以是swap交换资源。C++11 的move语义就是要做这事,这时重载move赋值操作符
string& string::operator=(string&& rhs);

move语义不仅仅用于右值,也用于左值。标准库提供了std::move方法,将左值 转换 成右值。因此,对于swap函数,我们可以这样实现:

template<class T>
void swap(T& a, T& b)
{
    
    
 T temp(std::move(a));
 a = std::move(b);
 b = std::move(temp);
}
 

2.右值引用
为了支持移动操作,c++新标准引入了一种新的引用类型—右值引用。所谓右值引 用就是必须绑定到右值的引用。我们通过&&而不是&来获得右值引用。如我们将要 看到的,右值引用有一个重要的性质—只能绑定到一个将要销毁的对象。因此,我 们可以自由地将一个右值引用的资源“移动”到另一个对象中。

一般而言,一个左值表达式表示的是一个对象的身份,而一个右值表达式表示的是 对象的值。
举例说明:

int i=42;
int &r=i; //正确,r引用i
int &&rr=i //错误,不能将一个右值引用绑定到一个左值上
int &r2=i*42; //错误,i*42是一个右值
const int &r3=i*42; //正确,我们可以将一个const的引用绑定到一个右值上
int &&r2=i*42; //正确,将rr2绑定到乘法结果上

1.左值持久,右值短暂
左值有持久的状态,而右值要么是字面值常量,要么是表达式求值过程中创建的临 时对象。
由于右值引用只能绑定到临时对象,我们得知
1.所引用的对象将要被销毁
2.该对象没有其他用户
这两个特征意味着:使用右值引用的代码可以自由地接管所引用的对象的资源。

3. kafka的生产者和消费者的理解

生产者:
Producer将消息发布到指定的Topic中,同时Producer也能决定将此消息归属于哪个 partition;比如基于"round-robin"方式或者通过其他的一些算法等.
消费者:
本质上kafka只支持Topic.每个consumer属于一个consumer group;反过来说,每个 group中可以有多个consumer.发送到Topic的消息,只会被订阅此Topic的每个group 中的一个consumer消费.
如果所有的consumer都具有相同的group,这种情况和queue模式很像;消息将会在 consumers之间负载均衡.
如果所有的consumer都具有不同的group,那这就是"发布-订阅";消息将会广播给所有 的消费者.
在kafka中,一个partition中的消息只会被group中的一个consumer消费;每个group 中consumer消息消费互相独立;我们可以认为一个group是一个"订阅"者,一个Topic 中的每个partions,只会被一个"订阅者"中的一个consumer消费,不过一个consumer 可以消费多个partitions中的消息.kafka只能保证一个partition中的消息被某个 consumer消费时,消息是顺序的.事实上,从Topic角度来说,消息仍不是有序的.

4. kafka三种消费语义与保证精准消费

  1. 消费语义的介绍
    at last once:至少消费一次(对一条消息有可能多次消费,有可能会造成重复消费数 据)
      原因:Proudcer产生数据的时候,已经写入在broker中,但是由于broker的网 络异常,没有返回ACK,这时Producer,认为数据没有写入成功,此时producer会再次 写入,相当于一条数据,被写入了多次。
    at most once:最多消费一次,对于消息,有可能消费一次,有可能一次也消费不了
      原因:producer在产生数据的时候,有可能写数据的时候不成功,此时broker就 跳过这个消息,那么这条数据就会丢失,导致consumer无法消费。
    exactly once:有且仅有一次。这种情况是我们所需要的,也就是精准消费一次。
    2.kafka中消费语义的场景
    at last once:可以先读取数据,处理数据,最后记录offset,当然如果在记录offset 之前就crash,新的consumer会重复的来消费这条数据,导致了”最少一次“
    at most once:可以先读取数据,然后记录offset,最后在处理数据,这个方式,就 有可能在offset后,还没有及时的处理数据,就crash了,导致了新的consumer继续 从这个offset处理,那么刚刚还没来得及处理的数据,就永远不会被处理,导致了” 最多消费一次“
    exactly once:可以通过将提交分成两个阶段来解决:保存了offset后提交一次,消 息处理成功后,再提交一次。
    3.kafka中如何实现精准写入数据?
    A:Producer 端写入数据的时候保证幂等性操作:
    幂等性:对于同一个数据无论操作多少次都只写入一条数据,如果重复写入,则执 行不成功
    B:broker写入数据的时候,保证原子性操作, 要么写入成功,要么写入失败。(不成 功不断进行重试)
  2. kafka中partition的工作原理?
    Kafka集群partition replication默认自动分配分析
    下面以Kafka集群中4个Broker举例,创建1个topic包含4个Partition,2 Replication;数据Producer流动如图所示:

在这里插入图片描述

当集群中新增2节点,Partition增加到6个时分布情况如下:

在这里插入图片描述

副本分配逻辑规则如下:
在Kafka集群中,每个Broker都有均等分配Partition的Leader机会。
上述图Broker Partition中,箭头指向为副本,以Partition-0为例:broker1中 parition-0为Leader,Broker2中Partition-0为副本。
上述图种每个Broker(按照BrokerId有序)依次分配主Partition,下一个Broker为副 本,如此循环迭代分配,多副本都遵循此规则。
副本分配算法如下:
将所有N Broker和待分配的i个Partition排序.
将第i个Partition分配到第(i mod n)个Broker上.
将第i个Partition的第j个副本分配到第((i + j) mod n)个Broker上.

另外需要完整版一线互联网大厂面试题以及关于c++ Linux后台服务器开发的一些知识点分享:Linux,Nginx,MySQL,Redis,P2P,K8S,Docker,TCP/IP,协程,DPDK,webrtc,音视频等等视频。
vx关注零声学院公众号领取!

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/lingshengxueyuan/article/details/107955846