有关UDP与TCP

有关TCP的连接释放问题,请见上一篇文章
https://blog.csdn.net/aaronlanni/article/details/80644709(TCP的三次握手与四次挥手)
一、UDP协议
(一)概述
1、特点
a:UDP是无连接的,减少了开销和发送数据之前的时延。
b:UDP尽最大努力交付
c:UDP面向报文:应用层交给UDP多长的报文,UDP照样发送,即一次发送一个报文,UDP一次交付一个完整的报文。
d:没有拥塞控制:允许在网络拥塞的时候,对数据有一定的丢失,但不允许有太大的时延
e:UDP支持一对一,一对多,多对一,多对多的交互通信
f:首部开销小
g:UDP的socket既能读, 也能写, 这个概念叫做全双工
2、用UDP传输100个字节的数据:如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节;
(二)报头
这里写图片描述
(三)UDP缓冲区

  • UDP没有真正意义上的发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;
  • UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了,再到达的UDP数据就会被丢弃;
    (四)使用UDP的注意事项
    UDP协议首部中有一个16位的最大长度. 也就是说一个UDP能传输的数据最大长度是64K(包含UDP首部).
    然而64K在当今的互联网环境下, 是一个非常小的数字.
    如果我们需要传输的数据超过64K, 就需要在应用层手动的分包, 多次发送, 并在接收端手动拼装;从而导致数据在传送过程中的效率十分的低下。
    二、TCP协议
    (一)特点
  • 面向连接的运输层协议
  • 每一条TCP连接只能有两个端点(点对点,一对一)通信
  • TCP提供可靠交付的服务,通过TCP连接传送的数据无差错,不丢失,不重复,按序到达
  • TCP提供全双工通信,在TCP的两端都设有发送缓冲与接收缓冲,从而用来临时存放双向通信的数据
  • 面向字节流,流是指流入到进程或者从进程流出的字节序列
  • TCP连接是一条虚链接,而不是真正意义上的物理连接
  • TCP报文在传输之时,TCP报文段先要传送到IP层,加上IP的首部后,在传输到数据链路层,加上数据链路层的首部和尾部之后,才能离开主机发送到物理链路上
  • TCP在发送数据多少的时候,是根据窗口值与目前网络的拥塞情况,从而决定一个报文段到底应该包含多少个字节
    (二)报头
    这里写图片描述
    (三)TCP连接
  • TCP连接的端点称之为套接字或插口
  • 套接字 socket=(IP地址:端口号),中间的冒号也可改写为逗号

套接字的区分

  • 允许应用程序访问连网协议的应用编程接口API,即运输层和应用层之间的一种接口,称为socket API,并简称为socket
  • 在socket API中使用的一个函数名也叫做socket
  • 调用socket函数的端点称为socket,例如创建一个数据报socket
  • 调用socket函数时,其返回值称为socket描述符,可简称为socket
  • 在操作系统内核中连网协议的Berkeley实现,称为socket实现
    (四)面向字节流
    一次性读取数据的多少,由上层应用程序决定
    创建一个TCP的socket, 同时在内核中创建一个发送缓冲区和一个接收缓冲区;
  • 调用write时, 数据会先写入发送缓冲区中;
  • 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
  • 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
  • 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
  • 然后应用程序可以调用read从接收缓冲区拿数据;
  • 另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据,也可以写数据. 这个概念叫做全双工
  • 由于缓冲区的存在, TCP程序的读和写不需要⼀一匹配,而在UDP中么有真正意义上的发送缓冲区,因此在发送数据之时,必须保证一次性发送完成。在底层,如果UDP的报文段过于长,网络层如果不允许分片,则直接将这个数据丢弃。(UDP按照原样发送,应用层交下来多少,就一次性发送多少,一次交付一个完整的报文段)
    写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
    读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次;
    (五)TCP的可靠性传输
    1、校验和—–>保证头部与有效载荷部分没有差错
    2、序列号(按序到达)
    作用:去重,保证数据的按序到达,保证失序的数据在向上层递交之时,会有一定的次序。
    3、确认应答
  • 对每一个发送过来的数据会进行确认应答机制,告诉对方我已经收到这个数据,你下面从哪个数据开始发送
  • 在最初的时候,设计者在设计方面每次收到一个分组,对其进行确认之后,在重传下一个分组,但是由于此时的效率过低,信道大部分时间都是处于空闲的时间,因此在此时给出一种滑动窗口的机制,一次确认多个分组,使得信道的利用效率大大的提升了。
  • 每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下⼀次你从哪里开始发
    这里写图片描述
    4、超时重发
    这里写图片描述
    主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B;
    如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发;
    主机A未收到B发来的确认应答, 也可能是因为ACK丢失了;
    这里写图片描述
    因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.
    这时候我们可以利⽤用前⾯面提到的序列号, 就可以很容易做到去重的效果
    重传的设定
    最理想的情况下, 找到一个最小的时间, 保证 “确认应答一定能在这个时间内返回”.
    但是这个时间的长短, 随着网络环境的不同, 是有差异的.
    如果超时间设的太长, 会影响整体的重传效率;
    如果超时间设的太短, 有可能会频繁发送重复的包;
    TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间.
    Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进⾏行控制, 每次判定超时重发的超时时间都是500ms的整数倍.
    如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进⾏行重传.
    如果仍然得不到应答, 等待 4*500ms 进⾏行重传. 依次类推, 以指数形式递增.
    累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接.
  • 但是当由于各种原因,而没有收到对方给出的应答的消息,则需要进行重传,此时的前提就是,在发送方必须还保留着已发送的分组的副本
  • 此时采用超时计时器,从而保证数据不会重复收取,超时计时器的设置的重传时间应当比数据在分组传输的平均往返时间更长一些,如果在接收方,已经接收了这个分组,但是由于确认的消息丢失,从而使得超时重传,但是在接收方已经收到这个数据,因此此时的处理便是丢失超时重传来的这个分组即可,并且在此时重传确认分组,向上面所说的这个请求便是自动重传请求ARQ
    5、连接管理
    TCP在建立连接之时,要经过三次握手,此时,在握手期间,给出相应的信息
    6、流量控制
  • 流量控制就是让发送方的发送速率不要太快,要让接收方来得及接收。是基于滑动窗口从而实现的流量控制。
  • 接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送, 就会造成丢包, 继而引起丢包重传等等一系列连锁反应.
  • 发送方的发送窗口不能超过接收方给出的接收窗口的数值,TCP的窗口单位是字节
  • 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段, 通过ACK端通知发送端;
  • 窗口大小字段越大, 说明网络的吞吐量越高;
  • 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
  • 发送端接受到这个窗口之后, 就会减慢自己的发送速度;
  • 如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端
    这里写图片描述
    在接收方发送确认消息的时候,接收方会把自己可以再次接收数据的窗口大小发送给发送方,但是这个消息万一在传输中丢失了,发送方一直在等接收方发送的窗口非零值的通知,但是由于这个消息在路上丢失了,因此一直等不到,从而使得资源的浪费,使得目前死锁的局面一直持续下去,为了打破这种局面,TCP在每一个连接设有一个持续计时器,只要TCP连接的一方收到对方的零窗口值,就启动这个计时器,若设置的时间到期,则发送方就向接收方发送一个探测报文段(仅携带1字节的数据),而接收方就在确认这个探测报文之时,给出现在的窗口值大小,如果这个报文也丢失了,在经过一段时间之后,继续发送探测报文,直到打破这个死局即可。
    这里写图片描述
    在TCP的首部中,有一个16位的窗口大小,可以根据其来给出通信双方目前窗口的大小16位数字最⼤大表⽰示65535, 那么TCP窗口最大就是65535字节么?
    实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位;
    7、拥塞控制
    虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.
    网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据, 是很有可能引起雪上加霜的
    少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
    当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发⽣生拥堵, 吞吐量会立刻下降;
    拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.
    (1)拥塞控制的一般原理
    在某段时间,若对网络中的某一资源的需求超过了该资源所能提供的可用部分,网络的性能就要变坏,网络的吞吐率就会随着输入负荷的增大而降低,这种情况就称之为拥塞,用如下的图表示:
    这里写图片描述
    由上面也可以看出,仅仅简单的提高某一方面的性能,不仅不能解决网络拥塞的情况,还有可能加剧这种情况的存在,因为,仅仅提高,某一方面但是其他方面的处理情况还是与原来一样,因此,从而会使的大量的数据涌入网络中,从而加剧了网络拥塞的情况
    (2)拥塞控制与流量控制的区别
    拥塞控制:防止过多的数据注入到网络中,这样可以使网络中的路由器或链路不致过载,要做到网络拥塞,必须要有一个前提,就是网络能够承受现在的网络负荷,拥塞控制是一个全局性的过程,当TCP连接的端点迟迟不能接到对端发来的确认,此时的网络就有可能发生了拥塞(还有一种可能就是确认数据报丢失),分组的丢失是网络发生拥塞的征兆而不是原因
    流量控制:往往指的是点对点通行量的控制,是个端对端的问题(接收端控制发送端),流量控制要做的就是抑制发送端发送数据的速率,以便接收端来得及接收与处理。
    这里写图片描述
    (3)几种拥塞控制的方法
    a:慢开始(慢启动)
    TCP引入慢启动机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据;
    b:拥塞避免
    有关慢启动与拥塞避免,发送方会维持一个拥塞窗口的状态量,拥塞窗口的大小取决于网络的拥塞程度,并且一直在动态的变化,当网络没有出现拥塞的时候,拥塞窗口可以大一点以便将更多的分组发送出去,但是一旦当网络出现拥塞,没有及时的收到数据的分组确认,则此时网络就有可能出现拥塞,此时可以适当的将拥塞窗口的值减小即可。
    cwnd:表示拥塞窗口,每次收到一个ACK应答, 拥塞窗口加1,ssthresh表示慢开始门限(是一个满开会算法的极限值)
    这里写图片描述
    只要发送方判断出网络出现拥塞的情况,就把慢开始门限设置为出现拥塞时的发送方窗口值的一半,但是不能小于2.然后将cwnd重写设置为1,执行慢开始算法,重复上述的过程。
    这里写图片描述
    当TCP开始启动的时候, 慢启动阈值等于窗口最大值;在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1当网络拥塞频繁的出现之时,ssthresh值就下降的就特别快,以大大减少注入到网络中的分组数。
    c:快重传
    d:快恢复
    快重传算法首先要求接收方每收到一个失序的数据段之后就立即发送重复确认而不要等到自己发送数据时才进行捎带确认,发送方只要一连收到三个重复确认就应当立即重传对方尚未收到的报文段,而不必等待数据段设置的超时重传计时器,因此使用快重传使得网络的吞吐率增加20%
    这里写图片描述
    从上面的两点,也可以看出,发送方的窗口大小,一定不能超过对方给出的接收窗口(rwnd)与拥塞窗口(cwnd)—–》(这个信息在连接建立之时,TCP的头部中16位的窗口大小中通知给发送方)
    即发送方窗口的上限值=Min(rwnd,cwnd)
    (五)TCP提高性能机制
    1、滑动窗口(注意滑动窗口与缓存的区别 )
  • 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段. 这样做有一个比较大的缺点, 就是性能较差.尤其是数据往返的时间较长的时候.
  • 对于以上提出的问题,我们需要给出解决方案,因此,滑动窗口的提出,一次性确认多个数据报,从而大大的提高性能
  • TCP的滑动窗口是以字节为单位的
  • 发送窗口里面的序号表示允许发送的序号,因此,可以看出,窗口越大,发送方就可以在收到对方确认之前连续发送更多的数据,因而可获得更高的传输效率,但是在接收发方必须来得及处理的情况下
  • 已经确认的数据,便可以不必在保留
  • 根据接收方的窗口大小,从而确定发送方的窗口大小
  • 发送窗口的不动的两种情况:确认方对于已经发送的数据没有进行确认,确认之后,但是接收方的窗口大小缩小了,因此此时在发送方的窗口大小不变
  • TCP要求接收方必须要有累积确认的功能(提高性能),但是不能推迟的太久,一般不超过0.5秒,确认应答的消息,可以等到一定的确认数据一起确认,也可以当接收方有数据发送时,作为捎带应答消息,一起发送给发送方。

发送缓存
发送方的应用进程把字节流写入TCP的发送缓存,接收方的应用进程从TCP的接收缓存中读取字节流
发送窗口只是发送缓存的一部分。
发送缓存用来暂时存放:
a:发送应用进程传送给发送方TCP准备发送的数据
b:TCP已经发送出去但是还没有收到确认的数据

接收缓存
按序到达的、但尚未被接收应用程序读取的数据、为按序到达的数据,在等到字节流中所缺失的字节收到后,在按序交付给上层的应用进程,在接收不连续的数据之时,采用选择确认ASCK从而报告不连续的字节块的边界(此种选项在报头的可选部分)
这里写图片描述
说明:窗口大小指的是无需等待确认应答而可以继续发送数据的最大值. 上图的窗口大小就是4000个字节(四个段).
发送前四个段的时候, 不需要等待任何ACK, 直接发送;
收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推;
操作系统内核为了维护这个滑动窗⼝口, 需要开辟发送缓冲区来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;
窗口越大, 则网络的吞吐率就越高;
这里写图片描述
在确认应答中,也有可能出现丢包(丢失ACK)的问题
数据包已经抵达, ACK被丢了
这里写图片描述
数据包就直接丢了.
这里写图片描述
利用上面一次性确认多个数据报的机制,即使中间有一小部分的数据报丢失,也不会影响后面数据报的传输,直到连续收到多个相同的报文确认信息之时,才会得知报文的丢失,从而对这个报文进行重传
当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 “我想要的是1001” 一样;
如果发送端主机连续三次收到了同样一个 “1001” 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;
2、快速重传
(同上面滑动窗口)
3、延迟应答
如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口(接收窗口)可能比较小.
假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么? 肯定也不是;
数量限制: 每隔N个包就应答一次;
时间限制: 超过最大延迟时间就应答一次;
具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;
4、捎带应答
在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 “一发一收” 的. 意味着客户端给服务器说了 “How are you”, 服务器也会给客户端回一个 “Fine, thank you”;那么这个时候ACK就可以搭顺风车, 和服务器回应的 “Fine, thank you” 一起回给客户端。
(六)TCP的粘包问题

  • 首先要明确, 粘包问题中的 “包” , 是指的应用层的数据包.
    在TCP的协议头中, 没有如同UDP一样的 “报文长度” 这样的字段, 但是有一个序号这样的字段.
    站在传输层的⾓角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
    站在应用层的⾓角度, 看到的只是一串连续的字节数据.
    那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.
  • 那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.
    对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可;
    对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
    对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可);
  • 对于UDP协议来说, 是否也存在 “粘包问题” 呢?
    对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.
    站在应用层的站在应用层的角度, 使⽤用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现”半个”的情况.

有关UDP与TCP的基础知识大概就这么多了,以上部分图来自网络,如有侵犯,还请谅解。

这世上哪有什么奇迹,奇迹源于不放弃!!!

猜你喜欢

转载自blog.csdn.net/aaronlanni/article/details/80717457
今日推荐