Red de computadoras Capítulo 3 Notas sobre la capa de enlace de datos

Capítulo 3 Capa de enlace de datos

3.1 Funciones de la capa de enlace de datos

Nodo: host, enrutador

Enlace: Canal físico entre dos nodos de la red, transmisión de enlace Los medios incluyen principalmente trenzado pares, fibras ópticas y microondas, que se dividen en enlaces cableados y enlaces inalámbricos.

Enlace de datos: Canal lógico entre dos nodos de la red, que implementa el control El hardware y El software del protocolo de transmisión de datos se agrega al enlace para formar un enlace de datos.

Trama: la unidad de datos de protocolo de la capa de enlace, que encapsula el datagrama de la capa de red.

La capa de enlace de datos es responsable de transmitir datagramas desde un nodo a través de un enlace a un nodo adyacente directamente conectado a otro enlace físico. La capa de enlace de datos proporciona servicios a la capa de red sobre la base de los servicios proporcionados por la capa física. Su función principal es mejorar la función de la capa física para transmitir el flujo de bits original transforma la posible conexión física errónea proporcionada por la capa física en un enlace de datos lógico libre de errores, de modo que aparece como un enlace libre de errores hacia la capa de red. (Transformando la capa física para entregar la capa de red)

3.1.1 Proporcionar servicios a la capa de red.

Para la capa de red, la tarea básica de la capa de enlace de datos es transmitir datos desde la capa de red en la máquina de origen a la capa de red de la máquina de destino. La capa de enlace de datos suele proporcionar los siguientes servicios a la capa de red:

Servicio sin conexión sin confirmación. La máquina de origen no necesita establecer primero una conexión de enlace al enviar una trama de datos, y la máquina de destino no necesita enviar un acuse de recibo al recibir la trama de datos. Para las tramas perdidas, la capa de enlace de datos no es responsable de la retransmisión y la deja a la capa superior para su procesamiento. Adecuado para comunicación en tiempo real o canales de comunicación con bajas tasas de error de bits, como Ethernet.

Servicio sin conexión confirmado. La máquina de origen no necesita establecer una conexión de enlace primero al enviar una trama de datos, pero la máquina de destino debe enviar un acuse de recibo al recibir la trama de datos. Cuando la máquina fuente no recibe una señal confirmada dentro del tiempo especificado, retransmite la trama perdida para mejorar la confiabilidad de la transmisión. Este servicio es adecuado para canales de comunicación con altas tasas de error de bits, como las comunicaciones inalámbricas.

Servicio orientado a conexión confirmado. El proceso de transmisión de tramas se divide en tres etapas: establecimiento del enlace de datos, transmisión de la trama y liberación del enlace de datos. La máquina de destino debe confirmar cada fotograma recibido y la máquina de origen solo puede enviar el siguiente fotograma después de recibir la confirmación, por lo que el servicio tiene la mayor confiabilidad. Este servicio es adecuado para ocasiones con altos requisitos de comunicación (confiabilidad, practicidad).

3.1.2 Gestión de enlaces

El proceso de conexión de la capa de enlace de datosestablecimiento, mantenimiento y liberación se denomina gestión de enlaces y se utiliza principalmente para< a i =3>Servicios orientados a la conexión. Para comunicarse, los nodos en ambos extremos del enlace primero deben confirmar que la otra parte está lista e intercambiar cierta información necesaria para inicializar el número de secuencia de la trama antes de establecer una conexión. Durante el proceso de transmisión, la conexión debe mantenerse. y después de que se complete la transmisión Para liberar la conexión. Cuando varios sitios comparten el mismo canal físico, cómo asignar y administrar canales entre sitios que requieren comunicación también pertenece al alcance de la gestión de la capa de enlace de datos.

3.1.3 Delimitación de tramas, sincronización de tramas y transmisión transparente

La encapsulación en un marco consiste en agregar un encabezado y un final antes y después de un dato, formando así un marco. Después de recibir el flujo de bits entregado por la capa física, el extremo receptor puede identificar el inicio y el final de la trama del flujo de bits recibido en función de las marcas de encabezado y cola. El encabezado y el tráiler contienen mucha información de control y juegan un papel importante: Delimitación del marco (límites determinados).

Sincronización de trama: el receptor debe poder distinguir el inicio y el final de la trama del flujo de bits binario recibido.

Si aparece en los datos la misma combinación de bits que el delimitador de trama (reconociendo erróneamente el final de la transmisión y descartando los datos), entonces se deben tomar medidas efectivas para resolver este problema, a saber< a i=1 >Transmisión transparente.

3.1.4 Control de flujo

Debido a la diferencia en la eficiencia del trabajo y el espacio de caché entre el remitente y el receptor, la capacidad de envío del remitente puede ser mayor que la capacidad de recepción del receptor. Si no es apropiado en este momento limitar el envío De acuerdo con la tasa de envío de la parte (es decir, el flujo de información en el enlace), las tramas que no se reciben a tiempo serán "inundadas" por las tramas que se envían continuamente más tarde, provocando que las tramas pérdidas y errores. Por lo tanto, el control de flujo consiste en realidad en limitar el flujo de datos del remitente para que su velocidad de envío no exceda la capacidad de recepción del receptor.

Este proceso requiere algún tipo de mecanismo de retroalimentación para que el remitente pueda saber si el receptor puede seguir su ritmo, es decir, es necesario que existan algunas reglas para que el remitente sepa bajo qué circunstancias puede continuar enviando la siguiente trama, y bajo que circunstancias se debe suspender el envío esperar algún tipo de respuesta antes de continuar enviando.

Nota: En la arquitectura OSI, la capa de enlace de datos tiene la función de control de flujo, mientras que en la arquitectura TCP/IP, la función de control de flujo se traslada a la capa de transporte.

3.1.5 Control de errores

Debido a diversas razones, como el ruido del canal, pueden producirse errores durante la transmisión de la trama. El método utilizado por elremitentepara determinar si el receptor ha recibido correctamente los datos enviados por él se denominacontrol de errores. . errores de trama yerrores de bits

El error de bit se refiere al error en algunos bits de la trama, generalmente utilizandoverificación de redundancia cíclica (método CRC)< a i=3>Descubierto dislocación, a través deSolicitud de repetición automática (Solicitud de repetición automática, ARQ) a retransmitir la trama errónea. El método específico es: dejar que el remitente adjunte un determinado código de detección de errores redundante CRC al marco de datos que se enviará y los envíe juntos. El receptor realizará la detección de errores en el marco de datos basándose en el código de detección de errores. Si se encuentra un error , será descartado. El remitente expirará el tiempo de espera y retransmitirá el marco de datos. Marco de datos. Este método de control de errores se llama método ARQ. El método ARQ solo necesita devolver muy poca información de control para confirmar efectivamente si la trama de datos enviada se recibe correctamente.

Los errores de trama se refieren a errores como pérdida de trama, duplicación o falta de secuencia. La introducción de un temporizador y un mecanismo de numeración en la capa de enlace de datos puede garantizar que cada trama pueda entregarse correctamente al nodo de destino solo una vez.

3.2 Encuadre

La razón por la que la capa de enlace de datos combina bits en tramas para la transmisión es reenviar sólo la trama errónea cuando ocurre un error, en lugar de tener que reenviar todos los datos, mejorando así la eficiencia. Para que el receptor reciba y verifique correctamente las tramas transmitidas, el remitente debe encapsular los paquetes enviados por la capa de red en tramas (llamadas tramas) de acuerdo con ciertas reglas. El encuadre resuelve principalmente problemas como la delimitación de cuadros, la sincronización de cuadros y la transmisión transparente. Por lo general, existen las siguientes cuatro formas de implementar el encuadre.

3.2.1 Método de conteo de caracteres

El método de conteo de caracteres se refiere al uso de un campo de conteo en el encabezado del marco para indicar la cantidad de caracteres en el marco. Cuando la capa de enlace de datos del nodo de destino recibe el valor del recuento de bytes, conoce el número de bytes que siguen, de modo que puede determinar la posición final de la trama (por ejemplo, si el primer bit de la primera trama es 5, entonces el primer cuadro tiene 5 caracteres). Si el campo de recuento es incorrecto, es decir, se pierde la base para la demarcación del límite de la trama, el receptor no puede determinar el bit final de la trama transmitida y el bit de inicio de la siguiente trama, y ​​el remitente y el receptor perderán la sincronización, lo que resultará en consecuencias catastróficas.

3.2.2 Método delimitador de cabeza y cola para rellenar caracteres

El método de llenado de caracteres utiliza caracteres específicos para delimitar el inicio y el final de un cuadro. El carácter de control SOH (inicio del encabezado) se coloca al frente del cuadro para indicar el comienzo del cuadro, y el carácter de control EOT (fin de transmisión) indica el final de la trama. Para evitar que los caracteres especiales que aparecen en los bits de información se consideren erróneamente como el primer y el último delimitador de la trama, se puede completar un carácter de escape (ESC) delante de los caracteres especiales para distinguirlos y lograr una transmisión transparente. de datos. Después de que el receptor recibe el carácter de escape, sabe que lo que sigue es información de datos, no información de control.

3.2.3 Método de marcado de cabeza y cola para relleno de bits cero

El relleno de cero bits permite que la trama de datos contenga cualquier cantidad de bits y permite que la codificación de cada carácter contenga cualquier cantidad de bits. Utiliza un patrón de bits específico, 01111110, para marcar el principio y el final de un cuadro. Para evitar que el flujo de bits 01111110 que aparece en los bits de información se juzgue erróneamente como la primera y la última marca de la trama, cuando la capa de enlace de datos del remitente encuentre 5 "1" consecutivos en los bits de información, insertará automáticamente un " 1" después de él. 0"; y el receptor hace la operación inversa de este proceso, es decir, cada vez que recibe 5 "1" consecutivos, automáticamente borra el siguiente "0" para restaurar la información original. El relleno de bits cero es fácil de implementar mediante hardware y tiene mejor rendimiento que el relleno de caracteres.

3.2.4 Método de codificación ilegal

Cuando se codifican bits en la capa física, generalmente se utiliza la codificación de violación. Por ejemplo, el método de codificación Manchester codifica los bits de datos "1" y "0" en pares de niveles "alto-bajo" y "bajo-alto", mientras que los pares de niveles "alto-alto" y "bajo-bajo" están en los bits de datos. Es ilegal. Estas secuencias de codificación ofensivas se pueden utilizar para delimitar el inicio y el final de los fotogramas. (Estándar LAN IEEE 802)

El método de codificación de infracción puede lograr la transparencia de la transmisión de datos sin utilizar ninguna tecnología de relleno, pero solo es adecuado para entornos de codificación especiales que utilizan codificación redundante. Debido a la fragilidad del campo de recuento en el método de conteo de caracteres y la complejidad e incompatibilidad en la implementación del método de llenado de caracteres, el método de encuadre más común en la actualidad es el método de llenado de cero bits. < a i=2>yMétodo de codificación de infracciones.

3.3 Control de errores

Los enlaces de comunicación reales no son ideales y pueden ocurrir errores durante la transmisión de bits (1 cambia a 0, 0 cambia a 1), lo cual es un error de bit.

La tecnología de codificación se utiliza generalmente para el control de errores. Hay dos categorías principales: solicitud de repetición automática ARQ y corrección de errores reenviada FEC. En el método ARQ, cuando el extremo receptor detecta un error, intenta notificar al extremo emisor que retransmita hasta que se reciba la palabra clave correcta. En el método FEC, el extremo receptor no solo puede detectar errores, sino también determinar la posición del error de la cadena de bits y corregirla. Por lo tanto, el control de errores se puede dividir en codificación de detección de errores y codificación de corrección de errores.

3.3.1 Codificación de detección de errores

La codificación de detección de errores adopta tecnología de codificación redundante. La idea central es que antes de enviar datos válidos (bits de información), ciertos bits redundantes se adjuntan de acuerdo con una determinada relación para formar un código que se ajuste a una determinada regla. antes de enviar. Cuando cambian los datos válidos a enviar, los bits redundantes correspondientes también cambian, de modo que las palabras de código siguen las mismas reglas. El extremo receptor determina si hay un error en función de si la palabra de código recibida aún se ajusta a las reglas originales. Los códigos de detección de errores comunes incluyencódigo de verificación de paridad ycódigo de redundancia cíclica.

1. Código de verificación de paridad

Código de verificación de paridad es el nombre colectivo para el código de verificación impar y el código de verificación par, y es el código de detección de errores más básico. Consta de elementos de información de n-1 bit y un elemento de verificación de 1 bit. Si es un código de verificación impar, luego de agregar un elemento de verificación, el número de "1" en la palabra de código con longitud n será un número impar; Si es un código de verificación par, luego de agregar un elemento de verificación, el número de "1" en la palabra de código con longitud de código n es un número par. Sólo puede detectar errores en bits impares, pero no sabe qué bits están incorrectos ni puede detectar errores en bits pares.

2. Código de redundancia cíclica

El código de redundancia cíclica (CRC) también se denomina código polinómico. Cualquier código compuesto por una cadena de dígitos binarios puede establecer una correspondencia uno a uno con un polinomio que contenga sólo dos coeficientes, 0 y 1. Una trama de k bits puede considerarse como una secuencia de coeficientes de un polinomio de grado k desde Xk-1 hasta X0. El orden de este polinomio es k-1. El bit de orden superior es el coeficiente del término Xk-1. , y el siguiente bit es el coeficiente de Xk-2. Por analogía (similar a la conversión entre decimal y binario), el último bit es el resto R, que se utiliza como secuencia de verificación de trama.

Dada una trama o mensaje de m bits, el remitente genera una secuencia de r bits, denominada secuencia de verificación de trama (FCS). La trama así formada constará de m+r bits. El emisor y el receptor acuerdan de antemano un polinomio G(x), de modo que la trama con el código de verificación sea divisible por el polinomio predeterminado G(x). El receptor utiliza el mismo polinomio para dividir la trama recibida, si no queda resto se considera libre de errores.

Suponiendo que una trama tiene m bits y su polinomio correspondiente es M(x), los pasos para calcular el código redundante son los siguientes:

①Agregue 0: suponga que el orden de G (x) es r, agregue r 0 al extremo inferior del cuadro;

② División de módulo 2: use la división de módulo 2 (XOR, mismo 0 pero diferente 1), use la cadena de datos correspondiente a G (x) para eliminar la cadena de datos calculada en ①, y el resto es el código redundante.

Ejemplo: Los datos a enviar son 1101 0110 11, usando la verificación CRC, el polinomio generado es 10011, entonces ¿cuáles deberían ser los datos finales enviados?

10011 X4+X1+1 r=4 (1101 0110 11 0000)/10011=1100 00 1 1110(FCS)

3.3.2 Codificación de corrección de errores

Distancia de Hamming: el número de bits con diferentes valores de bits correspondientes de dos códigos legales (palabras de código) se denomina distancia de Hamming (distancia de código) de estas dos palabras de código. En un conjunto de códigos válido, dos códigos legales (palabras de código) cualesquiera ) se denomina distancia de Hamming (distancia de código) del conjunto de códigos.

En el proceso de comunicación de datos, una forma de resolver el problema de error es agregar suficiente información redundante a cada bloque de datos que se enviará, de modo que el receptor pueda deducir lo que el remitente realmente envió, como una cadena de bits. El código de corrección de errores más común es el código Hamming. Su principio de implementación es agregar varios bits de verificación a los bits de información efectivos para formar un código Hamming y convertirlo. Cada bit binario del código plano se asigna a varios grupos de paridad. Cuando un determinado bit es incorrecto, hará que cambien los valores de varios bits de verificación relacionados, lo que no solo puede detectar la desalineación, sino también señalar la posición de la desalineación, proporcionando una base para la corrección automática de errores. Si la distancia de Hamming es d, la detección de errores requiere d+1 bits y la corrección de errores requiere 2d+1 bits.

El proceso de codificación del código Hamming:

(1) Determinar el número de dígitos en el código Hamming

Supongamos que n es el número de dígitos de información válida, k es el número de dígitos de control, 2k-1 < a i=3>n+k (desigualdad de Hamming), n=4, k=3, sea la información D4D3D2D1 (1010), un total de cuatro dígitos, y el dígito de control es P3P2P1, un total de tres bits, el código Hamming correspondiente es H7H6H5H4H3H2H1.

(2) Determinar la distribución de los dígitos de control.

Se estipula que el bit de verificación Pi está en la posición del bit Hamming número 2i-1, y los bits restantes son bits de información, por lo que existen:

H7

H6

H5

H4

H3

H2

H1

D4

D3

D2

P3

D1

P2

P1

(3) Agrupación para formar una relación de verificación

Cada bit de datos se verifica con múltiples bits de verificación, pero se debe cumplir la condición: el número de bit Hamming del bit de datos verificado es igual a la suma de los números Hamming de los bits de verificación utilizados para verificar el bit de datos. La relación de verificación formada por la agrupación es la siguiente:

P1(H1)

P2(H2)

P3(H4)

D1

3

1

2

D2

5

1

4

D3

6

2

4

D4

7

1

2

4

(4) Verificar el valor del bit

El valor del bit de paridad Pi es el OR exclusivo (paridad par) de todos los bits del i-ésimo grupo.

Las agrupaciones según (3) son:

      P1=D1D2⊕D4=0⊕1⊕1=0

      P2=D1⊕D3⊕D4=0⊕0⊕1=1

      P3=D2⊕D3⊕D4=1⊕0⊕1=0

Por eso, hace 1010 años 1010010.

(5) Principio de verificación del código Hamming

Cada grupo de verificación utiliza bits de verificación y los bits de información involucrados en la formación de los bits de verificación para realizar la verificación de paridad, formando k ecuaciones de verificación:

S1=P1⊕D1⊕D2⊕D4

S2=P2⊕D1⊕D3⊕D4

S3=P3⊕D2⊕D3⊕D4

Si el valor de S3S2S1 es "000", significa que no hay error, de lo contrario significa que hay un error y este número es el número de bit del bit de error. Por ejemplo, S3S2S1=001, significa que el primer El bit está mal, es decir, H1 está mal, simplemente invierta el bit y se logrará el propósito de corregir el error.

3.4 Control de flujo y mecanismo de transmisión confiable

3.4.1 Control de flujo, transmisión confiable y mecanismo de ventana deslizante

El control de flujo implica controlar la velocidad a la que se envían las tramas en un enlace para que el receptor tenga suficiente espacio en el buffer para recibir cada trama. El método básico de control de flujo es queel receptor controla la velocidad a la que el remitente envía datos. Hay dos métodos comunes:Protocolo Parada-Espera y Protocolo de ventana deslizante.

1. Principio básico de parada y espera del control de flujo

Cada vez que el remitente envía una trama, debe esperar la señal de respuesta del receptor antes de enviar la siguiente trama; el receptor cada vezrecibe Cada cuadro requiereretroalimentaciónuna señal de respuesta, que indica que se puede recibir el siguiente cuadro. Si el receptorlo hace no hay respuestaseñal de respuesta, entonces el remitente debeesperar. Solo se permite enviar una trama a la vez y luego se atasca en el proceso de espera a que el receptor confirme la información, por lo que la eficiencia de transmisión es muybaja. .

2. Principios básicos del control de flujo de ventanas corredizas.

En cualquier momento, el remitente mantiene un conjunto de números de secuencia consecutivos de tramas que pueden enviarse, denominadoventana de envío; al mismo tiempo, el receptor también mantiene un conjunto continuo de números de secuencia a los que se les permite recibir tramas, denominado ventana de recepción. La ventana de envío se utiliza para controlar el flujo del remitente. El tamaño de la ventana de envío WT representa el número máximo de tramas de datos que el remitente puede enviar sin recibir información de confirmación de la otra parte. De la misma manera, la ventana de recepción se configura en el extremo receptor para controlar qué tramas de datos se pueden recibir y cuáles no. En el lado receptor, solo cuando el número de secuencia de la trama de datos recibida cae dentro de la ventana de recepción, se permite recibir la trama de datos. Si el marco de datos recibido queda fuera de la ventana de recepción, se descartará.

Cada vez que el remitente recibe un marco de confirmación,la ventana de envío se desliza hacia adelante un marco. Cuando no hay ningún marco para enviar en el envío ventana, marco, el remitente dejará de enviar hasta que reciba un marco de confirmación del receptor para mover la ventana. Después de recibir la trama de datos, el extremo receptor mueve la ventana una posición hacia adelante y envía de vuelta una trama de reconocimiento. Si la trama de datos recibida cae fuera de la ventana de recepción, se descartará.

característica:

① La ventana de envío puede deslizarse hacia adelante solo cuando la ventana de recepción devuelve un cuadro de confirmación y avanza.

② Desde la perspectiva del concepto de ventana deslizante, el protocolo de parada-espera, el protocolo de trama N de retroceso y el protocolo de retransmisión selectiva solo difieren en el tamaño de la ventana de envío y el tamaño de la ventana de recepción:

Protocolo de parada y espera: tamaño de ventana de envío = 1, tamaño de ventana de recepción = 1.

Protocolo de trama N posterior: tamaño de ventana de envío > 1, tamaño de ventana de recepción = 1.

Seleccione el protocolo de retransmisión: tamaño de ventana de envío > 1, tamaño de ventana de recepción > 1.

③Cuando el tamaño de la ventana de recepción es 1, se puede garantizar la recepción ordenada de los fotogramas.

④ En el protocolo de ventana deslizante de la capa de enlace de datos, el tamaño de la ventana se fija durante el proceso de transmisión (a diferencia del protocolo de ventana deslizante de la capa de transporte).

3. Mecanismo de transmisión confiable

La transmisión confiable en la capa de enlace de datos generalmente utilizaacuse de recibo y retransmisión de tiempo de espera < a i=4>Dos mecanismos para completar. Un acuse de recibo es un marco de control sin datos que permite al receptor informar al remitente qué contenido se recibió correctamente. En algunos casos, para mejorar la eficiencia de la transmisión, la confirmación se incluye en un marco de respuesta, que se denomina Reconocimiento de Piggy. La retransmisión de tiempo de espera significa que el remitente inicia un temporizador después de enviar un determinado marco de datos. Si el marco de datos enviado no se recibe dentro de un cierto período de tiempo, Confirme la trama, luego reenviar la trama de datos hasta que la transmisión sea exitosa.

La solicitud automática de solicitud (ARQ) recupera la trama errónea pidiendo al remitente que retransmita la trama de datos errónea. Es uno de los métodos utilizados en la comunicación para tratar los errores causados ​​por el canal. Hay tres tipos de solicitudes de retransmisión automática tradicionales: Detener—Esperar (DeteneryEspera)ARQ, AtrásN fotogramas (IrVolverN)ARQyRepetición selectiva (Repetición selectiva). Los dos últimos protocolos son una combinación de tecnología de ventana deslizante y tecnología de retransmisión de solicitudes, porque cuando el tamaño de la ventana es lo suficientemente grande, los fotogramas pueden fluir continuamente en la línea, por lo que también se denominan protocolos ARQ continuos. Tenga en cuenta que los mecanismos de control de flujo y los mecanismos de transmisión confiables están entrelazados en la capa de enlace de datos. ARQ

3.4.2 Ventana deslizante de fotograma único y protocolo de parada y espera

En el protocolo de parada y espera, la estación de origen debe esperar la confirmación después de enviar una sola trama. La estación de origen no puede enviar otras tramas de datos antes de que la respuesta de la estación de destino llegue a la estación de origen. Desde la perspectiva del mecanismo de ventana deslizante, el protocolo de parada-espera es equivalente al protocolo de ventana deslizante en el que los tamaños de la ventana de envío y de la ventana de recepción son ambos 1.

En el protocolo stop-wait, además de la pérdida de tramas de datos, pueden ocurrir los dos errores siguientes:

La trama que llega a la estación de destino puede haber estado corrupta. Después de que la estación receptora la detecta usando tecnología de detección de errores, simplemente la descarta. el marco. . Para hacer frente a esta posible situación, la estación de origen está equipada con un temporizador. Después de enviar una trama, la estación de origen espera una confirmación. Si no recibe una confirmación cuando expira el temporizador, envía la misma trama nuevamente . Repita esto hasta que llegue el marco de datos sin errores.

②El marco de datos es correcto pero el marco de confirmación se destruye. En este momento, el receptor ha recibido el marco de datos correcto, pero el remitente no puede recibir el marco de confirmación, entonces el remitente retransmite la trama de datos recibida. Cuando el receptor recibe la misma trama de datos, descartará la trama y retransmitirá una trama de reconocimiento correspondiente a la trama /span>

Además, para cronometrar la retransmisión y determinar la necesidad de fotogramas duplicados, tanto el remitente como el receptor deben configurar un búfer de fotogramas. Cuando el remitente completa el envío de la trama de datos, debe conservar una copia de la trama de datos en su búfer de envío para poder retransmitirla en caso de un error. Esta copia solo se puede borrar cuando se recibe el marco de confirmación ACK enviado por la otra parte. El canal de comunicación del protocolo parada-espera tiene baja utilización. Para superar esta deficiencia, elretrocesoNprotocolo de marco y < /span>. Seleccione el protocolo de retransmisión

3.4.3 Ventana deslizante de marcos múltiples y protocolo de marco N de retroceso (GBN)

En el protocolo ARQ de N tramas de retroceso, el remitente no necesita comenzar a enviar la siguiente trama después de recibir el ACK de la trama de confirmación anterior, pero puede enviar tramas continuamente. Cuando el receptor detecta tramas de información fuera de secuencia, requiere que el remitente reenvíe todas las tramas no reconocidas después de la última trama de información recibida correctamente; o después de que el remitente envíe N tramas, si se encuentra la trama anterior de las N tramas. Si su confirmación La información no se devuelve después del tiempo de espera del temporizador, se considera que la trama es errónea o se ha perdido. En este momento, el remitente tiene que retransmitir la trama de error y las N tramas posteriores, es decir, el receptor solo puede recibir tramas. en orden. . Dado que se envían muchas tramas continuamente, la trama de acuse de recibo debe indicar qué trama se está acusando recibo. Para reducir la sobrecarga, el protocolo GBN también estipula que el extremo receptor no necesariamente tiene que enviar una trama de confirmación inmediatamente después de recibir una trama de datos correcta, sino que puede enviar una trama de confirmación después de recibir varias tramas de datos correctas en un fila.Envía información de confirmación al último marco de datos, o solo puedes confirmar los marcos recibidos correctamente anteriormente cuando tengas datos para enviar. Es decir, el reconocimiento de un determinado marco de datos indica que el marco de datos y todos los marcos de datos anteriores se han recibido correctamente, lo que se denomina confirmación acumulada .

La ventana de recepción del protocolo GBN es 1, lo que puede garantizar que las tramas de datos se reciban en orden. Si se utilizan n bits para numerar la trama, el tamaño de la ventana de envío WT debe satisfacer1<WT< /a >. Se puede ver que si la calidad de transmisión del canal es deficiente y la tasa de error de bits es alta, es posible que el protocolo GBN no sea mejor que el protocolo de parada y espera. la utilización del canal mediante el envío continuo de tramas de datos; por otro lado, al retransmitir, el Las tramas de datos transmitidas originales deben ser. Se retransmite la trama de datos correcta (se retransmite un error), lo que reduce la eficiencia de transmisiónmejora. Si el tamaño de la ventana de envío es mayor que 2n-1, el receptor no podrá distinguir los fotogramas nuevos de los antiguos. Por un lado, el protocolo back-off N-frame 2n-1

3.4.4 Ventana deslizante de fotogramas múltiples y protocolo de retransmisión selectiva (SR)

Para mejorar aún más la utilización del canal, puede intentar retransmitir solo los marcos de datos con errores o los marcos de datos con vencimiento del temporizador , espere hasta que se reciba el marco de datos con el número de secuencia faltante y luego se envíe al host juntos. Esta es la opción para retransmitir el protocolo ARQ.

En el protocolo SR, cada búfer de envío corresponde a un temporizador. Cuando el temporizador expira, la trama en el búfer se retransmitirá. Además, este protocolo utiliza una estrategia de manejo de errores más efectiva que los otros protocolos mencionados anteriormente, es decir, una vez que el receptor sospecha que la trama tiene un error, enviará una trama negativaAl remitente, solicite al remitente que retransmita la trama especificada en el NAK. NAK

El tamaño de la ventana de recepción WR y el tamaño de la ventana de envío WT del protocolo SR son mayores que 1 y se pueden enviar o recibir varias tramas a la vez. En el protocolo SR, los tamaños de la ventana de recepción y la ventana de envío suelen ser los mismos, y el valor máximo es la mitad del rango del número de secuencia. Si se utilizan n bits para numerar la trama, WTmax = WRmax = 2 ( n-1) debe satisfacerse.

El protocolo SR puede evitar la retransmisión de tramas de datos que han llegado correctamente al extremo receptor, pero se debe configurar un búfer con una capacidad considerable en el extremo receptor para almacenar temporalmente las tramas que no se reciben correctamente en orden. El extremo receptor no puede recibir tramas con números de secuencia por debajo del límite inferior de la ventana o por encima del límite superior de la ventana, por lo que la cantidad de búferes necesarios es igual al tamaño de la ventana, no a la cantidad de números de secuencia.

*3.4.5 Suplemento conceptual

La Eficiencia del canal se refiere a la relación entre el tiempo necesario para que el remitente envíe datos de manera efectiva dentro de un ciclo de envío y el ciclo de envío completo. El período desde que el remitente comienza a enviar datos hasta que recibe la primera trama de confirmación se denomina ciclo de envío y se establece en T. El remitente envía un total de L bits de datos durante este período. La velocidad de transmisión de datos del remitente es C , entonces el tiempo de envío que la parte utiliza para transmitir datos de manera efectiva es L / C. En este caso, la tasa de utilización del canal es (L / C) / T.

Ejemplo: la velocidad de transmisión de datos de un canal es de 4 kb/s y el retraso de transmisión unidireccional es de 30 ms. Si la utilización máxima del canal del protocolo de parada y espera debe alcanzar el 80%, ¿cuál es el mínimo requerido? longitud del marco de datos?

L/C=L/4,T=L/4+30×2,(L/C)/T=80%

L=960 bits

3.5 Control de acceso a los medios

La tarea principal del control de acceso a los medios es aislar las señales transmitidas desde otros nodos en el canal acordado para cada nodo utilizando el medio para coordinar la transmisión de los nodos activos. El protocolo utilizado para determinar la asignación de canales en los canales de transmisión pertenece a una subcapa de la capa de enlace de datos llamada subcapa de control de acceso al medio (MAC). El contenido del control de acceso a los medios es tomar ciertas medidas para que la comunicación entre dos pares de nodos no interfiera entre sí. Los métodos MAC comunes incluyendivisión de canales y control de acceso al medio por división, control de acceso al medio de acceso aleatorioycontrol de acceso a los medios de acceso a sondeo. El primero es un método estático para dividir canales, mientras que los dos últimos son dinámicos Método de asignación de canales.

3.5.1 Control de acceso al medio por división de canales

El control de acceso a medios por división de canales aísla cada dispositivo que utiliza el medio de las comunicaciones de otros dispositivos en el mismo canal de comunicación y distribuye racionalmente los recursos en el dominio de tiempo y frecuencia Asignar< a i=2> a los dispositivos de la red.

A continuación se presentael concepto de tecnología de multiplexación. Cuando el ancho de banda del medio de transmisión excede el ancho de banda requerido para transmitir una sola señal, las personas mejoran la utilización del sistema de transmisión transportando múltiples señales de transmisión en un medio al mismo tiempo. Esto es lo que se llama multiplexación, que también es la realización del enfoque de < /span>,. Utilización mejorada del canal. La tecnología de multiplexación combina múltiples señales en un canal físico para su transmisión, lo que permite que múltiples computadoras o dispositivos terminales compartan recursos del canalcontrol de acceso a los medios por división de canales

La esencia de la división de canales es dividir lógicamente un canal de transmisión original en varios subcanales que no interfieran para la comunicación entre dos nodos mediante división de tiempo, división de frecuencia, división de código y otros métodos. De hecho, es dividir el canal de transmisión en El canal se convierte en un canal punto a punto. El control de acceso al medio por división de canales se divide en los siguientes cuatro tipos:

1. Multiplexación por división de frecuencia (FDM)

La multiplexación por división de frecuencia es una tecnología de multiplexación que modula múltiples señales de banda base en diferentes portadoras de frecuencia y luego las superpone para formar una señal compuesta. En el caso de que el ancho de banda disponible de un canal físico exceda el ancho de banda requerido para una única señal original, el ancho de banda total del canal físico se puede dividir en una cantidad de subcanales que sean iguales (o ligeramente más anchos) que el ancho de banda. para transmitir una sola señal, con cada subcanal transmitiendo una señal. Esto es multiplexación por división de frecuencia. (similar a paralelo)

El ancho de banda asignado a cada subcanal puede ser diferente, pero su suma no debe exceder el ancho de banda total del canal. En aplicaciones prácticas, para evitar interferencias entre subcanales, es necesario agregar una "banda de guarda" entre canales adyacentes.

La ventaja de la multiplexación por división de frecuencia es que utiliza plenamente el ancho de banda del medio de transmisión y tiene una alta eficiencia del sistema; debido a que la tecnología es relativamente madura, es más fácil de implementar.

2. Multiplexación por división de tiempo (TDM)

La multiplexación por división de tiempo divide un canal físico en varios intervalos de tiempo según el tiempo y los asigna a múltiples señales a su vez. Cada intervalo de tiempo está ocupado por una señal multiplexada, a diferencia de FDM, que envía múltiples señales al mismo tiempo. De esta manera, se pueden transmitir múltiples señales en un canal físico utilizando la intersección de señales en el tiempo. (similar a la concurrencia)

Durante un tiempo determinado, lo que se transmite en el canal de multiplexación por división de tiempo es sólo la señal entre un determinado par de dispositivos; durante un período de tiempo determinado, lo que se transmite es la señalTiempo señal multiplexada dividida. Sin embargo, debido a la naturaleza en ráfagas de los datos informáticos, la tasa de utilización del subcanal asignado por parte de un usuario generalmente no es alta. Multiplexación estadística por división de tiempo (STDM, también conocida como multiplexación asíncrona por división de tiempo) es una mejora de TDM. Utiliza tramas STDM. Las tramas STDM no tienen intervalos de tiempo. Se asignan de forma fija, pero los intervalos de tiempo se asignan dinámicamente según demanda. Cuando el terminal tiene datos para transmitir, se le asignará un intervalo de tiempo. Por lo tanto, puede mejorar la utilización de la línea.

3. Multiplexación por división de longitud de onda (WDM)

La multiplexación por división de longitud de onda es la multiplexación por división de frecuencia óptica, que transmite múltiples señales ópticas de diferentes longitudes de onda (frecuencias) en una fibra óptica, debido a diferentes longitudes de onda (frecuencias), las señales ópticas de cada canal no interfieren entre sí. Finalmente, se utiliza un multiplexor de descomposición de longitud de onda para descomponer las longitudes de onda de cada canal. Dado que las ondas de luz se encuentran en la banda de alta frecuencia del espectro y tienen un gran ancho de banda, se puede lograr una multiplexación por división de múltiples longitudes de onda.

4. Multiplexación por división de código (CDM)

La multiplexación por división de código es un método de multiplexación que utiliza diferentescodificaciones para distinguir cada señal original. A diferencia de FDM y TDM, comparte tanto la frecuencia como el tiempo del canal.

De hecho, el término más utilizado esAcceso múltiple por división de código (Acceso múltiple por división de código, CDMA). El principio es que cada bit El tiempo se divide a su vez en m intervalos de tiempo cortos, llamados chips (Chip). Normalmente, el valor de m es 64 o 128, en el siguiente ejemplo: Para simplificar, sea m 8. A cada estación se le asigna una secuencia de chip de m bits única. Al enviar un 1, la estación envía su secuencia de chips; al enviar un 0, la estación envía el complemento de la secuencia de chips. Cuando dos o más estaciones transmiten al mismo tiempo, los datos de cada canal se suman linealmente en el canal. Para separar varias señales del canal, se requiere que las secuencias de chips de cada estación sean ortogonales entre sí.

Una comprensión simple es que la señal enviada por la estación A a la estación C está representada por un vector, y la señal enviada por la estación B a la estación C está representada por otro vector. Los dos vectores requieren< a i=1 >Mutuamente ortogonales. Los componentes del vector se llaman chips.

Los siguientes ejemplos ilustran los principios de CDMA:

Si a la secuencia de chip de la estación A se le asigna 00011011, entonces la estación A envía 00011011 para indicar el envío del bit 1, y el envío de 11100100 indica el envío del bit 0. Por conveniencia, por convención, 1 en el chip se escribe como +1 y 0 se escribe como -1. Por lo tanto, la secuencia del chip de la estación A es -1-1-1+l+1-1+1+1, y la secuencia de chips de la estación B es -1-1-1+l+1-1+1+1. La secuencia de chips es +1+1+1-1-1+1-1-1. Sean los vectores S y T los vectores de chip de las estaciones A y B. Las secuencias de chips de dos estaciones diferentes son ortogonales, es decir, el producto interno normalizado (Inner Product) de los vectores S y T es 0, S·T0 ,S·S=1. Sea S= (-1 -1 -1 +l +1 -1 +1 +1), T= (+1 +1 +1 -1 -1 +1 -1 -1), y obtenga S+T= ( 0 0 -2 -2 0 -2 0 2), después de llegar a la estación C, realice la separación de datos. Si desea obtener los datos de la estación A, la estación C debe conocer la secuencia de chips de la estación A, y dejar que S y S +T realizar especificaciones Transformar el producto interior. Según el principio de superposición, las señales de otras estaciones se filtran en el resultado del producto interno. Los términos de correlación del producto interno son todos 0, dejando solo la señal enviada por la estación A. Obtenga S·(S+T)=1, por lo que los datos enviados por la estación A son 1. De la misma manera, si se obtienen los datos de la estación B, entonces T·(S+T)=-1, por lo que el vector de señal enviado desde la estación B es un vector complementario, que representa 0.

La tecnología de multiplexación por división de código tiene las ventajas de una alta utilización del espectro, una gran capacidad antiinterferente, una gran confidencialidad y una buena calidad de voz, así como una reducción de los costos de inversión y operación, y se utiliza principalmente en sistemas de comunicación inalámbrica, especialmente en sistemas de comunicación móvil.

3.5.2 Control de acceso a medios de acceso aleatorio

En el protocolo de acceso aleatorio no se utiliza control centralizado para solucionar el problema del orden de envío de información, todos los usuarios pueden enviar información de forma aleatoria según sus propios deseos, ocupando toda la tarifa del canal. En una red de autobuses, cuando dos o más usuarios envían información al mismo tiempo , se generará un conflicto . , lo que provoca que todos los envíos de los usuarios en conflicto terminen en fallo. Para resolver la colisión que ocurre en el acceso aleatorio, cada usuario necesita retransmitir su trama repetidamente de acuerdo con ciertas reglas hasta que la trama pase sin colisión. Estas reglas son el protocolo de control de acceso al medio de acceso aleatorio. Los protocolos comúnmente utilizados incluyen el protocolo ALOHA, el protocolo CSMA, el protocolo CSMA/CD y CSMA/CA protocolo. protocolo basado en contención y obtiene el derecho a enviar información. Por lo tanto, el protocolo de control de acceso al medio de acceso aleatorio también se denomina contienda , etc., sus ideas centrales son: el ganador obtiene el canal a través de

No es difícil encontrar que si se utiliza el mecanismo de división de canales para el control de acceso a los medios, entonces la comunicación entre nodos compartirá espacio, tiempo o ambos; y si se utiliza un mecanismo de control de acceso aleatorio, entonces la comunicación entre nodos compartirá espacio, tiempo o ambos. No necesitas compartir tiempo ni espacio. Entonces, el control de acceso aleatorio a los medios es esencialmente un acto de convertir un canal de transmisión en un canal punto a punto.

1. Protocolo ALOHA

ALOHA, esta es una copia del sistema Additive Link On-line Hawaii. ALOHA协议分为ALOHA协议Brecha de tiempoALOHA协议.

① Protocolo puro ALOHA

La idea básica del protocolo ALOHA puro es que cuando cualquier estación de la red necesita enviar datos, puede enviarlos sin ninguna detección. Si no se recibe un acuse de recibo dentro de un cierto período de tiempo, el sitio asume que ocurrió una colisión durante la transmisión. El sitio de envío debe esperar un período de tiempo antes de enviar datos hasta que la transmisión se realice correctamente. La estrategia de retransmisión adoptada por el sistema ALOHA puro es dejar que cada estación espere un período de tiempo aleatorio antes de retransmitir. Si se vuelve a producir una colisión, deberá esperar un período de tiempo aleatorio hasta que la retransmisión se realice correctamente. Suponiendo que la carga de la red es G, el rendimiento de la red ALOHA pura es S = Ge-2G. Cuando G = 0,5, S = 0,5e-1≈0,184, que es el valor máximo que puede alcanzar el rendimiento S. Se puede ver que el rendimiento de la red ALOHA pura es muy bajo. Para superar esta deficiencia, la gente mejoró el protocolo ALOHA puro original y produjo el protocolo ALOHA ranurado.

② Franja horaria Protocolo ALOHA

El protocolo de intervalos de tiempo ALOHA sincroniza el tiempo de todas las estaciones y divide el tiempo en intervalos de tiempo de igual longitud (Slots), estipula que solo se puede enviar una trama al comienzo de cada intervalo de tiempo. Esto evita la arbitrariedad del usuario al enviar datos, reduce la posibilidad de conflictos de datos y mejora la utilización del canal.

La relación entre el rendimiento S de la red ALOHA ranurada y la carga de la red G es S = Ge-G. Cuando G=1, S=e-1≈0.368. Este es el valor máximo posible de rendimiento S. Se puede ver que el rendimiento de la red ALOHA ranurada es el doble que el de la red ALOHA pura.

2. Protocolo CSMA

Aunque la eficiencia del sistema ALOHA ranurado es el doble que la del sistema ALOHA puro, cada estación envía datos como quiere, incluso si otras estaciones están enviando, por lo que la probabilidad de colisión de envío es muy alta.

Si cada estación monitorea el canal compartido antes de enviar y descubre que el canal está inactivo antes de enviar, la posibilidad de conflicto se reducirá en gran medida, mejorando así la utilización del canal.Carrier Sense El protocolo Multiple Access (Carrier Sense Multiple Access, CSMA) se basa en esta idea. El protocolo CSMA es un protocolo mejorado basado en el protocolo ALOHA. Su principal diferencia con el protocolo ALOHA es la adición de un dispositivo de monitoreo de operador.

Dependiendo del método de monitoreo y del método de procesamiento luego de detectar que el canal está ocupado, el protocolo CSMA se divide en tres tipos:

① 1—Adherirse a CSMA

1-La idea básica de CSMA persistente (l-CSMA persistente) es: cuando un nodo quiere enviar datos, primero monitorea el canal. Si el canal está inactivo, envíe los datos inmediatamente; si el canal está ocupado, luego espere y continúe escuchando hasta que el canal esté inactivo; si ocurre un conflicto, espere un período de tiempo aleatorio antes de reiniciar el monitoreo del canal.

El significado de "1-persistencia" es: después de monitorear que el canal está ocupado,continuar monitoreando el canal; después de monitorear que el el canal está inactivo, envíe la trama es 1, es decir, los datos se envían inmediatamente.

El retraso de la propagación tiene un mayor impacto en el rendimiento del protocolo CSMA de 1 adherencia. Cuando el nodo A comienza a enviar datos, el nodo B también tiene datos para enviar, pero en ese momento la señal del nodo A aún no ha llegado al nodo B. El nodo B detecta que el canal está inactivo, por lo que envía los datos inmediatamente y El resultado es inevitable: conduce al conflicto. Incluso sin considerar los retrasos, la adhesión al protocolo CSMA puede crear conflictos. Por ejemplo, cuando el nodo A está enviando datos, los nodos B y C también se están preparando para enviar datos. Escuchan que el canal está ocupado, por lo que insisten en monitorear. Como resultado, cuando el nodo A termina de enviar, los nodos B y C enviarán datos. enviar datos inmediatamente, lo que también causa conflicto. (Siempre escuchando, varios sitios enviarán inmediatamente después de estar inactivos, lo que fácilmente puede causar conflictos)

② Incumplimiento de CSMA

La idea básica de CSMA no persistente es: cuando un nodo quiere enviar datos, primero escucha el canal; si el canal está inactivo, envía los datos inmediatamente; si el canal está ocupado, abandona el monitoreo y espera un tiempo aleatorio antes de repetir el proceso anterior.

El protocolo CSMA no persistente abandona el monitoreo después de detectar que el canal está ocupado, reduciendo así la probabilidad de colisiones causadas por múltiples nodos esperando a que el canal quede libre y enviando datos al mismo tiempo, pero lo hará. ademásAumentarel retraso promediode los datos en la red. Se puede ver que la mejora de la utilización del canal se produce a expensas del aumento del tiempo de retardo de los datos en la red. (Monitorear inmediatamente y enviar cuando sea gratuito)

③ p—Adherirse a CSMA

CSMA p-persistente (CSMA p-persistente) se utiliza para canales por división de tiempo, su idea básica es: cuando un nodo quiere enviar datos, primero escucha el canal, si el canal está ocupado, continúa escuchando hasta que el canal está inactivo; si el canal está inactivo, entonces los datos se envían con probabilidad p y se posponen al siguiente intervalo de tiempo con probabilidad 1-p; si el canal todavía está inactivo en el siguiente intervalo de tiempo, los datos aún se envían con probabilidad p y se posponen al siguiente intervalo de tiempo con probabilidad 1-p; este proceso continúa hasta que los datos se envíen exitosamente o se detecte que el canal está ocupado debido a que otros nodos envían datos. Si este último es el caso, espere el siguiente intervalo de tiempo y luego reiniciar el monitoreo.

p-persistence CSMA envía datos con probabilidad p después de detectar que el canal está inactivo y los pospone al siguiente intervalo de tiempo con probabilidad 1-p. Su propósito es reducir la probabilidad de colisión de múltiples nodos que envían datos al mismo tiempo después de detectar que el canal está inactivo en el protocolo CSMA 1-persistente; el propósito de usar "escucha" persistente es tratar de superar el tiempo de retraso causado por espera aleatoria en el protocolo CSMA no persistente Desventajas más largas. Por lo tanto, p-adherirse al protocolo CSMA es una solución de compromiso entre la no adhesión al acuerdo CSMA y 1-adherencia al acuerdo CSMA.

3. Protocolo CSMA/CD

El protocolo de detección de colisiones/acceso múltiple con detección de portadora (CSMA/CD) es una mejora del protocolo CSMA y es adecuado para redes de tipo bus o semidúplex

Monitoreo de operador significa que cada estación debe detectar constantemente el canal antes y durante el envío. El propósito de detectar el canal antes de enviar es obtener el derecho a enviar y detectar durante envío El objetivo del canal es detectar a tiempo si los datos enviados han colisionado. La estación escucha el canal antes de enviar datos. Solo puede enviar datos cuando el canal está inactivo. Detección de colisiones (Detección de colisiones) es la , si se detecta una colisión, el envío de datos se detendrá inmediatamente, esperará un período de tiempo aleatorio y luego intentará enviar datos nuevamente. monitoreo del lado de envío

El flujo de trabajo de CSMA/CD se puede resumir simplemente como "escuchar primero y luego transmitir, escuchar mientras se transmite, detener la transmisión debido a un conflicto y retransmitir aleatoriamente".

La velocidad de propagación de las ondas electromagnéticas en el bus siempre es limitada, por lo que cuando la estación emisora ​​detecta que el canal está inactivo en un momento determinado, el canal no necesariamente está inactivo en ese momento. Sea τ el retardo de propagación unidireccional. En t=0, A envía datos. Cuando t = τ-δ, los datos enviados por A aún no han llegado a B. B envía los datos porque B detecta que el canal está inactivo. Después del tiempo δ/2, es decir, cuando t = t- δ/2, los datos enviados por A y los datos enviados por B chocan, pero ni A ni B lo saben en este momento. En t=τ, B detecta una colisión y deja de enviar datos. En t=2τ-δ, A detecta una colisión y deja de enviar datos. Obviamente, es imposible que las estaciones en CSMA/CD envíen y reciban al mismo tiempo, por lo que Ethernet que utiliza el protocolo CSMA/CD solo puede realizar comunicación semidúplex.

La estación A puede saber si la trama enviada choca después de que hayan transcurrido como máximo 2τ después del envío. Por lo tanto, el tiempo de ida y vuelta de extremo a extremo de Ethernet 2τ se denomina período de contienda (también conocido como ventana de conflicto o ventana de colisión). Dentro de un corto período de tiempo después de que cada estación envía datos, existe la posibilidad de colisión. Solo cuando no se detecta ninguna colisión después del período de contienda se puede determinar que esta vez no ocurrirá ninguna colisión.

Ahora considere una situación en la que una estación envía una trama muy corta, pero no se detecta ninguna colisión antes de que se complete la transmisión. Supongamos que esta trama choca con una trama enviada por otra estación antes de continuar propagándose hacia la estación de destino, por lo que la estación de destino recibirá la trama errónea y la descartará. Sin embargo, la estación emisora ​​no sabe que se ha producido una colisión, por lo que no retransmitirá la trama. Para evitar esta situación, Ethernet especifica unalongitud mínima de trama. Si se detecta una colisión durante el período de contienda, la estación dejará de enviar. En este momento, los datos enviados deben ser menores que la longitud del cuadro más corto, por lo que cualquier cuadro más corto que la longitud del cuadro más corto terminará anormalmente debido al conflicto. a >. La fórmula de cálculo de la longitud mínima de la trama es: longitud mínima de la trama = retardo de propagación del bus × velocidad de transmisión de datos × 2Trama no válida

Por ejemplo, Ethernet especifica 51,2 μs como duración del período de contienda. Para Ethernet de 10 Mb/s, se pueden enviar 512 bits durante el período de contienda. Eso es 64B. Cuando los datos se envían a través de Ethernet, si no hay conflicto en los primeros 64 B, no habrá conflicto en los datos posteriores (lo que indica que el canal se ha capturado con éxito). Es decir, si hay conflicto, debe ser en los primeros 64 B. Dado que el envío se detiene inmediatamente una vez que se detecta un conflicto, los datos enviados en este momento deben ser inferiores a 64 B. Por lo tanto, Ethernet estipula que la longitud de trama más corta es 64 B. Cualquier trama con una longitud inferior a 64 B es una trama no válida que se cancela anormalmente debido a un conflicto. Al recibir una trama no válida, debe descartarse inmediatamente. Si solo envía menos de 64 B, deberá agregar un byte entero campo de relleno después del campo de datos en la subcapa MAC para garantizar que Ethernet La longitud de la red MAC no es inferior a 64 B.

Además de detectar colisiones, CSMA/CD puede recuperarse de colisiones. Una vez que ocurre un conflicto, no tiene sentido que los dos sitios involucrados en el conflicto se envíen nuevamente inmediatamente uno detrás del otro, ya que si lo hicieran, se producirían conflictos interminables. CSMA/CD adoptaalgoritmo de retroceso exponencial binario truncado para resolver el problema de colisión. La esencia del algoritmo es la siguiente:

① Para determinar el tiempo de retroceso básico, generalmente se toma el doble del retraso de propagación de extremo a extremo del bus 2τ (es decir, el período de contienda).

② Defina el parámetro k, que es igual al número de retransmisiones, pero k no excede 10, es decir, k = min [número de retransmisiones, 10]. Cuando el número de retransmisiones no supera 10, k es igual al número de retransmisiones; cuando el número de retransmisiones es superior a 10, no aumenta y permanece igual a 10.

③ Seleccione aleatoriamente un número r del conjunto de enteros discretos [0, 1,···,2k-1], y el tiempo de espera requerido para la retransmisión es τ veces el tiempo de espera básico, es decir, 2rτ.

④ Cuando la retransmisión falla 16 veces, significa que la red está demasiado congestionada y se considera que la trama nunca se enviará correctamente, la trama será descartada y se informará un error al nivel superior.

Ahora veamos un ejemplo: supongamos que un adaptador intenta transmitir una trama por primera vez y, mientras transmite, detecta una colisión. En la primera retransmisión, k = 1, y el número aleatorio r se selecciona del número entero {0, 1}, por lo que el tiempo de retardo de retransmisión opcional del adaptador es 0 o 2τ. Si la colisión se envía nuevamente, en la segunda retransmisión, el número aleatorio r se selecciona del número entero {0, 1, 2, 3}, por lo que el tiempo de retardo de la retransmisión está entre los cuatro tiempos: 0, 2τ, 4τ y 6τ Elige uno al azar. Etcétera.

El uso del algoritmo de retroceso exponencial binario truncado puede hacer que el tiempo promedio que las retransmisiones deben posponerse aumente con el número de retransmisiones (esto también se llama retroceso dinámico), lo que reduce la probabilidad de colisión y favorece la estabilidad de todo el sistema.

El algoritmo CSMA/CD se resume de la siguiente manera:

① Prepárese para enviar: el adaptador obtiene un paquete de la capa de red, lo encapsula en una trama y lo coloca en la memoria caché del adaptador.

② Detectar canal: Si detecta que el canal está inactivo, comienza a enviar esta trama. Si detecta que el canal está ocupado, continúa detectando hasta que no hay energía de señal en el canal y luego comienza a enviar la trama.

③ Durante el proceso de envío, el adaptador continúa detectando el canal. Aquí sólo hay dos posibilidades:

·Enviado exitosamente: No se ha detectado ninguna colisión durante el período de contienda y esta trama definitivamente se puede enviar exitosamente;

·Falla de envío: Se detecta una colisión durante el período de contención. En este momento, el envío se detiene inmediatamente. El adaptador ejecuta el algoritmo de retroceso exponencial y espera un período de tiempo aleatorio antes de regresar al paso ②. Si la retransmisión falla 16 veces, se detendrá la retransmisión y se informará un error hacia arriba.

4. Protocolo CSMA/CA

El protocolo CSMA/CD se ha aplicado con éxito a LAN que utilizan conexiones por cable, pero en un entorno de LAN inalámbrica, el protocolo CSMA/CD no se puede copiar simplemente, especialmente la parte de detección de colisiones. Hay dos razones principales:

① La intensidad de la señal recibida suele ser mucho menor que la intensidad de la señal transmitida y el rango dinámico de intensidad de la señal en los medios inalámbricos es grande, por lo que si se va a implementar la detección de colisiones, el costo del hardware será demasiado alto.

② En la comunicación inalámbrica, no todas las estaciones pueden escucharse entre sí, es decir, existe un problema de "estación oculta".

Para ello, el estándar 802.11 define el protocolo CSMA/CA muy utilizado en LAN inalámbricas, modifica el protocolo CSMA/CD y cambia la detección de colisiones por evitación de colisiones < /span>Reduce la probabilidad de una colisión. Tecnología para evitar colisiones(Evitación de colisiones, CA). "Evitar colisiones" no significa que el protocolo pueda evitar completamente las colisiones, sino que el diseño del protocolo debe minimizar la probabilidad de colisiones. Dado que la LAN inalámbrica 802.11 no utiliza detección de colisiones, una vez que una estación comienza a enviar una trama, la enviará por completo. Sin embargo, seguir enviando la trama de datos completa (especialmente datos largos) cuando existe una colisión reducirá seriamente la eficiencia de la red. , así que utilice

Dado que la calidad de comunicación de los canales inalámbricos es muy inferior a la de los canales cableados, 802.11 utiliza el esquema de reconocimiento/retransmisión de capa de enlace (ARQ), es decir, cada vez que una estación envía una trama a través de la LAN inalámbrica, debe recibir una trama de acuse de recibo de la otra parte y sólo entonces se podrá enviar la siguiente trama. Para evitar colisiones tanto como sea posible, 802.11 estipula que después de que todas las estaciones completen el envío, deben esperar un corto período de tiempo (continuar escuchando) antes de enviar la siguiente trama. Este período de tiempo se llama InterFrame Space (IFS). La duración del intervalo entre cuadros depende del tipo de cuadro que envía la estación. 802.11 utiliza los siguientes tres IFS:

① SIFS (IFS corto): el FIS más corto, utilizado para separar tramas que pertenecen a una conversación. Los tipos de SIFS utilizados incluyen tramas ACK, tramas CTS, tramas de datos fragmentados y todas las tramas que responden a consultas AP, etc.

② PIFS (IFS coordinado por puntos): IFS de longitud media, utilizado en operaciones PCF.

③ DIFS (Coordinación distribuida S): el IFS más largo, utilizado para el retraso del acceso de contención asíncrono.

El algoritmo de retroceso de CSMA/CA es ligeramente diferente al de CSMA/CD. Cuando el canal cambia de ocupado a inactivo, cualquier estación que quiera enviar una trama de datos no solo tiene que esperar un intervalo de tiempo, sino que también debe ingresar a la ventana de contención y calcular un tiempo de espera aleatorio para intentar acceder al canal. nuevamente, reduciendo así la posibilidad de colisiones Probabilidad. El algoritmo de retroceso no se utiliza si y sólo si se detecta que el canal está inactivo y esta trama de datos es la primera trama de datos que se envía. En todos los demás casos, se debe utilizar el algoritmo de retroceso, específicamente: ① detectar que el canal está ocupado antes de enviar la primera trama; ② retransmitir cada vez; ③ enviar la siguiente trama después de cada transmisión exitosa.

El algoritmo CSMA/CA se resume de la siguiente manera:

① Si la estación inicialmente tiene datos para enviar y detecta que el canal está inactivo, enviará la trama de datos completa después del tiempo de espera DIFS.

② De lo contrario, el sitio ejecuta el algoritmo de retroceso CSMA/CA y selecciona un valor de retroceso aleatorio. Una vez que se detecta un canal ocupado, el temporizador de retroceso permanece sin cambios. El temporizador de retroceso cuenta atrás mientras el canal esté inactivo.

③ Cuando el temporizador de retroceso disminuye a 0 (el canal solo puede estar inactivo en este momento), la estación envía el mensaje completo y espera la confirmación.

④ Si la estación emisora ​​recibe la confirmación, sabrá que la estación de destino recibió correctamente la trama enviada. Si desea enviar la segunda trama en este momento, debe comenzar desde el paso ②, ejecutar el algoritmo de retroceso CSMA/CA y seleccionar aleatoriamente un tiempo de retroceso.

Si la estación emisora ​​no recibe un ACK de confirmación dentro del tiempo especificado (controlado por el temporizador de retransmisión 0), debe retransmitir la trama y usar el protocolo CSMA/CA para competir por el canal nuevamente hasta que se reciba la confirmación o después de varias retransmisiones. .Renunciar al envío después del fracaso.

*5Manejo de problemas de estaciones ocultas: RTS y CTS

Las estaciones A y B están dentro del rango de cobertura del AP, pero A y B están muy separadas y no pueden escucharse entre sí. Cuando A y B detectan que el canal está inactivo, ambos enviarán datos al AP o se darán por vencidos después de varias fallas de retransmisión. Este es elestación ocultaproblema.

Para evitar este problema, 802.11 permite que la estación emisora ​​reserve el canal. Antes de enviar una trama de datos, la estación de origen primero transmite un breve control Solicitud de envíoRTS (Solicitud de envío), que incluye la dirección de origen y la dirección de destino. y esto La duración de una comunicación (incluido el cuadro de confirmación correspondiente) que pueden escuchar todas las estaciones dentro de su alcance, incluido el AP. Si el canal está inactivo, el AP transmite un control Clear To Send, que incluye la duración requerida para esta comunicación (de la copia del cuadro RTS), el cuadro también puede ser escuchado por todas las estaciones dentro de su alcance, incluidas A y B. Después de que B y otras estaciones escuchen el CTS,suprimirán el envío dentro del tiempo especificado en el CTS. CTS tiene dos propósitos: ① otorgar al sitio de origen permiso explícito para enviar; ② indicar a otros sitios que no envíen durante el período de reserva.

El uso de tramas RTS y CTS reducirá la eficiencia de comunicación de la red, pero estas dos tramas son muy cortas y la sobrecarga no es grande en comparación con las tramas de datos. Por el contrario, si no se utiliza este tipo de trama de control, una vez que se produce una colisión y se retransmite la trama de datos, se pierde más tiempo. La reserva de canales no es obligatoria y cada estación puede decidir si utilizar o no la reserva de canales. Solo cuando la longitud del marco de datos excede un cierto valor, es ventajoso utilizar RTS y CTS.

Las principales diferencias entre CSMA/CD y CSMA/CA son las siguientes:

① CSMA/CD puede detectar conflictos, pero no se puede evitar; CSMA/CA no puede detectar si hay conflictos en el canal mientras envía datos. La ausencia de conflictos en este nodo no significa que no habrá conflictos en el nodo receptor Sólo se puede evitar en la medida de lo posible.

② Los medios de transmisión son diferentes. CSMA/CD se utiliza para la línea de bus Ethernet y CSMA/CA se utiliza para LAN inalámbrica 802.1 a/b/g/n, etc.

③ Los métodos de detección son diferentes. CSMA/CD detecta a través de cambios de voltaje en el cable, mientras que CSMA/CA utiliza detección de energía, detección de portadora y detección híbrida de portadora de energía para detectar la inactividad del canal.

Resumen: la idea básica del protocolo CSMA/CA es transmitir primero para informar a otros nodos cuando envían datos, de modo que otros nodos no envíen datos dentro de un cierto período de tiempo para evitar colisiones. La idea básica del protocolo CSMA/CD es escuchar antes de enviar y escuchar durante el envío. Una vez que ocurre una colisión, el envío se detendrá inmediatamente.

3.5.3 Acceso a sondeo: protocolo de paso de token

En el acceso por sondeo, los usuarios no pueden enviar información aleatoriamente, sino que deben sondear cada nodo de manera cíclica a través de una estación de monitoreo de control centralizado para determinar la asignación de canales. Cuando un nodo usa el canal, otros nodos no pueden usar el canal. Un protocolo de control de acceso al medio de acceso de sondeo típico esProtocolo de paso de token, que se utiliza principalmente en LAN Token Ring.

En el protocolo de paso de token, se pasa un token (Token) entre las computadoras del nodo en secuencia a lo largo del bus de anillo. El token es un control MAC especial que no contiene información en sí, solo controla el uso del canal y asegura que solo una estación ocupe el canal al mismo tiempo. Cuando una estación en el anillo desea transmitir una trama, debe esperar un token. Una vez recibido el token, la estación puede comenzar a enviar tramas. La dirección del sitio de destino se incluye en el marco para identificar qué sitio debe recibir el marco. Una estación sólo puede enviar tramas de datos después de obtener un token, por lo que no habrá colisiones en la red Token Ring. Después de que una estación haya enviado una trama, debe liberar el token para que pueda ser utilizado por otras estaciones. Dado que los tokens se pasan por el anillo de la red en orden , los derechos de acceso son justos para todas las computadoras conectadas a la red.

Cuando ninguna computadora necesita enviar datos, el token deambula en la red en anillo y la computadora que necesita enviar datos solo puede enviar tramas de datos después de obtener el token, por lo que no habrá conflicto de envío (porque solo hay un token) . El proceso de transferencia de tokens y datos en la red Token Ring es el siguiente:

① Cuando la red está inactiva, solo se transmiten cíclicamente tramas token en el bucle.

② Cuando el token se pasa a un sitio que tiene datos para enviar, el sitio modifica un bit de bandera en el token, agrega los datos que necesita transmitir al token, convierte el token en una trama de datos y luego convierte estos datos. Se envía el marco.

③ La trama de datos se transmite a lo largo del anillo y la estación receptora reenvía los datos mientras verifica la dirección de destino de la trama. Si la dirección de destino es la misma que su propia dirección, la estación receptora copia la trama de datos para su posterior procesamiento.

④ La trama de datos se transmite a lo largo del anillo hasta que llega a la estación de origen de la trama, que ya no reenviará la trama después de recibirla. Al mismo tiempo, verifique la trama devuelta para ver si hay algún error durante la transmisión de datos, si hay errores, retransmítalo.

⑤ Una vez que la estación de origen completa la transmisión de los datos, regenera un token y lo pasa a la siguiente estación para entregar el control del canal.

En una red de paso de token, la topología física del medio de transmisión no tiene que ser un anillo, pero para pasar el permiso para acceder al medio de un dispositivo a otro, la ruta de transferencia del token entre dispositivos debe ser lógicamente un anillo. .

El control de acceso a medios encuestados es ideal para canales de transmisión muy cargados. El llamado canal altamente cargado se refiere a un canal donde varios nodos tienen una alta probabilidad de enviar datos al mismo tiempo. Es concebible que si dicho canal de transmisión adopta un control de acceso al medio aleatorio, la probabilidad de conflicto será muy alta y el uso del control de acceso al medio de sondeo puede satisfacer las necesidades de comunicación entre nodos.

El control de acceso a los medios mediante sondeo no comparte tiempo ni espacio, sino que se basa en un control de acceso aleatorio a los medios y limita a un solo nodo que tiene el poder de enviar datos.

3.6 LAN

3.6.1 Conceptos básicos y arquitectura de LAN

La red de área local (LAN) se refiere a la interconexión de varias computadoras, dispositivos externos y sistemas de bases de datos dentro de un rango geográfico pequeño a través de pares trenzados, cables coaxiales y otros medios de conexión para formar una red de interconexión de computadoras para compartir recursos e información. Las características principales son las siguientes:

① Propiedad de una unidad, y el alcance geográfico y el número de sitios son limitados.

② Todos los sitios comparten un ancho de banda total más alto (es decir, una tasa de transferencia de datos más alta).

③ Menor retraso y menor tasa de error de bits.

④ Cada estación tiene una relación de igualdad en lugar de una relación maestro-esclavo.

⑤ Puede realizar transmisiones y multidifusión.

Las características de una red de área local están determinadas principalmente por tres elementos: topología, medio de transmisión y método de control de acceso a los medios, el más importante de los cuales esmétodo de control de acceso a los medios< /span>, que determina las características técnicas de la LAN. Los métodos de control de acceso a medios de LAN incluyen principalmente CSMA/CD, bus token y token ring. Los dos primeros métodos se utilizan principalmente en LAN en forma de bus, y el token ring se utiliza principalmente en LAN en forma de anillo. Las estructuras de topología de LAN comunes incluyen principalmente las siguientes cuatro categorías: ① estructura en estrella; ② estructura en anillo; ③ estructura de bus; ④ estructura compuesta que combina estructuras en estrella y bus. La LAN puede utilizar una variedad de medios de transmisión, como par trenzado, cable de cobre y fibra óptica, entre los cuales el par trenzado es el medio de transmisión principal.

Se implementan tres topologías LAN especiales de la siguiente manera:

① Ethernet (actualmente la red de área local más utilizada). La topología lógica es una estructura en forma de autobús y la topología física es una estructura en estrella o en estrella extendida.

② Token Ring (IEEE 802.5). La topología lógica es una estructura de anillo y la topología física es una estructura de estrella.

③ FDDI (Interfaz digital de distribución de fibra, IEEE 802.8). La topología lógica es una estructura de anillo y la topología física es una estructura de doble anillo.

El modelo de referencia LAN definido por el estándar IEEE 802 sólo corresponde a la capa de enlace de datos y , y divida la capa de enlace de datos en dos subcapas: Control de enlace lógico ( LLC) subcapa y Control de acceso a medios (MAC . Los contenidos relacionados con el acceso a los medios de transmisión se colocan en la subcapa MAC, que protege varias diferencias en el acceso de la capa física a la capa superior y proporciona una interfaz de acceso unificada a la capa física. Sus funciones principales incluyen: encuadre y desmontaje de tramas, transmisión de bits. Detección de errores y transmisión transparente. La subcapa LLC no tiene nada que ver con los medios de transmisión, sino que proporciona a la capa de red cuatro tipos de servicios de conexión diferentes: sin confirmación y sin conexión, orientado a conexión, confirmación y sin conexión y transmisión de alta velocidad. ) subcapa

Dado que Ethernet ha logrado un monopolio en el mercado de LAN y casi se ha convertido en sinónimo de LAN, la subcapa LLC formulada por el comité 802 tiene poco efecto, por lo que muchas tarjetas de red ahora solo tienen Protocolo MAC pero no protocolo LLC.

3.6.2 Ethernet e IEEE 802.3

El estándar IEEE 802.3 es un estándar de red de área local de tipo bus de banda base que describe el método de implementación de la subcapa MAC de la capa física y la capa de enlace de datos. Con el desarrollo de la tecnología, el estándar ha sufrido una gran cantidad de adiciones y actualizaciones para admitir más medios de transmisión y velocidades de transmisión más altas.

Ethernet adopta lógicamente una topología de bus: todas las computadoras en Ethernet comparten el mismo bus y la información se envía en forma de transmisión. Para garantizar la conveniencia y confiabilidad de la comunicación de datos, Ethernet simplifica el proceso de comunicación y utiliza el método CSMA/CD para controlar el acceso al bus.

Estrictamente hablando, Ethernet debe referirse a una LAN que cumple con el estándar DIX Ethernet V2. Sin embargo, solo existe una pequeña diferencia entre el estándar DIX Ethernet V2 y el estándar IEEE 802.3, por lo que generalmente se hace referencia a LAN 802.3. como Ethernet.

Ethernet utiliza dos medidas para simplificar la comunicación:

① Adopta un modo de trabajo sin conexión, no numera las tramas de datos enviadas y no requiere que el receptor envíe una confirmación. Es decir, Ethernet hace todo lo posible para entregar datos y proporciona servicios poco confiables. La corrección de errores la completa el capa superior;

②Los datos enviados utilizan señales codificadas Manchester. Se produce una conversión de voltaje en el medio de cada símbolo. El extremo receptor utiliza esta conversión de voltaje para extraer fácilmente la señal de sincronización de bits.

1. Medios de transmisión Ethernet y tarjeta de red.

Hay cuatro medios de transmisión comúnmente utilizados en Ethernet: cable grueso, cable delgado, par trenzado y fibra óptica. Uso de diversos medios de transmisión.

Aplicabilidad de varios medios de transmisión.

parámetro

10BASE5

10BASE2

10BASE—T

10BASE—FL

medios de transmisión

Cable coaxial de banda base (cable grueso)

Cable coaxial de banda base (cable fino)

Par trenzado sin blindaje

Par de fibras (850 nm)

codificación

codificación de Manchester

codificación de Manchester

codificación de Manchester

codificación de Manchester

Topología

forma de autobús

forma de autobús

forma de estrella

de igual a igual

Longitud máxima del segmento

500 metros

185metros

100 metros

2000 metros

Número máximo de nodos

100

30

2

2

La conexión entre la computadora y la LAN externa se realiza a través de una placa de interfaz de red insertada en la caja del host [también conocida comoadaptador de red ( Adaptador) o < /span>. La tarjeta de red no solo realiza la conexión física y la coincidencia de la señal eléctrica con el medio de transmisión LAN, sino que también implica el envío y recepción de tramas, encapsulación y descompresión de tramas, control de acceso a medios, codificación y decodificación de datos y funciones de almacenamiento en caché de datos. (Tarjeta de interfaz de red, NIC)]. La tarjeta de red está equipada con un procesador y memoria y es un componente de red que funciona en la capa de enlace de datos. La comunicación entre la tarjeta de red y la LAN se realiza en modo serie a través de cables o pares trenzados, mientras que la comunicación entre la tarjeta de red y la computadora se realiza en paralelo a través del bus IO de la placa base de la computadora. . Por lo tanto, la función importante de la tarjeta de red es realizar la conversión de datos de serie a paraleloTarjeta de interfaz de red

Cada tarjeta de red en el mundo tiene un código único llamado dirección de control de acceso a medios (MAC) cuando sale de fábrica. Esta dirección se utiliza para controlar la comunicación de datos del host en la red. Todos los dispositivos de la capa de enlace de datos (puentes, conmutadores, etc.) utilizan la dirección MAC de cada tarjeta de red. Además, la tarjeta de red controla el acceso del host a los medios, por lo que la tarjeta de red también funciona en la capa física porque solo se centra en bits y no No preste atención a ninguna información de dirección ni a la información del protocolo de alto nivel.

2. Trama MAC de Ethernet

La dirección MAC en cada tarjeta de red también se llamadirección física: la dirección MAC tiene 6 bytes de longitud y generalmente está precedida por un guión. (o dos puntos) ) separados por 12 números hexadecimales, como 02-60-8c-e4-b1-21. Los 24 bits altos son el código del fabricante y los 24 bits bajos son el número de serie de la tarjeta de red asignado por el fabricante. En rigor, la "dirección" de una LAN debería ser el "nombre" o identificador de cada estación.

Dado que la comunicación de transmisión se utiliza en el bus, cada vez que la tarjeta de red recibe una trama MAC de la red, primero debe usar hardware para verificar la dirección MAC en la trama MAC. Si la trama se envía a esta estación, acéptela; de lo contrario, deséchela.

Existen dos estándares para el formato de trama MAC de Ethernet:DIX Ethernet V2estándar (es decir, Ethernet V2 estándar) yIEEE 802.3estándar. Aquí presentamos primero el formato de trama MAC más utilizado de Ethernet V2.

① Preámbulo: sincroniza los relojes del extremo receptor y del extremo emisor. Los 8 bytes insertados al frente de la trama se pueden dividir en dos campos: el primer campo, un total de 7 bytes, es el preámbulo, utilizado para implementar rápidamente la sincronización de bits MAC; el segundo campo es el delimitador de inicio, que indica el La siguiente información es la trama MAC.

② Dirección: normalmente se utiliza una dirección (dirección MAC) de 6 bytes (48 bits).

③ Tipo: 2 bytes, que indica a qué entidad de protocolo se deben entregar para su procesamiento los datos contenidos en el campo de datos.

④ Datos: 46~1500 bytes, incluidos mensajes de protocolo de alto nivel. Debido a las limitaciones del algoritmo CSMA/CD, la trama Ethernet debe cumplir con el requisito de longitud mínima de 64 bytes y debe rellenarse (0~46 bytes) cuando los datos son pequeños.

⑤ Relleno: 0~46 bytes. Cuando la longitud del marco es demasiado corta, el marco se rellena para alcanzar la longitud mínima de 64 bytes.

⑥ Código de verificación (FCS): 4 bytes. El rango de verificación es desde el segmento de dirección de destino hasta el final del segmento de datos. El algoritmo utiliza un código de resto cíclico (CRC) de 32 bits. No solo necesita verificar la parte de datos. de la MAC, pero también la dirección de destino, la dirección de origen y los campos de tipo, pero el preámbulo no se verifica.

La diferencia entre el formato de trama 802.3 y el formato de trama DIX Ethernet es que el campo de longitud reemplaza el campo de tipo en DIX para indicar la longitud del campo de datos. En la práctica, los dos mecanismos de longitud/tipo antes mencionados pueden coexistir. Dado que el número máximo de bytes en el segmento de datos IEEE 802.3 es 1500, el valor máximo del segmento de longitud es 1500, por lo que se pueden utilizar valores de 1501 a 65535 para el identificador de segmento de tipo.

3. Ethernet de alta velocidad

Ethernet con una velocidad de 100 Mb/s se denominaEthernet de alta velocidad.

①Ethernet 100BASE-T

100BASE-T Ethernet es una Ethernet de topología en estrella que transmite señales de banda base de 100 Mb/s en pares trenzados y utiliza el protocolo CSMA/CD. Este tipo de Ethernet admite modos full-duplex y half-duplex y puede funcionar en modo full-duplex sin conflictos, por lo que el protocolo CSMA/CD no se utiliza en modo full-duplex.

El formato de trama MAC todavía está especificado por el estándar 802.3. Mantenga la longitud mínima del marco sin cambios, pero reduzca la longitud máxima del cable para un segmento a 100 m. El intervalo de tiempo entre cuadros se ha cambiado de los 9,6 μs originales a los 0,96 μs actuales.

②Gigabit Ethernet

Gigabit Ethernet, también conocido como Gigabit Ethernet, permite el funcionamiento full-duplex y half-duplex a una velocidad de 1 Gb/s. Utilice el formato de trama especificado por el protocolo 802.3. Utilice el protocolo CSMA/CD en modo semidúplex. Compatible con versiones anteriores de las tecnologías 10BASE-T y 100BASE-T.

③Ethernet de 10 Gigabits

10 Gigabit Ethernet tiene exactamente el mismo formato que Ethernet de 10 Mb/s, 100 Mb/s y 1 Gb/s. 10 Gigabit Ethernet también conserva las longitudes mínima y máxima de Ethernet especificadas por el estándar 802.3, lo que facilita la actualización. Esta Ethernet ya no utiliza cables de cobre sino únicamente fibra óptica como medio de transmisión. Sólo funciona en modo full-duplex, por lo que no hay problema de contención y no utiliza el protocolo CSMA/CD.

La evolución de Ethernet de 10 Mb/s a 10 Gb/s demuestra que Ethernet es escalable (de 10 Mb/s a 10 Gb/s) y flexible (múltiples medios de transmisión, full/half duplex, compartido/swap), fácil de Instalar y robusto.

3.6.3 LAN inalámbrica IEEE 802.3

1. Composición de la LAN inalámbrica

Las LAN inalámbricas se pueden dividir en dos categorías: LAN inalámbricas con infraestructura fijaysin publicidad móvil Redes hoc para infraestructura fija. La denominada "infraestructura fija" se refiere a estaciones base fijas preestablecidas que pueden cubrir un determinado rango geográfico.

① LAN inalámbrica con infraestructura fija

Para LAN inalámbricas con infraestructura fija, IEEE ha desarrollado la serie 802.11 de estándares de protocolo para LAN inalámbricas, incluido 802.11 a/b/g/n, etc. 802.11 utiliza una topología en estrella, cuyo centro se denomina Punto de Acceso (AP) y la capa utiliza el protocolo CSMA/CA. La LAN que utiliza la serie de protocolos 802.11 también se denomina WiFi .

El estándar 802.11 estipula que el componente mínimo de una LAN inalámbrica esConjunto de servicios básicosBSS ( Conjunto de Servicios Básicos, BSS). Un conjunto de servicios básicos consta de un punto de acceso y varias estaciones móviles. La comunicación entre estaciones dentro de este BSS, o la comunicación con estaciones externas de este BSS, debe pasar a través del AP de este BSS. El AP mencionado anteriormente es una estación base que brinda servicios básicos centralizados. Al instalar un AP, se le debe asignar al AP un identificador de conjunto de servicios (SSID) de no más de 32 bytes y un canal. SSID se refiere al nombre de la LAN inalámbrica que utiliza el AP. El rango geográfico cubierto por un conjunto de servicios básicos se denomina área de servicio básico (BSA) (Basic ServiceArea, BSA). El diámetro del área de servicio básico de una red de área local generalmente no excede los 100 m.

Un conjunto de servicios básicos puede aislarse o conectarse a través de un AP a unsistema de distribuciónDS ( Sistema de Distribución, DS), y luego se conecta a otro conjunto de servicios básicos, formando un conjunto de servicios extendidoESS< a i=6> (Extended Conjunto de servicios, ESS). La función del sistema de distribución es hacer que el conjunto de servicios extendidos se comporte como un conjunto de servicios básicos para las capas superiores. ESS también puede proporcionar a los usuarios inalámbricos acceso a Ethernet por cable a través de un dispositivo llamado Portal. El portal funciona como un puente de red. Si la estación móvil A quiere comunicarse con otra estación móvil B en el conjunto de servicios básicos, debe pasar por dos puntos de acceso AP1 y AP2, a saber, A-AP1-AP2-B. Tenga en cuenta que la comunicación de AP1 a AP2 utiliza transmisión por cable. La estación móvil A todavía puede mantener la comunicación con otra estación móvil B cuando está en itinerancia desde un determinado conjunto de servicios básicos a otro conjunto de servicios básicos. Pero el AP utilizado por A en diferentes conjuntos de servicios básicos ha cambiado.

② Red móvil autoorganizada sin infraestructura fija

Otro tipo de LAN inalámbrica es una LAN inalámbrica sin infraestructura fija, también conocida comored ad hoc (red ad hoc). La red ad hoc no tiene el AP centralizado mencionado anteriormente para servicios básicos, sino que es una red temporal compuesta por algunas estaciones móviles iguales que se comunican entre sí. El estado de cada nodo es igual y todos los nodos intermedios son nodos de reenvío, por lo que todos tienen la función de enrutadores.

Las redes ad hoc suelen estructurarse así: algunos dispositivos móviles descubren que hay otros dispositivos móviles cerca de ellos y requieren comunicación con otros dispositivos móviles. Cada estación móvil en una red ad hoc debe participar en el descubrimiento y mantenimiento de rutas para otras estaciones móviles en la Red. Al mismo tiempo, la topología de la red compuesta por estaciones móviles puede cambiar rápidamente con el tiempo, por lo que algunas rutas que son efectivas en Redes fijas El protocolo de selección ya no es aplicable a las redes móviles ad hoc y requiere una atención especial.

Las redes ad hoc y la IP móvil no son lo mismo. La tecnología IP móvil permite a los hosts itinerantes conectarse a Internet de diversas formas, y sus funciones principales de red todavía se basan en varios protocolos de enrutamiento que se han utilizado en redes fijas. Las redes ad hoc son sistemas autónomos que extienden la movilidad al ámbito inalámbrico, tienen sus propios protocolos de enrutamiento específicos y no pueden estar conectados a Internet.

2. Trama MAC de LAN 802.11

Hay tres tipos de tramas 802.11, a sabertrama de datos, trama de control < a i=4> ymarcos de gestión. La trama de datos 802.11 consta de las tres partes siguientes:

① Encabezado MAC, 30 bytes en total. La complejidad de la trama está toda en el encabezado MAC.

② El cuerpo de la trama, es decir, la parte de datos de la trama, no supera los 2312 bytes. Es mucho más largo que la longitud máxima de Ethernet.

③ La secuencia de verificación de trama FCS es la cola, un total de 4 bytes.

Los más importantes en el encabezado MAC de la trama 802.11 son los cuatro campos de dirección (todas las direcciones MAC). Aquí solo se analizan las tres primeras direcciones (la dirección 4 se utiliza para redes ad hoc). El contenido de estas tres direcciones depende de los valores de los campos "A AP" y "Desde AP" en el campo de control.

Trama de datos LAN 802.11

Ir a AP

de AP

Dirección 1

Dirección 2

Dirección 3

Dirección 4

1

0

Dirección de recepción =

dirección AP

Dirección de envío =

Dirección de la fuente

Dirección de destino

——

0

1

Dirección de recepción =

Dirección de destino

Dirección de envío =

dirección AP

Dirección de la fuente

——

La dirección 1 es la dirección del nodo que recibe directamente la trama de datos y la dirección 2 es la dirección del nodo que realmente envía los datos.

① Ahora supongamos que la estación A en un BSS envía datos a la estación B. En el campo de control de los datos enviados por la estación A al punto de acceso AP, "A AP=1" y "Desde AP=0"; la dirección 1 es la dirección MAC del AP, la dirección 2 es la dirección MAC de A, y la dirección 3 es la dirección MAC B. Tenga en cuenta que "dirección de recepción" y "dirección de destino" no son lo mismo.

② Después de que AP recibe la trama de datos, la reenvía a la estación B. En este momento, en el campo de control de trama de datos, "A AP=0" y "Desde AP=1", la dirección 1 es la dirección MAC de B. y la dirección 2 es la dirección MAC del AP, la dirección 3 es la dirección MAC de A. Tenga en cuenta que "dirección de envío" y "dirección de origen" tampoco son equivalentes.

A continuación se analiza una situación más compleja. Los dos AP están conectados al enrutador a través de cables y ahora el enrutador quiere que la estación A envíe datos. El enrutador es un dispositivo de capa de red. No puede ver el punto de acceso AP de la capa de enlace y solo conoce la dirección IP de la estación A. El AP es un dispositivo de capa de enlace. Solo conoce la dirección MAC y no la dirección IP.

① El enrutador aprende la dirección IP de la estación A a partir del datagrama IP y utiliza ARP para obtener la dirección MAC de la estación A. Después de obtener la dirección MAC de la estación A, la interfaz del enrutador R1 encapsula el datagrama IP en 802.3 (802.3 tiene solo dos direcciones), el campo de dirección de origen de la trama es la dirección MAC de R1 y el campo de dirección de destino es la dirección MAC de A.

② Después de que AP recibe la trama 802.3, convierte la trama 802.3 en una trama 802.11. En el campo de control de trama, "A AP=0" y "Desde AP=1", la dirección 1 es la dirección MAC de A y la dirección 2 es La Dirección MAC del AP, la dirección 3 es la dirección MAC del R1. De esta manera, A puede determinar (a partir de la dirección 3) la dirección MAC de la interfaz del enrutador en la subred a la que enviar el datagrama.

Ahora considere la situación en la que el esclavo A envía datos a la interfaz del enrutador R1.

① A genera una trama 802.11. En el campo de control, "A AP=1" y "Desde AP=0", la dirección 1 es la dirección MAC del AP, la dirección 2 es la dirección MAC de A y la dirección 3 es la dirección MAC de R1. .

② Después de recibir la trama 802.11, el AP la convierte en una trama 802.3. El campo de dirección de origen de la trama es la dirección MAC de A y el campo de dirección de destino es la dirección MAC de R1.

Se puede ver que la dirección 3 juega un papel clave en la interconexión BSS y LAN cableada, lo que permite al AP determinar la dirección MAC de destino al construir una red Ethernet.

3.6.4 Conceptos y principios básicos de VLAN

Una Ethernet es un dominio de difusión. Cuando una Ethernet contiene demasiadas computadoras, a menudo resulta en:

·Aparece una gran cantidad de tramas de difusión en Ethernet, especialmente los protocolos ARP y DHCP de uso frecuente.

·Diferentes departamentos de una organización comparten una red de área local, lo que va en detrimento de la confidencialidad y seguridad de la información.

A través deLAN virtual (LAN virtual), una LAN más grande se puede dividir en otras lógicas más pequeñas que son independientes de la ubicación geográfica. cada VLAN, y cada VLAN es un dominio de transmisión más pequeño.

El estándar 802.3 ac define extensiones del formato Ethernet que admiten VLAN. Inserta un identificador de 4 bytes (insertado entre el campo de dirección de origen y el campo de tipo) en la trama Ethernet, llamado etiqueta VLAN, para indicar a qué LAN virtual pertenece la computadora que envía el mensaje. La etiqueta VLAN insertada se llama 802.1 Q. Dado que el encabezado de VLAN se incrementó en 4 bytes, la longitud máxima de Ethernet cambió de los 1518 bytes originales a 1522 bytes.

Los primeros dos bytes de la etiqueta VLAN están configurados en 0x8100, lo que indica que se trata de un 802.1 Q. En los últimos dos bytes de la etiqueta VLAN, los primeros 4 bits son inútiles y los últimos 12 bits son el identificador VID de la VLAN, que identifica de forma única a qué VLAN pertenece el 802.1 Q. Un VID de 12 bits puede identificar 4096 VLAN diferentes. Después de insertar el VID, se debe volver a calcular el FCS para 802.1 Q.

3.7 WAN

3.7.1 Conceptos básicos de WAN

Una red de área amplia generalmente se refiere a una red de larga distancia que cubre un área amplia (mucho más allá de una ciudad). La WAN es la parte central de Internet y su tarea es transportar datos enviados por hosts a largas distancias. Los enlaces que conectan los conmutadores en cada nodo de la WAN son todos enlaces de alta velocidad: pueden ser líneas de cable óptico de miles de kilómetros de longitud o enlaces satelitales punto a punto de decenas de miles de kilómetros de longitud. Por lo tanto, la consideración principal de la WAN es que la capacidad de comunicación debe ser lo suficientemente grande como para soportar el creciente volumen de tráfico.

WAN no es lo mismo que Internet. Internet permite conectarse a diferentes tipos de redes (tanto LAN como WAN), normalmente mediante un enrutador. Una LAN puede comunicarse con otra LAN que esté muy alejada a través de una WAN.

La WAN consta de algunosconmutadores de nodos (tenga en cuenta que no son enrutadores. Tanto los conmutadores de nodos como los enrutadores se utilizan para reenviar paquetes. Su funcionamiento Los principios también son similares: los conmutadores de nodo reenvían paquetes en una sola red, mientras que los enrutadores reenvían paquetes en una Internet compuesta por múltiples redes) y los enlaces que conectan estos conmutadores. La función del conmutador de nodo es almacenar y reenviar el paquete. Existen conexiones punto a punto entre nodos, pero para mejorar la confiabilidad de la red, generalmente un conmutador de nodo se conecta a múltiples conmutadores de nodo.

Desde una perspectiva de capa, existe una gran diferencia entre WAN y LAN, porque los protocolos utilizados por LAN se encuentran principalmente en lacapa de enlace de datos (y una pequeña cantidad está en la capa física), mientras que los protocolos utilizados por WAN se encuentran principalmente en la capa de red.

Diferencias y conexiones entre WAN y LAN

Pálido

Red de área local

Cobertura

Muy amplio, a menudo entre regiones.

Más pequeño, generalmente dentro de un área

Método de conexión

Existen conexiones punto a punto entre nodos, pero para mejorar la confiabilidad de la red, un conmutador de nodo a menudo se conecta a múltiples conmutadores de nodo.

Uso universal de la tecnología de acceso multipunto

Jerarquía del modelo de referencia OSI

Tres capas: capa física, capa de enlace de datos, capa de red

Dos capas: capa física, capa de enlace de datos

Conexiones y similitudes

1. Tanto WAN como LAN son componentes importantes de Internet y, desde la perspectiva de Internet, son iguales (no inclusivos).

2. Cuando un host conectado a una WAN o LAN se comunica dentro de la red, solo necesita usar la dirección física de su red.

enfocar

El intercambio de recursos

transmisión de datos

Un tema importante en WAN esenrutamientoyreenvío de paquetes. El protocolo de enrutamiento es responsable de buscar la mejor ruta de transmisión para paquetes desde un determinado nodo al nodo de destino para construir una tabla de enrutamiento y luego construir una tabla de reenvío para reenviar paquetes desde la tabla de enrutamiento. Los paquetes se reenvían a través de tablas de reenvío.

Los dos protocolos de capa de enlace de datos WAN comunes sonPPPprotocolo y HDLCProtocolo. Actualmente, el PPP es el más utilizado, mientras que el HDLC rara vez se utiliza.

3.7.2 Protocolo APP

Protocolo punto a punto (Protocolo punto a punto, PPP) es un protocolo orientado a bytes que utiliza comunicación por línea serie. Este protocolo se utiliza para conectar directamente dos nodos en el enlace. El propósito del diseño es principalmente establecer conexiones punto a punto para enviar datos a través de líneas telefónicas o dedicadas, lo que lo convierte en una solución común para conexiones simples entre varios hosts, puentes y enrutadores.

El acuerdo PPP tiene tres componentes:

Protocolo de control de enlace (LCP). Un protocolo de control de enlace extendido utilizado para establecer, configurar, probar y administrar enlaces de datos.

Protocolo de control de red (NCP). El protocolo PPP permite el uso de múltiples protocolos de capa de red al mismo tiempo. Cada protocolo de capa de red diferente debe configurarse con un NCP correspondiente para establecer y configurar conexiones lógicas para los protocolos de capa de red.

③ Un método para encapsular datagramas IP en un enlace serie. El datagrama IP es su parte de información en la trama PPP y su longitud está limitada por la unidad máxima de transmisión (MTU).

Los primeros 3 campos y los últimos 2 campos de la trama PPP son los mismos que la trama HDLC. El campo de bandera (F) sigue siendo 7E (01111110), cada uno ocupa 1 byte antes y después. Si aparece en el campo de información, debe ser relleno de sección, el byte de escape de control utilizado es 7D (01111101). Sin embargo, en PPP, el campo de dirección (A) ocupa 1 byte y se especifica como 0xFF, y el campo de control (C) ocupa 1 byte y se especifica como 0x03. El contenido de ambos siempre es fijo. PPP está orientado a bytes, por lo que la longitud de todas las tramas PPP es un número entero de bytes.

El cuarto campo es el segmento de protocolo, que ocupa 2 bytes (no existe tal campo en HDLC) y describe qué tipo de paquete se transporta en el segmento de información. Los bits que comienzan con 0 son protocolos de capa de red como IP, IPX y AppleTak; los bits que comienzan con 1 se utilizan para negociar otros protocolos, incluidos LCP y un NCP diferente para cada protocolo de capa de red admitido.

La longitud del quinto segmento de información es variable, mayor o igual a 0 y menor o igual a 1500 B. Para lograr una transmisión transparente, cuando aparece la misma combinación de bits que el campo de bandera en el segmento de información, se deben tomar algunas medidas para mejorarla.

El sexto campo es la secuencia de verificación de trama (FCS), que ocupa 2 bytes, que es el código restante en la verificación cíclica del código restante. El área de inspección incluye campo de dirección, campo de control, campo de protocolo y campo de información.

Características del protocolo PPP:

① PPP proporciona detección de errores pero no corrección de errores, y solo garantiza una recepción sin errores (verificación CRC a través del hardware). Es un protocolo de transporte poco confiable y, por lo tanto, no utiliza números de secuencia ni mecanismos de reconocimiento.

② Solo admite comunicación de enlace punto a punto y no admite líneas multipunto.

③ PPP sólo admite enlaces full-duplex.

④ Ambos extremos de PPP pueden ejecutardiferentes protocolos de capa de red, pero aún pueden usar el mismo PPP para la comunicación.

⑤ PPP está orientado a bytes. Cuando el campo de información aparece con la misma combinación de bits que el campo de bandera, PPP tiene dos procesamientos diferentes. Método: si se usa PPP en líneas asíncronas (predeterminado), se usa el método de llenado de caracteres; si se usa PPP en líneas síncronas como SONET/SDH, el protocolo estipula que se usa hardware para completar el llenado de bits (igual que HDLC) .

*3.7.3 Protocolo HDLC

El protocolo Control de enlace de datos de alto nivel (HDLC) es unprotocolo de capa de enlace de datos orientado a bits . El protocolo no depende de ningún conjunto de codificación de caracteres; los mensajes de datos se pueden transmitir de forma transparente y el "método de inserción de 0 bits" utilizado para lograr una transmisión transparente es fácil de implementar en el hardware; la comunicación full-duplex tiene una alta eficiencia de transmisión de enlace de datos; Todas las tramas se verifican mediante CRC y la información se numera secuencialmente para evitar perder la recepción o la retransmisión, y la confiabilidad de la transmisión es alta; la función de control de transmisión está separada de la función de procesamiento, lo que proporciona una mayor flexibilidad.

El marco de HDLC consta de campos como bandera, dirección, control, información y FCS.

El campo de bandera F es 01111110. Siempre que el campo de bandera se encuentre en el extremo receptor, se puede determinar la posición de una trama. El protocolo HDLC utiliza el método de marca de cabeza y cola de relleno de 0 bits para lograr una transmisión transparente. En el extremo emisor, cuando hay 5 unos consecutivos en una serie de datos de flujo de bits, se completa inmediatamente un 0 después. Al recibir una trama, primero se busca el campo F para determinar el límite y luego se escanea el flujo de bits. Siempre que se encuentran cinco 1 consecutivos, se elimina el siguiente 0 para restaurar el flujo de bits original.

El campo de dirección A, un total de 8 bits, representa la dirección de la estación esclava o de la estación contestadora según diferentes métodos de transmisión.

Campo de control C, 8 bits en total, muchas funciones importantes de HDLC se implementan mediante el campo de control.

Los formatos de PPP y HDLC son muy similares. Pero hay varias diferencias entre los dos:

① El protocolo PPP está orientado a bytes, y el protocolo HDLC está orientado a bits< /span>

② Las tramas PPP tienen un campo de protocolo de 2 bytes más que HDLC. Cuando el valor del campo de protocolo es 0x0021, significa que el campo de información es un datagrama IP.

③ El protocolo PPP no utiliza números de secuencia ni mecanismos de confirmación. solo garantiza una recepción sin errores (verificación CRC) y finaliza La detección de errores de un extremo a otro la realizan los protocolos de alto nivel que son responsables. La información del protocolo HDLC utiliza un mecanismo de numeración y confirmación para proporcionartransmisión confiable.

3.8 Equipo de capa de enlace de datos

*3.8.1 Conceptos básicos del puente de red

Después de conectar dos o más redes Ethernet a través de un puente, se convierten en una red Ethernet con un área de cobertura más grande, y cada red Ethernet original se denominauna sección de redselección de ruta. Después de recibir la trama, debe determinar la ruta correcta y reenviar la trama al sitio LAN de destino correspondiente.

Después de que la Red 1 y la Red 2 están conectadas a través de un puente, el puente recibe los datos enviados por la Red 1 y verifica la dirección en los datos. Si es la dirección de la Red 2, entonces se reenvía a la Red 2; si es la dirección de la Red 1, entonces se descarta porque la estación de origen y la estación de destino están en el mismo segmento de red, y la estación de destino puede recibir la trama directamente sin usar un puente para reenviarla.

3.8.2 Conmutador LAN

1. Principios y características de los interruptores.

Conmutador LAN, también conocido como conmutador Ethernet. El conmutador Ethernet es esencialmente un puente de red multipuerto, que funciona en lacapa de enlace de datos . Cada puerto de un conmutador Ethernet está conectado directamente a un único host u otro conmutador, y normalmente funciona en modo full-duplex. Los conmutadores pueden dividir económicamente la red en pequeños dominios de colisión, proporcionando mayor ancho de banda a cada estación de trabajo. El principio de un conmutador Ethernet es que detecta las direcciones MAC (capa de acceso a medios) de origen y destino de las tramas de datos provenientes del puerto Ethernet y luego las compara con la tabla de búsqueda dinámica interna del sistema. . La VLAN no solo puede aislar dominios en conflicto, sino también dominios de transmisión. VLAN. Si la dirección MAC de origen de la trama de datos no está en la tabla de búsqueda, la dirección se agrega a la tabla de búsqueda y la trama de datos se envía al puerto de destino correspondiente. Los conmutadores Ethernet son transparentes para las estaciones de trabajo, por lo que la sobrecarga de gestión es baja, lo que simplifica la adición, el movimiento y los cambios de red de los nodos de red. Los conmutadores Ethernet también se pueden utilizar para implementar fácilmente una LAN virtual

Para la Ethernet compartida tradicional de 10 Mb/s, si hay N usuarios en total, el ancho de banda promedio ocupado por cada usuario es solo 1/N del ancho de banda total (10 Mb/s). Cuando se utiliza un conmutador Ethernet para conectar estos hosts, aunque el ancho de banda de cada puerto al host sigue siendo de 10 Mb/s, debido a que un usuario es exclusivo al comunicarse en lugar de compartir el ancho de banda del medio de transmisión con otros usuarios de la red, tiene un puerto La capacidad total del conmutador es N×10 Mb/s. Esta es la mayor ventaja de los interruptores.

Características de los conmutadores Ethernet:

① Cada puerto del conmutador Ethernet está conectado directamente a un único host (el puerto del puente suele estar conectado a un segmento de red) y generalmente funciona en modo full-duplex.

② El conmutador Ethernet puede conectar varios pares de puertos al mismo tiempo, de modo que cada par de hosts que se comunican entre sí puedan transmitir datos sin colisiones como un medio de comunicación exclusivo.

③ El conmutador Ethernet es un dispositivo plug-and-play y su tabla de reenvío de tramas interna se procesa automáticamente mediantealgoritmo de autoaprendizaje construido gradualmente.

④ Los conmutadores Ethernet tienen velocidades de conmutación más altas debido al uso de chips de estructura de conmutación dedicados.

El ⑤ switch Ethernettransmite exclusivamente el ancho de banda multimedia.

Los conmutadores Ethernet utilizan principalmente dos modos de conmutación:

① Un conmutador de paso solo verifica la dirección de destino, lo que permite que la trama se envíe casi inmediatamente después de ser recibida. Este método es rápido, pero carece de inteligencia y seguridad, y no admite el cambio de puertos con diferentes tarifas.

② El conmutador de almacenamiento y reenvío primero almacena en caché la trama recibida en la caché, verifica si los datos son correctos y lo confirma. es correcto La trama luego se convierte en un puerto de salida a través de una tabla de búsqueda y se envía. Si se descubre que el marco tiene un error, se descarta. La ventaja esalta confiabilidad y la capacidad de soportar la conversión entre puertos con diferentes velocidades. La desventaja es un gran retraso.

Los conmutadores Ethernet generalmente tienen puertos con múltiples velocidades, por ejemplo, pueden tener varias combinaciones de puertos de 10 Mb/s, 100 Mb/s y 1 Gb/s, lo que facilita enormemente a los usuarios en diversas situaciones.

2. Función de autoaprendizaje del interruptor

Determinar si una trama debe reenviarse a un determinado puerto o descartarse se denomina filtrado. Determinar a qué interfaz se debe mover una trama se llamareenvío. El filtrado y reenvío del conmutador se completan con la ayuda de la tabla de conmutadores (tabla de conmutadores). Una entrada en la tabla de conmutación contiene al menos: ① una dirección MAC; ② el puerto del conmutador conectado a la dirección MAC.

Por ejemplo, un conmutador Ethernet tiene 4 puertos, cada uno conectado a una computadora, y las direcciones MAC son A, B, C y D. La tabla de conmutación del conmutador está inicialmente vacía. A primero envía una trama a B e ingresa al conmutador desde el puerto 1. Después de que el conmutador lo recibe, busca en la tabla de conmutación y no puede encontrar la entrada con la dirección MAC B. Luego, el conmutador escribe la dirección de origen A y el puerto 1 en la tabla de conmutación y transmite la trama a todos los puertos excepto al puerto 1. C y D descartan la trama porque la dirección de destino es incorrecta. Sólo B aceptará la dirección de destino correcta. Después de escribir (A, 1) en la tabla de conmutación, cualquier trama con la dirección de destino A recibida desde cualquier puerto en el futuro debe reenviarse a través del puerto 1. Esto se debe a que, dado que las tramas enviadas por A ingresan al conmutador a través del puerto 1, las tramas reenviadas desde el puerto 1 también deberían poder llegar a A.

A continuación, supongamos que B envía una trama a A a través del puerto 3. Después de que el conmutador busca la tabla de conmutación, encuentra una entrada (A, 1) y reenvía la trama desde el puerto 1 a A. Obviamente, no es necesario transmitir las tramas recibidas en este momento. Escriba la dirección de origen B y el puerto 3 de la trama en la tabla de conmutación, lo que indica que si se envían tramas a B en el futuro, deben reenviarse a través del puerto 3.

Después de un período de tiempo, siempre que los hosts C y D también envíen a otros hosts, el conmutador escribirá C y D y los números de puerto correspondientes en la tabla de conmutación. De esta manera, las tramas reenviadas a cualquier host pueden encontrar rápidamente el puerto de reenvío correspondiente en la tabla de conmutación. Teniendo en cuenta que los hosts conectados al conmutador pueden cambiar en cualquier momento, esto requiereactualizarlas entradas en la tabla de conmutación. Por esta razón, cada entrada en la tabla de intercambio tiene un tiempo de validez determinado, y las entradas caducadas se se eliminarán automáticamente< /span>

Supongo que te gusta

Origin blog.csdn.net/Mengxizhouu/article/details/131386214
Recomendado
Clasificación