Ethernet, la base du réseau informatique

ethernet

En tant que technologie la plus importante du LAN, Ethernet est à l'origine basé sur la topologie de bus la plus simple.

stade initial

  • XEROX PARC du début des années 1970

  • L'Ethernet de première génération peut connecter jusqu'à 256 ordinateurs à l'aide de câbles jusqu'à 1000 mètres de long et avec une bande passante de 2,94 Mbps
  • L'IEEE approuve la spécification Ethernet 10 Mbps proposée par Xerox-Digital-Intel Alliance

composants de base

  • Câble Ethernet – Support physique
  • CSMA/CD – Framework for Concurrent Access and Collision Control on Transmission Media
  • Les données sont envoyées sous la forme de paquets Ethernet, ce que nous appelons généralement des "trames"

1. Principes de base

Les paquets de données voyagent sur un bus appelé "Ethernet" et chaque paquet est envoyé à tous les ordinateurs entrants, mais uniquement à l'ordinateur de destination pour un traitement ultérieur.

insérez la description de l'image ici
Ethernet est une technologie LAN à support partagé. Plusieurs sites sont connectés à un support partagé et un seul site peut envoyer des données à la fois. Il doit y avoir un problème de conflit dans cette méthode de communication à support partagé. Comment détecter si le lien est inactif, si la station peut envoyer des données est un problème qui doit être résolu pour le lien partagé.

Ce même lien connecte plusieurs terminaux, c'est-à-dire des accès multiples . Il existe de nombreux protocoles pour le contrôle d'accès multicanal, tels que le protocole de contrôle d'accès aléatoire, le protocole de contrôle d'accès contrôlé et le protocole de canalisation.
insérez la description de l'image ici

  • Protocole de contrôle d'accès aléatoire
    Dans le protocole de contrôle d'accès aléatoire, tous les terminaux connectés au support partagé ont une probabilité égale d'envoyer des données.
  • Protocole de contrôle d'accès contrôlé
    Le protocole de contrôle d'accès contrôlé est un mécanisme d'interrogation qui contrôle quelle station envoie des données via l'interrogation.
  • Protocole de canalisation
    Le protocole de canalisation est une technologie de multiplexage, qui sera introduite en détail dans le futur en combinaison avec le développement de la communication mobile.

2. Algorithme d'accès multiple (CSMA/CD)

Ethernet adopte CSMA/CD Carrier Sense Multiple Access / Collision Detection Carrier Sense Multiple Access / Collision Detection, le protocole de contrôle d'accès le plus multiple.

Pour faire simple, on peut comparer CSMA/CD à une conversation, dans laquelle tout le monde a le droit de parler, mais une seule personne peut parler en même temps, sinon la confusion se produira.

Avant que tout le monde ne parle, ils doivent d'abord écouter si quelqu'un d'autre parle ( c'est-à-dire, détection de porteuse ). avis.

De plus, si deux personnes veulent parler en même temps, il y aura un conflit. Lorsque deux personnes parlent en même temps, les deux constateront qu'elles parlent en même temps ( c'est-à-dire la détection de collision ).

À ce moment, la parole s'arrête immédiatement, attend une période de temps aléatoire (backoff), puis commence à parler. A ce moment, la première personne commence à parler, et la deuxième personne doit attendre que la première personne ait fini de parler avant de pouvoir commencer à parler.

La figure suivante est l'organigramme d'une station envoyant des trames de données. Lorsqu'une trame de données de station est sur le point d'être envoyée, elle commence à détecter si le support physique est inactif. Ce processus est appelé détection de porteuse. Si le support est occupé à ce moment, vous ne pouvez qu'attendre patiemment et différer l'envoi de la trame de données.
insérez la description de l'image ici
Si le support s'avère inactif pendant le processus de détection de porteuse, il est nécessaire d'attendre le temps IFG (Inter Frame Gap) pour rétablir la stabilité du canal physique et, en même temps, permettre au récepteur d'effectuer le traitement nécessaire sur le trame reçue. Commencez à envoyer des trames de données après avoir attendu le temps IFG. S'il n'y a pas d'autre station pour envoyer des données à ce moment, aucun conflit ne se produira et la station peut envoyer complètement la trame de données, répéter le processus d'envoi suivant et continuer à envoyer la trame de données suivante.

Si plusieurs stations veulent envoyer des données en même temps, une collision se produira. Après la collision, la station émettrice continuera à envoyer des signaux de brouillage pendant un certain temps. Le but de l'envoi de signaux de brouillage est de s'assurer que toutes les stations sur les supports partagés sont Il peut être détecté qu'une collision s'est produite sur l'Ethernet à ce moment. Ensuite, la station émettrice termine la transmission des trames de données non envoyées et attend un temps aléatoire, qui recule, et le temps aléatoire d'attente est appelé temps de recul.

Le temps de repli est un multiple entier
de Slotime (SlotTime est le temps nécessaire pour transmettre la trame Ethernet la plus courte, pour 10M et 100M, le temps nécessaire pour transmettre 512bit, 10M est de 51,2 microsecondes, 100M est de 5,12 microsecondes), le retour La plage devaleurs du temps de back-off est lié au nombre de conflits détectés Après chaque détection de conflit, r sélectionne un nombre entier aléatoire de 0 à 2k 0<r<2k, où k=MIN {n, 10}, n est la détection au nombre de conflits. Le temps de repli est r * SlotTime.

Par exemple, après avoir commencé à transmettre des trames de données, vous devez attendre 0-1 fois SlotTime après avoir détecté un conflit pour la première fois, attendre un nombre entier aléatoire de SIotime en 0-3 après avoir détecté un conflit pour la deuxième fois, et ainsi de suite.

Lorsque le nombre de collisions détectées dépasse le nombre maximal de tentatives (généralement 16), cela signifie que la trame de données n'a pas été envoyée, arrêtez d'envoyer la trame de données, informez l'administrateur réseau d'une erreur de broche et supprimez la trame de données, ou supprimez simplement la trame de données, puis réinitialisez le temps d'attente à 0, démarrez la détection de collision et préparez-vous à envoyer la trame de données suivante.

3. Comment calculer la détection de collision ?

Supposons que les stations A et B aux deux extrémités du réseau local soient distantes de 1 km et connectées par des câbles coaxiaux. Le délai de propagation des ondes électromagnétiques dans un câble de 1 km est de 5 μs. Par conséquent, les données envoyées par A à B ne peuvent être transmises à B qu'après environ 5 μs. En d'autres termes, si B envoie sa propre trame avant que les données envoyées par A n'arrivent (parce que la détection de porteuse de B ne peut pas détecter les informations envoyées par A à ce moment), elle doit entrer en collision avec la trame envoyée par A à un certain moment. Le résultat de la collision est que les deux cadres deviennent inutiles.

Dans l'analyse du LAN, le délai de propagation unidirectionnel de bout en bout sur le bus est souvent enregistré comme τ. Alors, combien de temps faudra-t-il au plus tard après que A ait envoyé les données pour savoir si les données envoyées par elle-même sont entrées en collision avec les données envoyées par d'autres stations ?
insérez la description de l'image ici
Le diagramme ci-dessus est expliqué ci-dessous.
1. A t=0, A envoie des données, et B détecte que le canal est inactif.
2. Lorsque t=τ-δ (τ>δ>0), lorsque les données envoyées par A n'ont pas atteint B, parce que B détecte que le canal est inactif, B commence à envoyer des données.
3. Après le temps δ/2, c'est-à-dire à t=τ-δ/2, les données envoyées par A entrent en collision avec les données envoyées par B. Cependant, ni A ni B ne le savent.
4. Lorsque t=τ, c'est-à-dire que les données envoyées par A atteignent B, B détecte une collision et arrête d'envoyer des données.
5. A t=2τ-δ, A détecte également qu'une collision s'est produite (les données envoyées par B parviennent à A), et arrête d'envoyer des données.

On peut voir que chaque station a la possibilité de rencontrer une collision dans un court laps de temps après avoir envoyé des données. Ainsi, lorsque δ–>0, ce temps est la valeur maximale. Par conséquent, le temps d'aller-retour Ethernet de bout en bout est appelé la période de contention. La période de contention est également appelée la fenêtre de collision, et aucune collision ne se produira pendant cette période pour s'assurer que l'envoi n'entrera pas en collision.

Ethernet utilise un algorithme de backoff exponentiel binaire tronqué pour résoudre le problème de collision. C'est-à-dire la partie de temps de repli mentionnée dans la deuxième partie. Ethernet définit la période de contention à 51,2 μs, c'est-à-dire que 512 bits peuvent être envoyés, c'est-à-dire 64 octets. Cela signifie que lorsque Ethernet envoie des données, si les 64 premiers octets de la trame n'entrent pas en collision, les données suivantes n'entreront pas en collision.
En d'autres termes, s'il y a une collision, elle doit se situer dans les 64 premiers octets envoyés. Par conséquent, l'Ethernet stipule que la longueur de trame effective la plus courte est de 64 octets, et toute trame d'une longueur inférieure à 64 octets est une trame invalide terminée anormalement en raison d'une collision, et une telle trame doit être rejetée immédiatement à la réception.

Je suppose que tu aimes

Origine blog.csdn.net/koudan567/article/details/98504192
conseillé
Classement