Computernetzwerk Kapitel 3 Hinweise zur Datenverbindungsschicht

Kapitel 3Datenverbindungsschicht

3.1 Funktionen der Sicherungsschicht

Knoten: Host, Router

Link: Physischer Kanal zwischen zwei Knoten im Netzwerk, Linkübertragung Die Medien umfassen hauptsächlich verdrillte Medien Paare, optische Fasern und Mikrowellen, die in drahtgebundene Verbindungen und drahtlose Verbindungen unterteilt werden.

Datenverbindung: Logischer Kanal zwischen zwei Knoten im Netzwerk, der die Steuerung implementiert. Die Hardware und Software des Datenübertragungsprotokolls werden der Verbindung hinzugefügt, um eine Datenverbindung zu bilden.

Frame: Die Protokolldateneinheit der Verbindungsschicht, die das Datagramm der Netzwerkschicht kapselt.

Die Datenverbindungsschicht ist für die Übertragung von Datagrammen von einem Knoten über eine Verbindung zu einem benachbarten Knoten verantwortlich, der direkt mit einer anderen physischen Verbindung verbunden ist. Die Datenverbindungsschicht stellt der Netzwerkschicht Dienste auf der Grundlage der von der physikalischen Schicht bereitgestellten Dienste bereit. Ihre Hauptfunktion besteht darin, die Funktion der physikalischen Schicht zur Übertragung des ursprünglichen Bitstroms zu verbessern wandelt die möglicherweise fehlerhafte physische Verbindung, die von der physikalischen Schicht bereitgestellt wird, in eine logische fehlerfreie Datenverbindung um, sodass sie als fehlerfreie Verbindung zum erscheint Netzwerkschicht. (Transformation der physischen Schicht zur Bereitstellung der Netzwerkschicht)

3.1.1 Bereitstellung von Diensten für die Netzwerkschicht

Für die Netzwerkschicht besteht die grundlegende Aufgabe der Datenverbindungsschicht darin, Daten von der Netzwerkschicht im Quellcomputer an die Netzwerkschicht des Zielcomputers zu übertragen. Die Datenverbindungsschicht stellt der Netzwerkschicht normalerweise die folgenden Dienste bereit:

Verbindungsloser Dienst ohne Bestätigung. Der Quellcomputer muss beim Senden eines Datenrahmens nicht zuerst eine Verbindungsverbindung herstellen, und der Zielcomputer muss beim Empfang des Datenrahmens keine Bestätigung zurücksenden. Bei verlorenen Frames ist die Datenverbindungsschicht nicht für die Neuübertragung verantwortlich und überlässt die Verarbeitung der oberen Schicht. Geeignet für Echtzeitkommunikation oder Kommunikationskanäle mit geringen Bitfehlerraten, wie z. B. Ethernet.

Bestätigter verbindungsloser Dienst. Der Quellcomputer muss beim Senden eines Datenrahmens nicht zuerst eine Verbindungsverbindung herstellen, aber der Zielcomputer muss beim Empfang des Datenrahmens eine Bestätigung zurücksenden. Wenn der Quellcomputer innerhalb der angegebenen Zeit kein bestätigtes Signal empfängt, überträgt er den verlorenen Frame erneut, um die Übertragungszuverlässigkeit zu verbessern. Dieser Dienst eignet sich für Kommunikationskanäle mit hohen Bitfehlerraten, wie beispielsweise drahtlose Kommunikation.

Bestätigter verbindungsorientierter Dienst. Der Frame-Übertragungsprozess ist in drei Phasen unterteilt: Aufbau der Datenverbindung, Übertragung des Frames und Freigabe der Datenverbindung. Der Zielcomputer muss jeden empfangenen Frame bestätigen, und der Quellcomputer kann den nächsten Frame erst nach Erhalt der Bestätigung senden, sodass der Dienst die höchste Zuverlässigkeit aufweist. Dieser Service eignet sich für Anlässe mit hohen Kommunikationsanforderungen (Zuverlässigkeit, Praktikabilität).

3.1.2 Linkverwaltung

Der Prozess der Datenverbindungsschicht-VerbindungEinrichtung, Wartung und Freigabe wird Link-Management genannt und wird hauptsächlich für< a i verwendet =3>Verbindungsorientierte Dienste. Um zu kommunizieren, müssen die Knoten an beiden Enden der Verbindung zunächst bestätigen, dass die andere Partei bereit ist, und einige notwendige Informationen austauschen, um die Rahmensequenznummer zu initialisieren, bevor eine Verbindung hergestellt wird. Während des Übertragungsprozesses muss die Verbindung aufrechterhalten werden. und nach Abschluss der Übertragung die Verbindung freigeben. Wenn mehrere Standorte denselben physischen Kanal gemeinsam nutzen, gehört auch die Zuweisung und Verwaltung von Kanälen zwischen Standorten, die Kommunikation erfordern, zum Umfang der Datenverbindungsschichtverwaltung.

3.1.3 Rahmentrennung, Rahmensynchronisation und transparente Übertragung

Bei der Kapselung in einen Frame werden vor und nach einem Datenelement ein Header und ein Trailer hinzugefügt, wodurch ein Frame entsteht. Nach dem Empfang des von der physikalischen Schicht übergebenen Bitstroms kann das empfangende Ende anhand der Header- und Tail-Markierungen den Anfang und das Ende des Frames anhand des empfangenen Bitstroms identifizieren. Der Header und Trailer enthalten viele Steuerinformationen und spielen eine wichtige Rolle: Frame-Begrenzung (bestimmte Grenzen).

Frame-Synchronisation: Der Empfänger sollte in der Lage sein, den Anfang und das Ende des Frames anhand des empfangenen binären Bitstroms zu unterscheiden.

Wenn in den Daten dieselbe Bitkombination wie das Frame-Trennzeichen vorkommt (wodurch das Ende der Übertragung falsch erkannt und die Daten verworfen werden), müssen wirksame Maßnahmen zur Lösung dieses Problems ergriffen werden, nämlich< a i=1 >Transparente Übertragung.

3.1.4 Flusskontrolle

Aufgrund der unterschiedlichen Arbeitseffizienz und des Cache-Speicherplatzes zwischen Sender und Empfänger kann die Sendefähigkeit des Senders größer sein als die Empfangsfähigkeit des Empfängers. Wenn dies zu diesem Zeitpunkt nicht angemessen ist Senden begrenzen Entsprechend der Senderate der Partei (d. h. dem Informationsfluss auf der Verbindung) werden die Frames, die nicht rechtzeitig empfangen werden, durch die Frames, die später kontinuierlich gesendet werden, „überflutet“, was zu Frames führt Verlust und Fehler. Daher besteht die Flusskontrolle tatsächlich darin, den Datenfluss des Senders so zu begrenzen, dass seine Senderate die Empfangskapazität des Empfängers nicht überschreitet.

Dieser Prozess erfordert eine Art Feedback-Mechanismus, damit der Sender wissen kann, ob der Empfänger mit sich selbst mithalten kann. Das heißt, es müssen einige Regeln vorhanden sein, damit der Sender weiß, unter welchen Umständen er den nächsten Frame weiter senden kann Unter welchen Umständen muss das Senden ausgesetzt werden? Warten Sie auf eine Rückmeldung, bevor Sie mit dem Senden fortfahren.

Hinweis: In der OSI-Architektur hat die Datenverbindungsschicht die Funktion der Flusskontrolle, während in der TCP/IP-Architektur die Flusskontrollfunktion auf die Transportschicht verlagert wird.

3.1.5 Fehlerkontrolle

Aus verschiedenen Gründen, wie z. B. Kanalrauschen, können Fehler bei der Frame-Übertragung auftreten. Die Methode, mit der derSender ermittelt, ob der Empfänger die von ihm gesendeten Daten korrekt empfangen hat, wird alsFehlerkontrolle bezeichnet . Im Allgemeinen können diese Fehler inBitfehler undFramefehler unterteilt werden.

Bitfehler bezieht sich auf den Fehler in einigen Bits im Rahmen, normalerweise unter Verwendung derzyklischen Redundanzprüfung (CRC)-Methode< a i=3>Entdeckte Luxation, durchAutomatische Wiederholungsanforderung (Automatic Repeat reQuest, ARQ) bis übertragen Sie den fehlerhaften Frame erneut. Die spezifische Methode ist: Lassen Sie den Sender einen bestimmten CRC-Redundanz-Fehlererkennungscode an den zu sendenden Datenrahmen anhängen und ihn zusammen senden. Der Empfänger führt eine Fehlererkennung für den Datenrahmen basierend auf dem Fehlererkennungscode durch. Wenn ein Fehler gefunden wird , wird es verworfen. Der Absender führt eine Zeitüberschreitung durch und überträgt den Datenrahmen erneut. Datenrahmen. Diese Fehlerkontrollmethode wird ARQ-Methode genannt. Die ARQ-Methode muss nur sehr wenige Steuerinformationen zurückgeben, um effektiv zu bestätigen, ob der gesendete Datenrahmen korrekt empfangen wurde.

Frame-Fehler beziehen sich auf Fehler wie Frame-Verlust, Duplizierung oder Out-of-Sequence. Durch die Einführung eines Timers und eines Nummerierungsmechanismus auf der Datenverbindungsebene kann sichergestellt werden, dass jeder Frame nur einmal korrekt an den Zielknoten übermittelt werden kann.

3.2 Rahmen

Der Grund, warum die Datenverbindungsschicht Bits zur Übertragung zu Frames zusammenfasst, besteht darin, bei Auftreten eines Fehlers nur den fehlerhaften Frame erneut zu senden, anstatt alle Daten erneut senden zu müssen, wodurch die Effizienz verbessert wird. Damit der Empfänger die übertragenen Frames korrekt empfangen und prüfen kann, muss der Sender die von der Netzwerkschicht übermittelten Pakete nach bestimmten Regeln in Frames kapseln (Framing genannt). Framing löst hauptsächlich Probleme wie Frame-Abgrenzung, Frame-Synchronisation und transparente Übertragung. Normalerweise gibt es die folgenden vier Möglichkeiten, Framing zu implementieren.

3.2.1 Zeichenzählmethode

Die Zeichenzählmethode bezieht sich auf die Verwendung eines Zählfelds im Frame-Header, um die Anzahl der Zeichen im Frame anzugeben. Wenn die Datenverbindungsschicht des Zielknotens den Byte-Zählwert empfängt, kennt sie die Anzahl der folgenden Bytes, sodass sie die Endposition des Frames bestimmen kann (z. B. wenn das erste Bit des ersten Frames 5 ist). dann hat der erste Frame 5 Zeichen). Wenn das Zählfeld falsch ist, d. h. die Grundlage für die Abgrenzung der Rahmengrenzen verloren geht, kann der Empfänger das Endbit des übertragenen Rahmens und das Startbit des nächsten Rahmens nicht bestimmen und Sender und Empfänger verlieren die Synchronisation, was dazu führt katastrophale Folgen.

3.2.2 Kopf- und Schwanztrennzeichenmethode zum Füllen von Zeichen

Die Zeichenfüllmethode verwendet bestimmte Zeichen, um den Anfang und das Ende eines Frames zu begrenzen. Das Steuerzeichen SOH (Start of Header) wird am Anfang des Frames platziert, um den Anfang des Frames anzuzeigen, und das Steuerzeichen EOT (Ende von). Übertragung) zeigt das Ende des Frames an. Um zu verhindern, dass die in den Informationsbits vorkommenden Sonderzeichen fälschlicherweise als erstes und letztes Trennzeichen des Rahmens interpretiert werden, kann den Sonderzeichen zur Unterscheidung ein Escape-Zeichen (ESC) vorangestellt werden, um eine transparente Übertragung zu erreichen von Dateien. Nachdem der Empfänger das Escape-Zeichen empfangen hat, weiß er, dass es sich bei den darauf folgenden Daten um Dateninformationen und nicht um Steuerinformationen handelt.

3.2.3 Kopf- und Schwanzmarkierungsmethode der Null-Bit-Auffüllung

Durch das Auffüllen mit Nullbits kann der Datenrahmen eine beliebige Anzahl von Bits enthalten und die Codierung jedes Zeichens kann eine beliebige Anzahl von Bits enthalten. Es verwendet ein bestimmtes Bitmuster, 01111110, um den Anfang und das Ende eines Frames zu markieren. Um zu verhindern, dass der in den Informationsbits erscheinende Bitstrom 01111110 fälschlicherweise als erste und letzte Markierung des Rahmens eingeschätzt wird, fügt die Datenverbindungsschicht des Absenders automatisch eine „1“ ein, wenn sie in den Informationsbits auf 5 aufeinanderfolgende „1“ trifft. 1“ danach. 0“; und der Empfänger führt den umgekehrten Vorgang dieses Vorgangs durch, d. h. jedes Mal, wenn er 5 aufeinanderfolgende „1“ empfängt, löscht er automatisch die folgende „0“, um die ursprünglichen Informationen wiederherzustellen. Null-Bit-Auffüllung ist einfach per Hardware zu implementieren und bietet eine bessere Leistung als Zeichenauffüllung.

3.2.4 Unzulässige Codierungsmethode

Bei der Codierung von Bits auf der physikalischen Ebene wird normalerweise die Verletzungscodierung verwendet. Beispielsweise codiert das Manchester-Codierungsverfahren die Datenbits „1“ und „0“ in „High-Low“- und „Low-High“-Pegelpaare, während die „High-High“- und „Low-Low“-Pegelpaare in sind die Datenbits. Es ist illegal. Diese störenden Codierungssequenzen können verwendet werden, um den Anfang und das Ende von Frames abzugrenzen. (LAN IEEE 802-Standard)

Mit der -Verletzungscodierungsmethode kann eine Transparenz der Datenübertragung ohne Verwendung von Auffülltechnologie erreicht werden, sie ist jedoch nur für spezielle Codierungsumgebungen geeignet, die redundante Codierung verwenden. Aufgrund der Fragilität des Zählfelds in der Zeichenzählmethode und der Komplexität und Inkompatibilität bei der Implementierung der Zeichenfüllmethode ist die derzeit gebräuchlichere Rahmenmethode die Null-Bit-Füllmethode < a i=2>undMethode zur Codierung von Verstößen.

3.3 Fehlerkontrolle

Die tatsächlichen Kommunikationsverbindungen sind nicht ideal und bei der Bitübertragung können Fehler auftreten (1 ändert sich in 0, 0 ändert sich in 1), was einen Bitfehler darstellt.

Codierungstechnologie wird normalerweise zur Fehlerkontrolle verwendet. Es gibt zwei Hauptkategorien: automatische Wiederholungsanforderung ARQ und Vorwärtsfehlerkorrektur FEC. Wenn bei der ARQ-Methode das empfangende Ende einen Fehler erkennt, versucht es, das sendende Ende zur erneuten Übertragung aufzufordern, bis das richtige Codewort empfangen wird. Beim FEC-Verfahren kann die Empfangsseite nicht nur Fehler erkennen, sondern auch die Fehlerposition der Bitfolge ermitteln und korrigieren. Daher kann die Fehlerkontrolle in Fehlererkennungskodierung und Fehlerkorrekturkodierung.

3.3.1 Fehlererkennungscodierung

Bei der Fehlererkennungscodierung wird die Technologie der redundanten Codierung verwendet. Die Kernidee besteht darin, dass vor dem Senden gültiger Daten (Informationsbits) bestimmte redundante Bits gemäß einer bestimmten Beziehung angehängt werden, um einen Code zu bilden, der einer bestimmten Regel entspricht. Wörter vor dem Absenden. Wenn sich die zu sendenden gültigen Daten ändern, ändern sich auch die entsprechenden redundanten Bits, sodass die Codewörter denselben Regeln folgen. Das empfangende Ende bestimmt, ob ein Fehler vorliegt, basierend darauf, ob das empfangene Codewort noch den ursprünglichen Regeln entspricht. Zu den gängigen Fehlererkennungscodes gehörenParitätsprüfcode undzyklischer Redundanzcode.

1. Paritätsprüfcode

Paritätsprüfcode ist die Sammelbezeichnung für ungeraden Prüfcode und geraden Prüfcode und ist der grundlegendste Fehlererkennungscode. Es besteht aus n-1 Bit Informationselementen und 1 Bit Prüfelement. Wenn es sich um einen ungeraden Prüfcode handelt, ist nach dem Anhängen eines Prüfelements die Anzahl der „1“ im Codewort mit der Länge n eine ungerade Zahl; Wenn es sich um einen geraden Prüfcode handelt, ist nach dem Anhängen eines Prüfelements die Anzahl der „1“ im Codewort mit der Codelänge n eine gerade Zahl. Es kann nur Fehler in ungeradzahligen Bits erkennen, weiß aber nicht, welche Bits falsch sind, und kann auch Fehler in geraden Bits nicht erkennen.

2. Zyklischer Redundanzcode

Cyclic Redundancy Code (CRC) wird auch Polynomcode genannt. Jeder Code, der aus einer binären Ziffernfolge besteht, kann eine Eins-zu-eins-Entsprechung mit einem Polynom herstellen, das nur zwei Koeffizienten, 0 und 1, enthält. Ein k-Bit-Rahmen kann als eine Folge von Koeffizienten eines Polynoms vom Grad k von Xk-1 bis X0 betrachtet werden. Die Ordnung dieses Polynoms ist k-1. Das höherwertige Bit ist der Koeffizient des Xk-1-Terms , und das nächste Bit ist der Koeffizient von Xk-2. Analog (ähnlich der Konvertierung zwischen Dezimal und Binär) ist das letzte Bit der Rest R, der als Rahmenprüfsequenz verwendet wird.

Bei einem M-Bit-Frame oder einer M-Bit-Nachricht generiert der Absender eine Folge von R-Bits, die als Frame Check Sequence (FCS) bezeichnet wird. Der so gebildete Rahmen besteht aus m+r Bits. Sender und Empfänger einigen sich vorab auf ein Polynom G(x), sodass der Rahmen mit dem Prüfcode gerade noch durch das vorgegebene Polynom G(x) teilbar ist. Der Empfänger verwendet dasselbe Polynom, um den empfangenen Frame zu dividieren. Wenn kein Rest vorhanden ist, gilt er als fehlerfrei.

Unter der Annahme, dass ein Frame m Bits hat und sein entsprechendes Polynom M(x) ist, lauten die Schritte zur Berechnung des redundanten Codes wie folgt:

①Füge 0 hinzu: Angenommen, die Ordnung von G(x) ist r, füge r 0s zum unteren Ende des Rahmens hinzu;

② Modulo-2-Division: Verwenden Sie die Modulo-2-Division (XOR, gleich 0, aber unterschiedlich 1), verwenden Sie die G(x) entsprechende Datenzeichenfolge, um die in ① berechnete Datenzeichenfolge zu entfernen, und der Rest ist der redundante Code.

Beispiel: Die zu sendenden Daten sind 1101 0110 11. Bei Verwendung der CRC-Prüfung ist das generierte Polynom 10011. Wie sollen dann die endgültigen gesendeten Daten sein?

10011 a>

3.3.2 Fehlerkorrekturcodierung

Hamming-Distanz: Die Anzahl der Bits mit unterschiedlichen entsprechenden Bitwerten zweier legaler Codes (Codewörter) wird als Hamming-Distanz (Code-Distanz) dieser beiden Codewörter bezeichnet. In einem gültigen Codesatz sind zwei beliebige legale Codes (Codewörter) ) wird als Hamming-Distanz (Code-Distanz) des Codesatzes bezeichnet.

Im Prozess der Datenkommunikation besteht eine Möglichkeit zur Lösung des Fehlerproblems darin, jedem zu sendenden Datenblock genügend redundante Informationen anzuhängen, damit der Empfänger ableiten kann, was der Absender tatsächlich gesendet hat. Eine solche Bitfolge. Der gebräuchlichste Fehlerkorrekturcode ist der Hamming-Code. Sein Implementierungsprinzip besteht darin, den effektiven Informationsbits mehrere Prüfbits hinzuzufügen, um einen Hamming-Code zu bilden, und ihn umzuwandeln Jedes Binärbit des Klarcodes ist mehreren Paritätsgruppen zugeordnet. Wenn ein bestimmtes Bit falsch ist, ändern sich die Werte mehrerer verwandter Prüfbits. Dies kann nicht nur die Fehlausrichtung erkennen, sondern auch auf die Position der Fehlausrichtung hinweisen und eine Grundlage für die automatische Fehlerkorrektur bilden. Wenn die Hamming-Distanz d ist, sind für die Fehlererkennung d+1 Bits und für die Fehlerkorrektur 2d+1 Bits erforderlich.

Der Codierungsprozess des Hamming-Codes:

(1) Bestimmen Sie die Anzahl der Stellen im Hamming-Code

Angenommen, n ist die Anzahl der Stellen gültiger Informationen, k ist die Anzahl der Prüfziffern, 2k-1 < a i=3>n+k (Hammings Ungleichung), n=4, k=3, die Informationen seien D4D3D2D1 (1010), insgesamt vier Ziffern, und die Prüfziffer sei P3P2P1, insgesamt drei Bits, der entsprechende Hamming-Code ist H7H6H5H4H3H2H1.

(2) Bestimmen Sie die Verteilung der Prüfziffern

Es wird festgelegt, dass sich das Prüfbit Pi an der Position des Hamming-Bits Nummer 2i-1 befindet und die verbleibenden Bits Informationsbits sind, also gibt es:

H7

H6

H5

H4

H3

H2

H1

D4

D3

D2

P3

D1

P2

P1

(3) Gruppierung zur Bildung einer Verifizierungsbeziehung

Jedes Datenbit wird mit mehreren Prüfbits geprüft, aber die Bedingung muss erfüllt sein: Die Hamming-Bitnummer des geprüften Datenbits ist gleich der Summe der Hamming-Zahlen der Prüfbits, die zur Prüfung des Datenbits verwendet werden. Die durch die Gruppierung gebildete Verifizierungsbeziehung ist wie folgt:

P1 (H1)

P2 (H2)

P3 (H4)

D1

3

1

2

D2

5

1

4

D3

6

2

4

D4

7

1

2

4

(4) Bitwert prüfen

Der Wert des Paritätsbits Pi ist das Exklusiv-ODER (gerade Parität) aller Bits in der i-ten Gruppe.

Die Gruppierungen gemäß (3) sind:

      P1=D1D2⊕D4=0⊕1⊕1=0

      P2=D1⊕D3⊕D4=0⊕0⊕1=1

      P3=D2⊕D3⊕D4=1⊕0⊕1=0

Aus diesem Grund vor 1010 Jahren 1010010.

(5) Verifizierungsprinzip des Hamming-Codes

Jede Prüfgruppe verwendet Prüfbits und die an der Bildung der Prüfbits beteiligten Informationsbits, um eine Paritätsprüfung durchzuführen und k Prüfgleichungen zu bilden:

S1=P1⊕D1⊕D2⊕D4

S2=P2⊕D1⊕D3⊕D4

S3=P3⊕D2⊕D3⊕D4

Wenn der Wert von S3S2S1 „000“ ist, bedeutet dies, dass kein Fehler vorliegt. Andernfalls bedeutet dies, dass ein Fehler vorliegt und diese Zahl die Bitnummer des Fehlerbits ist. Beispielsweise bedeutet S3S2S1 = 001, dass der erste Fehler vorliegt Das Bit ist falsch, das heißt, H1 ist falsch. Invertieren Sie einfach das Bit. Der Zweck der Fehlerkorrektur wird erreicht.

3.4 Flusskontrolle und zuverlässiger Übertragungsmechanismus

3.4.1 Durchflusskontrolle, zuverlässige Übertragung und Schiebefenstermechanismus

Flusskontrolle beinhaltet die Steuerung der Rate, mit der Frames auf einer Verbindung gesendet werden, sodass der Empfänger über genügend Pufferspeicher verfügt, um jeden Frame zu empfangen. Die grundlegende Methode der Flusskontrolle besteht darin, dassder Empfänger die Rate steuert, mit der der Sender Daten sendet. Es gibt zwei gängige Methoden:Stop-Wait-Protokoll und Sliding Window-Protokoll.

1. Stop-Wait-Grundprinzip der Flusskontrolle

Jedes Mal, wenn der Sender einen Frame sendet, muss er auf das Antwortsignal vom Empfänger warten, bevor er den nächsten Frame sendet; der Empfänger empfängt jedes Mal Jeder Frame erfordertRückmeldungein Antwortsignal, das angibt, dass der nächste Frame empfangen werden kann. Wenn der Empfängerdies tut kein Feedback< /span>. niedrig. Es darf jeweils nur ein Frame gesendet werden und wartet dann darauf, dass der Empfänger die Informationen bestätigt. Daher ist die Übertragungseffizienz sehrwartenAntwortsignal, dann muss der Absender

2. Grundprinzipien der Schiebefenster-Flusskontrolle

Der Absender verwaltet jederzeit einen Satz aufeinanderfolgender Sequenznummern von Frames, die gesendet werden dürfen, das sogenannteSendefenster; Gleichzeitig verwaltet der Empfänger auch einen kontinuierlichen Satz von Sequenznummern, die Frames empfangen dürfen, die als Empfangsfenster bezeichnet werden. Das Sendefenster wird verwendet, um den Fluss des Absenders zu steuern, und die Größe des Sendefensters WT stellt die maximale Anzahl von Datenrahmen dar, die der Absender senden kann, ohne Bestätigungsinformationen von der anderen Partei zu erhalten. Auf die gleiche Weise wird das Empfangsfenster auf der Empfangsseite eingestellt, um zu steuern, welche Datenrahmen empfangen werden können und welche nicht. Auf der Empfangsseite darf der Datenrahmen nur dann empfangen werden, wenn die Sequenznummer des empfangenen Datenrahmens innerhalb des Empfangsfensters liegt. Wenn der empfangene Datenrahmen außerhalb des Empfangsfensters liegt, wird er verworfen.

Jedes Mal, wenn der Absender einen Bestätigungsrahmen empfängt,gleitet das Sendefenster um einen Rahmen weiter. Wenn beim Senden kein Rahmen zum Senden vorhanden ist Fenster, Rahmen, der Sender stoppt das Senden, bis er vom Empfänger einen Bestätigungsrahmen zum Verschieben des Fensters erhält. Nach dem Empfang des Datenrahmens verschiebt das empfangende Ende das Fenster um eine Position nach vorne und sendet einen Bestätigungsrahmen zurück. Wenn der empfangene Datenrahmen außerhalb des Empfangsfensters liegt, wird er verworfen.

charakteristisch:

① Das Sendefenster kann nur vorwärts gleiten, wenn das Empfangsfenster einen Bestätigungsrahmen zurücksendet und vorwärts geht.

② Aus Sicht des Schiebefensterkonzepts unterscheiden sich das Stop-Wait-Protokoll, das Back-off-N-Frame-Protokoll und das selektive Neuübertragungsprotokoll nur in der Sendefenstergröße und der Empfangsfenstergröße:

Stop-Wait-Protokoll: Fenstergröße senden = 1, Fenstergröße empfangen = 1.

Back-N-Frame-Protokoll: Sendefenstergröße > 1, Empfangsfenstergröße = 1.

Wählen Sie das Neuübertragungsprotokoll: Sendefenstergröße > 1, Empfangsfenstergröße > 1.

③Wenn die Größe des Empfangsfensters 1 beträgt, kann ein ordnungsgemäßer Empfang von Frames gewährleistet werden.

④ Im Schiebefensterprotokoll der Datenverbindungsschicht wird die Fenstergröße während des Übertragungsprozesses festgelegt (im Gegensatz zum Schiebefensterprotokoll der Transportschicht).

3. Zuverlässiger Übertragungsmechanismus

Zuverlässige Übertragung auf der Datenverbindungsschicht verwendet normalerweiseBestätigung und Timeout-Neuübertragung < a i=4>Zwei zu vervollständigende Mechanismen. Eine Bestätigung ist ein datenloser Kontrollrahmen, der es dem Empfänger ermöglicht, dem Absender mitzuteilen, welcher Inhalt korrekt empfangen wurde. Um die Übertragungseffizienz zu verbessern, wird die Bestätigung in einigen Fällen in einem Antwortrahmen mit der Bezeichnung Piggy Acknowledgement huckepack genommen. Timeout-Neuübertragung bedeutet, dass der Absender nach dem Senden eines bestimmten Datenrahmens einen Timer startet. Wenn der gesendete Datenrahmen nicht innerhalb eines bestimmten Zeitraums empfangen wird, bestätigen Sie den Datenrahmen erneut senden, bis die Übertragung erfolgreich ist.

Automatic Reqeat reQuest (ARQ) stellt den fehlerhaften Frame wieder her, indem es den Absender auffordert, den fehlerhaften Datenframe erneut zu übertragen. Dies ist eine der in der Kommunikation verwendeten Methoden zur Behandlung von durch den Kanal verursachten Fehlern. Es gibt drei Arten herkömmlicher automatischer Neuübertragungsanforderungen: Stopp – Warten (StoppundWarten)ARQ, ZurückN Frames (GeheZurückN)ARQundSelektive Wiederholung (Selektive Wiederholung)< /a >. Die beiden letztgenannten Protokolle sind eine Kombination aus Sliding-Window-Technologie und Request-Retransmission-Technologie. Da die Fenstergröße groß genug ist, können Frames kontinuierlich auf der Leitung fließen, weshalb sie auch als kontinuierliche ARQ-Protokolle bezeichnet werden. Beachten Sie, dass Flusskontrollmechanismen und zuverlässige Übertragungsmechanismen in der Datenverbindungsschicht miteinander verflochten sind. ARQ

3.4.2 Einzelbild-Schiebefenster und Stop-and-Wait-Protokoll

Beim Stop-and-Wait-Protokoll muss die Quellstation nach dem Senden eines einzelnen Frames auf eine Bestätigung warten. Die Quellstation kann keine weiteren Datenframes senden, bevor die Antwort der Zielstation die Quellstation erreicht. Aus Sicht des Sliding-Window-Mechanismus entspricht das Stop-Wait-Protokoll dem Sliding-Window-Protokoll, bei dem die Größe des Sendefensters und des Empfangsfensters jeweils 1 beträgt.

Im Stop-Wait-Protokoll können zusätzlich zum Datenrahmenverlust die folgenden zwei Fehler auftreten:

Der an der Zielstation ankommende Frame ist möglicherweise beschädigt. Nachdem die empfangende Station ihn mithilfe der Fehlererkennungstechnologie erkannt hat, verwirft sie ihn einfach der Rahmen. . Um mit dieser möglichen Situation umzugehen, ist die Ursprungsstation mit einem Timer ausgestattet. Nachdem ein Frame gesendet wurde, wartet die Quellstation auf eine Bestätigung. Wenn sie nach Ablauf des Timers keine Bestätigung erhält, sendet sie denselben Frame erneut . Wiederholen Sie dies, bis der Datenrahmen fehlerfrei ankommt.

②Der Datenrahmen ist korrekt, aber der Bestätigungsrahmen ist zerstört. Zu diesem Zeitpunkt hat der Empfänger den richtigen Datenrahmen empfangen, aber der Absender kann den Bestätigungsrahmen nicht empfangen, sodass der Sender den empfangenen Datenrahmen erneut überträgt. Wenn der Empfänger denselben Datenrahmen empfängt, verwirft er den Rahmen und sendet erneut einen Bestätigungsrahmen, der dem Rahmen entspricht /span> . Die gesendeten Frames werden abwechselnd durch 0 und 1 gekennzeichnet, und die Bestätigungsframes werden durch ACK 0 bzw. ACK 1 dargestellt. Wenn der empfangene Bestätigungsframe falsch ist, wird der gesendete Frame erneut übertragen. Da beim Stop-and-Wait-Protokoll jedes Mal, wenn ein Datenrahmen gesendet wird, angehalten und gewartet wird, ist die Verwendung von 1 Bit für die Nummerierung ausreichend. Wenn im Stop-and-Wait-Protokoll kontinuierlich Datenrahmen mit derselben Übertragungssequenznummer angezeigt werden, bedeutet dies, dass das sendende Ende eine Zeitüberschreitung erlitten hat und erneut übertragen hat. Wenn fortlaufend Bestätigungsrahmen mit derselben Sequenznummer angezeigt werden, weist dies darauf hin, dass der Empfänger doppelte Rahmen empfangen hat.

Um eine Zeitüberschreitung bei der erneuten Übertragung zu erreichen und die Notwendigkeit doppelter Frames zu ermitteln, müssen außerdem sowohl der Sender als auch der Empfänger einen Frame-Puffer einrichten. Wenn der Absender das Senden des Datenrahmens abgeschlossen hat, muss er eine Kopie des Datenrahmens in seinem Sendepuffer behalten, damit er im Fehlerfall erneut übertragen werden kann. Diese Kopie kann nur gelöscht werden, wenn der von der anderen Partei gesendete Bestätigungsrahmen ACK empfangen wird. Der Kommunikationskanal des Stop-Wait-Protokolls weist eine geringe Auslastung auf. Um diesen Mangel zu überwinden, wurden dasBackoffNFrame-Protokoll und < /span>. Wählen Sie das Neuübertragungsprotokoll aus

3.4.3 Multi-Frame-Schiebefenster und Back-Off-N-Frame-Protokoll (GBN)

Im Back-Off-N-Frame-Protokoll ARQ muss der Absender nicht mit dem Senden des nächsten Frames beginnen, nachdem er die Bestätigung des vorherigen Bestätigungsframes empfangen hat, sondern kann Frames kontinuierlich senden. Wenn der Empfänger Informationsrahmen außerhalb der Reihenfolge erkennt, fordert er den Sender auf, alle unbestätigten Rahmen nach dem letzten korrekt empfangenen Informationsrahmen erneut zu senden; oder nachdem der Absender N Rahmen gesendet hat, wenn der vorherige Rahmen der N Rahmen gefunden wird Wenn seine Bestätigung Wenn nach Ablauf des Timers keine Informationen zurückgegeben werden, wird der Rahmen als fehlerhaft oder verloren beurteilt. Zu diesem Zeitpunkt muss der Sender den Fehlerrahmen und die folgenden N Rahmen erneut übertragen, d. h. der Empfänger darf nur Rahmen empfangen in Ordnung. . Da viele Frames kontinuierlich gesendet werden, muss im Bestätigungsframe angegeben werden, welcher Frame bestätigt wird. Um den Overhead zu reduzieren, sieht das GBN-Protokoll außerdem vor, dass der Empfänger nicht unbedingt sofort nach dem Empfang eines korrekten Datenrahmens einen Bestätigungsrahmen zurücksenden muss, sondern nach dem Empfang mehrerer korrekter Datenrahmen in einem Schritt einen Bestätigungsrahmen zurücksenden kann Zeile.Bestätigungsinformationen an den letzten Datenrahmen senden, oder Sie können die zuvor korrekt empfangenen Rahmen nur dann bestätigen, wenn Sie Daten zum Senden haben. Das heißt, die Bestätigung eines bestimmten Datenrahmens zeigt an, dass der Datenrahmen und alle vorherigen Datenrahmen korrekt empfangen wurden, was als akkumulierte Bestätigung bezeichnet wird .

Das Empfangsfenster des GBN-Protokolls ist 1, wodurch sichergestellt werden kann, dass Datenrahmen der Reihe nach empfangen werden. Wenn n Bits zur Nummerierung des Frames verwendet werden, sollte die Größe des Sendefensters WT1<WT< erfüllen /a >. Es ist ersichtlich, dass das GBN-Protokoll möglicherweise nicht besser ist als das Stop-and-Wait-Protokoll, wenn die Übertragungsqualität des Kanals schlecht und die Bitfehlerrate hoch ist. die Kanalauslastung durch kontinuierliches Senden von Datenframes; andererseits wird beim erneuten Senden die Ursprünglich übertragene Datenrahmen müssen sein. Der korrekte Datenrahmen wird erneut übertragen (ein Fehler wird erneut übertragen), was die Übertragungseffizienz verringert. Wenn die Größe des Sendefensters größer als 2n-1 ist, kann der Empfänger neue Frames nicht von alten Frames unterscheiden. Einerseits verbessert das Back-Off-N-Frame-Protokoll2n-1

3.4.4 Multi-Frame-Schiebefenster und selektives Neuübertragungsprotokoll (SR)

Um die Kanalauslastung weiter zu verbessern, können Sie versuchen, nur die Datenrahmen mit Fehlern oder die Datenrahmen mit Timer-Ablauf erneut zu übertragen Warten Sie, bis der Datenrahmen mit der fehlenden Sequenznummer empfangen und dann zusammen an den Host gesendet wird. Dies ist die Wahl, das ARQ-Protokoll erneut zu übertragen.

Im SR-Protokoll entspricht jeder Sendepuffer einem Timer. Wenn der Timer abläuft, wird der Frame im Puffer erneut übertragen. Darüber hinaus verwendet dieses Protokoll eine effektivere Fehlerbehandlungsstrategie als die anderen oben genannten Protokolle. Das heißt, sobald der Empfänger den Verdacht hat, dass der Frame fehlerhaft ist, sendet er einen Negative FrameFordern Sie den Absender auf, den im NAK angegebenen Frame erneut zu übertragen. NAK

Die Empfangsfenstergröße WR und die Sendefenstergröße WT des SR-Protokolls sind beide größer als 1, und es können mehrere Frames gleichzeitig gesendet oder empfangen werden. Im SR-Protokoll sind die Größen des Empfangsfensters und des Sendefensters normalerweise gleich und die Maximalwerte betragen die Hälfte des Sequenznummernbereichs. Wenn n Bits zum Nummerieren des Rahmens verwendet werden, ist WTmax = WRmax = 2 ( n-1) muss erfüllt sein.

Das SR-Protokoll kann das erneute Übertragen von Datenrahmen vermeiden, die korrekt auf der Empfangsseite angekommen sind. Allerdings muss auf der Empfangsseite ein Puffer mit beträchtlicher Kapazität eingerichtet werden, um Frames, die nicht korrekt empfangen wurden, der Reihe nach vorübergehend zu speichern. Das empfangende Ende kann keine Frames mit Sequenznummern unterhalb der unteren Grenze des Fensters oder oberhalb der oberen Grenze des Fensters empfangen. Daher entspricht die Anzahl der erforderlichen Puffer der Größe des Fensters und nicht der Anzahl der Sequenznummern.

*3.4.5 Konzeptergänzung

Kanaleffizienz bezieht sich auf das Verhältnis der Zeit, die der Absender benötigt, um Daten innerhalb eines Sendezyklus effektiv zu senden, zum gesamten Sendezyklus. Der Zeitraum vom Beginn des Sendens von Daten durch den Absender bis zum Empfang des ersten Bestätigungsrahmens wird als Sendezyklus bezeichnet, der auf T eingestellt ist. Der Absender sendet in diesem Zeitraum insgesamt L Datenbits. Die Datenübertragungsrate des Absenders beträgt C Dann beträgt die Sendezeit, die die Partei zum effektiven Übertragen von Daten benötigt, L/C. In diesem Fall beträgt die Kanalauslastungsrate (L/C)/T.

Beispiel: Die Datenübertragungsrate eines Kanals beträgt 4 kb/s und die Übertragungsverzögerung in eine Richtung beträgt 30 ms. Wenn die maximale Kanalauslastung des Stop-and-Wait-Protokolls 80 % erreichen soll, was ist das erforderliche Minimum? Datenrahmenlänge?

L/C=L/4, T=L/4+30×2, (L/C)/T=80 %

L=960 Bit

3.5 Medienzugriffskontrolle

Die Hauptaufgabe der Medienzugriffskontrolle besteht darin, von anderen Knoten auf dem vereinbarten Kanal übertragene Signale für jeden Knoten zu isolieren, der das Medium verwendet, um die Übertragung aktiver Knoten zu koordinieren. Das zur Bestimmung der Kanalzuteilung in Rundfunkkanälen verwendete Protokoll gehört zu einer Unterschicht der Datenverbindungsschicht, die als MAC-Unterschicht (Medium Access Control) bezeichnet wird. Der Inhalt der Medienzugriffskontrolle besteht darin, bestimmte Maßnahmen zu ergreifen, damit sich die Kommunikation zwischen zwei Knotenpaaren nicht gegenseitig stört. Zu den gängigen MAC-Methoden gehörenKanalaufteilung und Teilungsmedienzugriffskontrolle, ZufallszugriffsmedienzugriffskontrolleundAbfragezugriffsmedien-Zugriffskontrolle. Ersteres ist eine statische Methode zur Aufteilung von Kanälen, während die beiden letzteren dynamisch

3.5.1 Kanalaufteilungsmedium-Zugriffskontrolle

Die Kanalteilungs-Medienzugriffskontrolle isoliert jedes Gerät, das das Medium verwendet, von der Kommunikation anderer Geräte auf demselben Kommunikationskanal und verteilt Zeit- und Frequenzbereichsressourcen rational. Zuweisen< a i=2> an Geräte im Netzwerk.

Im Folgenden wirddas Konzept der Multiplexing-Technologie vorgestellt. Wenn die Bandbreite des Übertragungsmediums die Bandbreite überschreitet, die zur Übertragung eines einzelnen Signals erforderlich ist, verbessern Menschen die Auslastung des Übertragungssystems, indem sie mehrere Übertragungssignale gleichzeitig auf einem Medium übertragen. Dies ist das sogenannte Multiplexen, das auch verwendet wird Realisierung des Kanalaufteilungs-Medienzugriffskontrollansatzes. Die Multiplexing-Technologie kombiniert mehrere Signale auf einem physischen Kanal zur Übertragung und ermöglicht so die gemeinsame Nutzung von Kanalressourcen durch mehrere Computer oder Endgeräte,. Verbesserte Kanalnutzung

Der Kern der Kanalaufteilung besteht darin, einen ursprünglichen Rundfunkkanal durch Zeitteilung, Frequenzteilung, Codeteilung und andere Methoden logisch in mehrere nicht störende Unterkanäle für die Kommunikation zwischen zwei Knoten aufzuteilen. Tatsächlich besteht die Aufteilung des Rundfunkkanals darin Der Kanal wird in einen Punkt-zu-Punkt-Kanal umgewandelt. Die Kanalteilungs-Medienzugriffskontrolle ist in die folgenden vier Typen unterteilt:

1. Frequenzmultiplex (FDM)

Beim Frequenzmultiplex handelt es sich um eine Multiplex-Technologie, die mehrere Basisbandsignale auf unterschiedliche Frequenzträger moduliert und diese dann zu einem zusammengesetzten Signal überlagert. Für den Fall, dass die verfügbare Bandbreite eines physischen Kanals die für ein einzelnes Originalsignal erforderliche Bandbreite übersteigt, kann die Gesamtbandbreite des physischen Kanals in eine Anzahl von Unterkanälen aufgeteilt werden, die gleich (oder etwas größer) als die Bandbreite sind zur Übertragung eines einzelnen Signals, wobei jeder Unterkanal ein Signal überträgt. Dabei handelt es sich um Frequenzmultiplex. (ähnlich wie parallel)

Die jedem Unterkanal zugewiesene Bandbreite kann unterschiedlich sein, ihre Summe darf jedoch die Gesamtbandbreite des Kanals nicht überschreiten. Um Interferenzen zwischen Unterkanälen zu verhindern, muss in praktischen Anwendungen ein „Schutzband“ zwischen benachbarten Kanälen hinzugefügt werden.

Der Vorteil des Frequenzmultiplexens besteht darin, dass es die Bandbreite des Übertragungsmediums vollständig ausnutzt und eine hohe Systemeffizienz aufweist; da die Technologie relativ ausgereift ist, ist sie einfacher zu implementieren.

2. Zeitmultiplex (TDM)

Beim Zeitmultiplex wird ein physikalischer Kanal zeitlich in mehrere Zeitscheiben unterteilt und diese wiederum mehreren Signalen zugeordnet. Im Gegensatz zu FDM, bei dem mehrere Signale gleichzeitig gesendet werden, wird jede Zeitscheibe von einem gemultiplexten Signal belegt. Auf diese Weise können mehrere Signale auf einem physikalischen Kanal übertragen werden, indem der zeitliche Schnittpunkt der Signale genutzt wird. (ähnlich der Parallelität)

Für eine bestimmte Zeit wird auf dem Zeitmultiplexkanal nur das Signal zwischen einem bestimmten Gerätepaar übertragen; für eine bestimmte Zeitspanne wird nur das Signal übertragenZeit geteiltes Multiplexsignal. Aufgrund der Burst-Beschaffenheit von Computerdaten ist die Nutzungsrate des zugewiesenen Unterkanals durch einen Benutzer jedoch im Allgemeinen nicht hoch. Statistisches Zeitmultiplexing (STDM, auch bekannt als asynchrones Zeitmultiplexing) ist eine Verbesserung von TDM. Es verwendet STDM-Frames. STDM-Frames Zeitschlitze sind es nicht Fest zugewiesen, aber Zeitschlitze werden dynamisch bei Bedarf zugewiesen. Wenn das Terminal Daten übertragen muss, wird ihm ein Zeitschlitz zugewiesen. Daher kann die Leitungsauslastung verbessert werden.

3. Wellenlängenmultiplex (WDM)

Wellenlängenmultiplex ist optisches Frequenzmultiplex, bei dem mehrere optische Signale unterschiedlicher Wellenlänge (Frequenzen) in einer optischen Faser übertragen werden Bei unterschiedlichen Wellenlängen (Frequenzen) stören die optischen Signale jedes Kanals einander nicht. Schließlich wird ein Wellenlängenzerlegungsmultiplexer verwendet, um die Wellenlängen jedes Kanals zu zerlegen. Da Lichtwellen im Hochfrequenzband des Spektrums liegen und eine hohe Bandbreite haben, kann ein Multiplexing mit Wellenlängenteilung erreicht werden.

4. Codemultiplex (CDM)

Codemultiplex ist eine Multiplexmethode, die unterschiedlicheCodierungen verwendet, um jedes Originalsignal zu unterscheiden. Im Gegensatz zu FDM und TDM teilt es sowohl die Frequenz als auch die Zeit des Kanals.

Tatsächlich ist der am häufigsten verwendete BegriffCode Division Multiple Access (Code Division Multiple Access, CDMA). Das Prinzip ist, dass jeder Die Bitzeit wird weiter in m kurze Zeitschlitze unterteilt, die als Chips (Chip) bezeichnet werden. Normalerweise beträgt der Wert von m 64 oder 128, im folgenden Beispiel: Der Einfachheit halber sei m gleich 8. Jeder Station wird eine eindeutige m-Bit-Chipsequenz zugewiesen. Beim Senden einer 1 sendet die Station ihre Chipsequenz, beim Senden einer 0 sendet die Station das Komplement der Chipsequenz. Wenn zwei oder mehr Stationen gleichzeitig senden, werden die Daten jedes Kanals im Kanal linear addiert. Um verschiedene Signale vom Kanal zu trennen, müssen die Chipsequenzen jeder Station orthogonal zueinander sein.

Ein einfaches Verständnis besteht darin, dass das von Station A an Station C gesendete Signal durch einen Vektor dargestellt wird und das von Station B an Station C gesendete Signal durch einen anderen Vektor dargestellt wird. Die beiden Vektoren erfordern< a i=1 >Zueinander orthogonal. Die Komponenten im Vektor werden Chips genannt.

Die folgenden Beispiele veranschaulichen die Prinzipien von CDMA:

Wenn der Chipsequenz von Station A 00011011 zugewiesen ist, sendet Station A 00011011, um das Senden von Bit 1 anzuzeigen, und das Senden von 11100100 zeigt das Senden von Bit 0 an. Der Einfachheit halber wird 1 im Chip konventionell als +1 und 0 als -1 geschrieben. Daher ist die Chipsequenz von Station A -1-1-1+l+1-1+1+1, und die Chipsequenz von Station B ist -1-1-1+l+1-1+1+1. Die Chipsequenz ist +1+1+1-1-1+1-1-1. Die Vektoren S und T seien die Chipvektoren der Stationen A und B. Die Chipsequenzen zweier verschiedener Stationen sind orthogonal, das heißt, das normalisierte innere Produkt (inneres Produkt) der Vektoren S und T ist 0, S·T0 ,S·S=1. Sei S= (-1 -1 -1 +l +1 -1 +1 +1), T= (+1 +1 +1 -1 -1 +1 -1 -1) und erhalte S+T= ( 0 0 -2 -2 0 -2 0 2) Führen Sie nach der Ankunft an Station C eine Datentrennung durch. Wenn Sie die Daten von Station A erhalten möchten, muss Station C die Chipsequenz von Station A kennen und S und S angeben +T Spezifikationen ausführen. Das innere Produkt transformieren. Gemäß dem Superpositionsprinzip werden die Signale anderer Stationen im Ergebnis des inneren Produkts herausgefiltert. Die Korrelationsterme des inneren Produkts sind alle 0, so dass nur das von Station A gesendete Signal übrig bleibt. Erhalten Sie S·(S+T)=1, sodass die von Station A gesendeten Daten 1 sind. Wenn die Daten von Station B erhalten werden, ist auf die gleiche Weise T·(S+T)=-1, sodass der von Station B gesendete Signalvektor ein Komplementvektor ist, der 0 darstellt.

Die Codemultiplex-Technologie bietet die Vorteile einer hohen Spektrumsnutzung, einer starken Entstörungsfähigkeit, einer starken Vertraulichkeit und einer guten Sprachqualität. Sie kann auch die Investitions- und Betriebskosten senken und wird hauptsächlich in drahtlosen Kommunikationssystemen, insbesondere mobilen Kommunikationssystemen, eingesetzt.

3.5.2 Medienzugriffskontrolle mit wahlfreiem Zugriff

Im Direktzugriffsprotokoll wird das Problem der Reihenfolge des Informationsversands nicht durch eine zentrale Steuerung gelöst. Alle Benutzer können Informationen nach dem Zufallsprinzip nach ihren Wünschen senden und dabei die gesamte Kanalrate belegen. Wenn in einem Busnetzwerk zwei oder mehr Benutzer gleichzeitig Informationen senden , wird ein Frame-Konflikt generiert , was dazu führte, dass das Senden aller in Konflikt stehenden Benutzer mit einem Fehler endete. Um die Kollision zu lösen, die beim Direktzugriff auftritt, muss jeder Benutzer seinen Frame nach bestimmten Regeln wiederholt erneut übertragen, bis der Frame ohne Kollision durchläuft. . Bei diesen Regeln handelt es sich um das Random-Access-Medium-Access-Control-Protokoll. Zu den häufig verwendeten Protokollen gehören das ALOHA-Protokoll, das CSMA-Protokoll, das CSMA/CD-Protokoll und das CSMA/CA Protokoll genannt. konfliktbasiertes Protokoll und erhält das Recht, Informationen zu senden. Daher wird das Random-Access-Medium-Access-Control-Protokoll auch Konkurrenz usw., ihre Kernideen sind: Der Gewinner erhält den Kanal durch

Es ist nicht schwer herauszufinden, dass bei Verwendung des Kanalteilungsmechanismus für die Medienzugriffskontrolle die Kommunikation zwischen Knoten entweder Raum, Zeit oder beides teilt; und wenn ein Mechanismus zur wahlfreien Zugriffskontrolle verwendet wird, wird dies bei der Kommunikation zwischen Knoten der Fall sein Sie müssen weder Zeit noch Raum teilen. Bei der zufälligen Medienzugriffskontrolle handelt es sich also im Wesentlichen um die Umwandlung eines Rundfunkkanals in einen Punkt-zu-Punkt-Kanal.

1. ALOHA-Protokoll

ALOHA, dies ist eine Kopie des Additive Link Online Hawaii-Systems. ALOHA协议分为ALOHA协议ZeitlückeALOHA协议.

① Reines ALOHA-Protokoll

Die Grundidee des reinen ALOHA-Protokolls besteht darin, dass jede Station im Netzwerk, wenn sie Daten senden muss, die Daten ohne Erkennung senden kann. Wenn innerhalb einer bestimmten Zeitspanne keine Bestätigung eintrifft, geht die Site davon aus, dass es bei der Übertragung zu einer Kollision gekommen ist. Die sendende Site muss vor dem Senden von Daten eine gewisse Zeit warten, bis die Übertragung erfolgreich ist. Die Neuübertragungsstrategie des reinen ALOHA-Systems besteht darin, jede Station eine zufällige Zeitspanne warten zu lassen, bevor sie erneut sendet. Tritt erneut eine Kollision auf, müssen Sie eine zufällige Zeitspanne warten, bis die erneute Übertragung erfolgreich ist. Unter der Annahme, dass die Netzwerklast G beträgt, beträgt der Durchsatz des reinen ALOHA-Netzwerks S=Ge-2G. Wenn G = 0,5, ist S = 0,5e-1≈0,184, was der maximale Wert ist, den der Durchsatz S erreichen kann. Es ist ersichtlich, dass der Durchsatz des reinen ALOHA-Netzwerks sehr gering ist. Um diesen Mangel zu beheben, wurde das ursprüngliche reine ALOHA-Protokoll verbessert und das geschlitzte ALOHA-Protokoll entwickelt.

② Zeitfenster-ALOHA-Protokoll

Das Zeitschlitz-ALOHA-Protokoll synchronisiert die Zeit aller Stationen und unterteilt die Zeit in gleich lange Zeitschlitze (Slots). Es legt fest, dass ein Frame nur am Anfang jedes Zeitschlitzes gesendet werden kann. Dies vermeidet die Willkür des Benutzers beim Senden von Daten, verringert die Möglichkeit von Datenkonflikten und verbessert die Kanalauslastung.

Die Beziehung zwischen dem Durchsatz S des geschlitzten ALOHA-Netzwerks und der Netzwerklast G ist S=Ge-G. Wenn G=1, S=e-1≈0,368. Dies ist der maximal mögliche Wert des Durchsatzes S. Es ist ersichtlich, dass der Durchsatz des geschlitzten ALOHA-Netzwerks doppelt so hoch ist wie der des reinen ALOHA-Netzwerks.

2. CSMA-Protokoll

Obwohl die Effizienz des geschlitzten ALOHA-Systems doppelt so hoch ist wie die des reinen ALOHA-Systems, sendet jede Station Daten wie sie möchte, auch wenn andere Stationen senden, sodass die Wahrscheinlichkeit einer Sendekollision sehr hoch ist.

Wenn jede Station den gemeinsam genutzten Kanal vor dem Senden überwacht und vor dem Senden feststellt, dass der Kanal inaktiv ist, wird die Möglichkeit eines Konflikts erheblich reduziert, wodurch die Kanalauslastung verbessert wird.Carrier Sense Das Multiple Access-Protokoll (Carrier Sense Multiple Access, CSMA) basiert auf dieser Idee. Das CSMA-Protokoll ist ein verbessertes Protokoll, das auf dem ALOHA-Protokoll basiert. Der Hauptunterschied zum ALOHA-Protokoll besteht in der Hinzufügung eines Trägerüberwachungsgeräts.

Abhängig von der Überwachungsmethode und der Verarbeitungsmethode nach der Erkennung, dass der Kanal ausgelastet ist, wird das CSMA-Protokoll in drei Typen unterteilt:

① 1 – Befolgen Sie CSMA

1-Die Grundidee von persistentem CSMA (l-persistentem CSMA) ist: Wenn ein Knoten Daten senden möchte, überwacht er zunächst den Kanal. Wenn der Kanal inaktiv ist, werden die Daten sofort gesendet. Wenn der Kanal inaktiv ist, werden die Daten sofort gesendet beschäftigt, dann warten und weiter abhören, bis der Kanal inaktiv ist; Wenn ein Konflikt auftritt, warten Sie eine zufällige Zeitspanne, bevor Sie die Überwachung des Kanals neu starten.

Die Bedeutung von „1-Persistenz“ ist: nach der Überwachung, dass der Kanal belegt ist,die Überwachung des Kanals fortsetzen; nach der Überwachung, dass der Kanal ist inaktiv, senden Der Frame ist 1, das heißt, die Daten werden sofort gesendet.

Die Ausbreitungsverzögerung hat einen größeren Einfluss auf die Leistung des 1-adhere CSMA-Protokolls. Wenn Knoten A mit dem Senden von Daten beginnt, hat Knoten B zufällig auch Daten zum Senden, aber zu diesem Zeitpunkt hat das Signal von Knoten A Knoten B noch nicht erreicht. Knoten B erkennt, dass der Kanal inaktiv ist, und sendet die Daten daher sofort Das Ergebnis ist unvermeidlich. zu Konflikten führen. Auch ohne Berücksichtigung von Verzögerungen kann die Einhaltung des CSMA-Protokolls zu Konflikten führen. Wenn beispielsweise Knoten A Daten sendet, bereiten sich auch die Knoten B und C auf das Senden von Daten vor. Sie hören, dass der Kanal belegt ist, und bestehen daher auf der Überwachung. Wenn Knoten A mit dem Senden fertig ist, werden dies auch die Knoten B und C tun Daten sofort senden, was ebenfalls zu Konflikten führt. (Immer zuhören, mehrere Sites senden sofort, wenn sie inaktiv sind, was leicht zu Konflikten führen kann)

② Nichteinhaltung des CSMA

Die Grundidee von nicht persistentem CSMA ist: Wenn ein Knoten Daten senden möchte, hört er zuerst auf den Kanal. Wenn der Kanal inaktiv ist, sendet er die Daten sofort. Wenn der Kanal beschäftigt ist, gibt er die Überwachung auf wartet eine zufällige Zeit, bevor der obige Vorgang wiederholt wird.

Das nicht persistente CSMA-Protokoll gibt die Überwachung auf, nachdem es erkannt hat, dass der Kanal ausgelastet ist, wodurch die Wahrscheinlichkeit von Kollisionen verringert wird, die dadurch verursacht werden, dass mehrere Knoten darauf warten, dass der Kanal frei wird und gleichzeitig Daten senden. Dies wird jedoch der Fall sein außerdem Erhöhendie durchschnittliche Verzögerungvon Daten im Netzwerk. Es ist ersichtlich, dass die Verbesserung der Kanalauslastung mit einer Erhöhung der Verzögerungszeit der Daten im Netzwerk einhergeht. (Sofort überwachen und bei Verfügbarkeit senden)

③ p – CSMA einhalten

P-persistentes CSMA (p-persistentes CSMA) wird für Zeitteilungskanäle verwendet. Seine Grundidee ist: Wenn ein Knoten Daten senden möchte, hört er zuerst auf den Kanal. Wenn der Kanal belegt ist, hört er bis zum Kanal weiter ist inaktiv; wenn der Kanal inaktiv ist, werden Daten mit der Wahrscheinlichkeit p gesendet und mit der Wahrscheinlichkeit 1-p auf den nächsten Zeitschlitz verschoben; wenn der Kanal im nächsten Zeitschlitz immer noch inaktiv ist, werden Daten immer noch mit der Wahrscheinlichkeit p gesendet und verschoben zum nächsten Zeitschlitz mit Wahrscheinlichkeit 1-p; dieser Vorgang wird fortgesetzt, bis die Daten erfolgreich gesendet wurden oder festgestellt wird, dass der Kanal aufgrund anderer Knoten, die Daten senden, belegt ist. Wenn letzteres der Fall ist, warten Sie auf den nächsten Zeitschlitz und dann Überwachung neu starten.

p-Persistenz CSMA sendet Daten mit der Wahrscheinlichkeit p, nachdem erkannt wurde, dass der Kanal inaktiv ist, und verschiebt sie mit der Wahrscheinlichkeit 1-p auf den nächsten Zeitschlitz. Sein Zweck besteht darin, die Kollisionswahrscheinlichkeit mehrerer Knoten zu verringern, die gleichzeitig Daten senden, nachdem sie im 1-persistenten CSMA-Protokoll erkannt haben, dass der Kanal inaktiv ist. Der Zweck der Verwendung von persistentem „Abhören“ besteht darin, zu versuchen, die durch verursachte Verzögerungszeit zu überwinden Zufälliges Warten im nicht persistenten CSMA-Protokoll hat längere Nachteile. Daher ist die p-Einhaltung des CSMA-Protokolls eine Kompromisslösung zwischen der Nichteinhaltung der CSMA-Vereinbarung und der 1-Einhaltung der CSMA-Vereinbarung.

3. CSMA/CD-Protokoll

Das Carrier Sense Multiple Access/Collision Detection (CSMA/CD)-Protokoll ist eine Verbesserung des CSMA-Protokolls und eignet sich für Busnetzwerke oder Halbduplex Netzwerkumgebung. Da bei einem Vollduplex-Netzwerk zwei Kanäle zum Senden und Empfangen verwendet werden, können sowohl der Sender als auch der Empfänger jederzeit Daten senden oder empfangen, und es besteht keine Möglichkeit eines Konflikts, sodass kein CSMA erforderlich ist /CD-Protokoll.

Trägerüberwachung bedeutet, dass jede Station den Kanal vor dem Senden und während des Sendens ständig erkennen muss. Der Zweck der Kanalerkennung vor dem Senden besteht darin, das Recht zum Senden zu erhalten, und der Erkennung während des Sendens Senden Der Zweck des Kanals besteht darin, rechtzeitig zu erkennen, ob die gesendeten Daten kollidiert sind. Die Station hört den Kanal ab, bevor sie Daten sendet. Sie kann nur Daten senden, wenn der Kanal inaktiv ist. Kollisionserkennung (Kollisionerkennung) ist die : Wenn eine Kollision erkannt wird, wird das Senden von Daten sofort gestoppt, eine zufällige Zeitspanne gewartet und dann erneut versucht, Daten zu senden. Seite Überwachung der sendenden Seite

Der Arbeitsablauf von CSMA/CD lässt sich einfach wie folgt zusammenfassen: „Zuerst abhören und dann senden, während der Übertragung abhören, die Übertragung aufgrund eines Konflikts beenden und nach dem Zufallsprinzip erneut übertragen“.

Die Ausbreitungsrate elektromagnetischer Wellen auf dem Bus ist immer begrenzt. Wenn die sendende Station erkennt, dass der Kanal zu einem bestimmten Zeitpunkt inaktiv ist, ist der Kanal zu diesem Zeitpunkt nicht unbedingt inaktiv. Sei τ die Ausbreitungsverzögerung in einer Richtung. Bei t=0 sendet A Daten. Wenn t = τ-δ, haben die von A gesendeten Daten B noch nicht erreicht. B sendet die Daten, weil B erkennt, dass der Kanal frei ist. Nach der Zeit δ/2, also wenn t = t-δ/2, kollidieren die von A gesendeten Daten und die von B gesendeten Daten, aber weder A noch B wissen es zu diesem Zeitpunkt. Bei t=τ erkennt B eine Kollision und stoppt das Senden von Daten. Bei t=2τ-δ erkennt A eine Kollision und stoppt das Senden von Daten. Offensichtlich ist es für Stationen in CSMA/CD nicht möglich, gleichzeitig zu senden und zu empfangen, sodass Ethernet, das das CSMA/CD-Protokoll verwendet, nur Halbduplex-Kommunikation durchführen kann .

Station A kann spätestens nach Ablauf von 2τ nach dem Senden erkennen, ob der gesendete Frame kollidiert. Daher wird die Ethernet-End-to-End-Umlaufzeit 2τ als Konkurrenzzeitraum (auch Konfliktfenster oder Kollisionsfenster genannt) bezeichnet. Innerhalb einer kurzen Zeitspanne, nachdem jede Station Daten gesendet hat, besteht die Möglichkeit einer Kollision. Nur wenn nach der Konkurrenzperiode keine Kollision erkannt wird, kann festgestellt werden, dass es diesmal zu keiner Kollision kommt.

Stellen Sie sich nun eine Situation vor, in der eine Station einen sehr kurzen Frame sendet, aber vor Abschluss der Übertragung keine Kollision erkannt wird. Nehmen Sie an, dass dieser Frame mit einem von einer anderen Station gesendeten Frame kollidiert, bevor er sich weiter zur Zielstation ausbreitet, sodass die Zielstation den fehlerhaften Frame empfängt und ihn verwirft. Da die sendende Station jedoch nicht weiß, dass eine Kollision aufgetreten ist, wird sie den Frame nicht erneut übertragen. Um diese Situation zu vermeiden, gibt Ethernet eineminimale Rahmenlänge an. Wenn während des Konkurrenzzeitraums eine Kollision erkannt wird, stoppt die Station das Senden. Zu diesem Zeitpunkt müssen die gesendeten Daten kürzer als die kürzeste Rahmenlänge sein, sodass jeder Rahmen, der kürzer als die kürzeste Rahmenlänge ist, aufgrund eines Konflikts abnormal beendet wird. Die Berechnungsformel für die Mindestrahmenlänge lautet: Mindestrahmenlänge = Busausbreitungsverzögerung × Datenübertragungsrate × 2Ungültiger Frame

Ethernet gibt beispielsweise 51,2 μs als Länge des Konkurrenzzeitraums an. Für 10 Mbit/s Ethernet können während des Konkurrenzzeitraums 512 Bits gesendet werden. Das ist 64B. Wenn Daten über Ethernet gesendet werden und in den ersten 64 B kein Konflikt auftritt, gibt es auch in den nachfolgenden Daten keinen Konflikt (was anzeigt, dass der Kanal erfolgreich belegt wurde). Mit anderen Worten: Wenn es einen Konflikt gibt, muss dieser in den ersten 64 B liegen. Da der Versand sofort gestoppt wird, sobald ein Konflikt erkannt wird, müssen die zu diesem Zeitpunkt gesendeten Daten kleiner als 64 B sein. Daher schreibt Ethernet vor, dass die kürzeste Frame-Länge 64 B beträgt. Jeder Frame mit einer Länge von weniger als 64 B ist ein ungültiger Frame, der aufgrund eines Konflikts abnormal abgebrochen wird. Wenn ein solcher ungültiger Frame empfangen wird, sollte er sofort verworfen werden. Wenn Sie nur weniger als 64 B senden, müssen Sie nach dem Datenfeld in der MAC-Unterschicht ein Integer-Byte-Auffüllfeldauffüllen hinzufügen, um sicherzustellen, dass das Ethernet Die Länge des Netzwerk-MAC beträgt nicht weniger als 64 B.

CSMA/CD kann nicht nur Kollisionen erkennen, sondern auch die Wiederherstellung nach Kollisionen durchführen. Sobald ein Konflikt auftritt, macht es für die beiden am Konflikt beteiligten Standorte keinen Sinn, unmittelbar nacheinander erneut zu senden. Andernfalls würde dies zu endlosen Konflikten führen. CSMA/CD verwendet einenabgeschnittenen binären exponentiellen Backoff-Algorithmus, um das Kollisionsproblem zu lösen. Das Wesentliche des Algorithmus ist wie folgt:

① Um die grundlegende Backoff-Zeit zu bestimmen, nehmen Sie im Allgemeinen die doppelte End-to-End-Ausbreitungsverzögerung des Busses 2τ (d. h. die Konkurrenzperiode).

② Definieren Sie den Parameter k, der der Anzahl der erneuten Übertragungen entspricht, aber k 10 nicht überschreitet, dh k = min [Anzahl der erneuten Übertragungen, 10]. Wenn die Anzahl der Neuübertragungen 10 nicht überschreitet, ist k gleich der Anzahl der Neuübertragungen; wenn die Anzahl der Neuübertragungen größer als 10 ist, erhöht sie sich nicht und bleibt gleich 10.

③ Wählen Sie zufällig eine Zahl r aus der diskreten Ganzzahlmenge [0, 1,···,2k-1] aus, und die für die erneute Übertragung erforderliche Backoff-Zeit beträgt τ-mal die Grund-Backoff-Zeit, also 2rτ.

④ Wenn die erneute Übertragung 16 Mal fehlschlägt, bedeutet dies, dass das Netzwerk zu überlastet ist und davon ausgegangen wird, dass der Frame nie korrekt gesendet wird. Der Frame wird verworfen und ein Fehler wird an die höhere Ebene gemeldet.

Schauen wir uns nun ein Beispiel an: Angenommen, ein Adapter versucht zum ersten Mal, einen Frame zu übertragen, und erkennt beim Senden eine Kollision. Bei der ersten erneuten Übertragung ist k = 1 und die Zufallszahl r wird aus der ganzen Zahl {0, 1} ausgewählt, sodass die optionale Verzögerungszeit für die erneute Übertragung des Adapters 0 oder 2τ beträgt. Wenn die Kollision erneut gesendet wird, wird bei der zweiten erneuten Übertragung die Zufallszahl r aus der ganzen Zahl {0, 1, 2, 3} ausgewählt, sodass die Verzögerungszeit für die erneute Übertragung zwischen den vier Zeiten liegt: 0, 2τ, 4τ und 6τ . Wählen Sie zufällig eine aus. Und so weiter.

Durch die Verwendung des verkürzten binären exponentiellen Backoff-Algorithmus kann die durchschnittliche Zeit, die erneute Übertragungen verschoben werden müssen, mit der Anzahl der erneuten Übertragungen ansteigen (dies wird auch als dynamisches Backoff bezeichnet), wodurch die Kollisionswahrscheinlichkeit verringert und die Stabilität des gesamten Systems gefördert wird.

Der CSMA/CD-Algorithmus lässt sich wie folgt zusammenfassen:

① Zum Senden vorbereiten: Der Adapter erhält ein Paket von der Netzwerkschicht, kapselt es in einen Frame und legt es im Cache des Adapters ab.

② Kanal erkennen: Wenn festgestellt wird, dass der Kanal inaktiv ist, wird mit dem Senden dieses Frames begonnen. Wenn festgestellt wird, dass der Kanal belegt ist, wird die Erkennung fortgesetzt, bis auf dem Kanal keine Signalenergie mehr vorhanden ist, und dann wird mit dem Senden des Frames begonnen.

③ Während des Sendevorgangs erkennt der Adapter weiterhin den Kanal. Hier gibt es nur zwei Möglichkeiten:

·Erfolgreich gesendet: Während des Konkurrenzzeitraums wurde keine Kollision festgestellt und dieser Frame kann definitiv erfolgreich gesendet werden.

·Sendefehler: Während des Konkurrenzzeitraums wird eine Kollision erkannt. Zu diesem Zeitpunkt wird das Senden sofort gestoppt. Der Adapter führt den exponentiellen Backoff-Algorithmus aus und wartet eine zufällige Zeitspanne, bevor er zu Schritt ② zurückkehrt. Wenn die erneute Übertragung 16 Mal fehlschlägt, wird die erneute Übertragung gestoppt und ein Fehler wird nach oben gemeldet.

4. CSMA/CA-Protokoll

Das CSMA/CD-Protokoll wurde erfolgreich auf LANs mit kabelgebundenen Verbindungen angewendet, aber in einer WLAN-Umgebung kann das CSMA/CD-Protokoll nicht einfach kopiert werden, insbesondere der Kollisionserkennungsteil. Es gibt zwei Hauptgründe:

① Die Stärke des empfangenen Signals ist häufig viel geringer als die Stärke des gesendeten Signals und der Dynamikbereich der Signalstärke auf drahtlosen Medien ist groß. Wenn daher eine Kollisionserkennung implementiert werden soll, sind die Hardwarekosten zu hoch.

② Bei der drahtlosen Kommunikation können sich nicht alle Stationen gegenseitig hören, d. h. es liegt ein Problem der „verborgenen Station“ vor.

Zu diesem Zweck definiert der 802.11-Standard das in WLANs weit verbreitete CSMA/CA-Protokoll. Es modifiziert das CSMA/CD-Protokoll und ändert die Kollisionserkennung in Kollisionsvermeidung < /span>(Kollisionsvermeidung, CA). „Kollisionsvermeidung“ bedeutet nicht, dass das Protokoll Kollisionen vollständig vermeiden kann, sondern dass das Design des Protokolls die Wahrscheinlichkeit von Kollisionen minimieren sollte. Da 802.11 Wireless LAN keine Kollisionserkennung verwendet, sendet eine Station, sobald sie mit dem Senden eines Frames beginnt, den Frame vollständig. Wenn jedoch bei einer Kollision immer noch der gesamte Datenframe (insbesondere lange Daten) gesendet wird, wird die Effizienz des Netzwerks erheblich beeinträchtigt , also verwenden Sie < /span>Reduziert die Wahrscheinlichkeit einer Kollision. Kollisionsvermeidungstechnologie

Da die Kommunikationsqualität von drahtlosen Kanälen der von kabelgebundenen Kanälen weit unterlegen ist, verwendet 802.11 das ARQ-Schema (Link Layer Acknowledgement/Retransmission), d muss ein Bestätigungs-Frame von der Gegenpartei erhalten. Erst dann kann der nächste Frame gesendet werden. Um Kollisionen so weit wie möglich zu vermeiden, schreibt 802.11 vor, dass alle Stationen, nachdem sie das Senden abgeschlossen haben, eine kurze Zeitspanne warten müssen (weiter abhören), bevor sie den nächsten Frame senden. Dieser Zeitraum wird InterFrame Space (IFS) genannt. Die Länge des Interframe-Intervalls hängt von der Art des Frames ab, den die Station sendet. 802.11 verwendet die folgenden drei IFS:

① SIFS (kurz IFS): Das kürzeste FIS, das zum Trennen von Frames verwendet wird, die zu einer Konversation gehören. Zu den verwendeten SIFS-Typen gehören ACK-Frames, CTS-Frames, fragmentierte Datenframes und alle Frames, die AP-Anfragen usw. beantworten.

② PIFS (Point Coordinated IFS): IFS mittlerer Länge, wird in PCF-Operationen verwendet.

③ DIFS (Distributed Coordination S): Das längste IFS, das für die Verzögerung des asynchronen Konkurrenzzugriffs verwendet wird.

Der Backoff-Algorithmus von CSMA/CA unterscheidet sich geringfügig von dem von CSMA/CD. Wenn der Kanal vom Besetzt- in den Leerlaufzustand wechselt, muss jede Station, die einen Datenrahmen senden möchte, nicht nur ein Zeitintervall abwarten, sondern auch das Konkurrenzfenster betreten und eine zufällige Backoff-Zeit berechnen, um zu versuchen, auf den Kanal zuzugreifen wieder, wodurch die Möglichkeit von Kollisionen verringert wird. Wahrscheinlichkeit. Der Backoff-Algorithmus wird nur dann nicht verwendet, wenn festgestellt wird, dass der Kanal inaktiv ist und dieser Datenrahmen der erste zu sendende Datenrahmen ist. In allen anderen Fällen muss der Backoff-Algorithmus verwendet werden, insbesondere: ① Erkennen, dass der Kanal belegt ist, bevor der erste Frame gesendet wird; ② Neuübertragung jedes Mal; ③ Senden des nächsten Frames nach jeder erfolgreichen Übertragung.

Der CSMA/CA-Algorithmus lässt sich wie folgt zusammenfassen:

① Wenn die Station zunächst Daten zum Senden hat und erkennt, dass der Kanal frei ist, sendet sie nach der Wartezeit DIFS den gesamten Datenrahmen.

② Andernfalls führt die Site den CSMA/CA-Backoff-Algorithmus aus und wählt einen zufälligen Backoff-Wert aus. Sobald ein belegter Kanal erkannt wird, bleibt der Backoff-Timer unverändert. Der Backoff-Timer zählt herunter, solange der Kanal inaktiv ist.

③ Wenn der Backoff-Timer auf 0 sinkt (der Kanal kann zu diesem Zeitpunkt nur inaktiv sein), sendet die Station die gesamte Nachricht und wartet auf die Bestätigung.

④ Erhält die sendende Station die Bestätigung, weiß sie, dass der gesendete Frame korrekt von der Zielstation empfangen wurde. Wenn Sie zu diesem Zeitpunkt den zweiten Frame senden möchten, müssen Sie mit Schritt ② beginnen, den CSMA/CA-Backoff-Algorithmus ausführen und zufällig eine Backoff-Zeit auswählen.

Wenn die sendende Station innerhalb der angegebenen Zeit (gesteuert durch den Neuübertragungs-Timer 0) kein Bestätigungs-ACK erhält, muss sie den Frame erneut übertragen und das CSMA/CA-Protokoll verwenden, um erneut um den Kanal zu konkurrieren, bis die Bestätigung empfangen wird oder nach mehreren Neuübertragungen . Geben Sie das Senden nach einem Fehler auf.

*5Umgang mit Problemen mit versteckten Stationen: RTS und CTS

Die Stationen A und B liegen beide im Abdeckungsbereich des AP, aber A und B sind weit voneinander entfernt und können sich gegenseitig nicht hören. Wenn A und B erkennen, dass der Kanal inaktiv ist, senden beide Daten an den AP oder geben nach mehreren fehlgeschlagenen Neuübertragungen auf. Dies ist dasProblem der versteckten Station.

Um dieses Problem zu vermeiden, ermöglicht 802.11 der sendenden Station, den Kanal zu reservieren. Vor dem Senden eines Datenrahmens sendet die Quellstation zunächst eine kurze SendeanfrageRTS (Request To Send)-Steuerung, die die Quelladresse und die Zieladresse enthält und dies Die Dauer einer Kommunikation (einschließlich des entsprechenden Bestätigungsrahmens), die von allen Stationen in seiner Reichweite, einschließlich des AP, gehört werden kann. Wenn der Kanal frei ist, sendet der AP eine Clear To Send-Steuerung, die die für diese Kommunikation erforderliche Dauer (aus der RTS-Frame-Kopie) enthält. Der Frame kann außerdem von allen Stationen in seiner Reichweite gehört werden, einschließlich A und B. Nachdem B und andere Stationen das CTS gehört haben, werden siedas Senden innerhalb der im CTS angegebenen Zeit unterdrücken. CTS dient zwei Zwecken: ① der Ursprungsseite ausdrücklich die Erlaubnis zum Senden zu erteilen; ② anderen Seiten anzuweisen, während des Reservierungszeitraums nicht zu senden.

Die Verwendung von RTS- und CTS-Frames verringert die Kommunikationseffizienz des Netzwerks, diese beiden Frames sind jedoch sehr kurz und der Overhead ist im Vergleich zu Datenframes nicht groß. Im Gegenteil, wenn diese Art von Kontrollrahmen nicht verwendet wird, wird mehr Zeit verschwendet, sobald eine Kollision auftritt und der Datenrahmen erneut übertragen wird. Die Kanalreservierung ist nicht zwingend erforderlich und jede Station kann entscheiden, ob sie die Kanalreservierung nutzen möchte oder nicht. Erst wenn die Datenrahmenlänge einen bestimmten Wert überschreitet, ist es vorteilhaft, RTS und CTS zu verwenden.

Die Hauptunterschiede zwischen CSMA/CD und CSMA/CA sind folgende:

① CSMA/CD kann Konflikte erkennen, aber nicht vermeiden; CSMA/CA kann nicht erkennen, ob beim Senden von Daten Konflikte auf dem Kanal vorliegen. Das Fehlen von Konflikten an diesem Knoten bedeutet nicht, dass es am empfangenden Knoten keine Konflikte geben wird . Es kann nur so weit wie möglich vermieden werden. .

② Die Übertragungsmedien sind unterschiedlich. CSMA/CD wird für Busleitungs-Ethernet und CSMA/CA für WLAN 802.1 a/b/g/n usw. verwendet.

③ Die Erkennungsmethoden sind unterschiedlich. CSMA/CD erkennt Spannungsänderungen im Kabel, während CSMA/CA Energieerkennung, Trägererkennung und Energieträger-Hybriderkennung verwendet, um Kanalleerlauf zu erkennen.

Zusammenfassung: Die Grundidee des CSMA/CA-Protokolls besteht darin, beim Senden von Daten zunächst eine Übertragung durchzuführen, um andere Knoten zu informieren, sodass andere Knoten innerhalb eines bestimmten Zeitraums keine Daten senden sollten, um Kollisionen zu vermeiden. Die Grundidee des CSMA/CD-Protokolls besteht darin, vor dem Senden zuzuhören und während des Sendens zuzuhören. Sobald eine Kollision auftritt, wird das Senden sofort gestoppt.

3.5.3 Polling-Zugriff: Token Passing Protocol

Beim Polling-Zugriff können Benutzer Informationen nicht wahllos senden, sondern müssen jeden Knoten zyklisch über eine zentrale Kontrollüberwachungsstation abfragen, um die Kanalzuteilung zu bestimmen. Wenn ein Knoten den Kanal verwendet, können andere Knoten den Kanal nicht verwenden. Ein typisches Zugriffskontrollprotokoll für Polling-Zugriffsmedien istToken Passing Protocol, das hauptsächlich in Token-Ring-LANs verwendet wird.

Im Token-Passing-Protokoll wird ein Token (Token) zwischen den Knotencomputern nacheinander entlang des Ringbusses weitergegeben. Der Token ist ein spezielles MAC-Steuerelement, das selbst keine Informationen enthält. Es steuert lediglich die Nutzung des Kanals und stellt sicher, dass nur eine Station gleichzeitig den Kanal belegt. Wenn eine Station im Ring einen Frame übertragen möchte, muss sie auf ein Token warten. Sobald das Token empfangen wurde, kann die Station mit dem Senden von Frames beginnen. Die Ziel-Site-Adresse ist im Frame enthalten, um zu identifizieren, welche Site den Frame empfangen soll. Eine Station kann Datenrahmen nur senden, nachdem sie ein Token erhalten hat, sodass es im Token-Ring-Netzwerk nicht zu Kollisionen kommt. Nachdem eine Station einen Frame gesendet hat, sollte sie den Token freigeben, damit er von anderen Stationen verwendet werden kann. Da die Token im Netzwerkring der Reihe nach weitergegeben werden , sind die Zugriffsrechte für alle mit dem Netzwerk verbundenen Computer gleich.

Wenn kein Computer Daten senden muss, wandert das Token im Ringnetzwerk, und der Computer, der Daten senden muss, kann erst nach Erhalt des Tokens Datenrahmen senden, sodass kein Sendekonflikt auftritt (da nur ein Token vorhanden ist). . Der Übertragungsprozess von Token und Daten im Token Ring-Netzwerk ist wie folgt:

① Wenn das Netzwerk inaktiv ist, werden in der Schleife nur Token-Frames zyklisch übertragen.

② Wenn das Token an eine Site übergeben wird, die Daten zum Senden hat, ändert die Site ein Flag-Bit im Token, hängt die zu übertragenden Daten an das Token an, wandelt das Token in einen Datenrahmen um und konvertiert diese Daten dann Rahmen wird verschickt.

③ Der Datenrahmen wird entlang des Rings übertragen und die empfangende Station leitet die Daten weiter, während sie die Zieladresse des Rahmens überprüft. Wenn die Zieladresse mit der eigenen Adresse übereinstimmt, kopiert die empfangende Station den Datenrahmen zur weiteren Verarbeitung.

④ Der Datenrahmen wird entlang des Rings übertragen, bis er die Quellstation des Rahmens erreicht. Die Quellstation leitet den Rahmen nach dem Empfang nicht mehr weiter. Überprüfen Sie gleichzeitig den zurückgegebenen Frame auf Fehler bei der Datenübertragung. Wenn Fehler auftreten, übertragen Sie diese erneut.

⑤ Nachdem die Quellstation die Übertragung der Daten abgeschlossen hat, generiert sie ein Token neu und übergibt es an die nächste Station, um die Kanalsteuerung zu übergeben.

In einem Token-Passing-Netzwerk muss die physische Topologie des Übertragungsmediums kein Ring sein, aber um die Erlaubnis zum Zugriff auf das Medium von einem Gerät an ein anderes weiterzugeben, muss der Token-Übertragungspfad zwischen Geräten logischerweise ein Ring sein .

Die abgefragte Medienzugriffskontrolle ist ideal für stark ausgelastete Rundfunkkanäle. Der sogenannte hochbelastete Kanal bezieht sich auf einen Kanal, bei dem mehrere Knoten mit hoher Wahrscheinlichkeit gleichzeitig Daten senden. Es ist vorstellbar, dass die Wahrscheinlichkeit eines Konflikts sehr hoch ist, wenn ein solcher Rundfunkkanal eine zufällige Medienzugriffskontrolle übernimmt und die Verwendung der Abfragemedienzugriffskontrolle die Kommunikationsanforderungen zwischen Knoten gut erfüllen kann.

Die Polling-Medienzugriffskontrolle teilt weder Zeit noch Raum. Sie basiert eigentlich auf einer wahlfreien Medienzugriffskontrolle und beschränkt nur einen Knoten, der Daten senden kann.

3.6 LAN

3.6.1 Grundlegende Konzepte und Architektur von LAN

Unter Local Area Network (LAN) versteht man die Verbindung verschiedener Computer, externer Geräte und Datenbanksysteme innerhalb eines kleinen geografischen Bereichs über Twisted-Pair-Kabel, Koaxialkabel und andere Verbindungsmedien, um ein Computerverbindungsnetzwerk für die gemeinsame Nutzung von Ressourcen und Informationen zu bilden. Die Hauptmerkmale sind wie folgt:

① Gehört einer Einheit und der geografische Umfang und die Anzahl der Standorte sind begrenzt.

② Alle Standorte teilen sich eine höhere Gesamtbandbreite (d. h. eine höhere Datenübertragungsrate).

③ Geringere Verzögerung und geringere Bitfehlerrate.

④ Jede Station hat eine gleichberechtigte Beziehung und keine Master-Slave-Beziehung.

⑤ Kann Broadcast und Multicast durchführen.

Die Eigenschaften eines lokalen Netzwerks werden hauptsächlich durch drei Elemente bestimmt: Topologie, Übertragungsmedium und Medienzugriffskontrollmethode, von denen das wichtigsteMedienzugriffskontrollmethode< ist /span>, das die technischen Eigenschaften des LAN bestimmt. Zu den Medienzugriffskontrollmethoden des LAN gehören hauptsächlich CSMA/CD, Token-Bus und Token-Ring. Die ersten beiden Methoden werden hauptsächlich in busförmigen LANs verwendet, und der Token-Ring wird hauptsächlich in ringförmigen LANs verwendet. Zu den gängigen LAN-Topologiestrukturen gehören hauptsächlich die folgenden vier Kategorien: ① Sternstruktur; ② Ringstruktur; ③ Busstruktur; ④ Verbundstruktur, die Stern- und Busstrukturen kombiniert. LAN kann eine Vielzahl von Übertragungsmedien wie Twisted-Pair, Kupferkabel und Glasfaser verwenden, wobei Twisted-Pair das gängige Übertragungsmedium ist.

Drei spezielle LAN-Topologien werden wie folgt implementiert:

① Ethernet (derzeit das am weitesten verbreitete lokale Netzwerk). Die logische Topologie ist eine busförmige Struktur und die physikalische Topologie ist eine Stern- oder erweiterte Sternstruktur.

② Token Ring (IEEE 802.5). Die logische Topologie ist eine Ringstruktur und die physikalische Topologie ist eine Sternstruktur.

③ FDDI (Fiber Distribution Digital Interface, IEEE 802.8). Die logische Topologie ist eine Ringstruktur und die physikalische Topologie ist eine Doppelringstruktur.

Das durch den IEEE 802-Standard definierte LAN-Referenzmodell entspricht nur der Datenverbindungsschicht und und Aufteilung der Datenverbindungsschicht in zwei Unterschichten: Logische Verbindungssteuerung ( LLC) Sublayer und Media Access Control (MAC . Inhalte im Zusammenhang mit dem Zugriff auf Übertragungsmedien werden in der MAC-Unterschicht platziert, die verschiedene Unterschiede beim Zugriff auf die physikalische Schicht auf die obere Schicht abschirmt und eine einheitliche Zugriffsschnittstelle für die physikalische Schicht bereitstellt. Zu seinen Hauptfunktionen gehören: Framing und Disassemblierung von Frames, Bitübertragung Fehlererkennung und transparente Übertragung. Die LLC-Unterschicht hat nichts mit den Übertragungsmedien zu tun und stellt der Netzwerkschicht vier verschiedene Verbindungsdiensttypen zur Verfügung: keine Bestätigung und keine Verbindung, verbindungsorientiert, Bestätigung und keine Verbindung und Hochgeschwindigkeitsübertragung. ) Unterschicht

Da Ethernet eine Monopolstellung auf dem LAN-Markt erlangt hat und fast zum Synonym für LAN geworden ist, hat die vom 802-Komitee formulierte LLC-Unterschicht kaum Auswirkungen, sodass viele Netzwerkkarten nur noch MACProtokoll, aber kein LLC-Protokoll.

3.6.2 Ethernet und IEEE 802.3

Der IEEE 802.3-Standard ist ein lokaler Netzwerkstandard vom Basisbandbustyp, der die Implementierungsmethode der MAC-Unterschicht der physikalischen Schicht und der Datenverbindungsschicht beschreibt. Im Zuge der technologischen Entwicklung wurde der Standard zahlreichen Ergänzungen und Aktualisierungen unterzogen, um mehr Übertragungsmedien und höhere Übertragungsraten zu unterstützen.

Ethernet verwendet logischerweise eine Bustopologie. Alle Computer im Ethernet nutzen denselben Bus und Informationen werden im Broadcast-Verfahren gesendet. Um den Komfort und die Zuverlässigkeit der Datenkommunikation zu gewährleisten, vereinfacht Ethernet den Kommunikationsprozess und nutzt die CSMA/CD-Methode zur Steuerung des Buszugriffs.

Genau genommen sollte sich Ethernet auf ein LAN beziehen, das dem DIX Ethernet V2-Standard entspricht. Allerdings gibt es nur einen kleinen Unterschied zwischen dem DIX Ethernet V2-Standard und dem IEEE 802.3-Standard, daher wird normalerweise vom 802.3 LAN gesprochen zu Ethernet.

Ethernet nutzt zwei Maßnahmen, um die Kommunikation zu vereinfachen:

① Es verwendet einen verbindungslosen Arbeitsmodus, nummeriert die gesendeten Datenrahmen nicht und erfordert nicht, dass der Empfänger eine Bestätigung sendet. Das heißt, Ethernet tut sein Bestes, um Daten zu liefern und bietet unzuverlässige Dienste. Die Korrektur von Fehlern wird durch abgeschlossen höhere Schicht;

②Die gesendeten Daten verwenden Manchester-codierte Signale. In der Mitte jedes Symbols findet eine Spannungsumwandlung statt. Der Empfänger nutzt diese Spannungsumwandlung, um das Bitsynchronisationssignal einfach zu extrahieren.

1. Ethernet-Übertragungsmedium und Netzwerkkarte

Es gibt vier häufig verwendete Übertragungsmedien im Ethernet: Dickes Kabel, dünnes Kabel, Twisted Pair und Glasfaser. Nutzung verschiedener Übertragungsmedien.

Anwendbarkeit verschiedener Übertragungsmedien

Parameter

10BASE5

10BASE2

10BASIS-T

10BASE – FL

Übertragungsmedien

Basisband-Koaxialkabel (dickes Kabel)

Basisband-Koaxialkabel (dünnes Kabel)

Ungeschirmtes Twisted-Pair

Faserpaar (850 nm)

Codierung

Manchester-Kodierung

Manchester-Kodierung

Manchester-Kodierung

Manchester-Kodierung

Topologie

Busform

Busform

Sternform

Peer-To-Peer

Maximale Segmentlänge

500 m

185 m

100 m

2000 m

Maximale Anzahl von Knoten

100

30

2

2

Die Verbindung zwischen dem Computer und dem externen LAN erfolgt über eine Netzwerkschnittstellenkarte, die in die Host-Box eingesetzt wird [auch bekannt alsNetzwerkadapter ( Adapter) oder Netzwerkschnittstellenkarte (Netzwerkschnittstellenkarte, NIC)] implementiert ist. Die Netzwerkkarte ist mit einem Prozessor und Speicher ausgestattet und ist eine Netzwerkkomponente, die auf der Datenverbindungsschicht arbeitet. Die Kommunikation zwischen der Netzwerkkarte und dem LAN erfolgt im seriellen Modus über Kabel oder verdrillte Paare, während die Kommunikation zwischen der Netzwerkkarte und dem Computer parallel über den IO-Bus auf der Hauptplatine des Computers erfolgt. a i=6> Methode . Daher besteht die wichtige Funktion der Netzwerkkarte darin, Daten seriell in parallel umzuwandeln. Die Netzwerkkarte realisiert nicht nur die physische Verbindung und den elektrischen Signalabgleich mit dem LAN-Übertragungsmedium, sondern umfasst auch das Senden und Empfangen von Frames, das Kapseln und Entpacken von Frames, die Medienzugriffskontrolle, die Datenkodierung und -dekodierung sowie Daten-Caching-Funktionen.

Jede Netzwerkkarte auf der Welt verfügt ab Werk über einen eindeutigen Code, der als MAC-Adresse (Media Access Control) bezeichnet wird. Diese Adresse wird zur Steuerung der Datenkommunikation des Hosts im Netzwerk verwendet. Geräte der Datenverbindungsschicht (Brücken, Switches usw.) verwenden alle die MAC-Adresse jeder Netzwerkkarte. Darüber hinaus steuert die Netzwerkkarte den Zugriff des Hosts auf die Medien, sodass die Netzwerkkarte auch auf der physikalischen Ebene arbeitet, da sie sich nur auf Bits und Funktionen konzentriert Achten Sie nicht auf Adressinformationen und Protokollinformationen auf hoher Ebene.

2. Ethernet-MAC-Frame

Die MAC-Adresse in jeder Netzwerkkarte wird auchphysikalische Adresse genannt: Die MAC-Adresse ist 6 Byte lang und wird normalerweise durch einen Bindestrich vorangestellt (oder Doppelpunkt) ), getrennt durch 12 Hexadezimalzahlen, z. B. 02-60-8c-e4-b1-21. Die oberen 24 Bits sind der Herstellercode und die niedrigen 24 Bits sind die vom Hersteller zugewiesene Seriennummer der Netzwerkkarte. Streng genommen sollte die „Adresse“ eines LAN der „Name“ oder die Kennung jeder Station sein.

Da auf dem Bus Broadcast-Kommunikation verwendet wird, muss die Netzwerkkarte jedes Mal, wenn sie einen MAC-Frame vom Netzwerk empfängt, zunächst mithilfe der Hardware die MAC-Adresse im MAC-Frame überprüfen. Wenn der Frame an diese Station gesendet wird, akzeptieren Sie ihn, andernfalls verwerfen Sie ihn.

Es gibt zwei Standards für das Ethernet-MAC-Frame-Format:DIX Ethernet V2Standard (d. h. Ethernet V2 Standard) undIEEE 802.3Standard. Hier stellen wir zunächst das am häufigsten verwendete MAC-Frame-Format von Ethernet V2 vor.

① Präambel: Synchronisieren Sie die Uhren des Empfangsendes und des Sendeendes. Die am Anfang des Rahmens eingefügten 8 Bytes können weiter in zwei Felder unterteilt werden: Das erste Feld, insgesamt 7 Bytes, ist die Präambel, die zur schnellen Implementierung der MAC-Bitsynchronisation verwendet wird; das zweite Feld ist das Starttrennzeichen, das angibt Die folgenden Informationen beziehen sich auf den MAC-Frame.

② Adresse: Normalerweise wird eine 6-Byte-Adresse (48 Bit) (MAC-Adresse) verwendet.

③ Typ: 2 Bytes, die angeben, an welche Protokolleinheit die im Datenfeld übertragenen Daten zur Verarbeitung übergeben werden sollen.

④ Daten: 46 bis 1500 Byte, einschließlich Protokollnachrichten auf hoher Ebene. Aufgrund der Einschränkungen des CSMA/CD-Algorithmus muss der Ethernet-Frame die Mindestlängenanforderung von 64 Byte erfüllen und bei kleinen Daten aufgefüllt werden (0–46 Byte).

⑤ Auffüllung: 0 bis 46 Byte. Wenn die Rahmenlänge zu kurz ist, wird der Rahmen aufgefüllt, um die Mindestlänge von 64 Byte zu erreichen.

⑥ Prüfcode (FCS): 4 Bytes. Der Prüfbereich reicht vom Zieladresssegment bis zum Ende des Datensegments. Der Algorithmus verwendet einen zyklischen 32-Bit-Restcode (CRC). Es muss nicht nur der Datenteil überprüft werden des MAC, sondern auch die Felder Zieladresse, Quelladresse und Typ, die Präambel wird jedoch nicht überprüft.

Der Unterschied zwischen dem 802.3-Frame-Format und dem DIX-Ethernet-Frame-Format besteht darin, dass das Längenfeld das Typfeld in DIX ersetzt, um die Länge des Datenfelds anzugeben. In der Praxis können die beiden oben genannten Längen-/Typmechanismen nebeneinander existieren. Da die maximale Anzahl von Bytes im IEEE 802.3-Datensegment 1500 beträgt, beträgt der Maximalwert des Längensegments 1500, sodass Werte von 1501 bis 65535 verwendet werden können der Typsegmentbezeichner.

3. Hochgeschwindigkeits-Ethernet

Ethernet mit einer Rate von 100 Mbit/s wird alsHochgeschwindigkeits-Ethernet bezeichnet.

① 100BASE-T-Ethernet

100BASE-T Ethernet ist ein Ethernet mit Sterntopologie, das Basisbandsignale mit 100 Mbit/s auf verdrillten Paaren überträgt. Es verwendet das CSMA/CD-Protokoll. Diese Art von Ethernet unterstützt sowohl den Vollduplex- als auch den Halbduplex-Modus und kann im Vollduplex-Modus ohne Konflikte arbeiten. Daher wird das CSMA/CD-Protokoll im Vollduplex-Modus nicht verwendet.

Das MAC-Frameformat wird weiterhin durch den 802.3-Standard spezifiziert. Behalten Sie die minimale Rahmenlänge bei, reduzieren Sie jedoch die maximale Kabellänge für ein Segment auf 100 m. Das Zeitintervall zwischen den Bildern wurde von ursprünglich 9,6 μs auf aktuell 0,96 μs geändert.

② Gigabit-Ethernet

Gigabit-Ethernet, auch Gigabit-Ethernet genannt, ermöglicht Vollduplex- und Halbduplex-Betrieb mit einer Geschwindigkeit von 1 Gbit/s. Verwenden Sie das vom 802.3-Protokoll angegebene Rahmenformat. Verwenden Sie das CSMA/CD-Protokoll im Halbduplex-Modus. Abwärtskompatibel mit 10BASE-T- und 100BASE-T-Technologien.

③ 10-Gigabit-Ethernet

10-Gigabit-Ethernet hat genau das gleiche Format wie 10-Mbit/s-, 100-Mbit/s- und 1-Gbit/s-Ethernet. 10-Gigabit-Ethernet behält außerdem die im 802.3-Standard festgelegten minimalen und maximalen Ethernet-Längen bei, was ein einfaches Upgrade ermöglicht. Dieses Ethernet verwendet als Übertragungsmedium keine Kupferleitungen mehr, sondern nur noch Glasfaser. Es funktioniert nur im Vollduplexmodus, es gibt also kein Konfliktproblem und es wird nicht das CSMA/CD-Protokoll verwendet.

Die Entwicklung von Ethernet von 10 Mbit/s auf 10 Gbit/s beweist, dass Ethernet skalierbar (von 10 Mbit/s auf 10 Gbit/s) und flexibel (mehrere Übertragungsmedien, Voll-/Halbduplex, Shared/Swap) und einfach zu implementieren ist installieren und robust.

3.6.3 IEEE 802.3 Wireless LAN

1. Aufbau von WLAN

Wireless LANs können in zwei Kategorien unterteilt werden: Wireless LANs mit fester Infrastrukturundohne mobile Werbung Hoc-Netzwerke für feste Infrastruktur. Die sogenannte „feste Infrastruktur“ bezieht sich auf vorab eingerichtete feste Basisstationen, die einen bestimmten geografischen Bereich abdecken können.

① Wireless LAN mit fester Infrastruktur

Für WLANs mit fester Infrastruktur hat IEEE die 802.11-Serie von Protokollstandards für WLANs entwickelt, einschließlich 802.11 a/b/g/n usw. 802.11 verwendet eine Sterntopologie, deren Zentrum als Access Point (AP) bezeichnet wird. Die Schicht verwendet das CSMA/CA-Protokoll. Das LAN, das die Protokollreihe 802.11 verwendet, wird auch WiFi genannt .

Der 802.11-Standard schreibt vor, dass die Mindestkomponente eines WLANsBasic Service SetBSS ( Basic Service Set, BSS). Ein Basis-Service-Set besteht aus einem Access Point und mehreren Mobilstationen. Die Kommunikation zwischen Stationen innerhalb dieses BSS oder die Kommunikation mit externen Stationen dieses BSS muss über den AP dieses BSS erfolgen. Der oben erwähnte AP ist eine Basisstation, die zentralisierte Basisdienste bereitstellt. Bei der Installation eines AP muss dem AP ein Service Set IDentifier (SSID) von maximal 32 Byte und ein Kanal zugewiesen werden. SSID bezieht sich auf den Namen des WLAN, das den AP nutzt. Der von einem Basisdienstsatz abgedeckte geografische Bereich wird als Basisdienstbereich (Basic ServiceArea, BSA) bezeichnet. Der Durchmesser des Basisdienstbereichs eines lokalen Netzwerks beträgt im Allgemeinen nicht mehr als 100 m.

Ein grundlegender Dienstsatz kann isoliert oder über einen AP mit einemVerteilungssystemDS verbunden werden ( Distribution System, DS) und dann mit einem anderen Basisdienstsatz verbunden, wodurch ein erweiterter DienstsatzESS< a i=6> (Extended) entsteht Service-Set, ESS). Die Rolle des Verteilungssystems besteht darin, dafür zu sorgen, dass sich der erweiterte Dienstsatz wie ein Basisdienstsatz für die oberen Schichten verhält. ESS kann drahtlosen Benutzern auch über ein als Portal bezeichnetes Gerät Zugriff auf kabelgebundenes Ethernet ermöglichen. Das Portal fungiert als Netzwerkbrücke. Wenn Mobilstation A mit einer anderen Mobilstation B im Basisdienstset kommunizieren möchte, muss sie zwei Zugangspunkte AP1 und AP2 durchlaufen, nämlich A-AP1-AP2-B. Beachten Sie, dass die Kommunikation von AP1 zu AP2 eine kabelgebundene Übertragung verwendet. Die Mobilstation A kann weiterhin die Kommunikation mit einer anderen Mobilstation B aufrechterhalten, wenn sie von einem bestimmten Basisdienstsatz zu einem anderen Basisdienstsatz wechselt. Der von A in verschiedenen Basisdienstsätzen verwendete AP hat sich jedoch geändert.

② Mobiles selbstorganisierendes Netzwerk ohne feste Infrastruktur

Eine andere Art von WLAN ist ein WLAN ohne feste Infrastruktur, auch bekannt alsAd-hoc-Netzwerk (Ad-hoc-Netzwerk). Das Ad-hoc-Netzwerk verfügt nicht über den oben erwähnten zentralen AP für Basisdienste, sondern ist ein temporäres Netzwerk, das aus einigen gleichberechtigten Mobilstationen besteht, die miteinander kommunizieren. Der Status jedes Knotens ist gleich und die Zwischenknoten sind alle Weiterleitungsknoten, sodass sie alle die Funktion von Routern haben.

Ad-hoc-Netzwerke sind in der Regel wie folgt aufgebaut: Einige mobile Geräte stellen fest, dass sich andere mobile Geräte in ihrer Nähe befinden, und benötigen die Kommunikation mit anderen mobilen Geräten. Jede Mobilstation in einem Ad-hoc-Netzwerk muss an der Erkennung und Wartung von Routen für andere Mobilstationen im Netzwerk beteiligt sein. Gleichzeitig kann sich die aus Mobilstationen bestehende Netzwerktopologie im Laufe der Zeit schnell ändern, sodass einige Routen effektiv sind Festnetze Das Auswahlprotokoll gilt nicht mehr für mobile Ad-hoc-Netze und erfordert besondere Aufmerksamkeit.

Ad-hoc-Netzwerke und mobiles IP sind nicht dasselbe. Die mobile IP-Technologie ermöglicht es Roaming-Hosts, sich auf verschiedene Weise mit dem Internet zu verbinden, und ihre Kernnetzwerkfunktionen basieren immer noch auf verschiedenen Routing-Protokollen, die in Festnetzen verwendet wurden. Ad-hoc-Netzwerke sind autonome Systeme, die die Mobilität auf den drahtlosen Bereich erweitern. Sie verfügen über eigene spezifische Routing-Protokolle und sind möglicherweise nicht mit dem Internet verbunden.

2. MAC-Frame von 802.11 LAN

Es gibt drei Arten von 802.11-Frames, nämlichDatenrahmen und Kontrollrahmen < a i=4> undVerwaltungsrahmen. Der 802.11-Datenrahmen besteht aus den folgenden drei Teilen:

① MAC-Header, insgesamt 30 Byte. Die Komplexität des Frames liegt vollständig im MAC-Header.

② Der Rahmenkörper, also der Datenteil des Rahmens, überschreitet nicht 2312 Byte. Es ist viel länger als die maximale Länge von Ethernet.

③ Die Frame-Check-Sequenz FCS ist das Ende, insgesamt 4 Bytes.

Die wichtigsten im MAC-Header des 802.11-Frames sind die vier Adressfelder (alle MAC-Adressen). Hier werden nur die ersten drei Adressen besprochen (Adresse 4 wird für Ad-hoc-Netzwerke verwendet). Der Inhalt dieser drei Adressen hängt von den Werten der Felder „An AP“ und „Von AP“ im Kontrollfeld ab.

802.11 LAN-Datenrahmen

Gehen Sie zu AP

von AP

Adresse 1

Adresse 2

Adresse 3

Adresse 4

1

0

Empfangsadresse=

AP-Adresse

Sendeadresse =

Quelladresse

Zieladresse

——

0

1

Empfangsadresse=

Zieladresse

Sendeadresse =

AP-Adresse

Quelladresse

——

Adresse 1 ist die Adresse des Knotens, der den Datenrahmen direkt empfängt, und Adresse 2 ist die Adresse des Knotens, der die Daten tatsächlich sendet.

① Nehmen wir nun an, dass Station A in einem BSS Daten an Station B sendet. Im Kontrollfeld der von Station A an den Zugangspunkt AP gesendeten Daten sind „An AP = 1“ und „Von AP = 0“; Adresse 1 ist die MAC-Adresse von AP, Adresse 2 ist die MAC-Adresse von A und Adresse 3 ist die B-MAC-Adresse. Beachten Sie, dass „Empfangsadresse“ und „Zieladresse“ nicht dasselbe sind.

② Nachdem der AP den Datenrahmen empfangen hat, leitet er ihn an Station B weiter. Zu diesem Zeitpunkt steht im Rahmensteuerfeld der Daten „An AP=0“ und „Von AP=1“; Adresse 1 ist die MAC-Adresse von B und Adresse 2 ist die MAC-Adresse des AP, Adresse 3 ist die MAC-Adresse von A. Bitte beachten Sie, dass „Sendeadresse“ und „Quelladresse“ ebenfalls nicht gleichbedeutend sind.

Eine komplexere Situation wird weiter unten besprochen. Die beiden APs sind über Kabel mit dem Router verbunden, und der Router möchte nun, dass Station A Daten sendet. Der Router ist ein Netzwerkschichtgerät. Er kann den Verbindungsschicht-Zugangspunkt-AP nicht sehen und kennt nur die IP-Adresse von Station A. Der AP ist ein Verbindungsschichtgerät. Er kennt nur die MAC-Adresse, nicht die IP-Adresse.

① Der Router lernt die IP-Adresse von Station A aus dem IP-Datagramm und verwendet ARP, um die MAC-Adresse von Station A zu erhalten. Nach Erhalt der MAC-Adresse von Station A kapselt die Router-Schnittstelle R1 das IP-Datagramm in 802.3 (802.3 hat nur zwei Adressen). Das Quelladressfeld des Frames ist die MAC-Adresse von R1 und das Zieladressfeld ist die MAC-Adresse von A.

② Nachdem der AP den 802.3-Frame empfangen hat, konvertiert er den 802.3-Frame in einen 802.11-Frame. Im Frame-Kontrollfeld „To AP=0“ und „From AP=1“; Adresse 1 ist die MAC-Adresse von A und Adresse 2 ist The MAC-Adresse des AP, Adresse 3 ist die MAC-Adresse von R1. Auf diese Weise kann A (aus Adresse 3) die MAC-Adresse der Router-Schnittstelle im Subnetz ermitteln, an die das Datagramm gesendet werden soll.

Betrachten Sie nun die Situation, in der Slave A Daten an die Router-Schnittstelle R1 sendet.

① A generiert einen 802.11-Frame. Im Steuerfeld „To AP=1“ und „From AP=0“; Adresse 1 ist die MAC-Adresse des AP, Adresse 2 ist die MAC-Adresse von A und Adresse 3 ist die MAC-Adresse von R1. .

② Nach dem Empfang des 802.11-Frames wandelt der AP ihn in einen 802.3-Frame um. Das Quelladressfeld des Frames ist die MAC-Adresse von A und das Zieladressfeld ist die MAC-Adresse von R1.

Es ist ersichtlich, dass Adresse 3 eine Schlüsselrolle bei der BSS- und kabelgebundenen LAN-Verbindung spielt, die es dem AP ermöglicht, beim Aufbau eines Ethernet-Netzwerks die Ziel-MAC-Adresse zu bestimmen.

3.6.4 Grundkonzepte und Prinzipien von VLAN

Ein Ethernet ist eine Broadcast-Domäne. Wenn ein Ethernet zu viele Computer enthält, führt dies häufig zu Folgendem:

·Eine große Anzahl von Broadcast-Frames kommt im Ethernet vor, insbesondere bei den häufig verwendeten ARP- und DHCP-Protokollen.

·Verschiedene Abteilungen einer Organisation nutzen gemeinsam ein lokales Netzwerk, was sich nachteilig auf die Vertraulichkeit und Sicherheit von Informationen auswirkt.

DurchVirtual LAN (Virtual LAN) kann ein größeres LAN in kleinere logische LANs unterteilt werden, die unabhängig vom geografischen Standort sind. VLANs aktiviert jedes VLAN und jedes VLAN ist eine kleinere Broadcast-Domäne.

Der 802.3 ac-Standard definiert Erweiterungen des Ethernet-Formats, die VLANs unterstützen. Es fügt eine 4-Byte-Kennung (zwischen dem Quelladressfeld und dem Typfeld eingefügt) in den Ethernet-Frame ein, ein sogenanntes VLAN-Tag, um anzugeben, zu welchem ​​virtuellen LAN der Computer gehört, der die Nachricht sendet. Das eingefügte VLAN-Tag heißt 802.1 Q. Da der VLAN-Header um 4 Bytes erhöht wurde, hat sich die maximale Länge von Ethernet von ursprünglich 1518 Bytes auf 1522 Bytes geändert.

Die ersten beiden Bytes des VLAN-Tags sind auf 0x8100 gesetzt, was darauf hinweist, dass es sich um ein 802.1-Q handelt. In den letzten beiden Bytes des VLAN-Tags sind die ersten 4 Bits nutzlos und die letzten 12 Bits sind die Kennung VID des VLAN, die eindeutig identifiziert, zu welchem ​​VLAN der 802.1 Q gehört. Eine 12-Bit-VID kann 4096 verschiedene VLANs identifizieren. Nach dem Einfügen der VID muss der FCS für 802.1 Q neu berechnet werden.

3.7 WAN

3.7.1 Grundkonzepte von WAN

Ein Weitverkehrsnetz bezieht sich normalerweise auf ein Fernnetz, das ein weites Gebiet (weit über eine Stadt hinaus) abdeckt. Das WAN ist der Kernbestandteil des Internets und seine Aufgabe besteht darin, von Hosts gesendete Daten über große Entfernungen zu transportieren. Bei den Verbindungen, die die Switches an jedem Knoten des WAN verbinden, handelt es sich ausschließlich um Hochgeschwindigkeitsverbindungen. Dabei kann es sich um optische Kabelleitungen mit einer Länge von mehreren Tausend Kilometern oder um Punkt-zu-Punkt-Satellitenverbindungen mit einer Länge von mehreren Zehntausend Kilometern handeln. Daher besteht die Hauptüberlegung beim WAN darin, dass die Kommunikationskapazität groß genug sein muss, um das zunehmende Verkehrsaufkommen zu bewältigen.

WAN ist nicht dasselbe wie das Internet. Das Internet kann mit verschiedenen Arten von Netzwerken (sowohl LAN als auch WAN) verbunden werden, normalerweise über einen Router. Ein LAN kann über ein WAN mit einem anderen, weit entfernten LAN kommunizieren.

WAN besteht aus einigenKnotenschaltern (beachten Sie, dass es sich nicht um Router handelt. Sowohl Knotenschalter als auch Router werden zum Weiterleiten von Paketen verwendet. Ihre Funktionsweise Die Prinzipien sind ebenfalls ähnlich. Knoten-Switches leiten Pakete in einem einzelnen Netzwerk weiter, während Router Pakete in einem Internet weiterleiten, das aus mehreren Netzwerken besteht) und die Verbindungen, die diese Switches verbinden. Die Funktion des Knotenschalters besteht darin, das Paket zu speichern und weiterzuleiten. Es gibt Punkt-zu-Punkt-Verbindungen zwischen Knoten, aber um die Zuverlässigkeit des Netzwerks zu verbessern, wird normalerweise ein Knoten-Switch häufig mit mehreren Knoten-Switches verbunden.

Aus Sicht der Schicht gibt es einen großen Unterschied zwischen WAN und LAN, da sich die vom LAN verwendeten Protokolle hauptsächlich auf derDatenverbindungsschicht (und ein kleiner Teil befindet sich in der physikalischen Schicht), während die vom WAN verwendeten Protokolle hauptsächlich in der Netzwerkschicht liegen.

Unterschiede und Zusammenhänge zwischen WAN und LAN

Wan

lokales Netzwerk

Abdeckung

Sehr breit gefächert, oft überregional

Kleiner, normalerweise innerhalb eines Bereichs

Verbindungsmethode

Es gibt Punkt-zu-Punkt-Verbindungen zwischen Knoten, aber um die Zuverlässigkeit des Netzwerks zu verbessern, wird ein Knoten-Switch häufig mit mehreren Knoten-Switches verbunden.

Universeller Einsatz der Multipoint-Access-Technologie

Hierarchie des OSI-Referenzmodells

Drei Schichten: physikalische Schicht, Datenverbindungsschicht, Netzwerkschicht

Zwei Schichten: physikalische Schicht, Datenverbindungsschicht

Verbindungen und Gemeinsamkeiten

1. Sowohl WAN als auch LAN sind wichtige Komponenten des Internets. Aus Sicht des Internets sind sie gleichwertig (nicht inklusiv).

2. Wenn ein mit einem WAN oder LAN verbundener Host innerhalb des Netzwerks kommuniziert, muss er nur die physische Adresse seines Netzwerks verwenden.

Fokus

Gemeinsame Nutzung von Ressourcen

Datenübertragung

Ein wichtiges Thema im WAN istRoutingundPaketweiterleitung. Das Routing-Protokoll ist für die Suche nach der besten Übertragungsroute für Pakete von einem bestimmten Knoten zum Zielknoten verantwortlich, um eine Routing-Tabelle zu erstellen, und erstellt dann eine Weiterleitungstabelle zum Weiterleiten von Paketen aus der Routing-Tabelle. Pakete werden über Weiterleitungstabellen weitergeleitet.

Die beiden gängigen WAN-Datenverbindungsschichtprotokolle sindPPPProtokoll und HDLCProtokoll. PPP ist derzeit am weitesten verbreitet, während HDLC selten verwendet wird.

3.7.2 PPP-Protokoll

Point-to-Point Protocol (Point-to-Point Protocol, PPP) ist ein byteorientiertes Protokoll, das serielle Leitungskommunikation verwendet. Dieses Protokoll wird verwendet, um zwei direkt zu verbinden Knoten. auf dem Link. Der Zweck des Designs besteht hauptsächlich darin, Punkt-zu-Punkt-Verbindungen zum Senden von Daten über DFÜ- oder Standleitungen einzurichten, was es zu einer gängigen Lösung für einfache Verbindungen zwischen verschiedenen Hosts, Bridges und Routern macht.

Die PPP-Vereinbarung besteht aus drei Komponenten:

Link Control Protocol (LCP). Ein erweitertes Verbindungssteuerungsprotokoll zum Einrichten, Konfigurieren, Testen und Verwalten von Datenverbindungen.

Network Control Protocol (NCP). Das PPP-Protokoll ermöglicht die gleichzeitige Verwendung mehrerer Netzwerkschichtprotokolle. Jedes unterschiedliche Netzwerkschichtprotokoll muss mit einem entsprechenden NCP konfiguriert werden, um logische Verbindungen für die Netzwerkschichtprotokolle einzurichten und zu konfigurieren.

③ Eine Methode zum Kapseln von IP-Datagrammen auf einer seriellen Verbindung. Das IP-Datagramm stellt seinen Informationsteil im PPP-Frame dar. Die Länge dieses Informationsteils ist durch die maximale Übertragungseinheit (MTU) begrenzt.

Die ersten 3 Felder und die letzten 2 Felder des PPP-Frames sind mit denen des HDLC-Frames identisch. Das Flag-Feld (F) ist immer noch 7E (01111110) und belegt jeweils 1 Byte davor und danach. Wenn es im Informationsfeld erscheint, Es muss Abschnittsauffüllung sein, das verwendete Steuer-Escape-Byte ist 7D (01111101). In PPP belegt jedoch das Adressfeld (A) 1 Byte und wird als 0xFF angegeben, und das Steuerfeld (C) belegt 1 Byte und wird als 0x03 angegeben. Der Inhalt beider ist immer fest. PPP ist byteorientiert, daher ist die Länge aller PPP-Frames eine ganzzahlige Anzahl von Bytes.

Das vierte Feld ist das Protokollsegment, das 2 Bytes einnimmt. In HDLC gibt es kein solches Feld. Es beschreibt, welche Art von Paket im Informationssegment übertragen wird. Bits, die mit 0 beginnen, sind Netzwerkschichtprotokolle wie IP, IPX und AppleTak; Bits, die mit 1 beginnen, werden zum Aushandeln anderer Protokolle verwendet, einschließlich LCP und eines anderen NCP für jedes unterstützte Netzwerkschichtprotokoll.

Die Länge des fünften Informationssegments ist variabel, größer oder gleich 0 und kleiner oder gleich 1500 B. Um eine transparente Übertragung zu erreichen, müssen einige Maßnahmen zur Verbesserung ergriffen werden, wenn im Informationssegment dieselbe Bitkombination wie im Flag-Feld erscheint.

Das sechste Feld ist die Frame Check Sequence (FCS), die 2 Bytes einnimmt, was den Restcode bei der zyklischen Restcodeprüfung darstellt. Der Inspektionsbereich umfasst Adressfeld, Kontrollfeld, Protokollfeld und Informationsfeld.

Merkmale des PPP-Protokolls:

① PPP bietet eine Fehlererkennung, aber keine Fehlerkorrektur, sondern gewährleistet lediglich den fehlerfreien Empfang (CRC-Prüfung durch Hardware). Es ist ein unzuverlässiges Transportprotokoll und verwendet daher keine Sequenznummern und Bestätigungsmechanismen.

② Es unterstützt nur Punkt-zu-Punkt-Verbindungskommunikation und keine Mehrpunktleitungen.

③ PPP unterstützt nur Vollduplex-Verbindungen.

④ Beide Enden von PPP könnenunterschiedliche Netzwerkschichtprotokolle ausführen, können aber dennoch dasselbe PPP für die Kommunikation verwenden.

⑤ PPP ist byteorientiert. Wenn das Informationsfeld mit derselben Bitkombination wie das Flag-Feld erscheint, hat PPP zwei verschiedene Verarbeitungen Methode: Wenn PPP auf asynchronen Leitungen verwendet wird (Standard), wird die Zeichenfüllmethode verwendet; wenn PPP auf synchronen Leitungen wie SONET/SDH verwendet wird, schreibt das Protokoll vor, dass Hardware zum Vervollständigen der Bitfüllung verwendet wird (dasselbe wie HDLC). .

*3.7.3 HDLC-Protokoll

Das High-Level Data Link Control (HDLC)-Protokoll ist einbitorientiertes Data Link Layer-Protokoll . Das Protokoll ist nicht auf einen Zeichenkodierungssatz angewiesen; Datennachrichten können transparent übertragen werden, und die zur Erzielung einer transparenten Übertragung verwendete „0-Bit-Einfügungsmethode“ ist einfach in Hardware zu implementieren; Vollduplex-Kommunikation weist eine hohe Übertragungseffizienz der Datenverbindung auf; Alle Frames werden mit CRC überprüft und die Informationen werden fortlaufend nummeriert, um einen fehlenden Empfang oder eine erneute Übertragung zu verhindern. Die Übertragungszuverlässigkeit ist hoch; die Übertragungssteuerungsfunktion ist von der Verarbeitungsfunktion getrennt, was eine größere Flexibilität bietet.

Der Rahmen von HDLC besteht aus Feldern wie Flag, Adresse, Steuerung, Information und FCS.

Das Flagfeld F ist 01111110. Solange das Flag-Feld auf der Empfangsseite gefunden wird, kann die Position eines Frames bestimmt werden. Das HDLC-Protokoll verwendet die Head-and-Tail-Mark-Methode der 0-Bit-Auffüllung, um eine transparente Übertragung zu erreichen. Wenn es auf der Sendeseite 5 aufeinanderfolgende Einsen in einer Reihe von Bitstromdaten gibt, wird unmittelbar danach eine 0 eingefügt. Beim Empfang eines Frames wird zunächst das F-Feld gefunden, um die Grenze zu bestimmen, und dann wird der Bitstrom gescannt. Immer wenn fünf aufeinanderfolgende Einsen gefunden werden, wird die folgende 0 gelöscht, um den ursprünglichen Bitstrom wiederherzustellen.

Das Adressfeld A, insgesamt 8 Bit, repräsentiert die Adresse der Slave-Station oder der antwortenden Station entsprechend den verschiedenen Übertragungsmethoden.

Steuerfeld C, insgesamt 8 Bit, viele wichtige Funktionen von HDLC werden durch das Steuerfeld implementiert.

Die Formate PPP und HDLC sind sehr ähnlich. Es gibt jedoch mehrere Unterschiede zwischen den beiden:

① Das PPP-Protokoll ist auf Bytes ausgerichtet, und das HDLC-Protokoll ist auf Bits< ausgerichtet /span> .

② PPP-Frames haben ein 2-Byte-Protokollfeld mehr als HDLC. Wenn der Protokollfeldwert 0x0021 ist, bedeutet dies, dass das Informationsfeld ein IP-Datagramm ist.

③ Das ​​PPP-Protokoll verwendet keine Sequenznummern und Bestätigungsmechanismen. garantiert lediglich einen fehlerfreien Empfang (CRC-Prüfung) und End- Die End-Fehlererkennung wird von High-Level-Protokollen durchgeführt. HDLC-Protokollinformationen nutzen einen Nummerierungs- und Bestätigungsmechanismus, umzuverlässige Übertragung zu gewährleisten.

3.8 Ausrüstung der Datenverbindungsschicht

*3.8.1 Grundkonzepte der Netzwerkbrücke

Nachdem zwei oder mehr Ethernet-Netzwerke über eine Brücke verbunden wurden, werden sie zu einem Ethernet-Netzwerk mit einem größeren Abdeckungsbereich, und jedes ursprüngliche Ethernet-Netzwerk wird alsNetzwerkabschnitt verfügen. Nach dem Empfang des Frames muss sie den richtigen Pfad ermitteln und den Frame an den entsprechenden Ziel-LAN-Standort weiterleiten. Pfadauswahl. Die Bridge arbeitet in der MAC-Unterschicht der Verbindungsschicht, wodurch jedes Ethernet-Netzwerksegment zu einer isolierten Kollisionsdomäne (auch Kollisionsdomäne genannt) werden kann. Wenn die Bridge durch einen Forwarder ersetzt wird, der auf der physikalischen Ebene arbeitet, gibt es keine solche Funktion zum Filtern des Datenverkehrs. Da jedes Netzwerksegment relativ unabhängig ist, hat der Ausfall eines Netzwerksegments keine Auswirkungen auf den Betrieb eines anderen Netzwerksegments. Die Bridge muss über die Funktion

Nachdem Netzwerk 1 und Netzwerk 2 über eine Brücke verbunden sind, empfängt die Brücke die von Netzwerk 1 gesendeten Daten und überprüft die Adresse in den Daten. Wenn es sich um die Adresse von Netzwerk 2 handelt, wird sie an Netzwerk 2 weitergeleitet; wenn es die ist Adresse von Netzwerk 1, dann ist es Es wird verworfen, da sich die Quellstation und die Zielstation im selben Netzwerksegment befinden und die Zielstation den Frame direkt empfangen kann, ohne eine Brücke zum Weiterleiten zu verwenden.

3.8.2 LAN-Switch

1. Prinzipien und Eigenschaften von Schaltern

LAN-Switch, auch bekannt als Ethernet-Switch. Ethernet-Switch ist im Wesentlichen eine Multi-Port-Netzwerkbrücke, die auf derDatenverbindungsschicht arbeitet . Jeder Port eines Ethernet-Switches ist direkt mit einem einzelnen Host oder einem anderen Switch verbunden und arbeitet normalerweise im Vollduplex-Modus. Switches können das Netzwerk wirtschaftlich in kleine Kollisionsdomänen unterteilen und so jeder Workstation eine höhere Bandbreite bieten. Das Prinzip eines Ethernet-Switches besteht darin, dass er die Quell- und Ziel-MAC-Adressen (Media Access Layer) von Datenrahmen erkennt, die vom Ethernet-Port kommen, und diese dann mit der systeminternen dynamischen Nachschlagetabelle vergleicht verwendet werden. VLAN kann nicht nur Konfliktdomänen, sondern auch Broadcast-Domänen isolieren. VLAN wird verglichen. Wenn die Quell-MAC-Adresse des Datenrahmens nicht in der Nachschlagetabelle enthalten ist, wird die Adresse zur Nachschlagetabelle hinzugefügt und der Datenrahmen wird an den entsprechenden Zielport gesendet. Ethernet-Switches sind für Workstations transparent, sodass der Verwaltungsaufwand gering ist und das Hinzufügen, Verschieben und Netzwerkänderungen von Netzwerkknoten vereinfacht wird. Ethernet-Switches können auch zur einfachen Implementierung eines virtuellen LAN

Wenn beim herkömmlichen gemeinsam genutzten 10-MBit/s-Ethernet insgesamt N Benutzer vorhanden sind, beträgt die von jedem Benutzer belegte durchschnittliche Bandbreite nur 1/N der Gesamtbandbreite (10 MBit/s). Wenn Sie einen Ethernet-Switch verwenden, um diese Hosts zu verbinden, beträgt die Bandbreite von jedem Port zum Host zwar immer noch 10 Mbit/s, da ein Benutzer bei der Kommunikation exklusiv ist, anstatt die Bandbreite des Übertragungsmediums mit anderen Netzwerkbenutzern zu teilen, hat er eine Port Die Gesamtkapazität des Switches beträgt N×10 Mbit/s. Dies ist der größte Vorteil von Schaltern.

Merkmale von Ethernet-Switches:

① Jeder Port des Ethernet-Switches ist direkt mit einem einzelnen Host verbunden (der Port der Bridge ist oft mit einem Netzwerksegment verbunden) und arbeitet im Allgemeinen im Vollduplex-Modus.

② Der Ethernet-Switch kann mehrere Portpaare gleichzeitig verbinden, sodass jedes miteinander kommunizierende Hostpaar wie ein exklusives Kommunikationsmedium Daten ohne Kollision übertragen kann.

③ Der Ethernet-Switch ist ein Plug-and-Play-Gerät und seine interne Frame-Weiterleitungstabelle wird automatisch durchselbstlernenden Algorithmus verarbeitet nach und nach aufgebaut.

④ Ethernet-Switches weisen aufgrund der Verwendung dedizierter Switching-Fabric-Chips höhere Switching-Raten auf.

⑤ Ethernet-Switchüberträgt ausschließlich die Medienbandbreite.

Ethernet-Switches verwenden hauptsächlich zwei Schaltmodi:

① Ein Pass-Through-Switch prüft nur die Zieladresse, wodurch der Frame nahezu unmittelbar nach dem Empfang versendet werden kann. Diese Methode ist schnell, aber es mangelt ihr an Intelligenz und Sicherheit und sie kann das Umschalten von Ports mit unterschiedlichen Raten nicht unterstützen.

② Der Store-and-Forward-Switch speichert zunächst den empfangenen Frame im Cache, prüft, ob die Daten korrekt sind und bestätigt sie ist korrekt. Der Frame wird dann über eine Nachschlagetabelle in einen Ausgabeport umgewandelt und gesendet. Wenn festgestellt wird, dass der Frame fehlerhaft ist, wird er verworfen. Der Vorteil isthohe Zuverlässigkeit und die Fähigkeit, die Konvertierung zwischen Ports mit unterschiedlichen Geschwindigkeiten zu unterstützen. Der Nachteil ist eine große Verzögerung.

Ethernet-Switches verfügen im Allgemeinen über Ports mit mehreren Geschwindigkeiten. Beispielsweise können sie über verschiedene Kombinationen von 10-Mbit/s-, 100-Mbit/s- und 1-Gbit/s-Ports verfügen, was Benutzern in verschiedenen Situationen eine große Erleichterung bietet.

2. Selbstlernfunktion des Schalters

Das Bestimmen, ob ein Frame an einen bestimmten Port weitergeleitet oder verworfen werden soll, wird als Filterung bezeichnet. Das Bestimmen, zu welcher Schnittstelle ein Frame verschoben werden soll, wird als Weiterleitung bezeichnet. Die Filterung und Weiterleitung des Switches erfolgt mit Hilfe der Switch-Tabelle (Switch-Tabelle). Ein Eintrag in der Switching-Tabelle enthält mindestens: ① eine MAC-Adresse; ② den Switch-Port, der mit der MAC-Adresse verbunden ist.

Beispielsweise verfügt ein Ethernet-Switch über 4 Ports, die jeweils mit einem Computer verbunden sind, und die MAC-Adressen sind A, B, C und D. Die Switch-Tabelle des Switches ist zunächst leer. A sendet zunächst einen Frame an B und betritt den Switch über Port 1. Nachdem der Switch es empfangen hat, durchsucht er die Switching-Tabelle und kann den Eintrag mit der MAC-Adresse B nicht finden. Der Switch schreibt dann die Quelladresse A und Port 1 in die Switching-Tabelle und sendet den Frame an alle Ports außer Port 1. C und D verwerfen den Frame, da die Zieladresse falsch ist. Nur B akzeptiert die korrekte Zieladresse. Nachdem (A, 1) in die Switching-Tabelle geschrieben wurde, sollte jeder Frame mit der Zieladresse A, der in Zukunft von einem beliebigen Port empfangen wird, über Port 1 weitergeleitet werden. Denn da die von A gesendeten Frames über Port 1 in den Switch gelangen, sollten die von Port 1 weitergeleiteten Frames auch A erreichen können.

Nehmen wir als Nächstes an, dass B über Port 3 einen Frame an A sendet. Nachdem der Switch die Switching-Tabelle durchsucht hat, findet er einen Eintrag (A, 1) und leitet den Frame von Port 1 an A weiter. Offensichtlich besteht zu diesem Zeitpunkt keine Notwendigkeit, die empfangenen Frames zu senden. Schreiben Sie die Quelladresse B und Port 3 des Frames in die Switching-Tabelle und geben Sie an, dass Frames, die in Zukunft an B gesendet werden, über Port 3 weitergeleitet werden sollen.

Solange die Hosts C und D nach einer gewissen Zeit auch an andere Hosts senden, schreibt der Switch C und D sowie die entsprechenden Portnummern in die Switching-Tabelle. Auf diese Weise können an einen beliebigen Host weitergeleitete Frames schnell den entsprechenden Weiterleitungsport in der Switching-Tabelle finden. Da sich die an den Switch angeschlossenen Hosts jederzeit ändern können, müssendie Einträge in der Switching-Tabelle aktualisiertwerden. Aus diesem Grund hat jeder Eintrag in der Austauschtabelle eine bestimmte Gültigkeitszeit und abgelaufene Einträge werden automatisch gelöscht< /span>. Dadurch wird sichergestellt, dass die Daten in der Austauschtabelle den tatsächlichen Bedingungen des aktuellen Netzwerks entsprechen. Diese selbstlernende Methode ermöglicht den Plug-and-Play-Betrieb des Switches ohne manuelle Konfiguration und ist daher sehr praktisch.

おすすめ

転載: blog.csdn.net/Mengxizhouu/article/details/131386214