Hinweise zum Computernetzwerk – Datenverbindungsschicht

Hinweise zum Computernetzwerk – Datenverbindungsschicht

3. Datenverbindungsschicht

3.1 Funktionen der Sicherungsschicht

Die Datenverbindungsschicht stellt Dienste für die Netzwerkschicht bereit, die auf den von der physischen Schicht bereitgestellten Diensten basieren. Dies bedeutet, dass die ursprünglichen, fehleranfälligen physischen Leitungen in logisch fehlerfreie Datenverbindungen umgewandelt werden, wodurch der Netzwerkschicht qualitativ hochwertige Dienste bereitgestellt werden .

3 Basisdienste: verbindungsloser Dienst ohne Bestätigung, verbindungsloser Dienst mit Bestätigung und verbundener Dienst mit Bestätigung.

Die Hauptfunktion:

  • Linkmanagement: Verantwortlich für die Einrichtung, Pflege und Freigabe von Datenlinks,Wird hauptsächlich für verbindungsorientierte Dienste verwendet
  • Frame-Synchronisation: Der Empfänger bestimmt die Start- und Endposition eines Frames im empfangenen Bitstrom.
  • Fehlerkontrolle: Wird verwendet, um den Empfänger feststellen zu lassen, dass es sich bei den empfangenen Daten um die vom Absender gesendeten Daten handelt.
  • Transparente Übertragung: Unabhängig von der Bitkombination der Daten sollten diese auf der Verbindung übertragen werden.

Frame-Abgrenzung : Wenn zwei Hosts Informationen aneinander übertragen, müssen die Pakete der Netzwerkschicht in Frames gekapselt und im Frame-Format übertragen werden. Durch das Hinzufügen eines Headers und eines Trailers vor und nach einem Datenelement wird ein Frame gebildet. Der Header und der Trailer enthalten viele Steuerinformationen. Eine der wichtigen Funktionen dieser Informationen besteht darin, die Grenzen des Frames zu bestimmen, dh die Frame-Abgrenzung.

3.2 Rahmen

Was passiert, wenn bei der Übertragung des Bitstroms ein Fehler auftritt? Dann muss der gesamte Bitstrom erneut übertragen werden. UndDer Vorteil des Framings besteht darin, dass bei Auftreten eines Fehlers nur der Fehlerrahmen gesendet werden muss. Dies ist die Erhöhung der Rahmensynchronisation, der Rahmenbegrenzung und der transparenten Übertragungsprobleme wert.. Frames können nicht beliebig kombiniert werden und müssen vom Empfänger verstanden werden. Daher müssen die von der Netzwerkschicht übermittelten Pakete nach bestimmten Regeln zu Frames zusammengesetzt werden.

WeilFrames werden in der kleinsten Einheit im Netzwerk übertragenDaher muss das empfangende Ende den Frame korrekt empfangen.Es ist notwendig zu wissen, wo der Frame im Bitstrom beginnt und endet.= (Denn was das Empfangsende empfängt, ist eine Reihe von Bitströmen mit Headern und Tails, die nicht richtig unterschieden werden können).Das Paket (auch IP-Datagramm genannt) ist nur im Datenteil des Frames enthalten, sodass kein Ende hinzugefügt werden muss, um es abzugrenzen.

Zeichenzählung

Ein Sonderzeichen wird verwendet, um den Anfang eines Frames anzuzeigen, und ein Zählfeld wird verwendet, um die Anzahl der im Frame enthaltenen Bytes anzugeben. Wenn der Zielhost den Frame empfängt, kann er anhand der in diesem Feld angegebenen Anzahl von Bytes das Endbit des Frames und das Startbit des nächsten Frames kennen.

Fügen Sie hier eine Bildbeschreibung ein

Die vom Zählfeld bereitgestellte Anzahl an Bytes umfasst ein eigenes Byte.

Nachteile: Treten während der Übertragung Fehler im Zählfeld auf, kann der Empfänger das Endbit des übertragenen Frames nicht ermitteln und natürlich auch nicht das Startbit des nächsten Frames kennen, wodurch eine Frame-Synchronisation unmöglich wird. Aus diesem Grund wird die Zeichenzählung selten verwendet.

Kopf- und Schwanztrennungsmethode zum Auffüllen von Zeichen

Bit-Stopf-Kopf- und Schwanzmarkierungsmethode (Null-Bit-Stopfmethode)

Die Kopf- und Schwanzmarkierungsmethode des Bitfüllens besteht darin, 01111110 als Start- und Endmarkierung zu verwenden. Es scheint, dass die Abgrenzung gelöst ist, aber was ist, wenn 01111110 im Rahmendatenteil erscheint? Die transparente Übertragung ist immer noch ein Problem.

Es ist nicht schwer herauszufinden, dass 01111110 6 aufeinanderfolgende „1“ enthält.Solange die Daten 5 aufeinanderfolgende „1“ erkennen, fügen sie sofort eine „0“ ein, und der Empfänger führt den umgekehrten Vorgang des Prozesses aus, d löscht automatisch die folgenden. „0“, um die ursprünglichen Daten wiederherzustellen.

Gesetz über Verstöße gegen die physische Kodierung

Gesetz über Verstöße gegen die physische KodierungNutzen Sie illegale Flags, die auf physischen Medien codiert sind, um den Anfang und das Ende eines Frames zu unterscheidenBeispielsweise wird bei der Manchester-Codierung Symbol 1 als High-Low-Level codiert, Symbol 0 als Low-High-Level codiert und die Codierungsmethoden High-High und Low-Low-Level sind ungültig und können jeweils verwendet werden Startmarke und Endmarke des Rahmens.

3.3 Fehlerkontrolle

3.3.1 Fehlererkennungscodierung

Durch bestimmte Kodierung und Dekodierung,Fähigkeit, Übertragungsfehler während der Decodierung auf der Empfangsseite zu erkennen, Fehler jedoch nicht korrigieren zu können. Zu den gängigen Fehlererkennungscodes gehören Paritätsprüfcodes und zyklische Redundanzcodes (CRC) .

Paritätscode

Der Paritätsprüfcode besteht darin, nach dem Informationscode einen Prüfcode hinzuzufügen.

  • Ungerade Parität: Nach dem Hinzufügen eines Prüfcodes ist die Anzahl der Einsen im gesamten Codewort eine ungerade Zahl. Nach dem Empfang der Daten prüft der Empfänger die Anzahl der Einsen in den Daten.Wenn eine ungerade Anzahl von Einsen erkannt wird, wird davon ausgegangen, dass bei der Übertragung kein Fehler vorliegt. Wenn eine gerade Anzahl von Einsen erkannt wird, bedeutet dies, dass sich
    die Daten während des Übertragungsvorgangs geändert haben und eine erneute Übertragung erforderlich ist.
  • Gerade Parität: Nach dem Hinzufügen eines Prüfcodes ist die Anzahl der Einsen im gesamten Codewort eine gerade Zahl. Nach dem Empfang der Daten prüft der Empfänger die Anzahl der Einsen in den Daten. Wenn eine gerade Anzahl von Einsen erkannt wird, wird davon ausgegangen, dass die Übertragung nicht fehlerfrei war; wenn eine ungerade Anzahl von Einsen erkannt wird, bedeutet dies, dass die Übertragung nicht fehlerfrei war Die Daten haben sich während des Übertragungsvorgangs geändert und erfordern eine erneute Übertragung. .

Es ist ersichtlich, dass, wenn sich ein Datenbit in den Daten ändert,Es kann durch Paritätsprüfung erkannt werden, aber es ist nicht bekannt, welches Bit falsch ist.Wenn zwei Datenbits in den Daten gleichzeitig geändert werden, kann die Paritätsprüfung den Datenfehler nicht erkennen, sodass ihre Fehlerprüfungsfähigkeit eingeschränkt ist.

zyklischer Redundanzcode

Extrem hohe Fehlererkennungsrate, geringer Overhead und einfach zu implementieren

Wichtige Funktionen

  • Ein Polynom mit r Erkennungsbits kann alle Burst-Fehler erkennen, die kleiner oder gleich r sind.
  • Die Wahrscheinlichkeit, dass ein Fehler mit einer Länge größer als r+1 entgeht, beträgt 1/2 r .

Angenommen, G(x)=1101 (d. h. r=3), die zu übertragenden Daten sind M=101001 (d. h. m=6), schreiben Sie die gesendeten Daten.

Nach der Divisionsoperation erhalten wir den Quotienten Q=110101 und den Rest R=001 (FCS), sodass die gesendeten Daten 101001001 (d. h. M+FCS) sind.

Problemlösende Fähigkeiten

  • 0+(-)1=1, 0+(-)0=0, 1+(-)0=1, 1+(-)1=0 (kann vereinfacht werden alsXOR-OperationWährend des Divisionsprozesses werden einige Reste berechnet, alle mithilfe von XOR-Operationen. Wenn sie gleich sind, sind sie 0, wenn sie unterschiedlich sind, sind sie 1.
  • Die Regel zum Erhöhen des Quotienten besteht darin, sich die erste Position des Restes anzusehen. Wenn sie 1 ist, wird der Quotient um 1 erhöht; wenn sie 0 ist, wird der Quotient um 0 erhöht.
  • Wenn die Anzahl der Ziffern im Teilrest kleiner ist als die Anzahl der Ziffern im Divisor, ist der Rest der letzte Rest.

3.3.2 Fehlerkorrekturcodierung

Der Empfänger kann nicht nur auf Fehler prüfen, sondern die erkannten Fehler auch korrigieren.

Hamming-Code

Auch als Hamming-Code bekannt, fügt er mehrere Datenbits in das Informationsfeld ein, um zu überwachen, welches Datenbit im Codewort sich geändert hat.Verfügt über eine Fehlerkorrekturfunktion.

Unter der Annahme, dass es k Informationsbits gibt, beträgt die Länge des gesamten Codes k+r Bits; jedes Datenbit hat nur zwei Zustände, entweder 1 oder 0. Es gibt r Datenbits, die 2 r Zustände darstellen können . Wenn jeder Zustand einen Fehler in einem Codeelement darstellt und es k+r Codeelemente gibt, gibt es k Zustände, um ihn darzustellen, und es wird auch einen Zustand geben, der die Richtigkeit der Daten darstellt, also 2 r -1 > = Nur k+r kann einen Bitfehler prüfen, das heißt**2 r >=k+r+1**. Beispielsweise haben die Informationsdaten 4 Bits. Aus 2 r >=k+r+1 erhalten wir r>=3. Das heißt, mindestens 3 Bits an Überwachungsdaten werden benötigt, um einen 1-Bit-Fehler zu erkennen und zu korrigieren.

3.4 Flusskontrolle und zuverlässiger Übertragungsmechanismus

3.4.1 Flusskontrolle

Steuern Sie die Geschwindigkeit, mit der der Sender Daten sendet, damit der Empfänger Zeit hat, sie zu empfangen.

Ein grundlegender Ansatz ist vonDer Empfänger steuert den Datenfluss des Senders. Es gibt zwei gängige Methoden: Stop-and-Wait-Flusskontrolle und Gleitfenster-Flusskontrolle.

  • Stop-Wait-Flusskontrolle: Die einfachste Form der Flusskontrolle. Das Funktionsprinzip besteht darin, dass der Sender einen Frame sendet und dann auf das Eintreffen des Antwortsignals wartet, bevor er den nächsten Frame sendet: Nachdem der Empfänger einen Frame empfangen hat, sendet er ein Antwortsignal zurück, das angibt, dass der nächste Frame empfangen werden kann. Wenn der Der Empfänger gibt keine Antwort zurück, sondern sendet. Der Teilnehmer muss warten.
  • Schiebefenster-Flusssteuerung:Ermöglichen Sie das gleichzeitige Senden mehrerer Frames. Der Absender verwaltet jederzeit einen Satz fortlaufender Sequenznummern von Frames, die gesendet werden dürfen, genanntFenster senden. Gleichzeitig verwaltet der Empfänger auch einen Satz fortlaufender Sequenznummern von Frames, die empfangen werden dürfen, genanntEmpfangsfensterDie Ober- und Untergrenzen der Seriennummern des Sendefensters und des Empfangsfensters müssen nicht identisch sein, und sogar die Größen können unterschiedlich sein.. Sequenznummern im Absenderfenster stellen Frames dar, die gesendet, aber noch nicht bestätigt wurden, oder Frames, die gesendet werden können . Jedes Mal, wenn der Absender eine Bestätigung für einen Frame erhält, verschiebt sich das Sendefenster um einen Frame nach vorne.Wenn die Größe des Sendefensters die maximale Größe erreicht, schließt der Absender die Netzwerkschicht zwangsweise, bis ein freier Puffer erscheintAuf der Empfangsseite darf der Datenrahmen nur dann empfangen werden, wenn die Übertragungssequenznummer des empfangenen Datenrahmens innerhalb des Empfangsfensters liegt, und das Fenster wird um eine Position nach vorne verschoben. Wenn der empfangene Datenrahmen außerhalb des Empfangsfensters liegt (d. h. die empfangene Rahmennummer kann nicht entsprechend der Rahmennummer im Empfangsfenster gefunden werden), wird er verworfen.

Fügen Sie hier eine Bildbeschreibung ein

3.4.2 Zuverlässiger Übertragungsmechanismus

Entwickler von Computernetzwerken verfolgen die Strategie einer „zuverlässigen End-to-End-Übertragung“. Genauer gesagt verwendet es verbindungsorientiertes TCP auf der Transportschicht, was eine zuverlässige End-to-End-Übertragung gewährleistet. Solange das TCP von Host B einen Fehler in der Datenübertragung erkennt, weist es Host A an, den Teil der Daten mit dem Fehler erneut zu übertragen, bis dieser Teil der Daten korrekt an Host B übertragen wurde. Die Wahrscheinlichkeit, dass TCP Datenfehler nicht erkennen kann, ist sehr gering.Dies kann nicht nur den Netzwerkteil kostengünstig, flexibel und zuverlässig machen, sondern auch eine durchgängig zuverlässige Übertragung gewährleisten.

3.4.3 Schiebefenstermechanismus

Erst wenn das Empfangsfenster nach vorne verschiebt (Gleichzeitig wird auch eine Bestätigung gesendet), darf das Sendefenster nach vorne rutschen.

Zu den zuverlässigen Übertragungsmechanismen gehören das Stop-and-Wait-Protokoll, das Fallback-N-Protokoll und das selektive Neuübertragungsprotokoll. Diese drei Protokolle unterscheiden sich lediglich in der Größe des Sende- und Empfangsfensters.

  • Stop-Wait-Protokoll: Fenstergröße senden = 1, Fenstergröße empfangen = 1.
  • Rückwärts-N-Frame-Protokoll: Sendefenstergröße > 1, Empfangsfenstergröße = 1.
  • Wählen Sie das Neuübertragungsprotokoll: Sendefenstergröße > 1, Empfangsfenstergröße > 1.

Wenn die Größe des Empfangsfensters 1 beträgt, ist der Frame garantiertIn der richtigen Reihenfolge erhalten

Da das Empfangsfenster 1 ist, gibt es eine eindeutige Sequenznummer. Unabhängig davon, wie viele Bytes das Sendefenster gleichzeitig senden kann, wählt das Empfangsfenster nur die Frame-Sequenznummer im Empfangsfenster zum Empfangen aus. Nur wenn der Frame Wenn dieser Wert erreicht ist, bewegt sich das Empfangsfenster nach hinten, daher müssen die in dieser Reihenfolge empfangenen Frames in der richtigen Reihenfolge sein.

3.4.4 Stop-Wait-Protokoll

Wie erreicht man eine zuverlässige Übertragung?

Zuverlässige Übertragung bedeutet, dass der Empfänger alles empfängt, was der Sender sendet.

Zuverlässige Übertragungsmethode:

  • Bestätigung (Bestätigungsrahmen senden): Der Bestätigungsrahmen ist ein Kontrollrahmen ohne Datenteil. Er wird nur verwendet, um dem Absender mitzuteilen, dass ein bestimmter vom Absender gesendeter Rahmen empfangen wurde. Um die Übertragungseffizienz zu verbessern, wird die Bestätigung manchmal in einem Antwortrahmen gespeichert, der als Huckepack-Bestätigung bezeichnet wird.
  • Timeout-Neuübertragung: Der Absender legt beim Senden eines Datenrahmens einen Timeout-Timer fest. Wenn innerhalb des angegebenen Zeitlimits keine Bestätigung des Rahmens empfangen wird, wird der Datenrahmen erneut gesendet.
    • Grund:
      • Wenn der Empfänger einen Fehlerrahmen erkennt, verwirft der Empfänger den Rahmen direkt, ohne eine Bestätigung zurückzusenden.
      • Der Frame ging während der Übertragung verloren.

Die Strategie, zwei Mechanismen zu verwenden, Bestätigung und Timeout-Neuübertragung, um eine zuverlässige Übertragung zu erreichen, wird auch als automatische Anforderungs-Neuübertragung (ARO) bezeichnet.

Die Grundidee des Stop-and-Wait-Protokolls: Nachdem der Absender einen Frame übertragen hat, muss er auf die Bestätigung der anderen Partei warten, bevor er den nächsten Frame sendet. Wenn innerhalb der angegebenen Zeit keine Bestätigung empfangen wird, überschreitet der Absender das Zeitlimit und überträgt den ursprünglichen Frame erneut.

Protokoll = Technologie + Nachteile berücksichtigen——>Stop-Wait-Protokoll = Stop-Wait-Flusskontrolltechnologie + Nachteil

Fehler, die im Stop-Wait-Protokoll auftreten können:

Frames werden im Allgemeinen unterteilt inDatenrahmen und Bestätigungsrahmen

  • Die erste Art von Fehler istDer Datenrahmen ist beschädigt oder geht verloren, dann wird der Empfänger es bei der Fehlerprüfung erkennen. Verwenden Sie bei der Beschädigung von Datenrahmen einen Timer, um das Problem zu lösen. Auf diese Weise sendet der Empfänger nach dem Senden eines Rahmens einen Bestätigungsrahmen, wenn die Daten korrekt empfangen werden können. Wenn der Empfänger einen beschädigten Datenrahmen empfängt, wird dieser direkt verworfen. Der Absender wartet immer noch da, aber egal, solangeTimerNach Ablauf der Zeit sendet der Absender den Datenrahmen erneut usw., bis der Datenrahmen fehlerfrei ist.
  • Die zweite Art von Fehler istStellen Sie sicher, dass Frames beschädigt sind oder verloren gehen. Sobald der Bestätigungsrahmen beschädigt ist oder verloren geht, hat dies zur Folge, dass der Sender den Rahmen ständig erneut sendet, was dazu führt, dass der Empfänger den Rahmen ständig erneut empfängt. So lösen Sie das Problem: Offensichtlich muss der Empfänger unterscheiden können, ob es sich bei einem bestimmten Frame um einen neuen Frame oder einen wiederholten Frame handelt. Die Lösung ist einfach: Lass es einfachDer Absender fügt dem Header jedes zu sendenden Frames eine Nummer hinzu., und der Empfänger identifiziert die Nummer jedes ankommenden Frames und bestimmt, ob es sich um einen neuen Frame oder einen doppelten Frame handelt, der verworfen werden soll.

3.4.5 Backoff N Frames (GBN)-Protokoll

Wenn zur Nummerierung n Bitpaare verwendet werden, sind deren**Die Sendefenstergröße W T muss 1<W≤2 n -1 erfüllen**, die Empfangsfenstergröße beträgt 1. Wenn die Größe des Sendefensters größer als 2 n -1 ist, kann der Empfänger nicht zwischen neuen und alten Datenrahmen unterscheiden. Da die Empfangsfenstergröße 1 beträgt, kann der Empfänger nurEmpfangen Sie Datenrahmen der Reihe nach

Grundprinzip : Nachdem der Absender ein Datenelement gesendet hat, stoppt er nicht und wartet auf den Bestätigungsrahmen, sondern kann kontinuierlich mehrere weitere Datenrahmen senden. Wenn zu diesem Zeitpunkt ein Bestätigungsrahmen vom Empfänger empfangen wird, kann der Datenrahmen gesendet werden.Wenn in einem Frame ein Fehler auftritt, verwirft der Empfänger einfach den Frame und alle nachfolgenden Frames.. Nachdem der Absender das Zeitlimit überschritten hat, muss er den Fehlerrahmen und alle nachfolgenden Rahmen erneut senden. Aufgrund der verkürzten Wartezeit verbessert das Back-Off-N-Protokoll den Durchsatz der gesamten Kommunikation. Sobald der Empfänger jedoch einen Fehlerrahmen erkennt, empfängt er keine weiteren Rahmen mehr, was zu einer gewissen Verschwendung führt.

Solange ACKn empfangen wird, wird davon ausgegangen, dass alle vorherigen n-1 Frames empfangen wurden.

3.4.6 Wählen Sie das Retransmission (SR)-Protokoll aus

W T ≤ 2 n-1,W R ≤2 n-1

Wenn das Sendefenster den Maximalwert annimmt, ist W R =W T =2 n-1 (in allen Fällen).Das Sendefenster ist gleich dem Empfangsfenster und beträgt 2 n -1, da dadurch die maximale Effizienz erreicht wird, Denk dran). zu diesem Zeitpunkt,Wenn W T einen Wert größer als 2 n-1 annimmt , kann dies dazu führen, dass sich das neue und das alte Empfangsfenster überlappen.

Die Grundidee bei der Auswahl eines Neuübertragungsprotokolls: Wenn in einem Frame ein Fehler auftritt, werden die nachfolgenden Frames zuerst im Puffer des Empfängers gespeichert und der Sender muss den Fehlerframe erneut übertragen. Sobald der Neuübertragungsframe empfangen wurde, Es ist derselbe wie der ursprüngliche Puffer. Die verbleibenden Frames werden in der richtigen Reihenfolge an den Host gesendet . Wählen Sie =Das Neuübertragungsprotokoll vermeidet die wiederholte Übertragung von Datenrahmen, die korrekt beim Empfänger angekommen sind, und verbessert so die Kanalauslastung weiter, allerdings auf Kosten einer Vergrößerung des Pufferplatzes.

3.4.7 Sendepuffer und Empfangspuffer

Fügen Sie hier eine Bildbeschreibung ein

Diejenigen, die nacheinander eintreffen und nicht an den Host übermittelt werden, werden im Empfangspuffer abgelegt (der Teil des Empfangscaches außerhalb des Empfangsfensters, der unten erwähnte Empfangscache bezieht sich auf diesen Teil) (da die Bestätigung gesendet wurde und gerade ist). Warten auf den Abruf des Host-Anwendungsprogramms) und nicht im Empfangsfenster.Die Frames, die nicht nacheinander eintreffen und keine Fehler aufweisen, müssen im Empfangsfenster platziert werden, da diese Frames nicht direkt an den Host übergeben werden können, und die im Empfangspuffer platzierten Frames werden an den Host übergeben. Nach den fehlenden Frames empfangen und dann zusammen in den Empfangscache gelegt

Caching wird häufig bei der Kommunikation zwischen Computerprozessen eingesetzt.Ein Cache ist ein im Arbeitsspeicher des Computers eingerichteter Speicherplatz zum vorübergehenden Speichern von Daten. Der sendende Prozess schreibt zunächst die zu sendenden Daten in den Cache, und dann liest der empfangende Prozess die Daten zum entsprechenden Zeitpunkt.

3.5 Medienzugriffskontrolle

3.5.1 Klassifizierung der Medienzugriffskontrolle

Die Medienzugriffskontrolle soll das Problem lösen, wie Kanalnutzungsrechte besser zugeteilt werden können, wenn bei der Nutzung gemeinsam genutzter Kanäle Konkurrenz entsteht .

  • Channel Division Medium Access Control
  • Medienzugriffskontrolle mit wahlfreiem Zugriff
  • Medienzugriffskontrolle für Abfragezugriff

3.5.2 Kanalteilungsmedium-Zugriffskontrolle

Multiplexing-Technologie: JaMöglichkeiten zur Implementierung der Kanalteilungs-Medienzugriffskontrolle. Die Multiplexing-Technologie kann mehrere Signale auf einem physischen Kanal zur Übertragung kombinieren, sodass mehrere Computer oder Endgeräte Kanalressourcen gemeinsam nutzen können, wodurch die Kanalauslastung verbessert wird .

Fügen Sie hier eine Bildbeschreibung ein

Frequenzmultiplex

Teilen Sie einen Kanal in mehrere Kanäle mit unterschiedlichen Frequenzen aufWenn die Anzahl der Multiplexvorgänge zunimmt, muss die Bandbreite des Kanals erhöht werden .

Die jedem Unterkanal zugewiesene Bandbreite kann unterschiedlich sein (denken Sie an Gehwege und Fahrspuren für Kraftfahrzeuge, die unterschiedlich breit sind), aber ihreDie Summe darf die Gesamtbandbreite des Kanals nicht überschreiten. In praktischen Anwendungen sollten „Schutzbänder“ zwischen benachbarten Kanälen hinzugefügt werden, um Interferenzen zwischen Unterkanälen zu verhindern (denken Sie an die Rolle von Geländern zwischen Gehwegen und Fahrspuren für Kraftfahrzeuge oder von Fahrspuren für Kraftfahrzeuge und Fahrspuren für Kraftfahrzeuge).

Zeitmultiplex

Angenommen, es gibt nur ein Spielzeug, aber 10 Kinder möchten damit spielen. Zu diesem Zeitpunkt kann eine feste Zeit nur in 10 Teile unterteilt werden, und die 10 Kinder spielen abwechselnd mit diesem Spielzeug, das in Echtzeit gemultiplext wird.

Teilen Sie eine festgelegte Zeit in mehrere Teile aufWenn die Anzahl der Multiplexvorgänge zunimmt, besteht keine Notwendigkeit, die Kanalbandbreite zu erhöhen, sondern lediglich die von jedem Kanal erhaltene Zeit zu reduzieren .

Wenn ein Kind zu einem bestimmten Zeitpunkt an der Reihe ist, aber jetzt schläft, wäre diese Zeit dann nicht verschwendet? Ja, es ist verschwendet. Zu diesem Zeitpunkt muss das Zeitmultiplex verbessert werden Statistiken werden eingeführt. Zeitmultiplex.

Wenn ein Kind jetzt an der Reihe ist, mit dem Spielzeug zu spielen, es aber auch einschläft, überspringen Sie es sofort und geben Sie es dem nächsten Kind. Damit ist im Grunde genommen sichergestellt, dass das Spielzeug keine Leerlaufzeiten hat. Es ist ersichtlich, dass es ungewiss ist, wann jedes Kind das nächste Mal an die Reihe kommt. Wenn viele Leute schlafen, ist es bald an der Reihe; wenn nur wenige Leute schlafen, wird es sehr langsam sein.

Das statistische Zeitmultiplex ist eine Art dynamische Zeitzuweisung und gleichzeitig asynchron (der Zeitraum, in dem jedes Kind mit Spielzeug spielt, ist nicht festgelegt). Daher wird das statistische Zeitmultiplex auch als asynchrones Zeitmultiplex bezeichnet. Gewöhnliches Zeitmultiplex ist synchrones Zeitmultiplex (da jedes Kind in einem festgelegten Zeitraum ein Spielzeug bekommen kann, selbst wenn ein Kind in der Mitte schläft, muss es warten).

Wellenlängenmultiplex

Beim Wellenlängenmultiplex handelt es sich um das Frequenzmultiplex von LichtIn einer optischen Faser werden mehrere Signale unterschiedlicher Frequenz (Länge) übertragen. Da die Frequenzen (Wellenlängen) jedes Lichts unterschiedlich sind, interferieren die optischen Signale jedes Lichts nicht miteinander. Schließlich wird ein Wellenlängenteiler verwendet, um Licht mit unterschiedlichen Wellenlängen zu zerlegen.

Fügen Sie hier eine Bildbeschreibung ein

Codemultiplex

Codemultiplex wird auch Codemultiplex (CDMA) genannt.Es teilt sowohl die Frequenz als auch die Zeit des Kanals und ist eine echte dynamische Multiplexing-Technologie.

Jeder Standort verwaltet eine Chipsequenz, die zu diesem Standort gehört und fest ist. Wenn die Chipsequenz von Station A 00011011 ist, sendet Station A 00011011, um das Senden von Bit 1 anzuzeigen, und invertiert jedes Bit von 00011011, d. h. das Senden von 11100100 zeigt das Senden von Bit 0 an. Es ist üblich, 0 in der Chipsequenz als -1 und 1 als +1 zu schreiben, sodass die Chipsequenz an Station A (-1 -1 -1 +1 +1 -1 +1 +1) ist.Dieser Vektor wird im Allgemeinen als Chip-Vektor der Station bezeichnet

  • Die Chipvektoren zweier beliebiger Stationen sind orthogonal, d. h. das normalisierte Innenprodukt der Chipvektoren zweier beliebiger Stationen muss 0 sein.
  • Das normalisierte Innenprodukt des Chip-Vektors einer beliebigen Site und des Chip-Vektors selbst muss 1 sein; das normalisierte Innenprodukt des Chip-Vektors einer beliebigen Site und des inversen Codevektors des Chips muss -1 sein.
    Fügen Sie hier eine Bildbeschreibung ein

Die Codemultiplex-Technologie bietet die Vorteile einer starken Entstörungsfähigkeit, einer hohen Vertraulichkeit und einer guten Sprachqualität und kann außerdem die Investitions- und Betriebskosten senken., hauptsächlich in drahtlosen Kommunikationssystemen verwendet, insbesondere in mobilen Kommunikationssystemen. CDMA-Mobiltelefone nutzen diese Technologie.

3.5.3 Zugriffskontrolle auf wahlfreie Medienzugriffe

  • Statische Kanalaufteilung: Solange einem Benutzer ein Kanal zugewiesen ist, kommt es zu keinem Konflikt mit anderen Benutzern. Allerdings sind die Kosten dieser Methode zur Kanalaufteilung recht hoch, und es ist wirklich ungeeignet, diese Methode in einem kleinen lokalen Netzwerk zu verwenden.
  • Kanäle dynamisch zuweisen
    • Zufälliger Zugriff: Alle Benutzer können Informationen nach dem Zufallsprinzip nach ihren Wünschen senden, was zu Konflikten (oder Kollisionen) führt und dazu führt, dass alle in Konflikt stehenden Benutzer keine Daten senden. Um die beim Direktzugriff auftretende Kollision zu lösen, wurden Protokolle wie CSMA/CD eingeführt.
    • Kontrollierter Zugriff: Daten können nicht wahllos gesendet werden. Sie müssen etwas erhalten, bevor Sie das Recht haben, Daten zu senden.

Vier Protokolle für Direktzugriff: ALOHA-Protokoll, CSMA-Protokoll, CSMA/CD-Protokoll und CSMA/CA-Protokoll.

Die oben genannten 4 ProtokolleDer Kerngedanke besteht darin, dass der Gewinner durch einen Wettbewerb den Kanal und damit das Recht zum Versenden von Informationen erhalten kann.. Aufgrund dieser Idee hat die Medienzugriffskontrolle mit wahlfreiem Zugriff einen anderen Spitznamen:Konfliktbasiertes Protokoll

  • ALOHA-Vereinbarung

    • Reines ALOHA-Protokoll: Wenn ein Knoten im Netzwerk Daten senden muss, kann er die Daten ohne Erkennung senden. Erfolgt innerhalb einer bestimmten Zeitspanne keine Empfangsbestätigung, geht der Knoten davon aus, dass es bei der Übertragung zu einer Kollision gekommen ist. Der in Konflikt stehende Knoten muss vor dem Senden von Daten eine zufällige Zeitspanne warten, bis die Übertragung erfolgreich ist.
    • Zeitmultiplex-ALOHA-Protokoll: Die Zeit aller Knoten wird in Zeitschlitze (Slots) mit demselben Intervall unterteilt, und es wird festgelegt, dass jeder Knoten nur Daten senden kann, bis der nächste Zeitschlitz eintrifft.
  • CSMA-Protokoll: Jeder Knoten verwendet Carrier-Sensing-Technologie, um vor dem Senden von Daten zu ermitteln, ob der Kommunikationskanal inaktiv ist.

    • 1-Halten Sie sich an CSMA:Wenn der sendende Knoten erkennt, dass der Kanal inaktiv ist, sendet er sofort Daten, andernfalls hört er weiter zu.
    • p-Halten Sie sich an CSMA:Wenn der sendende Knoten erkennt, dass der Kanal inaktiv ist, sendet er Daten mit der Wahrscheinlichkeit p, verzögert sie für einen Zeitraum mit der Wahrscheinlichkeit 1-p und lauscht erneut.
    • Nicht persistenter CSMA:Sobald der sendende Knoten erkennt, dass der Kanal inaktiv ist, sendet er sofort Daten, andernfalls verzögert er eine zufällige Zeitspanne und lauscht dann erneut.
  • CSMA/CD-Protokoll: Carrier Sense Multiple Access Protocol mit Kollisionserkennung

    • Prinzip: Im CSMA-Mechanismus kann es mehrere Knoten geben, die hören, dass der Kanal inaktiv ist, und gleichzeitig mit der Übertragung von Daten beginnen, was zu Konflikten führt. Selbst wenn ein Konflikt vorliegt, muss das CSMA-Protokoll jedoch das Senden der beschädigten Knoten beenden, was die Reduzierung verringert die Busauslastung. Eine verbesserte Lösung für CSMA besteht darin, den Kanal während der Übertragung durch die sendende Station weiterhin zu überwachen, um zu erkennen, ob ein Konflikt vorliegt. Wenn ein Konflikt auftritt, kann die Amplitude des Trägersignals, die das von der sendenden Station selbst gesendete Trägersignal übersteigt, auf dem Kanal erkannt werden. Daraus wird das Vorliegen des Konflikts beurteilt und dann wird das Senden sofort gestoppt (aufgeschoben). (eine zufällige Zeit vor dem Senden) und eine Reihe von Nachrichten wird an den Bus gesendet. Das Blockierungssignal wird verwendet, um andere relevante Stationen auf dem Bus zu benachrichtigen. Wenn jede relevante Station das Blockierungssignal empfängt, sendet sie keine Daten mehr.

    • Arbeitsablauf: Bevor jede Station Daten sendet, muss sie zunächst testen, ob andere Computer Daten senden. Wenn dies der Fall ist, werden die Daten vorübergehend nicht gesendet, um Konflikte zu vermeiden. Wenn nicht, werden die Daten gesendet. Der Computer erkennt, ob beim Senden von Daten ein Konflikt auf dem Kanal vorliegt. Wenn dies der Fall ist, verwendet er einen verkürzten binären exponentiellen Backoff-Algorithmus, um eine zufällige Zeitspanne zu warten, bevor er erneut sendet. Im Allgemeinen kann es wie folgt zusammengefasst werden:Hören Sie zuerst zu und senden Sie dann, hören Sie zu und senden Sie gleichzeitig, beenden Sie das Senden, wenn ein Konflikt auftritt, und senden Sie es nach dem Zufallsprinzip erneut.”。

    • Konkurrenzzeitraum: Ethernet-End-to-End-Round-Trip-Verzögerung (dargestellt durch Fügen Sie hier eine Bildbeschreibung ein
      ), auch Konfliktfenster oder Kollisionsfenster genannt. Nur wenn nach dem Konkurrenzzeitraum kein Konflikt erkannt wird, können wir sicher sein, dass es bei dieser Übertragung nicht zu Konflikten kommt.
      Fügen Sie hier eine Bildbeschreibung ein

      Der binäre exponentielle Backoff-Algorithmus löst das Problem, wie lange eine Site nach der Erkennung eines Konflikts noch wartet.

  • CSMA/CA-Protokoll: CSMA/CA wird hauptsächlich in WLANs verwendet. Es basiert auf CSMAFunktion zur Konfliktvermeidung hinzugefügt. Anforderungen zur KonfliktvermeidungJeder Knoten hört den Kanal ab, bevor er Daten sendet. Wenn der Kanal frei ist, werden Daten gesendet. Nach dem Senden eines Frames muss der sendende Knoten eine gewisse Zeit (Intervall genannt) warten, um zu prüfen, ob die empfangende Partei eine Bestätigung des Frames zurücksendet (was anzeigt, dass das CSMA/CA-Protokoll die korrekt empfangenen Daten bestätigt). Wenn a Wenn eine Bestätigung empfangen wird, bedeutet dies, dass kein Konflikt vorliegt. Innerhalb der angegebenen Zeit wird keine Bestätigung empfangen, was darauf hinweist, dass ein Konflikt auftritt und der Frame erneut übertragen wird.

3.5.4 Zugriffskontrolle für Polling-Zugriffsmedien

Es wird hauptsächlich im Token-Ring-LAN verwendet und wird derzeit nur selten verwendet.

Benutzer können Informationen nicht wahllos senden, sondern eine zentral gesteuerte Überwachungsstation bestimmt die Kanalzuteilung nach einem Abfragevorgang. Ein typisches Polling-Access-Media-Access-Control-Protokoll ist das Token-Passing-Protokoll .

3.6 LAN

3.6.1 Grundlegende Konzepte und Architektur von LAN

Unter Local Area Network (LAN) versteht man mehrere Computer oder andere Kommunikationsgeräte innerhalb eines kleinen Bereichs (z. B. eines Unternehmens), die über Verbindungsmedien wie Twisted-Pair- und Koaxialkabel miteinander verbunden sind, um den Zweck der gemeinsamen Nutzung von Ressourcen und Informationen zu erreichen. Internet.

Die Hauptmerkmale von LAN

  • Das lokale Netzwerk gehört einer Organisation.
  • Begrenzter geografischer Umfang und begrenzte Anzahl von Standorten.
  • Im Vergleich zu früheren Weitverkehrsnetzen ohne Glasfaser verfügen LANs über höhere Datenraten, geringere Verzögerungen und geringere Bitfehlerraten.

Hauptvorteile von LAN

  • Mit der Broadcast-Funktion kann problemlos von einem Standort aus auf das gesamte Netzwerk zugegriffen werden. Hosts im LAN können verschiedene mit dem LAN verbundene Hardware- und Softwareressourcen gemeinsam nutzen.
  • Um die Erweiterung und Weiterentwicklung des Systems zu erleichtern, kann der Standort jedes Geräts flexibel angepasst und geändert werden.
  • Verbesserte Systemzuverlässigkeit und -verfügbarkeit.
  • Jede Station hat eine gleichberechtigte Beziehung und keine Master-Slave-Beziehung.

Wichtigste technische Elemente des lokalen Netzwerks

  • Netzwerktopologie – bestimmt die technischen Eigenschaften des lokalen Netzwerks
  • Übertragungsmedien und Medienzugriffskontrollmethoden

Die Haupttopologie von LAN

  • Sternennetzwerk
  • Ringnetzwerk
  • Busnetz
  • Baumnetz

Das Hauptübertragungsmedium von LAN

  • verdrilltes Paar
  • Kupferkabel
  • Glasfaser

Steuerungsverfahren für das Hauptzugangsmedium eines lokalen Netzwerks

  • CSMA/CD – wirkt auf das Busnetzwerk
  • Token-Bus – für Busnetzwerke
  • Token Ring – funktioniert in Ringnetzwerken

3.6.2 Funktionsweise von Ethernet

Ethernet ist mit Abstand das erfolgreichste LAN-Produkt der Welt.

Ethernet-EinführungBus-Topologie, alle Computer teilen sich einen Bus,Nachrichten werden als Broadcasts versendet. Um den Komfort und die Zuverlässigkeit der Datenkommunikation zu gewährleisten,Ethernet nutzt die CSMA/CD-TechnologieKontrollieren Sie den Zugriff auf den Bus.

Angesichts der guten Qualität des LAN-Kanals hat Ethernet die folgenden zwei wichtigen Maßnahmen ergriffen, um die Kommunikation zu vereinfachen.

  • Nehmen Sie den verbindungslosen Arbeitsmodus an.
  • Die gesendeten Datenrahmen sind nicht nummeriert und es ist keine Bestätigung an den Absender erforderlich.

Die von Ethernet bereitgestellten Dienste sindunzuverlässiger ServiceDas heißt, die bestmögliche Zustellung und Fehlerkorrektur wird von TCP auf der Transportschicht durchgeführt.

Ethernet verfügt über einen Neuübertragungsmechanismus

3.6.3 Ethernet-MAC-Frame

Jeder Computer in einem lokalen Netzwerk hat eine eindeutige Nummer, genannt MAC-Adresse oder physische Adresse, Hardware-Adresse.

Da auf dem Bus Broadcast-Kommunikation verwendet wird, muss die Netzwerkkarte jedes Mal, wenn sie einen MAC vom Netzwerk empfängt, zunächst mithilfe der Hardware die MAC-Adresse im MAC überprüfen. Wenn sie an die lokale Station gesendet wird, wird sie akzeptiert, andernfalls es wird verworfen.

Fügen Sie hier eine Bildbeschreibung ein

MAC-Rahmenkomponenten

  • Präambel: Fügen Sie 8B vor der Präambel ein, um die Uhren des Empfangsendes und des Sendeendes zu synchronisieren. Dieser 8B kann in zwei Teile unterteilt werden: Präambel (7B) und Startbegrenzer (1B).

    Für MAC ist kein Abschlusswiderstand erforderlich, da bei der Übertragung von Frames über Ethernet eine gewisse Lücke zwischen ihnen bestehen muss. Solange das empfangende Ende den Frame-Startbegrenzer findet, gehören daher die nachfolgenden Bitströme, die danach ankommen, alle zum selben MAC

  • Zieladresse und Quelladresse: Beide verwenden 48-Bit (6B) MAC-Adressen.

    Das Adressfeld besteht aus zwei Teilen: der Zieladresse und der Quelladresse. Das Adressfeld vorne ist die Zieladresse und das Adressfeld hinten die Quelladresse.

    Für das Zieladressfeld gelten weitere Vorschriften, da ein Frame an eine bestimmte Workstation, eine Gruppe von Workstations oder alle Workstations gesendet werden kann. Daher werden die beiden letztgenannten Fälle genanntMulticast-Frames und Broadcast-Frames

    • Wenn die letzte Ziffer der ersten 8 Bits der Zieladresse „0“ ist, bedeutet dies, dass sie an eine bestimmte Arbeitsstation gesendet werden soll (aus diesem Grund lautet die letzte Ziffer der ersten 8 Bits des Quelladressfelds immer „ 0"), also das sogenannteEinzelstationsadresse
    • Wenn die letzte Ziffer der ersten 8 Bits der Zieladresse „1“ ist und der Rest nicht alle „1“ ist, bedeutet dies, dass sie an eine Gruppe von Arbeitsstationen gesendet wird, die sogenannteMulticast-Adresse
    • Wenn die letzte Ziffer der ersten 8 Bits der Zieladresse „1“ ist und der Rest alle „1“ ist, bedeutet dies, dass sie an alle Workstations gesendet wird, was die sogenannteBroadcastadresse
  • Typ:Buchhaltung für 2B, die angibt, welcher Protokollentität die im Datenfeld enthaltenen Daten zur Verarbeitung übergeben werden sollen.

  • Daten:Buchhaltung für 46~1500B. Woher kommen 46 und 1500? Erstens beträgt die kürzeste Rahmenlänge des Ethernet-Rahmens gemäß dem CSMA/CD-Algorithmus 64 B und die Länge des MAC-Headers und -Endes beträgt 18 B, sodass die kürzesten Daten 64 B betragen. 18B=46B. Zweitens wird das Maximum von 1500B ohne Grund angegeben.

  • Auffüllung: Wie bereits erwähnt, beträgt die Mindestlänge aufgrund der Beschränkung des CSMA/CD-Algorithmus 64 B. Daher ist, mit Ausnahme des Headers 18 B, wenn die Datenlänge weniger als 46 B beträgt, eine Auffüllung erforderlich, um die Rahmenlänge nicht zu verkürzen als 64B. Wenn die Länge des Datenfelds weniger als 46 B beträgt, muss es auf 46 B aufgefüllt werden. Wenn die Länge des Datenfelds größer oder gleich 46 B ist, ist kein Auffüllen erforderlich. Daher reicht die Länge der Fülldaten von0~46B

  • Prüfcode (FCS):Buchhaltung für 4BVerwenden Sie den zyklischen RestcodeEs muss nicht nur der Datenteil des MAC überprüft werden, sondern auch die Zieladresse, die Quelladresse und das Typfeld, die Präambel wird jedoch nicht überprüft.

Die Unterschiede zwischen dem 802.3-Format und dem DIX-Ethernet-Frame-Format:

  1. Frame-Start-Flag: Kompatibel mit 802. und 802.5.
  2. Längenfeld: ersetzt das Typfeld in DIX und gibt die Länge des Datenfelds an.

3.6.4 Ethernet-Übertragungsmedien

Fügen Sie hier eine Bildbeschreibung ein

3.6.5 Fast Ethernet

Im Allgemeinen wird Ethernet, dessen Datenübertragungsrate 100 Mbit/s erreicht oder überschreitet, als Hochgeschwindigkeits-Ethernet bezeichnet.

  • 100Base-T-Ethernet (Fast Ethernet): Ein Ethernet mit Sterntopologie, das 100-Mbit/s-Basisbandsignale auf verdrillten Paaren unter Verwendung des CSMA/CD-Protokolls überträgt.Arbeiten Sie im VollduplexmodusWenn kein Konflikt auftritt, besteht zu diesem Zeitpunkt keine Notwendigkeit, das CSMA/CD-Protokoll zu verwenden.Arbeiten Sie im Halbduplex-ModusDas CSMA/CD-Protokoll muss weiterhin verwendet werden.
    • Um die Datenübertragungsrate zu erhöhen, behält 100Base-T-Ethernet die kürzeste Frame-Länge bei, reduziert jedoch die maximale Kabellänge eines Netzwerksegments auf 100 m und das Zeitintervall zwischen Frames wird von ursprünglich 9,6 ms auf aktuell geändert 0,96 ms.
  • Gigabit Ethernet (Gigabit Ethernet): Wenn Gigabit Ethernet im Halbduplexmodus arbeitet, muss zur Konflikterkennung das CSMA/CD-Protokoll verwendet werden.
    • Ermöglicht das Arbeiten sowohl im Vollduplex- als auch im Halbduplex-Modus mit 1 Gbit/s
    • Verwenden Sie das CSMA/CD-Protokoll im Halbduplex-Modus (das CSMA/CD-Protokoll ist im Vollduplex-Modus nicht erforderlich).
    • Wenn Sie die Datenübertragungsrate erhöhen möchten, können Sie nur die maximale Kabellänge verringern oder die minimale Rahmenlänge erhöhen, sodass die Kanalauslastung relativ hoch ist.
  • 10-Gigabit-Ethernet
    • Das im IEEE 802.3-Standard festgelegte Ethernet-Format, die minimale Frame-Länge und die maximale Frame-Länge werden für eine einfache Aktualisierung beibehalten.
    • Kupferdrähte werden nicht mehr verwendet und als Übertragungsmedium kommt nur noch Glasfaser zum Einsatz.
    • Funktioniert nur im Vollduplex-ModusDaher gibt es keine Konfliktprobleme und das CSMA/CD-Protokoll wird nicht verwendet.

Eigenschaften von Ethernet

  • Skalierbar (10 Mbit/s ~ 10 Gbit/s).
  • Flexibel (mehrere Übertragungsmedien, Voll-/Halbduplex, Sharing/Switching).
  • Einfach zu installieren.
  • Gute Robustheit.

3.6.6 WLAN

IEEE 802.11 ist der Protokollstandard für WLAN, einschließlich IEEE 802.11a und IEEE 802.11b.

Die Zusammensetzung von WLAN

  • Verfügen über eine feste Infrastruktur
    • Die Mindestkomponente ist das Basic Service Set (BSS)
    • Ein Basisdienstset umfasst eine Basisstation und mehrere Mobilstationen. Alle Stationen können direkt innerhalb des BSS kommunizieren, müssen jedoch bei der Kommunikation mit Stationen außerhalb des BSS die Basisstation des BSS passieren. Daher wird die Basisstation im BSS als Access Point (AP) bezeichnet.
    • Ein Basisdienstsatz kann isoliert werden oder über einen Zugangspunkt mit einem Backbone-Verteilungssystem (Distribution System, DS) verbunden und dann mit einem anderen Basisdienstsatz verbunden werden, um einen erweiterten Dienstsatz (ESS) zu bilden.
  • Keine feste Infrastruktur (autonomes Netzwerk)
    • Das autonome Netzwerk verfügt nicht über einen zentralen Zugangspunkt für die oben genannten Basisdienste, sondern ist ein temporäres Netzwerk, das aus einigen gleichberechtigten Mobilstationen besteht, die miteinander kommunizieren. Diese Mobilstationen haben alle die Funktion von Routern.

Physikalische Schicht im IEEE 802.11-Standard

Die physikalische Schicht im IEEE802.11-Standard verfügt über die folgenden drei Implementierungsmethoden.

  • Frequenzsprung-Spreizspektrum (FHSS)
  • Direktsequenzspreizspektrum (DSS).
  • Infrarot (IR)

MAC-Schicht im IEEE802.11-Standard

Die MAC-Schicht liegt über der physikalischen Schicht und umfasst von unten nach oben zwei Unterschichten:

  • Verteilte Koordinationsfunktion (DCF)
  • Unterschicht der Punktkoordinationsfunktion (PCF).

Da es zu teuer ist, das CSMA/CD-Protokoll zur Konflikterkennung in WLANs zu verwenden, und Konflikte auch dann auftreten können, wenn die Konflikterkennung anzeigt, dass der Kanal inaktiv ist, wird in der MAC-Schicht von das CSMA/CA-Protokoll mit Kollisionsvermeidungsfunktion verwendet das drahtlose LAN. , und fügte auch einen Bestätigungsmechanismus hinzu.

3.6.7 Funktionsweise des Token-Netzwerks

Fügen Sie hier eine Bildbeschreibung ein

Beim Token Ring werden Knoten über Ringschnittstellen zu einem physischen Ring verbunden. Der Token ist ein spezieller MAC-Kontrollrahmen mit einem Token-Token (Frei/Gebucht) im Rahmen. Tokens werden immer Station für Station in eine Richtung entlang des physischen Rings übertragen,Die Reihenfolge der Übertragung entspricht der Reihenfolge, in der die Knoten im Ring angeordnet sind.

Der Übertragungsprozess von Token und Daten im Token Ring-Netzwerk:

  • Wenn das Netzwerk inaktiv ist, werden in der Schleife nur Token durch das Netzwerk weitergeleitet.
  • Das Token wird an den Knoten übergeben, der Daten zu senden hat, und der Knoten ändert ein Flag-Bit im Token und hängt dann die Daten an, die er zum Senden benötigt, an das TokenKonvertiert das Token in einen Datenrahmen, sendet der Quellknoten diesen Datenrahmen.
  • Der Datenrahmen wird über den Ring weitergeleitet und der empfangende Knoten leitet die Daten weiter, während er die Zieladresse des Rahmens überprüft. Wenn die Zieladresse mit seiner eigenen Adresse übereinstimmt, kopiert der empfangende Knoten den Datenrahmen zur weiteren Verarbeitung.
  • Der Datenrahmen wird entlang des Rings übertragen, bis er den Quellknoten des Rahmens erreicht. Der Quellknoten empfängt den von ihm gesendeten Datenrahmen und leitet ihn nicht mehr weiter. Gleichzeitig kann der Quellknoten den zurückgegebenen Datenrahmen überprüfen, um festzustellen, ob bei der Datenübertragung Fehler aufgetreten sind. Wenn Fehler auftreten, übertragen Sie den Rahmen erneut.
  • Nachdem der Quellknoten die Übertragung der Daten abgeschlossen hat, generiert er ein Token neu und übergibt das Token an den nächsten Standort, um die Berechtigung zum Senden von Datenrahmen aufzugeben.

3.7 WAN

3.7.1 Grundkonzepte von WAN

Bezieht sich auf ein Fernnetz, das ein weites Gebiet abdeckt (weit über die Grenzen einer Stadt hinaus).Ein WAN besteht aus Knoten-Switches und den diese Switches verbindenden Verbindungen. Der Knotenschalter übernimmt die Funktion der Paketspeicherung und -weiterleitung

InternetObwohl die Abdeckung ebenfalls sehr groß ist, wird es im Allgemeinen nicht als Weitverkehrsnetz bezeichnet. Denn bei dieser Art von Netzwerk ist die „Verbindung“ verschiedener Netzwerke (die lokale Netzwerke oder Weitverkehrsnetzwerke sein können) das wichtigste Merkmal.Normalerweise über einen Router verbunden

Ein WAN ist nur ein einzelnes Netzwerk,EsVerbinden Sie sich über einen KnotenschalterJeder GastgeberIch verwende keinen RouterStellen Sie eine Verbindung zu verschiedenen Netzwerken her.

Fügen Sie hier eine Bildbeschreibung ein

Die von LAN verwendeten Protokolle befinden sich hauptsächlich auf der Datenverbindungsebene, während die von WAN verwendeten Protokolle hauptsächlich auf der Netzwerkebene angesiedelt sind.

3.7.2 PPP

Fügen Sie hier eine Bildbeschreibung ein

PPP besteht im Wesentlichen aus den folgenden drei Teilen:

  • Eine Methode zum Kapseln von IP-Datagrammen auf einer seriellen Verbindung.

  • Ein Link Control Protocol (LCP). Es dient dazu, Datenverbindungsverbindungen aufzubauen, zu konfigurieren, zu testen und freizugeben, wenn sie nicht mehr benötigt werden.

  • Eine Reihe von Network Control Protocols (NCP). Jedes Protokoll unterstützt verschiedene Netzwerkschichtprotokolle und wird zum Einrichten und Konfigurieren verschiedener Netzwerkschichtprotokolle verwendet.

  • Flag-Feld (F): Header und Tail belegen jeweils 1 Byte, angegeben als Ox7E.

  • Adressfeld (A): belegt 1 Byte, angegeben als 0xFF.

  • Kontrollfeld (C): belegt 1 Byte, angegeben als Ox03.

  • Protokollfeld: 2 Bytes. Wenn das Protokollfeld beispielsweise 0x0021 ist, ist das PPP-Informationsfeld das IP-Datagramm. Wenn es 0xC021 ist, enthält das Informationsfeld PPP-Verbindungssteuerungsdaten. Wenn es 0x8021 ist, bedeutet dies, dass es sich um Netzwerksteuerungsdaten handelt
    .

  • Informationsteil: 0-1500 Bytes. Warum nicht 46~1500 Bytes? WeilPPP ist ein Punkt-zu-Punkt-Typ, kein Bustyp,AlsoEs besteht keine Notwendigkeit, das CSMA/CD-Protokoll zu übernehmen, und natürlich gibt es kein kürzestes Protokoll. Wenn im Datenteil außerdem dieselbe Bitkombination wie das Flag-Bit erscheint, müssen einige Maßnahmen ergriffen werden, um eine transparente Übertragung zu erreichen (Byte-Stuffing-Methode).

  • Prüfsequenz (FCS): belegt 2 Bytes, was den Restcode bei der zyklischen Restcodeprüfung darstellt. Das Überprüfungsintervall umfasst Adressfeld, Kontrollfeld, Protokollfeld und Informationsfeld.

Zusammenfassen:

  • PPP ist ein byteorientiertes Protokoll.
  • Von PPP nicht benötigte Funktionen: Fehlerkorrektur (PPP ist lediglich für die Fehlererkennung verantwortlich), Flusskontrolle (verantwortlich durch TCP), Sequenznummer (PPP ist ein unzuverlässiges Übertragungsprotokoll, daher müssen Frames nicht nummeriert werden.), Mehrpunktlinien (PPP ist eine Punkt-zu-Punkt-Kommunikationsmethode), Halbduplex oder Simplex (PPP unterstützt nur Vollduplex-Verbindungen)。

3.7.3 HDLC-Protokoll

Grundfunktionen:

  • Bitorientiert.
  • Für Links gelten zwei Grundkonfigurationen: unsymmetrisch und ausgeglichen.
    • Das Merkmal einer unsymmetrischen Konfiguration besteht darin, dass eine Masterstation den Betrieb der gesamten Verbindung steuert.
    • Das Merkmal einer ausgewogenen Konfiguration besteht darin, dass die beiden Stationen an beiden Enden der Verbindung Verbundstationen sind. Jede Verbundstation kann die Datenübertragung gleichermaßen ohne die Erlaubnis der anderen Verbundstation initiieren.

Fügen Sie hier eine Bildbeschreibung ein

  • Flag-Feld (F): 8 Bit, „01111110“, mit einer „0“ am Anfang und Ende als Rahmengrenze. Um „01111110“ zwischen zwei Flagfeldern F zu verhindern, verwendet HDLCMethode zum Markieren von Kopf und Schwanz mit Meißelstopfen. Wenn einem Bitstrom keine Steuerinformationen hinzugefügt werden, wird der gesamte Frame gescannt und solange 5 aufeinanderfolgende „1“ gefunden werden, wird sofort eine „0“ eingefügt.
  • Adressfeld (A): 8 Bit. Wenn der unsymmetrische Modus zur Datenübertragung verwendet wird, ist es die Adresse der Sekundärstation; wenn der symmetrische Modus zur Datenübertragung verwendet wird, ist es die Adresse der Bestätigungsstation. Alle „1“ bedeuten Broadcast-Modus, alle „0“ bedeuten ungültige Adresse.
  • Kontrollfeld ©: belegt 8 Bit,Das komplexeste FeldViele wichtige Funktionen von HDLC werden durch Kontrollfelder implementiert. Entsprechend dem Wert der ersten beiden Ziffern kann HDLC in drei Kategorien unterteilt werden: Informationsrahmen (I-Rahmen), Überwachungsrahmen (S-Rahmen) und nicht nummerierte Rahmen (U-Rahmen).
    • Informationsrahmen werden zur Übertragung von Dateninformationen oder zur Bestätigung und Beantwortung von Daten mithilfe der Huckepack-Technologie verwendet.
    • Überwachungsrahmen werden zur Flusskontrolle und Fehlerkontrolle verwendet und führen Funktionen wie die Bestätigung von Informationsrahmen, die Anforderung einer erneuten Übertragung und die Anforderung einer Aussetzung der Übertragung aus.
    • Nicht nummerierte Frames werden verwendet, um Verbindungsaufbau, -abbau und verschiedene Steuerfunktionen bereitzustellen.
  • Informationsfeld (Info): Beliebige Länge, speichert Protokolldateneinheiten aus der Netzwerkschicht.
  • Frame Check Sequence (FCS): belegt 16 Bits, was den Restcode bei der zyklischen Restcodeprüfung darstellt. Das Testintervall umfasst Adressfelder, Kontrollfelder und Informationsfelder.

Der Unterschied zwischen PPP-Frames und HDLC-Protokoll-Frames

  • PPP ist byteorientiert und das HDLC-Protokoll ist bitorientiert.
  • PPP verwendet Byte-Stuffing, HDLC verwendet Bit-Stuffing
  • PPP-Protokollrahmen haben ein Protokollfeld mehr als HDLC-Protokollrahmen.
  • PPP verwendet keine Sequenznummern und Bestätigungsmechanismen und gewährleistet lediglich einen fehlerfreien Empfang. HDLC verwendet Nummerierungs- und Bestätigungsmechanismen.

3.8 Ausrüstung der Datenverbindungsschicht

3.8.1 Konzept und Grundprinzipien der Netzwerkbrücke

Zur Erweiterung des LANs auf der physikalischen Ebene kommen Repeater und Hubs zum Einsatz.

Die Nachteile sind wie folgt:

  • Der Kollisionsbereich wird vergrößert, ohne den Gesamtdurchsatz zu verbessern.
  • LANs mit unterschiedlichen Ethernet-Technologien können nicht miteinander verbunden werden

Bei der Erweiterung des LAN auf der Datenverbindungsschicht werden Bridges verwendet

Die Brücke arbeitet auf der Datenverbindungsschicht und istVerfügt über die Funktion zum Filtern von Frames. Eine Netzwerkbrücke verfügt über mindestens zwei Ports und jeder Port ist mit einem Netzwerksegment verbunden. Jedes Mal, wenn die Bridge einen Frame von einem Port empfängt, wird dieser vorübergehend im Cache gespeichert. Wenn im Frame kein Fehler vorliegt und die MAC-Adresse der Zielstation, an die er gesendet wird, zu einem anderen Netzwerksegment gehört (Das gleiche Netzwerksegment muss nicht weitergeleitet werden und sollte verworfen werden.),AberDurch Nachschlagen der Weiterleitungstabelle, senden Sie den Frame vom entsprechenden Port. Daher werden Frames, die nur im selben Netzwerksegment übertragen werden, von der Bridge nicht an ein anderes Netzwerksegment weitergeleitet, wodurch sich die Belastung des gesamten Netzwerks nicht erhöht.

Fügen Sie hier eine Bildbeschreibung ein

Vorteile von Brücken:

  • Filtern Sie den Verkehr.
  • Erweiterte physische Reichweite.
  • Verbesserte Zuverlässigkeit.
  • Es kann Ethernet-Netzwerke mit unterschiedlichen physikalischen Schichten, unterschiedlichen MAC-Unterschichten und unterschiedlichen Geschwindigkeiten (z. B. 10 Mbit/s und 100 Mbit/s) verbinden.

Nachteile von Brücken:

  • Store-and-Forward erhöht die Latenz.
  • In der MAC-Unterschicht gibt es keine Flusskontrollfunktion.
  • Die Latenz ist größer, wenn Netzwerksegmente mit unterschiedlichen MAC-Unterschichten miteinander verbunden werden.
  • Netzwerkbrücken eignen sich nur für LANs mit einer geringen Anzahl von Benutzern (nicht mehr als ein paar Hundert) und einem geringen Verkehrsaufkommen. Andernfalls kann es aufgrund der Ausbreitung von zu viel Netzwerk manchmal zu einer Überlastung des Netzwerks, d. h. einem Broadcast-Sturm, kommen Broadcast-Informationen.

3.8.2 Klassifizierung von Netzwerkbrücken

  • Transparente Brücke (Die gewählte Route ist nicht die beste

    „Transparent“ bedeutet, dass dies für Websites im lokalen Netzwerk nicht der Fall istEs ist nicht bekannt, welche Brücken der gesendete Frame passieren wird, da die Brücken für jede Station unsichtbar sind.. Die transparente Bridge ist ein Plug-and-Play-Gerät. Das heißt, solange die Bridge mit dem LAN verbunden ist, kann die Bridge ohne manuelle Konfiguration der Weiterleitungstabelle arbeiten.

    • Wie lernt die Brücke selbstständig?

      • Nach Erhalt eines Rahmens zuerst die BrückeSelbststudiumSuchen Sie in der Weiterleitungstabelle nach einem Eintrag, der mit der Quelladresse des empfangenen Frames übereinstimmt. Wenn nicht, fügen Sie der Weiterleitungstabelle ein Element (Quelladresse, Eingangsschnittstelle und Zeit) hinzu. Wenn ja, aktualisieren Sie das ursprüngliche Element.
      • Vorwärtsrahmen. Prüfen Sie, ob in der Weiterleitungstabelle ein Eintrag vorhanden ist, der mit der Zieladresse des empfangenen Frames übereinstimmt.Wenn nicht, leiten Sie über alle anderen Schnittstellen weiter, mit Ausnahme der Schnittstelle, die in die Bridge eintrittWenn ja, leiten Sie entsprechend der in der Weiterleitungstabelle angegebenen Schnittstelle weiter.Wenn die in der Weiterleitungstabelle angegebene Schnittstelle die Schnittstelle ist, über die der Frame in die Bridge gelangt, sollte der Frame verworfen werden (da er zu diesem Zeitpunkt nicht über die Bridge weitergeleitet werden muss).
  • Source Routing Bridge (wählt die beste Route aus)

    Bei einer Quell-Routing-Brücke ist die Quellstation, die den Datenrahmen sendet, für die Routenauswahl verantwortlich, und die Brücke empfängt und leitet den Rahmen nur basierend auf den Routing-Informationen im Datenrahmen weiter.

    Um die passende Route zu finden,Die Quellstation sendet zunächst einen Übertragungsrahmen an die Zielstation, um im Broadcast-Modus zu kommunizieren. Der gesendete Frame wird über alle möglichen Routen im gesamten LAN übertragen und die gewählten Routen werden aufgezeichnet. Wenn der gesendete Frame die Zielstation erreicht, kehrt er auf dem ursprünglichen Pfad zur Quellstation zurück. Nachdem die Quellstation diese Routen gelernt hat, wählt sie aus allen möglichen Routen die beste Route aus.

    Neben der Bestimmung der besten Route kann durch das Senden von Frames auch die maximale Länge von Frames ermittelt werden, die das gesamte Netzwerk passieren können .

    Die in transparenten Bridges und Source-Routing-Bridges genannte beste Route ist nicht unbedingt die Route, die über die wenigsten Router führt, sondern kann auch die Route mit der kürzesten Roundtrip-Zeit zum Senden von Frames sein, sodass ein Lastausgleich wirklich erreicht werden kann. Da die Umlaufzeit lang ist, bedeutet dies, dass einer der Router in der Mitte möglicherweise überlastet ist. Nehmen Sie daher anstelle dieser Route eine andere Route mit einer kürzeren Umlaufzeit.

    3.8.3 LAN-Switch und sein Funktionsprinzip

    Ein LAN-Switch ist im Wesentlichen eine Multi-Port-Brücke, die auf der Datenverbindungsebene arbeitet. Jeder Port eines LAN-Switches ist direkt mit dem Host oder Hub verbunden und arbeitet grundsätzlich im Vollduplex-Modus. Wenn ein Host kommunizieren muss, kann der Switch viele Portpaare gleichzeitig verbinden, sodass jedes miteinander kommunizierende Hostpaar Daten ohne Konflikte übertragen kann, als wäre es ein exklusives Kommunikationsmedium, und die Verbindung nach der Kommunikation trennen kann vollendet.

Berechnungsmethode der gesamten Switch-Kapazität :

  • Anzahl der Ports x Bandbreite pro Port (Halbduplex).
  • Anzahl der Ports x Bandbreite pro Port x2 (Vollduplex).

Zwei Schaltmodi des Schalters:

  • Cut-Through-Schaltung:Überprüfen Sie nur die Zieladresse des Frames, wodurch der Frame unmittelbar nach dem Empfang weitergeleitet werden kann. Diese Methode ist zwar schnell, aber nicht ausreichend sicher und unterstützt das Umschalten von Ports mit unterschiedlichen Geschwindigkeiten nicht.
  • Store-and-Forward-Switching: Speichern Sie zunächst den empfangenen Frame im Cache und prüfen Sie, ob die Daten korrekt sind. Nachdem Sie bestätigt haben, dass sie korrekt sind, durchsuchen Sie die Weiterleitungstabelle und leiten Sie den Frame vom abgefragten Port weiter. Wenn festgestellt wird, dass der Frame Fehler aufweist, wird er verworfen. Der Vorteil des Store-and-Forward-Switching besteht darin, dass es eine hohe Zuverlässigkeit aufweist und die Konvertierung zwischen Ports mit unterschiedlichen Geschwindigkeiten unterstützen kann. Der Nachteil besteht darin, dass es eine große Verzögerung aufweist.
  • Fragmentfreie Weiterleitung: Der Switch leitet das Datagramm weiter, nachdem er die ersten 64 Bytes erhalten hat. Bei Datagrammen, die kleiner als 64 Bytes sind, betrachtet der Switch sie als Fragmente und leitet sie nicht weiter. . Diese Methode vermeidet nicht nur das Problem der langsamen Speicher- und Weiterleitungsgeschwindigkeit, sondern auch das Problem der Fragmentierung bei der Cut-Through-Weiterleitung.

So funktioniert ein LAN-Switch

Ähnlich einer Bridge erkennt es die Quell-MAC-Adresse und die Ziel-MAC-Adresse von Frames, die von einem bestimmten Port in den Switch eingehen, und vergleicht sie dann mit der dynamischen Nachschlagetabelle im System. Wenn die MAC-Adresse des Datagramms nicht in der Suche enthalten ist Tabelle wird die Adresse zur Nachschlagetabelle hinzugefügt. Tabelle und senden Sie das Datagramm an den entsprechenden Zielport.

3.8.4 Broadcast-Domäne, Kollisionsdomäne und Zusammenfassung der Ausrüstung auf jeder Ebene

Wenn eine Netzwerkkarte Informationen sendet, bilden diese möglicherweise in Konflikt stehenden Netzwerkkarten eine Konfliktdomäne, solange sie mit einer anderen Netzwerkkarte in Konflikt stehen kann.

Eine Netzwerkkarte sendet einen Broadcast, und die Gruppe aller Netzwerkkarten, die den Broadcast empfangen können, wird Broadcast-Domäne genannt.

Im Allgemeinen ist ein Netzwerksegment eine Kollisionsdomäne und ein LAN eine Broadcast-Domäne.

Ausrüstung der physikalischen Schicht

  • Repeater: Reorganisiert die gedämpften und unvollständigen Signale, um vollständige Signale wiederherzustellen, bevor die Übertragung fortgesetzt wird.Sowohl Verstärker als auch Repeater verstärken Signale, aber Verstärker verstärken analoge Signale, während Repeater digitale Signale verstärken.
  • Hub: Ein Repeater ist der Vorgänger eines gewöhnlichen Hubs. Ein Hub ist eigentlich ein Multi-Port-Repeater.

Ausrüstung für die Datenverbindungsschicht

  • Switch: Ein Switch wird auch Switching Hub genannt. Er generiert Informationen neu und leitet sie nach interner Verarbeitung an bestimmte Ports weiter. Er verfügt über automatische Adressierungsfunktionen und Switching-Funktionen. Da der Switch jedes Datagramm entsprechend der Zieladresse des übertragenen Datagramms unabhängig vom Quellport an den Zielport sendet, werden Kollisionen mit anderen Ports vermieden. Einfach ausgedrückt: Wenn ein Host, der an einen bestimmten Port des Switches angeschlossen ist, mit einem Host kommunizieren möchte, der an einen anderen Port angeschlossen ist, sendet der Switch die Nachricht über die Weiterleitungstabelle an diesen Port. Es ist unmöglich, zu anderen Ports zu wechseln. Dort Es gibt keinen falschen Port (falschen Anruf), daher ist jeder Port des Switches eine Kollisionsdomäne, d. h.Switches können Konfliktdomänen isolieren.

Fügen Sie hier eine Bildbeschreibung ein

Ausrüstung auf Netzwerkebene

  • Router: Ein Router sendet Daten von einem Netzwerk an ein anderes.

    Konfliktdomänen können isoliert werden
    Fügen Sie hier eine Bildbeschreibung ein

Ich denke du magst

Origin blog.csdn.net/pipihan21/article/details/129493068
Empfohlen
Rangfolge