VORWORT... II INHALTSVERZEICHNIS...IV 1 EINLEITUNG LAN (LOCAL AREA NETWORK)

Vorwort Vorwort Die vorliegende Arbeit entstand während meiner Tätigkeit als Stipendiat der Friedrich Naumann Stiftung am Lehrstuhl für Nachrichtent...
Author: Heinz Geier
14 downloads 0 Views 2MB Size
Vorwort

Vorwort Die vorliegende Arbeit entstand während meiner Tätigkeit als Stipendiat der Friedrich Naumann Stiftung am Lehrstuhl für Nachrichtentechnik des Fachbereichs Elektrotechnik und Informationstechnik an der Bergische Universität-Gesamthochschule Wuppertal Für die Übername der Betreuung des Themas, sowie für die wertvolle Unterstützung bei der Abfassung dieser Arbeit danke ich sehr herzlich meinem Doktorvater Professor Dr. -Ing. habil. U. E. Kraus, der mir mit vielen anregenden wissenschaftlichen Diskussionen zur Seite stand. Ich möchte Herrn Professor Kraus zudem meinem Dank auch dafür aussprechen, dass er mir stets Freiraum zur Beschäftigung mit der Thematik eingeräumt hat. Herrn Professor em. Dr. rer. nat. Dr. h.c. F.J. In der Smitten und PD. Dr. -Ing. habil. R. Möller danke ich ganz herzlich für ihre lebhaftes Interesse und die Übernahme des Korreferates. Zur Gelingen der Arbeit hat in besonderem Masse das gute Klima in unserer Arbeitsgruppe beigetragen. Ich bedanke mich bei Herrn Dipl. –Ing. W. Förster für sehr kollegiale Zusammenarbeit und der immerwährenden Hilfsbereitschaft. Auch der Kollegin Faru Dipl. -Ing. M. Coral, und Kollegen Herrn Dr. -Ing. D. Gaschler, Herrn Dipl. -Ing. A. El-Bardawil, Herrn Dipl. -Ing. S. Mondwurf danke ich für freundliche und hilfsreiche Unterstützung. Für gefällige Unterstützung bedanke ich mich auch sehr bei der Sekretärin, Frau Ursula Hinnenberg und dem Techniker Herrn Hans Hogefeld. Ebenso danke ich der Friedrich Naumann Stiftung, die durch eine unentwegte Unterstützung zur dieser Arbeit beitragen hat. Abschließend möchte ich mich bei meiner lieben Frau Lumturije bedanken, da ohne Ihren Rückhalt die vorliegende Dissertation so nicht hätte entstehen können.

II

Vorwort

III

Inhaltsverzeichnis

Inhaltsverzeichnis

VORWORT ................................................................................................................. II INHALTSVERZEICHNIS ...........................................................................................IV 1 EINLEITUNG ........................................................................................................... 2 2. LAN (LOCAL AREA NETWORK) .......................................................................... 6 2.1 TOPOLOGISCHE STRUKTUREN

VON LANS ........................................................................6

2.1.1 Sterntopologie............................................................................................................6 2.1.2 Bustopologie ..............................................................................................................7 2.1.3 Ringtopologie.............................................................................................................8 2.1.4 Baumtopologie...........................................................................................................9 2.2 ÜBERTRAGUNGSMEDIUM .................................................................................................10 2.3 ÜBERTRAGUNGSTECHNOLOGIE........................................................................................10 2.4 ZUGRIFFSVERFAHREN IN LANS .......................................................................................12 2.4.1 CSMA/CD-Zugriffsverfahren...................................................................................12 2.4.2 Token-Passing Zugriffsverfahren ............................................................................14 2.4.3 Token-Bus Zugriffsverfahren...................................................................................15 2.5 HOCHGESCHWINDIGKEIT LANS ......................................................................................16 2.6 LOGISCHE STRUKTUR VON LANS ....................................................................................17 2.6.1 LAN-Kommunikationsprotokolle .............................................................................20 2.7 ADRESSIERUNG IN LANS.................................................................................................21 2.8 DRAHTLOSE LANS ..........................................................................................................22 2.9 INTEGRATED SERVICE LAN-ISLAN ...............................................................................24 2.10 MAN-DQDB ................................................................................................................26 3 ATM (ASYNCHRONOUS TRANSFER MODE)..................................................... 28 3.1 ATM-ÜBERMITTLUNGSVERFAHREN ................................................................................29 3.1.1 ATM-Zellen Multiplexverfahren ..............................................................................29 3.2 KONZEPT DER VIRTUELLEN PFADE VP ............................................................................32 3.3 ATM-ZELLENVERMITTLUNG ...........................................................................................33 3.4 REFERENZMODELL FÜR ATM..........................................................................................34

IV

3.5 PHYSIKALISCHE SCHICHT ...............................................................................................36 3.6 ATM–SCHICHT ...............................................................................................................38 3.6.1 Aufbau des ATM-Zellkopfs ......................................................................................39 3.7 ATM-ANPASSUNGSSCHICHT (AAL) ...............................................................................41 3.8 VERKEHRSTYPEN IN ATM–NETZEN ................................................................................43 3.9 QUALITY OF SERVICE (QOS) PARAMETER IN ATM-NETZEN ...........................................44 3.9.1 Zellverlustraterate (CLR) ........................................................................................45 3.9.2 Zellverzögerung (CTD)............................................................................................45 3.9.3 Schwankung der Zellverzögerung (CDV)................................................................45 3.10 VERKEHRSMANAGEMENT

IN ATM-NETZEN .................................................................46

3.10.1 Verbindungsannahmen ..........................................................................................46 3.10.2 Prioritätsteuerung .................................................................................................47 3.10.3 Quellflusskontrolle.................................................................................................48 3.11 SIGNALISIERUNG IN ATM-NETZEN ...............................................................................49 3. 12 ADRESSIERUNG IN ATM-NETZEN ................................................................................50 4 KOPPLUNGEN ZWISCHEN NETZWERKEN ....................................................... 52 4.1 KOPPLUNGSZIEL ..............................................................................................................52 4.2 EINFLUSS VON NETZMERKMALEN IN EINER NETZKOPPLUNGSEINHEIT ............................53 4.2.1 Netztopologien .........................................................................................................54 4.2.2 Paketgröße...............................................................................................................54 4.2.3 Übertragungsrate ....................................................................................................55 4.2.4 Verbindungskonzept.................................................................................................56 4.2.5 Adressierung............................................................................................................57 4.2.6 Dienstqualitäten.......................................................................................................58 4.3 KLASSIFIKATION VON NETZKOPPLUNGSEINHEITEN .........................................................59 4.3.1 Repeater...................................................................................................................59 4.3.2 Bridge ......................................................................................................................61 4.3.3 Router ......................................................................................................................63 4.3.4 Gateway ...................................................................................................................65 4.4 LAN-ATM KOPPLUNG UND DEREN INTEGRATION ..........................................................66 4.4.1 LAN Emulation ........................................................................................................67 4.4.2 IP über ATM ............................................................................................................71 4.4.3 MPOA (Multiprotocol over ATM) ...........................................................................74

V

4.4.4 Übertragung der ATM-Zellen als LAN-Pakete .......................................................77 4.4.5 Connectionless Server (CLS)..................................................................................79 4.5 AUSBLICK AUF GEGENWÄRTIGE ZUSTAND DER KOPPLUNG ZWISCHEN LAN UND ATM UND DER INTEGRATION ..........................................................................................................82

5. MODELLIERUNG DES LAN- UND ATM-NETZES .............................................. 85 5.1 MODELLIERUNG DES VERKEHRS .....................................................................................88 5.1.1 Modellierung der Verbindungsebene ......................................................................91 5.1.2 Modellierung der Burstebene ..................................................................................91 5.1.3 Modellierung der Paketebene..................................................................................93 5.1.4 Modellierung der Zellenebene.................................................................................93 5.2 MODELLIERUNG DER LAN-ARBEITSPLÄTZE ...................................................................94 5.2.1 Modellierung eines Zugangsverfahrens bei LANs...................................................98 5.3

MODELLIERUNG DER BANDBREITENRESERVIERUNG ...............................................101

5.3.1 Beschreibung der Bandbreitenreservierungsverfahren.........................................104 5.3.2 Modellierung der erwünschten Bandbreitenermittlung ........................................108 5.3.2.1 Algorithmus zum Vergleich der erwünschten Bandbreite mit der vorhandenen Bandbreite ......................................................................................................................113 5.3.3 Markoff-Zustandsmodell bei Bandbreitenanmeldung und Wiederfreigabe ..........115 5.3.4 Ermittlung der erwünschten Bandbreite aus dem Füllstand des Puffers ..............117 5.3.4.1 Algorithmus zur Ermittlung der erwünschten Bandbreite.................................121 5.3.5 Modellierung der Antwortzeit und der Ablehnungswahrscheinlichkeit ................123 5.4 DIE MODELLIERUNG DES WARTESYSTEMS DER NETZKOPPLUNGSEINHEIT DURCH FLUID FLOW MODEL ......................................................................................................................132 5.4.1 Verlustwahrscheinlichkeit .....................................................................................141 5.4.2 Warteschlangenlänge ............................................................................................142 5.4.3 Wartezeit................................................................................................................142 5.4.4 Algorithmus zur Erzeugung der ATM-Zellen ........................................................143 5.4.5 Ungenutzte Bandbreite und Auslastungskoeffizient ..............................................145 5.4.5.1 Algorithmus zur Berechnung der ungenutzten Bandbreite und des Auslastungskoeffizienten.................................................................................................148 6. SIMULATIONSERGEBNISSE............................................................................ 150 6.1 FENSTERGRÖßE ..............................................................................................................153 6.2 ANTWORTZEIT ...............................................................................................................156 VI

6.3 CBR (CONSTANT BIT RATE) .........................................................................................160 6.4 VARIABLER WERT DES RIF (RATE INCREASE FACTOR) KOEFFIZIENTEN ......................165 6.5 FESTGELEGTER WERT DES RIF-KOEFFIZIENTEN ...........................................................168 6.6 PUFFERSCHWELLE .........................................................................................................172 6.7 LEISTUNGSPARAMETER DER NETZKOPPLUNGSEINHEIT IN ABHÄNGIGKEIT VOM RDFKOEFFIZIENTEN ...................................................................................................................175 6.8 EINFLUSS DER PAKETGRÖßE AUF DIE LEISTUNGSPARAMETER .......................................180 6.9 ANZAHL DER ARBEITSPLÄTZE .......................................................................................185 6.10 VAKIL BANDBREITENRESERVIERUNGSSTRATEGIE .......................................................187 6.11 KELLY BANDBREITENRESERVIERUNGSSTRATEGIE ......................................................192 7. ZUSAMMENFASSUNG...................................................................................... 196 ABKÜRZUNGEN UND FORMELZEICHEN ........................................................... 200 LITERATURVERZEICHNIS ................................................................................... 210 ANHANG A ............................................................................................................ 221 A.1

OSI / ISO-REFERENZMODELL .......................................................................................221

A.2 WICHTIGSTEN STANDARDS UND ÜBERTRAGUNGSMEDIEN IN ATM-NETZ .....................223 A.3

AAL DIENSTTYP 1 (AAL1) ..........................................................................................224

A.4

AAL DIENSTTYP 2 (AAL 2) .........................................................................................225

A.5

AAL DIENSTTYP 3/4 (AAL 3/4) ...................................................................................226

ANHANG B ............................................................................................................ 231 B.1

GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE ....................................................231

B.2

WICHTIGE STOCHASTISCHE PROZESSE...........................................................................233

b.2.1 Poisson Prozess .....................................................................................................233 b.2.2 Geometrische Verteilung .......................................................................................234 b.2.3 Bernoulli-Verteilung..............................................................................................235 b.2.4 Hypergeometrische Verteilung ..............................................................................235 b.2.5 Deterministische Verteilung ..................................................................................236 b.2.6 Binomialverteilung ................................................................................................237

VII

1 EINLEITUNG

1 EINLEITUNG

Mitte der 70er Jahre war es durch die Einführung der LAN (Local Area Network) möglich, eine schnellere Datenübertragung und gemeinsame Nutzung von zentralen Ressourcen, wie z.B. Drucker, Plotter, Endgerät usw., zu erreichen [9]. Der bekannteste LAN-Typ erreicht eine Übertragungskapazität von 10 Mbit/s und verwendet CSMA/CD (Carrier Sense Multiple Access / Collision Detection) als Zugriffsverfahren. Später sind auch andere LAN-Typen, die auf Token Bus oder Token Ring basieren und die Übertragungsraten von bis zu 16 Mbit/s erreichen können, eingeführt worden. Die Übertragungsrate von 10 bzw. 16 Mbit/s war damals in der Regel höher als auf der Anbindung zum WAN (Wide Area Network) und oft sogar für den Backbone Bereich ausreichend [51] [56] [27]. Aber in den letzen Jahren ist der Bedarf an Bandbreite bzw. Übertragungsrate enorm gestiegen. In allen Bereichen der Wirtschaft, der Industrie, der Verwaltung und der Wissenschaft entwickelt sich ein Bedarf nach schnellerer und multimedialer Kommunikation, wofür eine größere Bandbreite benötigt wird, (wie Sprache, Daten, Bewegtbild, Videoemail, Simulation physikalischer und chemischer Vorgänge). Deshalb sind viele Untersuchungen an LAN-Netzen durchgeführt worden und als Ergebnis sind LAN-Netze mit einer Übertragungsrate von 100 Mbit /s bis zu 1 Gbit/s entstanden, die weiterhin CSMA/CD verwenden [52]. Im LAN versendet ein Arbeitsplatz seine Pakete im Broadcast-Verfahren, bei dem alle Teilnehmer der LANs die Nachricht erhalten und die einzelnen Stationen diese verwenden oder sie weiterleiten. Die Pakete, die eine variable Länge haben, enthalten dabei die Adresse von Sender und Empfänger. Die größten Nachteile der damaligen und heutigen LAN-Typen sind die Einschränkungen in den räumlichen Ausdehnungen und in der Anzahl der Arbeitsplätze. Um die räumlichen Ausdehnungseinschränkungen zu überwinden, werden die LANs miteinander gekoppelt, was in einem beschränken Raum bis zu 10 Km durch die High Speed LAN (HSLAN) realisiert werden kann. Bei größeren Entfernungen kann die Kopplung nur über MAN (Metropolitan Area Network) oder über WAN (Wide Area Network) realisiert werden. Die Kopplung der LAN-Netze über Schmalband ISDN oder X.25 ist keine brauchbare Lösung, da besonders in der Zukunft, der Bedarf an Bandbreite und QoS (Quality of Service)–Parametern ständig steigt.

2

1 EINLEITUNG

Eine Lösung für die Kopplung der LANs über große Entfernungen bietet das ATMNetz (Asynchronous Transfer Modus), das eine verbindungsorientierte Vermittlungstechnik verwendet. Das bedeutet, dass der Sender und der Empfänger vorher eine Vereinbarung treffen bzw. eine temporäre Ende-Ende Verbindung über eine virtuelle Verbindung aufgebaut wird, bevor der Sender die ATM-Zellen sendet. Mit ATM kann man mehre Informationen mit unterschiedlicher Bitrate und unterschiedlichen QoS-Parametern gleichzeitig auf einer Leitung übertragen. Ein weiterer Vorteil der LAN Vernetzung über ATM besteht darin, dass für die unterschiedlichen LAN-Typen (wie z.B. Ethernet, Token Ring, FDDI) eine Integration möglich ist. Dabei wird die Bandbreite einer Physikalischen Leitung auf mehrere virtuelle ATM-Verbindungen aufgeteilt, mit denen die logischen ATM-Kanäle durch die einzelnen LAN-Typen individuell belegt werden können. Bei den ATM-Schalteinheiten wird bereits jetzt eine Verarbeitungsgeschwindigkeit von bis zu 1Tbit/s erreicht, die auch in Zukunft keine Probleme bei der zur Verfügung zu stellenden Bandbreite bringen dürfte. Durch den Einsatz von ATM-Netzen bei der Kopplung zwischen LANs ist es auch möglich, die bis jetzt getrennten Telekommunikationsnetze zu integrieren. In der letzen Zeit haben die LAN-Netze Ethernet–„Switched“ und Gigabit-Ethernet eine enorme Entwicklung erlebt, so dass viele sie als ernste Konkurrenten für das ATM-Netz sehen. Trotz ihrer wirtschaftlichen Vorteile und der geringen Komplexität leiden auch die jüngsten Generationen des Ethernets an „alten Krankheiten“, den räumlichen Ausdehnungseinschränkungen. Ein weiterer Nachteil ist, dass sie nicht für zeitkritische Anwendungen bzw. Multimedia Anwendungen geeignet sind, da sie keine QoS-Parametern anbieten können. Im Gegensatz dazu bietet das ATM-Netz die QoS-Parameter und ist sehr gut für Multimedia Anwendungen geeignet. Die Anwendung von ATM-Netzen in mittlere und lokale Netze ist auch möglich, da dadurch die Übertragungsqualität erhöht wird, aber wegen der hohen Kosten und Komplexität ( ATM-Komponenten sind zu teuer im Vergleich zu den im Ethernet und anderen LAN-Typen verwendeten Komponenten) ist die Einführung unwahrscheinlich [1] [79] [83] [84]. Wenn das ATM-Netz im lokalen Bereich eingesetzt wird, dann sollten auf ATMÜbermittlungsverfahren basierende LANs mit solchen auf herkömmlicher Token-Ring und Ethernet-Basis möglichst integriert werden. Es ist zu berücksichtigen, dass fast 80% aller vorhandenen LANs auf der Ethernet Technik basieren und die restlichen

3

1 EINLEITUNG

20% der Netze Token Ring, FDDI, ATM, etc verwenden. Deshalb sollte in Zukunft Ethernet und ATM auch im lokalen Bereich nicht als Konkurrenten gesehen werden, sondern als Netze, die sich gegenseitig ergänzen. Um das zu erreichen, muss man in Zukunft mehr die Kopplung zwischen beiden Techniken einsetzen. Im lokalen Bereich kann ATM verwendet werden, falls QoS-Parameter erforderlich sind. Im WAN Bereich kann ATM als Backbone-Netz für herkömmliche LANs eingesetzt werden. In der vorliegenden Arbeit wird die Kopplung zwischen herkömmlichen LANs und dem ATM-Netz und deren Integrationsmöglichkeiten untersucht. Es wird eine mögliche Netzkopplungseinheit modelliert, die innerhalb eines CLS (Connectionless Server) eingesetzt wird. In der theoretischen Analyse und der Simulation werden die QoS-Parameter, die Verlustwahrscheinlichkeit, die mittlere Wartezeit, der Variationskoeffizient der mittleren Wartezeit, die Standardabweichung, die Warteschlangenlänge und der Auslastungskoeffizient der reservierten Bandbreite berücksichtigt. Diese Untersuchungen werden an den bedeutendsten LAN-Typen, dem Ethernet und dem Token Ring durchgeführt. Die vorliegende Arbeit ist in 7 Kapitel unterteilt. Nach dieser Einleitung werden im zweiten Kapitel LAN-Netze näher erläutert. Zuerst werden die Konzepte der Topologie, der Übertragungsverfahren, das Übertragungsmedium und das Zugriffsverfahren bei LAN dargestellt. Danach werden die neuesten Varianten der LAN, wie das Fast Ethernet, das Gigabit Ethernet, das 100VG– Any–LAN, WLAN und ISLAN beschrieben. Am Ende dieses Kapitels sind die logischen Strukturen des LAN-Netzes dargestellt. Die dritte Kapitel bringt einen Überblick über das ATM als Übermittlungstechnik der Zukunft, insbesondere Vermittlungsprinzipien, Diensttypen, Verkehrstypen, angebotene QoS-Parameter etc. Ebenfalls werden die Vorteile des ATM-Übermittlungsverfahrens im Vergleich mit andren dargestellt. Im vierten Kapitel werden die Grundlagen der Kopplungseinheiten sowie der Einfluss der unterschiedlichen Parameter auf diese Netzkopplungseinheiten dargestellt. Die Kopplungen zwischen LAN- und ATM-Netzen, wie LANE, IP über ATM, MPOA und CIF, werden näher beschrieben, hierbei werden ebenfalls die Vorteile und die Nachteile dieser Kopplungsverfahren behandelt. Im fünften Kapitel sind gemäß der Verkehrsnachrichtentheorie die wichtigsten Eigenschaften des LAN-Netzes und des ATM-Netzes modelliert. Es werden die Leistungs4

1 EINLEITUNG

parameter der Netzkopplungseinheit zwischen beiden Netzen berechnet. Im sechsten Kapitel sind die Simulationsergebnisse dargestellt. Zur Untersuchung der Leistungsparameter der Netzkopplungseinheit wird die Programmiersprache C bei der Rechnersimulation angewandet. Als Simulationsergebnisse werden die Leistungsparameter für unterschiedliche Betriebsfälle und unterschiedliche LAN-Typen dargestellt und diskutiert. Das letzte Kapitel fasst die Simulationsergebnisse zusammen. Es enthält einen Ausblick auf noch weitere Untersuchungen und Perspektiven der Kopplung zwischen LAN- und ATM-Netzen sowie deren Integration.

5

2. LAN (Local Area Network)

2. LAN (Local Area Network)

LANs (Local Area Network) [9] [24] [33] sind Netze mit hoher Übertragungskapazität und einem kleinen geographischen Abdeckungsbereich. Sie ermöglichen eine gemeinsame Nutzung von zentralen Ressourcen (z.B. Platten, Drucker, Plotter), weshalb LANs im Bereich der lokalen Datenverarbeitung eine grosse Anwendung finden. Es gibt unterschiedliche Kriterien [9] [33], durch die LANs klassifiziert und eingeteilt werden, wie: -

Topologie

-

Übertragungsmedium

-

Übertragungstechnik

-

Zugriffsverfahren

Der geographische Abdeckungsbereich von LANs ist vom Übertragungsverfahren, vom Übertragungsmedium und von der Übertragungsgeschwindigkeit abhängig.

2.1 Topologische Strukturen von LANs Es sind verschiedene topologische Strukturen von LANs bekannt, wie Sterntopologie, Bustopologie, Ringtopologie und Baumtopologie, die im folgenden näher beschrieben werden.

2.1.1 Sterntopologie Bei LANs mit Sterntopologie [9] befindet sich in der Mitte ein Host (Server), der die Verantwortung für die gesamten Kommunikationen im Netzwerk hat. Jeder einzelne Arbeitsplatz ist mit dem Host verbunden. Bei dieser Topologie läuft die gesamte Kommunikation über den Server und es kann schnell zu einer Überlast der Servers kommen. Deshalb muss der Server mit einer ausreichenden Ressourcenkapazität ausgestattet werden. Diese Topologie ist eine praktische Lösung, wenn Arbeitsplätze mit dem Server kommunizieren, während es bei der Kommunikation zwischen Arbeitsplätzen schnell 6

2. LAN (Local Area Network)

zu einer Überlast des Servers kommen kann. Ein LAN, das auf Sterntopologie basiert, ist in Bild 2.1 gezeigt.

Bild 2.1 LAN mit Sterntopologie

2.1.2 Bustopologie Wie in Bild 2.2 dargestellt, sind bei der Bustopologie [51] [54] alle Arbeitsplätze an ein gemeinsames passives Medium, das als Bus bezeichnet wird, angeschlossen. Jeder angeschlossene Arbeitsplatz hat eine eigene Adresse, durch die er im Netz identifiziert wird. Die Netze mit Bustopologie werden als Diffusionsnetze bezeichnet, weil die gesendeten Informationen (Pakete) von jedem Arbeitplatz empfangen werden können. Ein Arbeitsplatz reagiert aber nur, wenn die Zieladresse im Paket mit seiner eigenen Adresse übereinstimmt. Es sind verschiedene LANs mit Bustopologie bekannt. Das Ethernet ist das am weitesten verbreitete LAN mit Bustopologie.

7

2. LAN (Local Area Network)

Bild 2.2 LAN mit Bustopologie

2.1.3 Ringtopologie Die Arbeitsplätze in einer Ringtopologie [9] [27] können, wie in Bild 2.3 gezeigt wird, als geschlossene Kette von gerichteten Punkt–zu–Punkt–Verbindungen betrachtet werden. Die Arbeitsplätze haben, wie bei der Bustopologie, ein gemeinsames Übertragungsmedium. Jeder Arbeitsplatz kann als ein aktives Element im Netz betrachtet werden, da die ankommenden Pakete regeneriert und weitergesendet werden. Der Nachteil der Ringtopologie ist der, dass bei Ausfall eines Arbeitsplatzes auch das gesamte Netz ausfällt. Um das zu vermeiden sind unterschiedliche Vorschläge gemacht worden.

Bild 2.3 LAN, basierend auf Ringtopologie 8

2. LAN (Local Area Network)

2.1.4 Baumtopologie Da oft keine der vorgenannten Topologien [9] eine optimale Lösung für ein LAN darstellt, werden häufig auch andere Möglichkeiten verwendet, die als Erweiterung der zuvor genannten Topologien zu sehen sind. Ein sehr häufiges Format ist die Mischung zwischen Stern- und Bustopologie. Es ist auch möglich, ein Netzwerk aus allen drei Topologien zusammenzusetzen. Eine weitere Lösung stellt die Baumtopologie dar, die durch den Anschluss von mehren busförmigen LANs an eine ebenfalls busförmig Verteilschiene entsteht. Eine Baumtopologie stellt eine Erweiterung der Bustopologie dar, die sehr gut für die Übertragung im Trägerfrequenzbereich geeignet ist. In einem LAN mit Baumtopologie werden Pakete in einem sogenannten Kopfarbeitsplatz eingespeist und von dort über einen Verteiler an alle angeschlossenen Arbeitsplätze weitergeleitet. Da eine solche Übertragung undirektional ist, muss im Netzwerk (LAN) ein unabhängiger Kanal zum Kopfarbeitsplatz gewährleistet sein, um Daten (Pakete) senden zu können. Das kann durch getrennte parallele Leitungen realisiert werden oder über nur eine Leitung, dann aber mit einer anderen Trägerfrequenz. Eine mögliche Baumtopologie des LAN ist in Bild 2.4 dargestellt.

Bild 2.4 LAN mit Baumtopologie

9

2. LAN (Local Area Network)

2.2 Übertragungsmedium Eine andere Eigenschaft, durch die LANs voneinander unterschieden werden, ist das verwendete Übertragungsmedium [24] [51] [56] [94]. Als Übertragungsmedium bei LANs werden folgende Kabeltypen verwendet: -

verdrillte Zweidrahtleiter

-

verdrillte Vierdrahtleiter

-

Koaxialkabel

-

Glasfaserkabel

Die unterschiedlichen Übertragungsmedien bieten verschiedene Übertragungsraten und verschiedene Ausbreitungsentfernungen, die bei LANs sehr kritisch sind.

2.3 Übertragungstechnologie Bei der Übertragungstechnologie zwischen der Übertragung im Basisband und der Übertragung im Trägerfrequenzbereich unterschieden [9] [53] [56]. Bei der Übertragung im Basisband wird die gesamte Bandbreite für nur eine Übertragungsanwendung verwendet. In diesem Fall werden die Daten in Form von digitalen Signalen direkt, ohne Veränderung ihrer Lage im Frequenzbereich, gesendet. Jedes Signal, das gesendet wird, breitet sich in beiden Richtungen bis zu den Kabelenden aus, wo es durch Abschlusswiderstände absorbiert wird (siehe Bild 2.7). Der Ausnutzungskoeffizient der zur Verfügung stehenden Bandbreite kann niedrig sein. Die Übertragung in Basisbandtechnik ist in Bild 2.5 dargestellt.

10

2. LAN (Local Area Network)

Bild 2.5 Basisband–Netzwerktechnologie Bei breitbandigen Trägerfrequenz - Systemen, die ursprünglich für das Kabelfernsehen entwickelt wurden, wird das gesamte zur Verfügung stehende Frequenzspektrum in Teil-Frequenzbänder unterteilt, wobei jede Übertragungsanwendung ein bestimmtes Teilspektrums (Kanal) zugewiesen bekommt. Diese Technik ist bekannt als Frequenzmultiplex–Verfahren (Frequency Division Multiplexing, FDM). In jedem Übertragungskanal können unterschiedliche Datenströme (LAN-Paketen) parallel übertragen werden. Bei der Breitbandtechnik werden die Daten (LAN-Pakete) als analoge Signale übertragen. Deshalb wird das zu übertragende Signal im Sender auf eine den Kanal bestimmende Trägerfrequenz aufmoduliert und im Empfänger wieder demoduliert. Die Übertragung in Breitbandtechnik ist in Bild 2.6 dargestellt.

Bild 2.6 Übertragung im Trägerfrequenz Bereich

11

2. LAN (Local Area Network)

2.4 Zugriffsverfahren in LANs Da in LANs für alle angeschlossenen Arbeitsplätze nur ein gemeinsames Übertragungsmedium zur Verfügung steht, muss festgelegt werden, wann ein Arbeitsplatz seine Pakete übertragen darf, d.h. wann und wie ein Arbeitsplatz auf das Übertragungsmedium zugreifen kann. Im folgenden werden drei bekannte Zugriffsverfahren näher beschrieben [51] [55] [56]. -

CSMA/CD (Carrier Sense Multiple Access with Collision Detection)

-

Token Passing

-

Token Bus

2.4.1 CSMA/CD-Zugriffsverfahren Das CSMA/CD-Zugriffsverfahren [51] [52] ist als Ethernet Standard bekannt. Durch den Standard IEEE 802.3 sind die Spezifikationen für die Physikalische Schicht und die MAC (Medium Access Control)–Schicht definiert, die eine Unterschicht des 2 Schicht OSI-Standards ist. Ein Arbeitsplatz, der Pakete übertragen will, muss zuerst das Übertragungsmedium abhören, um festzustellen, ob gerade ein andrer Arbeitsplatz seine Pakete sendet. Stellt der Arbeitsplatz fest, dass das Übertragungsmedium frei ist, beginnt er damit, seine Pakete (Daten) zu senden und hört gleichzeitig weiter das Übertragungsmedium ab. Das CSMA/CD-Zugriffsverfahren ist in Bild 2.7 dargestellt.

12

2. LAN (Local Area Network)

Bild 2.7: Das CSMA/CD-Zugriffsverfahren Da das Signal eine Zeit braucht, bis es die anderen Arbeitsplätze erreicht, können diese annehmen, dass das Übertragungsmedium frei ist und beginnen ebenfalls mit dem Senden von Daten. Das führt dann zu einer Kollision zwischen den gesendeten Paketen. Da die Arbeitsplätze auch während Datenübertragung die Aktivität im Übertragungsmedium abhören, erkennen sie sofort diese Kollision und brechen ihre Datenübertragung ab. Gleichzeitig wird ein Störungssignal gesendet, um Informationen über die 13

2. LAN (Local Area Network)

Kollisionsverteilung im Netz zu erfahren, da im Übertragungsmedium mehr als eine Kollision auftreten kann. Der Arbeitsplatz wartet und versucht seine Daten erneut zu senden, wenn das Übertragungsmedium wieder frei ist. Nach einer bestimmten Anzahl erfolgloser Versuche sendet der Arbeitsplatz eine Fehlermeldung. Damit ein Arbeitsplatz eine Kollision rechtzeitig erkennen kann, muss die Paketlänge größer als 64 Byte sein und die Signallaufzeit zwischen zwei entfernten Arbeitsplätze darf für Hin-Rückweg die Zeitdauer von 5.12 ms nicht überschreiten. Dadurch ist die räumliche Ausdehnung eines LAN, das auf dem CSMA/CD-Zugriffsverfahren basiert, eingeschränkt.

2.4.2 Token-Passing Zugriffsverfahren Ein Token ist ein Bitmuster, das den Zugriff eines Arbeitsplatzes auf das Netz bei auf Token-Passing basierten LANs steuert [55] [56]. Das Token hat zwei Bitkombinationen, eine, die es als Frei-Token darstellt und eine andere, die es als Belegt-Token ausweist. Ein Arbeitsplatz, der ein Paket senden will, kann mit der Sendung nur anfangen, wenn er ein Frei-Token besitzt. Zuerst ändert er den Zustand des Tokens von frei nach belegt und sendet im Anschluss an das Token sein Datenpaket aus. Anhand der im Paket mitübertragenen Adresse prüft jeder Arbeitsplatz, ob das Paket für ihn bestimmt ist. Falls die Adresse übereinstimmt, wird das Paket in den vorgesehenen Pufferbereich kopiert und in das Paket wird ein Antwortbit eingefügt. Dann wird das Paket zum nächsten Arbeitsplatz weitergeleitet. Nach einem vollen Zyklus kommt das Paket wieder zu dem Arbeitsplatz zurück, der das Paket gesendet hat. Der Arbeitplatz nimmt das Paket vom Übertragungsmedium, überprüft das Antwortbit und generiert ein Frei-Token. Wenn ein Arbeitsplatz das Frei-Token besitzt, aber kein Paket zu übertragen hat, wird das Token zum nächsten Arbeitsplatz weitergegeben. Durch das Antwortbit stellt der Sender fest, ob der Empfänger aktiv ist und ob das Paket vom Empfänger aufgenommen wurde. Bekommt der Sender kein Antwortbit zurück, versucht er später, das Paket zu wiederholen. Die Spezifikation der TokenPassing LANs sind im IEEE 802.5 Standard festgelegt [56]. Bei herkömmlichen Token-Passing LANs sind zwei unterschiedliche Versionen zu unterscheiden, die alte

14

2. LAN (Local Area Network)

Version 4 Mbit/s und die neue Version 16 Mbit/s. Bei der alten Version kann im Ring nur ein Token im Umlauf sein und das Paket kann bis zu 4096 Byte lang sein. Bei der neuen Version können sich mehrere Token gleichzeitig im Ring befinden und das Paket kann eine Länge von bis zu 17800 Byte haben [27].

2.4.3 Token-Bus Zugriffsverfahren Physikalisch entspricht das Token-Bus Zugriffsverfahren einem LAN mit

Bus –

Topologie [9], wo alle angeschlossenen Arbeitsplätze ein gemeinsames Übertragungsmedium verwenden. Jeder Arbeitsplatz im LAN mit dem Token-Bus Zugriffsverfahren hat eine logische Position innerhalb des LANs, die der physikalischen Position nicht entsprechen muss. Der Arbeitsplatz kennt seinen Nachfolger und seinen Vorgänger, was durch eine Tabelle geregelt wird. Ein Arbeitsplatz darf ein Paket senden, wenn er ein Frei-Token besitzt und wenn die festgelegte Sendezeit nicht überschritten ist. Besitzt ein Arbeitsplatz das Frei-Token aber die Sendezeit ist abgelaufen, muss das Token zum Nachfolger weitergegeben werden. Die begrenzte Sendezeit ist eingeführt, um zu vermeiden, dass ein Arbeitsplatz für lange Zeit über ein Frei-Token verfügt. Durch die dadurch bedingte Wartezeit können an anderen Arbeitsplätze Datenverluste auftreten. Ein wichtiger Punkt beim Token Bus Zugriffsverfahren ist der, dass der Ausfall eines Arbeitsplatzes erkannt und das LAN rekonfiguriert werden kann. Ein Arbeitsplatz hört ständig das Übertragungsmedium ab, um zu überprüfen, ob sein Nachfolger noch im Betrieb ist. Antwortet der Nachfolger auf gesendete Token innerhalb des Antwortfensters nicht, stellt der Arbeitsplatz fest, dass der Nachfolger ausgefallen ist und versucht den Nachfolger des ausgefallenen Arbeitsplatzes zu finden. Findet er ihn, so wird er als Nachfolger für diesen Arbeitsplatz in die Tabelle eingetragen.

15

2. LAN (Local Area Network)

2.5 Hochgeschwindigkeit LANs Außer den herkömmlichen LANs, die eine Übertragungsrate von 4 Mbit/s, 10 Mbit/s und 16 Mbit/s ermöglichen, sind in der letzten Zeit im Bereich der LANs neue Technologien entwickelt worden, die Übertragungsraten bis 1 Gbit /s erreichen. Einige von ihnen werden im folgenden näher beschrieben. Fast Ethernet bietet eine Übertragungsrate von 100 Mbit/s. Es verwendet, wie herkömmliche LANs, auch das CSMA/CD-Zugriffsverfahren. Die hohe Übertragungsrate wird durch die Reduzierung der Bitzeit um den Faktor 10 erreicht. Da die Ethernet MAC - Spezifikationen unabhängig von der Übertragungsrate sind, bedarf es keiner Änderungen in der Funktionalität, d.h. Paketformat, Paketlänge, Error Control und Managementinformationen bleiben dieselben wie bei herkömmlichen LANs-10 Mbit/s [5] [24] [94]. FDDI (Fiber Distributed Data Interface) ist in der Topologie mit dem Token-Ring vergleichbar. Bei FDDI ist das Netz jedoch mit zwei Leitungen (Primär-und Sekundärleitung) aufgebaut, um Leitungsfehler überbrücken zu können. Der Sekundärring wird als Backup–Ring verwendet. Das Protokoll von FDDI entspricht dem Token-Ring Protokoll mit dem Unterschied, dass das Frei-Token von dem Arbeitsplatz, der gerade seine Übertragung beendet hat, erzeugt wird. Beim FDDI-Protokol kann ein Arbeitsplatz unmittelbar nach dem Senden der letzten Pakete innerhalb der zugestandenen Sendezeit Frei-Token senden. Als Übertragungsmedium wird Glasfaserkabel verwendet. FDDI Netze erlauben eine große Anzahl von Arbeitsplätzen, die bis 2 km voneinander entfernt sein können. Die maximale Entfernung der Arbeitsplätze im FDDI-Ring kann bis zu 200 km betragen. Dies erlaubt eine Verwendung des FDDI als Backbone–Netz. Bei FDDI sind auch Kanäle für zeitkritische Anwendungen reserviert[24] [79] [90]. Das 100VG–Any-LAN ist ein Typ, der eine Übertragungsrate von 100 Mbit/s gewährleistet. 100VG–Any (Voice Grade) ist durch den IEEE 802.12–Standard spezifiziert. Diese Netze haben die besten Eigenschaften von Ethernet, wie einfache und schnelle Zugriffsverfahren, sowie strenge und deterministische Eigenschaften vom Token-

16

2. LAN (Local Area Network)

Ring übernommen. Außer der höheren Geschwindigkeit von 100 Mbit/s haben die 100VG–Any-Netze noch einen weiteren Vorteil gegenüber anderen Hochgeschwindigkeit LANs, da sie die beiden Zugriffsverfahren CSMA/CD und Token-Ring sowie die beiden Netztopologien, die auf Ethernet und Token-Ring basieren, unterstützen [24] [88]. Das Gigabit Ethernet, das eine Duplex Übertragung bis 1 Gbit /s ermöglicht, verwendet

dasselbe Paketformat wie herkömmliche LANs und Fast Ethernet. Auch

beim Gigabit Ethernet wird das CSMA/CD-Zugriffsverfahren verwendet. Das Gigabit Ethernet gewährleistet den Anschluss von 1024 Arbeitsplätzen innerhalb eines LAN. Die große Übertragungsrate des Gigabit Ethernets macht es als Backbone-Netz für Fast Ethernet verwendbar. Eine großer Nachteil ist die Ausdehnungseinschränkung des Gigabit Ethernet Netzes auf 25m wegen der Verwendung des CSMA/CD. Das CSMA/CD-Zugriffsverfahren macht Gigabit Ethernet für zeitkritische Anwendungen ungeeignet. Die Komplexität des Gigabit Ethernets ist gegenüber ATM erheblich geringer [52] [85] [89].

2.6 Logische Struktur von LANs Die Kopplung zwischen LANs und anderen Netztypen, wie z.B. MAN oder WAN und deren Integrationsmöglichkeit ist schwer zu untersuchen, ohne die logische Struktur von LANs näher zu betrachten. Das in Bild 2.8 dargestellte Modell der logischen Strukturen von LANs entspricht dem Standard der IEEE und FDDI–LANs [1] [50] [79]. Wie aus dem Bild ersichtlich ist, enthält die Logische Struktur eines LAN die nachfolgend aufgeführten Funktionen.

17

2. LAN (Local Area Network)

Bild 2.8 Logisches Modell eines LANs Physikalische Schicht. In der Physikalischen Schicht [24] [51] [56] sind alle Übertragungseigenschaften, die direkt die Bitübertragung betreffen, festgelegt, wie z.B. die elektrischen und magnetischen Eigenschaften des Übertragungsmediums und das Übertragungsverfahren. Die Physikalische Schicht muss auch dafür sorgen, dass die Übertragung der Bits in der übergebenen Reihenfolge von Schicht 2 stattfindet. Mit anderen Worten, die Physikalische Schicht umfasst das Übertragungsmedium sowie Sender - und Empfängereinrichtungen, die eine serielle Bitübertragung gewährleisten müssen. Die zweite Schicht ist in zwei weitere Unterschichten unterteilt, in die MAC-Schicht 2a und die LLC-Schicht-2b. MAC (Medium Access Control). In der Teilschicht 2a MAC sind das Zugriffsverfahren auf das Übertragungsmedium und der Empfang der MAC-Datenpakete spezifiziert. LLC ( Logic Link Control ). Durch den Standard IEEE 802.2 [50] sind die entsprechende Schnittstelle und die Protokolle für die LLC-Schicht sowie Mechanismen für die Flusskontrolle und die Fehlererkennung festgelegt, die eine fehlerfreie Übertragung zwischen Sender- und Empfängerspeicher gewährleisten sollen [1] [9] [50]. Die LLC-Protokolle ermöglichen es jedem Arbeitsplatz, gleichzeitig im Zeitmultiplex mit vielen anderen Arbeitsplätzen zu kommunizieren. Das wird durch die Implementierung der sogenannten SAP (Service Access Point) als LLC-Dienstzugangspunkte realisiert, die man als eine 18

2. LAN (Local Area Network)

Speicheradresse und als individuelle Kommunikationspuffer eines Netzwerkprotokolls interpretieren kann. Um verschiedene Anwendungstypen zu unterstützen, sind zwei Dienstklassen definiert. Der Diensttyp LLC 1 für den verbindungslosen Betrieb benötigt vorher keine logische Vereinbarung zwischen Sender und Empfänger bezüglich des Datenaustauschs. Es gibt innerhalb der LLC-Schicht keine logische Vereinbarung zwischen Quelle und Ziel, bevor die Quelle mit der Datenübertragung beginnt. Die empfangenen Daten werden nicht innerhalb der LLC-Schicht bestätigt. Ein solcher Dienst ist als Datengramdienst bekannt. Der Diensttyp LLC 2 ist für den verbindungsorientierten Betrieb definiert. Bei diesem Dienst wird innerhalb der LLC–Schicht vorher eine logische Vereinbarung zwischen Sender und Empfänger getroffen. Erst dann beginnt der Sender mit der Datenübertragung. Die empfangenen Daten werden vom Empfänger auch innerhalb der LLCSchicht quittiert. Der LLC Diensttyp 2 ermöglicht es, auch die Reihenfolge des LLCFrames während der Übertragungsphase zu überwachen. Die Anwendung einer Flusskontrolle und einer Error Recovery–Prozedur beim Auftreten von Fehlern, sind auch möglich. In Bild 2.9 ist dargestellt, wie ein LAN–Paket zur Übertragung vorbereitet wird.

2.9 Vorbereitung eines LAN-Pakets zur Übertragung

19

2. LAN (Local Area Network)

2.6.1 LAN-Kommunikationsprotokolle Gemäß dem OSI-Referenzmodell, das bei LANs Verwendung findet, gehören zum Kommunikationsprotokoll die Netzwerkprotokolle der Schicht 3 und die Transportprotokolle der Schicht 4. Die bekannten Netzwerkprotokolle [42] [45] [72] sind IP und IPX–Protokolle. Als Transportprotokolle sind TCP und SPX-Protokolle bekannt. IP-Internet Protocol. Beim Internet Protokoll werden die IP-Pakete über ein oder mehrere Netze übertragen, ohne eine vorherige Vereinbarung mit dem Empfänger zu treffen. Das ist als Datengram-Prozedur (Verbindungslos) bekannt. Die Hauptaufgabe dieses Protokolls besteht in der Adressierung und im Routing der Datenpakete. Die IP-Pakete werden unabhängig voneinander übertragen und es wird weder die Ablieferung der Datengramme beim Empfänger noch die Einhaltung der Reihenfolge der IP-Pakete gewährleistet. Da das IP-Protokoll keinen Fehlerkontrollmechanismus hat, ist die Übertragung der IP-Pakete unzuverlässig. TCP–Transmission Control Protocol Das TCP [9] [106] bietet einen verbindungsorientierten Betrieb, der direkt auf dem IP-Protokoll aufgebaut ist. Da LAN-Pakete eine begrenzte Länge haben müssen, werden die Daten in der TCP-Schicht auf entsprechende Länge segmentiert. Das ist in Bild 2.9 dargestellt. Anschließend fügt das TCP-Protokoll einen TCP–Kopf, der mindestens 20 Byte lang sein muss, in das Paket ein. Durch das TCP-Protokoll wird eine virtuelle und duplexfähige Ende zu Ende Verbindung zwischen dem Quellarbeitsplatz und dem Zielarbeitsplatz aufgebaut. Bei einer virtuellen Verbindung auf TCP–Ebene werden die Daten als TCP–Pakete interpretiert. Beim TCP-Protokoll ist es möglich, Paketverluste und Duplikatpakete zu erkennen sowie verlorengegangene Pakete zu wiederholen. Die Pakete auf der TCP-Ebene können in verschiedenen Reihenfolgen eintreffen. Durch die Sequenznummer, die der TCP–Kopf enthält, ist es möglich, die richtige Reihenfolge wiederherzustellen.

20

2. LAN (Local Area Network)

2.7 Adressierung in LANs Wie in allen anderen Kommunikationssystemen müssen auch in LANs die Arbeitsplätze und Anwendungen durch entsprechende Adressen gekennzeichnet werden, um ihre Aufgabe erfüllen zu können. Auch bei LANs sind die Adressen in zwei Teile untergliedert,

in

Physikalische

Adressen

zur

Adressierung

von

Hardware-

Komponenten und in logische Adressen für Software–Anwendungen. Die logischen Adressen sind im LAN-Bereich als Netzwerkadressen bekannt [1] [33] [42]. Das ist in Bild 2.10 dargestellt.

Bild 2.10 LAN-Adressierung Die Physikalischen Adressen im LAN stellen die Nummern der entsprechenden LAN-Adapterkarten dar, die als MAC Adressen bekannt sind. Sie entsprechen der Schicht 2a im OSI-Referenzmodel. MAC Adressen haben Broadcast–Eingeschaften, sodass ausgesendete Pakete von jedem angeschlossenen Arbeitsplatz im LAN empfangen werden können. Wenn die MAC-Pakete an einem Arbeitsplatz ankommen, werden ihre MAC-Adressen vom Empfänger mit der eigenen MAC-Adresse verglichen. Stimmen beide überein, wird das MAC-Paket gemäß Bild 2.10 vom Arbeitsplatz aufgenommen. Auf Grund der MAC-Adressen ist es allerdings nicht möglich, die Positionen von Empfänger und Sender zu erkennen.

21

2. LAN (Local Area Network)

Die Netzwerkadressen stellen im LAN-Bereich logische-Software Adressen dar [42] [45]. Durch sie ist es möglich, die Netzanwendungen und Netzressourcen eines Arbeitsplatzes netzweit bekanntzugeben. Die Netzwerkadressen sind im Grenzbereich zwischen Schicht 3 und 4 des OSI-Referenzmodells angesiedelt. Da keine Schicht 4 in der logischen Architektur von Routern existiert, werden logische Adressen der Schicht 3 zugeordnet. Das wird in einem der folgende Kapitel näher beschrieben (Absch. 4.3.3). Die LAN-Adressen können verschiedene Protokolle unterstützen. Im Ethernet wird das durch die Angaben des Protokoll- Typs P.ID gewährleistet, während dies in andern LAN Typen, wie Token-Ring und FDDI [24], durch die Art des Protokolls innerhalb der LLC [50] Unterschicht –2b erreicht wird. Durch die SAP– Angabe im LLC-Kopf wird ein bestimmtes Kommunikationsprotokoll wie z.B. IP oder IPX, welches auf der jeweiligen Station läuft, bestimmt. Mit den Netzwerkadressen, die dem Netzwerkprotokoll (NP)– Schicht 3 entsprechen, kann eine genaue Lokalisierung eines Arbeitsplatzes erfolgen.

2.8 Drahtlose LANs In den letzten Jahren hat die drahtlose Hochleistungskommunikation in unterschiedlichen Bereich eine grosse Bedeutung bekommen. Das betrifft auch den Bereich LAN, wo sie als WLAN (Wireless LAN) bekannt ist. WLANs werden in solchen Bereichen eingesetzt, wo ein kabelgebundenes LAN unflexibel oder unmöglich ist. Eine drahtlose Übertragung [48] [49] [126] im Bereich von LANs ist im IEEE 802.11 Standard spezifiziert, der die Verbindung von mobilen und portablen Arbeitsplätzen innerhalb des LAN beschreibt. Ein portabler Arbeitsplatz kann zwar an einen anderen Standort transportiert, aber nur im ruhenden Zustand benutzt werden. Im Gegensatz zu portablen Arbeitsplätzen sind die mobilen Arbeitsplätze auch während der Bewegung benutzbar. Im Unterschied zu herkömmlichen LANs haben WLAN eine geringe physikalische Ausdehnung, eine höhere Anfälligkeit gegenüber Fremdeingriffen, eine höhere Fehlerrate sowie eine dynamische Topologie. Um die geringe physikalische Ausdehnung zu erhöhen, ist ein WLAN in ein Kernsegment (Backbone Segment), das man auch als ein Verteilungssystem bezeichnen kann, und in ein oder mehrere drahtlose Segmente unterteilt, die an das Kernsegment angeschlossen sind. Jedes

22

2. LAN (Local Area Network)

drahtlose Segment muss einen Arbeitsplatz beinhalten, der an ein Verteilungssystem angeschlossen ist und als sogenannter “access point“ Zugangsarbeitsplatz bezeichnet wird. Über den Zugangsarbeitsplatz können der portable und der mobile Arbeitsplatz aus einem drahtlosen Segment mit Arbeitsplätzen unterschiedlicher anderer drahtloser Segmente Daten austauschen. Damit ein Arbeitsplatz in einem WLAN Daten austauschen kann, muss er mit dem Zugangsarbeitsplatz des drahtlosen Segments, in dem er sich befindet, in Verbindung treten und sich anmelden. Nach der Anmeldung eines Arbeitsplatzes in einem drahtlosen Segment ist er in dem gemeinsamen WLAN bekannt und adressierbar. Die Abmeldung eines Arbeitsplatzes erfolgt auch über den Zugangsarbeitsplatz. Wenn ein Arbeitsplatz ein drahtloses Netz verlässt, ohne sich abzumelden, wird das durch die WLAN Managementfunktionen bekannt. Durch die WLAN Managementfunktionen ist es auch möglich zu erfahren, welche Arbeitsplätze sich in einem bestimmten Zeitpunkt im ganzen WLAN befinden. In Bild 2.11 ist ein mögliches Modell eines WLAN dargestellt.

Bild 2.11 Mögliches Modell eines WLAN

23

2. LAN (Local Area Network)

Um ein Abhören bei WLAN zu vermeiden, können die Arbeitsplätze mit ihrer Anmeldung gleichzeitig einen Vertraulichkeitsdienst beantragen. Damit ist es möglich, alle weiteren Informationen vor der Übertragung zu verschlüsseln. ETSI (European Telecommunications Standard Institute) hat ein Frequenzband im Bereich von 2.4 GHz und 5 GHz freigegeben [48] [49]. Um Störeinflüsse auf andere elektronische Geräte auszuschließen, darf die Sendeleistung eines Arbeitsplatzes nicht mehr als 100 mW betragen. Bisher sind bei WLAN drei Übertragungsverfahren bekannt, DSSS (Direct Sequence Spread Spectrum), FHSS (Frequency Hopping Spread Spectrum), die mit Trägerfrequenzen zwischen 2.4 und 2.5 GHz bzw. zwischen 5 und 5.2 GHz arbeiten, sowie eine Infrarotübertragung im Wellenlängebereich von 850 nm bis 950 nm. Es ist möglich, eine Übertragungsrate von 10 Mbit/s zu erreichen,

2.9 Integrated Service LAN-ISLAN Das Integrated Service LAN ist die Integration eines auf der Protokollfamilie IEEE 802 basierenden LAN mit ISDN-Protokollen. Hiermit ist es möglich, gleichzeitig Daten, Audio- und Videodaten über eine Netzstruktur zu übertragen. Diese Multimediafähigkeit des Netzes soll ohne Änderungen in einem herkömmlichen LAN möglich sein, d.h. die Netze müssen isochrone und asynchrone Dienste anbieten. Die Spezifikationen eines ISLAN sind im IEEE 802.9 - Standard beschreiben [59]. Als ein ISLAN ist auch das sogenannte Iso-Ethernet (Isochrone Ethernet), das eine Erweiterung des Ethernet und des ISDN darstellt, bekannt. Das ISDN ist ein Netz mit Leitungsvermittlung, das eine Zeittransparenz während der Übertragung gewährleisten. Die Übertragungsrate von 64 kbit/s eines ISDN-Kanals reicht nicht für Bewegtbilder aus, aber wenn mehrere ISDN-Kanäle zusammengefasst werden (eine sogenannte Kanal–Bündelung), dann wird die benötige Bandbreite für Bewegtbilder ebenfalls gewährleistet [24] [113]. Im Iso-Ethernet können sich die angeschlossenen Arbeitsplätze in verschiedenen Betriebmodi, wie All–Isochronous Mode, 10Base T–Mode oder Multi–Service Mode befinden. Der Betriebsmodus eines Arbeitsplatzes hängt vom Daten Typ ab, den der Arbeitsplatz erzeugt und sendet. Um einen Datenaustausch zwischen an einen Hub 24

2. LAN (Local Area Network)

angeschlossenen Arbeitsplätzen zu ermöglichen, die herkömmliche Ethernet– Arbeitsplätze oder ISDN Arbeitsplätze sein können, muss die Leitung auf mehrere Kanäle nach dem Zeitmultiplexverfahren aufgeteilt werden. Zwischen einem Hub und einem Arbeitsplatz können die im Bild 2.12 dargestellten Kanäle realisiert werden.

2. 12 Logische Struktur des Iso-Ethernet Übertragungsmediums Der P–Kanal ist für die Unterstützung des asynchronen Datenaustauschs bzw. herkömmlicher LANs vorgesehen. Über einen P–Kanal kann eine Übertragungsrate von 10 Mbit/s realisiert werden. Er kann dabei nach dem Voll–Duplex oder dem Halb – Duplex Prinzip arbeiten. Der C-Kanal entspricht dem B-Kanal bei ISDN. Er ist Voll–Duplex fähig und realisiert eine Datenübertragungsrate von 64 Kbit /s. Um diese “schmale Bandbreite“ zu umgehen, können mehrere Kanäle (n * 64 Kbit / s) zusammengefasst werden. Wenn ein Arbeitsplatz im All–Isochronous Modus arbeitet, kann er mit einer Übertragungsrate bis 15.562 Mbit/s senden. Bei einem Multi–Service Modus kann ein Arbeitsplatz mit der Geschwindigkeit von 6.144 Mbit/s übertragen. Der D–Kanal ist ein Voll-Duplex, der für die Signalisierung vorgesehen ist. Er entspricht völlig dem D-Kanal im ISDN. Der M–Kanal dient zur Steuerung und zum Austausch der Status–Informationen. Der Synchronisationskanal (Start of Frame Channel-Sof) ermöglicht die Realisierung der P, C, D und M Kanäle zwischen Arbeitsplätzen und dem Iso-Ethernet–Hub durch das Zeitmultiplexverfahren. Nach diesem Verfahren werden Zeitrahmen mit einer 25

2. LAN (Local Area Network)

Länge von 125 µs kontinuierlich gesendet. Die Synchronisation zwischen Zeitrahmen wird durch den Sof–Kanal erreicht. Das Iso-Ethernet kann nur in einer physikalischen Sterntopologie realisiert werden.

2.10 MAN-DQDB Dual Queue Distributed Bus DQDB-Netze [57] [58] [110] sind für den Einsatz im mittleren Ausdehnungsbereich, wie Regionalnetze (MAN - Metropolitian Area Network) vorgesehen. Das DQDB-Netzprotokoll ist als Teil der IEEE 802 - Protokollfamilie zu sehen, die durch den IEEE 802.6 standardisiert ist. Auch bei DQDB-Netzen basiert das Zugriffsverfahren auf einem statistischen Multiplex - Verfahren, wobei sich alle Arbeitsplätze (Benutzer) das vorhandene Übertragungsmedium teilen müssen, d.h. auch bei DQDB-Netz erfolgt die Datenübertragung, wie bei herkömmlichen LANs, über ein sogenanntes Shared Medium. Ein wesentlicher Vorteil der DQDB-Netze liegt in der Unterstützung verschiedener Datenübertragungsraten und verschiedener Verkehrsraten. Einen besonderen Wert bekommen die DQDB-Netze dadurch, dass die Regionalnetze teilweise als initiale Infrastruktur für B-ISDN (ATM) gesehen werden. Bei den DQDB - Protokollen entspricht die DQDB-Schicht der MAC-Schicht bei LANs. Im Gegensatz zur MAC–Schicht bei LAN bietet die DQDB-Schicht neben einem herkömmlichen verbindungslosen MAC-Dienst (Date-LAN) einen verbindungsorientierten (CBR) Dienst sowie einen isochronen Dienst für Audio- und Videodaten. Das macht die DQDB-Netze multimediafähig. Darüber hinaus enthält die DQDB Schicht noch weitere Funktionen, wie Adressierung, Segmentierung, Reihenfolgeerhaltung und Fehlererkennung. Um Daten über DQDB-Netze zu übertragen, müssen die Daten vorher wie bei ATMNetzen in kleine Zellen fester Länge zerlegt werden. Die Übertragungsmöglichkeit von 34 Mbit/s bzw.140 Mbit/s ist ein weiterer Vorteil von DQDB-Netz. DQDB-Netze basieren auf einer Bustopologie mit zwei gegenläufigen, voneinander unabhängig arbeitenden Bussen. Jeder Knoten bzw. jeder DQDB-Arbeitsplatz ist mit beiden Bussen verbunden und kann auf diese sowohl lesend als auch schreibend zugreifen. Das ist in Bild 2.13 dargestellt.

26

2. LAN (Local Area Network)

Bild 2.13 Modell eines DQDB - MAN Netzwerks Jeder Bus unterstützt die Datenübertragung in genau einer Richtung, d.h. der Datenaustausch zwischen den Arbeitsplätzen erfolgt immer downstream in Richtung des Bussendes, da der Datenfluss innerhalb des Busses immer vom Anfang zum Ende des Busses verläuft. Der Zugriff auf das Übertragungsmedium erfolgt bei DQDB über sogenannte DQDB–Slots, die kontinuierlich von Rahmengeneratoren an den Bussenden erzeugt werden. Diese Slots stellen die Übertragungseinheiten dar, wobei ein solcher DQDB–Slot ein 1 Byte langes Zugriffskontrollfeld und ein 52 Byte langes Segmentfeld für Nutzdaten enthält.

27

3 ATM (Asynchronous Transfer Mode)

3 ATM (Asynchronous Transfer Mode)

Die größten Nachteile der LAN-Typen sind die Einschränkungen in den räumlichen Ausdehnungen und in der Anzahl der Arbeitsplätze. Um die räumlichen Ausdehnungseinschränkungen zu verringern, werden die LANs miteinander gekoppelt, was in einem begrenzten Raum bis zu 10 Km durch die High Speed LANs (HSLAN) realisiert werden kann. Bei größeren Entfernungen kann die Kopplung nur über MAN (Metropolitan Area Network) oder über WAN (Wide Area Network) realisiert werden. Die Kopplung der LAN-Netze über Schmalband ISDN oder X.25 ist keine brauchbare Lösung, da in Zukunft der Bedarf an Bandbreite und QoS (Quality of Service)– Parametern ständig steigt und S-ISDN wie auch X.25 diese Anforderungen nicht erfüllen können. Eine Lösung für die Kopplung der LANs über große Entfernungen bietet das ATMNetz (Asynchronous Transfer Modus), das in den folgenden Kapiteln beschrieben wird. Asynchronous Transfer Mode (ATM) ist ein Übermittlungsverfahren, das 1988 als Standard für Breitband-ISDN (B-ISDN) entwickelt wurde und von vielen Experten als die Übermittlungstechnik der Zukunft angesehen wird [13] [39] [60] [64]. Zu diesem Schluss kommen sie, da ATM: -

durch den zellbasierten, paketorientierten Transport einen sehr flexiblen Netz-

zugang ermöglicht, -

eine dynamische Zuteilung der vorhandenen Bandbreite auch während der

Nutzdatenübertragung ermöglicht, -

durch das Konzept der Virtuellen Pfade (Virtual Path–VP) die Netzwerkorgani-

sation erleichtert, -

durch seine Unabhängigkeit von der Physikalischen Schicht eine Übertragung

über unterschiedliche Übertragungssysteme erlaubt, -

sehr gut für Multimedia - Anwendungen geeignet ist.

Durch eine sehr flexible Art der Bandbreitenzuordnung je Verbindung und Bedarf einer Anwendung ist das ATM-Übermittlungsverfahren auch zur Grundlage der nächsten Generation von lokalen Netzen (LAN) geworden. In der LAN Technologie stellt die Einführung des ATM-Übermittlungsverfahrens eine Revolution dar.

28

3 ATM (Asynchronous Transfer Mode)

3.1 ATM-Übermittlungsverfahren Der Begriff Übermittlungsverfahren (Transfer Modus) wird von der ITU-T verwendet, um die in Telekommunikationsnetzwerken verwendete Technik zu beschreiben, die die Bereiche Übertragung, Multiplex und Vermittlung abdeckt. In der Telekommunikationswelt sind bis jetzt viele verschiedene Übermittlungsverfahren bekannt. Das ATM-Übermittlungsverfahren basiert auf einem verbindungsorientierten Paketvermittlungsverfahren, das die Übertragung und die Vermittlung der Nutzinformationen einschließt. Die Nutzinformationen bei dem ATM-Übermittlungsverfahren werden mit einer festen Länge (53 Byte), die als Zelle bezeichnet wird, übertragen und vermittelt. Der Aufbau einer solchen Zelle ist in Bild 3.1 dargestellt. Die ATM-Zelle enthält den Zellkopf und die Nutzinformation, die aus Nutzdaten oder Signalisierungsdaten besteht [64].

Bild 3.1 Aufbau einer ATM-Zelle

3.1.1 ATM-Zellen Multiplexverfahren Beim ATM wird das asynchrone Zeitmultiplexverfahren ATD (Asynchronous Time Division) verwendet. Beim Zeitmultiplexverfahren ATD ist der kontinuierliche Datenstrom auf dem Übertragungsmedium in Blöcke konstanter Länge unterteilt. Das ermöglicht eine hohe 29

3 ATM (Asynchronous Transfer Mode)

Übertragungsgeschwindigkeit und eine unkomplizierte Pufferverwaltung. In paketvermittelten Netzen mit variablem Datenpaketlänge muss innerhalb des Netzwerkes eine komplexe Pufferverwaltung durchgeführt werden. Das ist nur möglich, wenn die Geschwindigkeit nicht sehr hoch ist. Die Kanäle beim asynchronen Zeitmultiplexverfahren werden durch Kennzeichnungen im Kopf der Blöcke bestimmt. Diese sind die Adresse des Empfängers oder eine Nummer zur Identifikation eines virtuellen Kanals und eines Pfades. Dies macht es möglich, dass die zugeteilte Bandbreite für einen virtuellen Kanal und Pfad während der ganzen Zeit variabel bleiben kann. Im Gegensatz hierzu ist beim synchronen Zeitmultiplex STD (Synchronous Time Division) ein Kanal durch die konstante Position der sich periodisch wiederholenden Zeitabschnitte innerhalb eines Pulsrahmes gekennzeichnet. Jeder Kanal enthält einen oder mehrere Zeitabschnitte, abhängig von der jeweils benötigten Bandbreite. Die reservierten Kanäle werden wieder freigegeben, wenn die Endeinrichtungen keine Information mehr übertragen müssen. Die einem Kanal zugeteilte Bandbreite ist während der gesamten Übertragung konstant. Abhängig von dem benutzten System (30 + 2 Kanäle im europäischen Standard oder 24 Kanäle im nordamerikanischen Standard) werden bei den STD-Verfahren zusätzliche Bits (nordamerikanischer Standard) oder zusätzliche Kanäle (europäischer Standard) benötigt, um die Verbindungen zu signalisieren und die Taktgeber zwischen Sender und Empfänger zu synchronisieren. Bei ATM und ATD [1] [3] [28] [34] ist die Übertragung asynchron, wodurch keine Information zur Synchronisation der Taktgeber des Senders und des Empfängers erforderlich ist. Mögliche Frequenzunterschiede der Taktgeber werden durch in den Datenstrom eingefügte Leerzellen (Pakete) ausglichen. Leerzellen sind Zellen, die keine Nutzdaten enthalten. Sie werden in den Vermittlungsstellen und in den Endeinrichtungen wieder verworfen.

30

3 ATM (Asynchronous Transfer Mode)

Bild 3.2 Modell einer asynchronen Zeitmultiplexübertragung mit ATM-Zellen Wie im Bild 3.2 gezeigt, werden die ATM-Zellen von verschiedenen Datenströmen asynchron in serieller Folge im Datenkanal übertragen. Die Buchstaben A, B und C stellen Kanäle mit verschiedenen Bitraten und unterschiedlichen Datentypen dar, die gemultiplext werden. Um nach dem Multiplex einen kontinuierlichen Datenstrom zu erhalten, werden Leerzellen eingefügt. Zwei aufeinanderfolgende Zellen einer Verbindung sind durch die Zellen anderer Verbindungen oder Leerzellen getrennt. In welchem Abstand sich zwei Zellen derselben Verbindung befinden, hängt davon ab, wieviel Bandbreite diese Verbindung benötigt und welche Kapazität die Physikalische Leitung hat. Die ATM-Zellen, die zu einer virtuellen Verbindung gehören, werden durch die im ATM-Zellkopf auftretenden VCI (Virtual Channel Identifier) und VPI (Virtual Path Identifier) identifiziert. Beschreibt man die mittlere Ankunftsrate des Eingangskanals mit λ und die mittlere Bedienrate des Ausgangskanals mit µ dann muss die Bedingung

µ > ∑ E[λ ]

(3.1)

erfüllt werden, d. h. die mittlere Bedienrate der Ressource muss größer sein als die Summe der mittleren Ankunftsraten ( λ ) aller Eingangskanäle [3] [36] [44]. Bei dem ATD-Verfahren spielt die Puffergröße eine wesentliche Rolle, von der auch die Zellenverlustwahrscheinlichkeit abhängt. Durch eine Vergrößerung des Puffers wird die Verlustwahrscheinlichkeit auch bei hoher Belastung verringert, was aber zu einer langen Paketwarteschlange führt und damit zu einer Warteverzögerung, die sich zu den anderen Verzögerungen addiert. Das kann für zeitkritische Anwendungen unerwünscht sein.

31

3 ATM (Asynchronous Transfer Mode)

Der Ausnutzungskoeffizient der zur Verfügung stehenden Bandbreite ist bei ATD (Asynchronous Time Division) größer als bei anderen Multiplexverfahren.

3.2 Konzept der virtuellen Pfade VP Die Virtuellen Pfade VP (Virtual Path) [13] [64] [65] [112] sind als Zusammenfassung oder Bündelung von mehreren virtuellen Kanälen anzusehen. Zellen unterschiedlicher VC-Verbindungen, die die gleiche Strecke oder nur einen Teile dieser Strecken überbrücken, können zusammengefasst werden und sogenannte Pfade aufbauen. Im Vergleich zum Telefon entspricht der VPI (Virtual Path Identifier) der Vorwahl und der VCI (Virtual Channel Identifier) der Anschlussnummer. Jeder dieser VP wird auf seiner Physikalischen Teilstrecke durch eine VPI (Virtual Path Identifier) identifiziert.

Bild 3.3 Aufbau von virtuellen ATM Verbindungen Das Konzept der virtuellen VP stellt ein wichtiges Hilfsmittel zur Bildung von ATMNetzen dar. Jedem VP wird eine entsprechende Bandbreite zugeordnet, die die Summe der Bandbreiten der virtuellen gebündelten Kanäle nicht überschreiten soll. In einer Physikalischen Verbindung können gleichzeitig mehre VP in verschiedenen Kombinationen existieren. Der virtuelle Pfad 0 ist für unterschiedliche Managementaufgaben vorgesehen. Darum darf er nicht zur Nutzdatenübertragung verwendet werden.

32

3 ATM (Asynchronous Transfer Mode)

Einige Vorteile bei der Anwendung von virtuellen Pfaden werden nachfolgend herausgestellt: Alle Verkehrsklassen können auf einem virtuellen Pfad integriert werden. Die VP unterstützen und vereinfachen die Wegsuche (Routing) für Verbindungen. Bei Ausfällen ermöglichen die VP eine schnelle Umleitung der Zellströme auf einen Ersatzweg. Die VP beschleunigen den Aufbau von VC-Verbindungen und erleichtern die Verwaltung der zur Verfügung stehenden Bandbreite. Die virtuellen Pfade werden untereinander nicht statistisch gemultiplext.

3.3 ATM-Zellenvermittlung Die ATM–Vermittlungstechnik basiert auf einer verbindungsorientierten Übertragung. Die Verbindung besteht aus dem Verbindungsaufbau, der Informationsübertragung und dem Verbindungsabbau [60] [61]. Die Nutzinformationen und die Signalisierung werden bei ATM in getrennten Kanälen übertragen wie beim Schmalband ISDN. Zwischen zwei ATM Endeinrichtungen, die miteinander Nutzdaten austauschen möchten, wird zuerst ein virtueller Kanal (Simplex) aufgebaut. Gleichzeitig wird ein Weg durch die ATM-Netze festgelegt, so daß alle Zellen später über diesen Weg übertragen werden können. Für N gleichzeitige Verbindungen werden N virtuelle Kanäle benötigt. Die Zusammenfassung von verschiedenen virtuellen Kanälen auf einen virtuellen Pfad ermöglicht dabei eine schnellere Verarbeitung in den Vermittlungsstationen. Wird eine bidirektionale (Duplex) Verbindung benötigt, so kann diese durch zwei unidirektionale (Simplex) Verbindungen realisiert werden. Die beiden verschiedenen Simplex Verbindungen derselben Duplex Verbindung können dabei über verschiedene Wege geleitet werden. Während des Verbindungsaufbaus werden auch die Tabellen der entsprechenden Vermittlungsstellen mit den für die neue Verbindung benötigen Daten geladen. Um die Zelle in einer Vermittlungsstelle zu vermitteln, gibt es zwei prinzipiell verschiedene Möglichkeiten:

33

3 ATM (Asynchronous Transfer Mode)

-

Selbststeuernder Betrieb (Self Routing):

Vor der Vermittlung einer Zelle wird als zusätzlicher Kopf die für die gesamte interne Weglenkung benötigte Information hinzugefügt. -

Tabellengesteuerter Betrieb ( Table Controlled Routing):

Die im Kopf der Zelle stehende Identifikationsadresse wird in den Vermittlungsstellen bearbeitet und durch die Verwendung der Umwertetabellen bekommt die Identifikationsadresse einen neuen Wert für die nächste Teilstrecke der Verbindung. Dann werden die Zellen zu den entsprechenden Ausgangsports weitergeleitet (Beispiel in Bild 3.4).

Bild 3.4 ATM-Zellenvermittlung durch Tabellegesteuertem Betrieb

3.4 Referenzmodell für ATM Das Referenzmodell für ATM, das auf einer angepassten Form des OSIReferenzmodells beruht, besteht aus einem dreidimensionalen Modell, das zwischen Schichten und Ebenen unterscheidet (siehe Bild 3.5). Die drei Kommunikationsschichten sind: die Physikalische Schicht, die ATM-Schicht und die ATMAnpassungsschicht. Diese Schichten sind über drei Ebenen, die Benutzerebene (User Plane), die Steuerungsebene (Control Plane) und die Managementebene (Management Plane) miteinander verbunden.

34

3 ATM (Asynchronous Transfer Mode)

Bild 3.5 ATM-Referenzmodell Im ATM-Referenzmodell sind der neben Physikalischen Schicht noch zwei weitere spezifische Schichten für eine ATM Übermittlung nötig. In der ATM-Schicht werden die Funktionen im ATM-Zellkopf so definiert, dass sie einen einfachen Zelltransportdienst ermöglichen. Im Sender zerlegt die Anpassungsschicht die Nutzdaten, die variable Größe haben können, auf eine feste Länge von 48 Byte und fügt sie im Empfänger wieder zusammen. Die Benutzerebene enthält Funktionen zur Übermittlung von Nutzdaten. Sie regelt den Informationsfluss über alle unteren Schichten (Physikalische Schicht, ATMSchicht und Anpassungsschicht) und führt, falls Übertragungsfehler auftreten, eine Fehlerkorrektur durch. Die Steuerungsebene ist durch ein Signalisierungsverfahren für den Aufbau und den Abbau der Netzverbindung zuständig. Die Managementebene ist unterteilt in Schichten–Management und Ebenen– Management. In der Managementebene werden verschiedene komplexe Aufgabe

35

3 ATM (Asynchronous Transfer Mode)

durchgeführt, wie die Koordination zwischen den Schichten (auch zwischen der Steuerungsebene und der Benutzerebene), die Überwachung der Netzleistungsfähigkeit oder Funktionen der Meta-Signalisierung bei einer Punkt-zu-Punkt und einer Punkt–zu–Mehrpunkt-Verbindung. In den folgenden Abschnitten werden die Schichten des ATM-Referenzmodells näher beschrieben [64] [31].

3.5 Physikalische Schicht Die Physikalische Schicht( Physical Layer, PHY) hängt vom Übertragungsmedium ab und ist entsprechend Bild 3.6 in zwei weitere Teilschichten aufgeteilt, in die PMTeilschicht (Physical Medium Sublayer) und in die TC-Teilschicht (Transmission Convergence Sublayer) [39] [61] [114].

Bild 3.6 Struktur der Physikalischen Schicht in ATM-Netzen Die PM-Teilschicht ist direkt vom Physikalischem Übertragungsmedium abhängig. Als Physikalisches Übertragungsmedium können verdrillte Kupfer - Adernpaare ohne Schirmung (UTP), geschirmte Adernpaare (STP), Koaxialkabel und Single Mode oder Multi Mode Glasfaser verwendet werden. Die Funktionen, die die PMTeilschicht enthält, sind: -

Leitungskodierung (Leitungsdekodierung) 36

3 ATM (Asynchronous Transfer Mode)

-

Erzeugung des Bittaktes im Sender und die Taktrückgewinnung, Jitterdämpfung

und Biterkennung im Empfänger, (Timing und Synchronisation) -

Signalübertragung (elektrisch oder optisch) und benötigte elektrisch / optische

bzw. optisch / elektrische Umwandlung bei optischen Schnittstellen. In Bild 2.a (Anhang A) sind die wichtigsten Standards und Übertragungsmedien für die ATM-Netze zusammengefasst. Zwischen ATM–Schicht und PM-Teilschicht befindet sich die TC-Teilschicht, in der eine Anpassung des Zellstroms an das Übertragungsmedium stattfindet. Bisher gibt es zwei unterschiedliche Standards, mit denen die Zellen übertragen werden können: -

die Übertragung der Zelle in einem Rahmen, was als rahmenorientiertes Format bezeichnet wird, wie z.B. Plesiochrone Digitale Hierarchie (PDH) und Synchrone Digitale Hierarchie (SDH)

-

die direkte Übertragung der Zelle, was als ein zellorientiertes Format bezeichnet wird.

Ein Nachteil des rahmenorientierten Systems ist, dass ein zusätzlicher Section Overhead (SOH) beim SDH oder ein Path Overhead (POH) bei PDH zugefügt werden muss, um eine Einpassung der ATM–Zelle in einem PDH bzw. SDHÜbertragungsrahmen zu gewährleisten. Dadurch wird ein großer Teil der zur Verfügung stehenden Bandbreite für Steuerinformationen herangezogen. Unabhängig vom verwendeten Übertragungssystem enthält die TC-Teilschicht folgende Funktionen: Header Error Control ( HEC) : Die HEC-Erzeugung wird als fünftes Byte im Zellkopf in der Sendeeinrichtung eingefügt. Dadurch ist es möglich, in der Empfangseinrichtung eine Überprüfung der Fehlerkorrektur durchzuführen. Die Zellen mit einem unkorrigierbaren Fehler werden verworfen. Erkennen der Zellengrenzen: Die Erkennung der Zellengrenze geschieht durch eine HEC. Wird ein Zellkopf fehlerfrei detektiert, bedeutet es, dass sich der Anfang einer Zelle an dieser Position befin-

37

3 ATM (Asynchronous Transfer Mode)

det. Wenn 6 fehlerfreie Zellköpfe nacheinander aufgetreten sind, kann von einer erfolgreichen Zellsynchronisation ausgegangen werden. Entkoppeln der Zellrate von der Übertragungsrate: Alle Übertragungssysteme (mit Ausnahme der Burst Mode Übertragungssysteme) beanspruchen einen kontinuierlichen Zellstrom, um eine Anpassung zwischen der Zellrate der ATM- Schicht und der Zellrate des Übertragungssystems zu ermöglichen. Dies wird durch die Leerzellen (Idle Cells) realisiert, die nach Bedarf eingefügt und entfernt werden. Eine Leerzelle wird durch ein spezielles Bitmuster im Zellkopf gekennzeichnet.

3.6 ATM–Schicht Die ATM-Schicht, die eine zentrale Aufgabe im ATM-Referenzmodell hat, ist vom Physikalischen Medium und der Physikalischen Schicht völlig unabhängig [60] [62]. Die ATM-Schicht stellt alle wesentlichen Funktionen bereit, die für den Transport und die Vermittlung der ATM-Zellen erforderlich sind. Auch die Überwachung und Kontrolle der Verbindungen finden durch OAM (Operation and Maintenance) Zellen regelmäßig statt. Nach der Übergabe der Nutzinformation von der AAL Schicht (ATM Adaption Layer) an die ATM- Schicht beim Sender wird die Kopfzelle erzeugt und hinzugefügt. Im Empfänger wird die Kopfzelle wieder abgetrennt, bevor die Nutzinformationen an die AAL Schicht weitergeleitet werden. Folgende Hauptfunktionen werden dabei von der ATM-Schicht zur Verfügung gestellt: -

Kanal und Pfad Identifizierung durch die VCI und VPI

-

Multiplex und Demultiplex der ATM-Zellen von verschiedenen Verbindungen

-

Erkennung der Benutzerzellenart durch die Payload Type, wie z.B. Nutzzellen und Leerzellen.

-

Erzeugung des Zellkopfs im Sender und Abtrennung desselben im Empfänger

-

Ausführung eines Flusssteuerungsmechanismus in der Benutzernetzwerk Schnittstelle (User-Network Interface) durch GFC (Generic Flow Control ) Bits.

38

3 ATM (Asynchronous Transfer Mode)

3.6.1 Aufbau des ATM-Zellkopfs Die ATM-Zelle, die eine Länge von 53 Byte hat, ist in ein 5 Byte langes Kopffeld und ein 48 Byte langes Informationsfeld aufgeteilt [31] [61]. Das Kopffeld, das als Zellkopf bezeichnet wird, enthält die Informationen über die ATM-Zelle und deren Route. Die Länge der ATM-Zelle von 53 Byte stellt einen Kompromiss zwischen den Anforderungen von Daten- und zeitkritischen Anwendungen dar. Für zeitkritische Anwendungen, wie Sprachübertragung, ist eine kleine Dateneinheit erwünscht, um die für das Füllen einer Zelle benötigte Wartezeit (Paketierungsverzögerung) gering zu halten. Aber auch die Übertragungseffizienz und Implementierungskomplexität haben eine wichtige Rolle gespielt, um zu diesem Schluss zu kommen. In Abhängigkeit von der Schnittstelle [31] [62] [65] sind zwei verschiedene Zellköpfe zu unterscheiden, der Zellkopf der Benutzer - Netzwerk – Schnittstelle (User-toNetwork Interface) und der Zellkopf der Netzwerk-to-Netzwerk - Schnittstelle (Network-to-Network Interface). Dies ist in Bild 3.7 dargestellt.

Bild 3.7 Aufbau des ATM Zellkopfs ( UNI und NNI) Die UNI-Schnittstelle beschreibt den Übergang zwischen einer Endeinrichtung und dem Netzwerk (Vermittlungsstelle). Die NNI-Schnittstelle, die sich im Aufbau nur unwesentlich von der UNI-Schnittstelle unterscheidet, beschreibt den Übergang zwi-

39

3 ATM (Asynchronous Transfer Mode)

schen ATM-Vermittlungsstellen. Wie in Bild 3.7 zu sehen ist, hat die NNI-Schnittstelle statt des GFC Feldes ein um 4 Bits erweitertes VPI-Feld. GFC (Generic Flow Control) Das GFC-Feld unterstützt die Endeinrichtungskonfiguration am B–NT2 (Telekommunikationsanlage oder ATM-LAN ) oder an einer ATM-Vermittlungsstelle, das heißt, dass GFC die Zugriffs–und Übertragungsrechte in lokalen Netzen steuert. Aus diesem Grund ist das GFC-Feld ausschließlich im lokalen Bereich vorhanden. Es sind zwei verschiedene Zugriffe möglich, kontrollierte und unkontrollierte Zugriffe. VPI/VCI (Virtual Path Indentifier / Virtuall Channel Identifier) Die Zellen einer Verbindung benötigen VPI/VCI , um von Zellen anderer Verbindungen unterschieden werden zu können. Ein virtueller Kanal überträgt die Zellen einer Verbindung in unidirektionaler Richtung. Der Virtuel Path stellt eine Bündelung von mehreren virtuellen Kanälen dar. Zusätzlich ist noch eine VPI + VCI je Richtung für die Signalisierung der Nutzverbindung oder mehrerer gemeinsamer Nutzverbindungen erforderlich. PT (Payload Type ) Durch die PT werden die Zellen nach Nutzinformationen, Signalisierungsinformationen, Steuerinformationen und Managementinformationen unterschieden. CLP ( Cell Loss Priority) CLP ermöglicht es, den Zellen eine niedrige oder eine höhere Priorität einzuräumen. Die Zellen einer Verbindung, bei denen ein Verlust eher akzeptabel ist, haben niedrige Priorität und das CLP Feld hat den Wert 1. Die Zellen einer Verbindung, die sehr verlustempfindlich sind, haben höhere Priorität, das CLP Feld hat den Wert 0. Das CLP Feld schafft die Möglichkeit, die Zelle auf ATM-Schichten mit verschiedener Zellverlustwahrscheinlichkeit zu verteilen. Die Zellen, deren CLP Feld den Wert 1 hat, werden zuerst verworfen. 40

3 ATM (Asynchronous Transfer Mode)

HEC (Header Error Control) HEC wird aus der Division der Zellkopfdaten (ohne HEC-Feld ) durch das Generatorpolynom x 8 + x 2 + x + 1 berechnet und als Prüfsumme in das entsprechende Feld abgelegt. HEC ermöglicht es, die fehlerhaften Zellen zu erkennen und im Fall eines Fehlers zu korrigieren. Wenn mehre Fehler aufgetreten sind, werden die Zellen verworfen. Auch die ATM-Zell Synchronisation wird durch das „Header Erorr Control“ Verfahren realisiert. Das ATM-Zellsynchronisationsverfahren über HEC ist in Bild 3.8 veranschaulicht.

Bild 3.8 ATM Zellsynchronisation über das HEC-Verfahren

3.7 ATM-Anpassungsschicht (AAL) Zwischen der ATM-Schicht und den nächst höheren Schichten wird eine neue Schicht AAL (ATM Adaption Layer) eingefügt, um die aus der ATM- Schicht bereitgestellten Dienste zu ergänzen und einen Einfluss der höheren Schichten auf die ATMSchicht zu verhindern [64] [114] [126]. Damit diese Aufgabe besser erfüllt werden kann, wird die AAL Schicht in zwei weitere Unterschichten, in die Segmentierungsund Reassemblierungsteilschicht (SAR-Segmentation and Reassembly) sowie in die

41

3 ATM (Asynchronous Transfer Mode)

Konvergenzteilschicht (CS-Convergence Sublayer ) unterteilt, da unterschiedliche Anwendungen auch unterschiedliche Verbindungsparameter benötigen.

Bild 3.9 Struktur der AAL-Schicht Das ist in Bild 3.9 dargestellt. Um das bei ATM-Netzen besser zu ermöglichen, sind vier allgemeine AAL-Dienstklassen vom ITU-T I.362 definiert, wie aus Bild 3.10 ersichtlich.

DINSTE

KLASSE A

KLASSE B

KLASSE C

KLASSE D

Zeitbeziehung zwischen Quel-

Erforderlich

Nicht Erforderlich

le und Ziel Bitrate

Konstant

Verbindungsart

Variabel Verbindungsorientiert

Verbindungslos

Datenübertragung, Beispiele

Sprache

Video

verbindungsorientiert

AAL- Diensttyp

AAL1

AAL2

verbindungslos

AAL 3 / 4

AAL 3 / 4

AAL5

AAL5

Bild 3. 10 Die AAL Dienstklassen und Typen

42

Datenübertragung,

3 ATM (Asynchronous Transfer Mode)

3.8 Verkehrstypen in ATM–Netzen Damit ATM-Netze ihre Aufgaben, Informationen mit unterschiedlichen Eigenschaften und mit unterschiedlichen QoS Parametern (Quality of Service) über ein gemeinsames Netz (ATM) zu übertragen, besser erfüllen können, sind im ATM-Netz durch die ITU-T verschiedene Verkehrstypen [19] [39] [64] [99] spezifiziert. Die sind: CBR (Constant Bit Rate ), VBR (Variable Bit Rate ), ABR (Available Bit Rate) und UBR (Unspecified Bit Rate). In Bild 3.11 ist die Aufteilung der zur Verfügung stehenden Bandbreite auf die verschiedenen Verkehrstypen dargestellt.

Bild 3.11 Verkehrstypen im ATM-Netze CBR-Constant Bit Rate . Für die Übertragung von Informationen, die strenge Anforderungen an Übermittlung mit maximaler Einschränkung (CTD-Cell Transfer Delay) und Schwankung der Zellenverzögerung (CDV Cell Delay Variation) stellen, wie z.B. unkomprimiertes Audio oder Video, wird eine Übertragung mit CBR verwendet. In diesem Fall stellen die ATM-Netze für die gesamte Übertragungsdauer eine konstante, maximal benötigte Bandbreite zur Verfügung. VBR ist für Anwendungen geeignet, bei denen die Bitrate während der Übertragung variieren kann, wie z.B. bei der Übertragung von komprimierten Video oder komprimierten Audio-Daten. Bei solchen Anwendungen ist die mittlere Bitrate (SCR – Sustainable Cell Rate) deutlich niedriger als die maximale Bitrate (PCR Peak Cell Rate). Um eine bessere Ausnutzung der zur Verfügung stehenden Bandbreite zu

43

3 ATM (Asynchronous Transfer Mode)

gewährleisten, darf die Bandbreite nicht statisch sein. Sie muss nach Bedarf variiert werden können, das heißt, dass die Bandbreite nicht für die maximale Bitrate reserviert wird, sondern nur für eine Bandbreite, die in etwa der mittleren Bitrate entspricht, wobei dynamisch vergrößert oder verkleinert werden kann. Zur besseren Anpassung an zeitkritische Anwendungen, sind zwei verschiedene VBR-Verkehrstypen vorgesehen. Nrt-VBR ( non real time – Variable Bit Rate) für Anwendungen, die keine strengen Anforderungen an die Verzögerungen stellen und rt-VBR (real time – Variable Bit Rate) für Anwendungen mit strengen Anforderungen an die Verzögerung. Bei rt-VBR müssen die Zellverzögerung und Zellverzögerungsvariation einen bestimmten Wert haben. ABR ist eine Verkehrstyp, der für die Datenübertragung über ATM-Netze gedacht ist. Eine ABR-Verbindung kann nur den Teil der Bandbreite benutzen, der von der CBRund VBR-Übertragung nicht genutzt wird. ABR basierte Datenübertragungen können keine Garantie bezüglich der Verzögerung und der Bandbreite geben, aber sie ermöglichen es, eine minimale Bandbreite beim Verbindungsaufbau festzulegen. Der UBR-Verkehrstyp ist für die Anwendungen spezifiziert, die eine größere Verzögerung und den Verlust von Zellen tolerieren. Die Zellen, die zu einem UBRVerrkehrstyp gehören, haben die niedrigste Priorität auf der gesamten ATM-Strecke.

3.9 Quality of Service (QoS) Parameter in ATM-Netzen Jede Anwendung kann beim Verbindungsaufbau durch das Signalisierungsprotokoll (im Rahmen des sogenannten Traffic Contracts) auch benötigte QoS-Parameter anfordern, durch die die entsprechenden Eigenschaften der Anwendung beschrieben werden. Im sogenannten Traffic Contract werden die drei wichtigsten Parameter beschrieben, die als Maß für die Güte (Qualität) einer Verbindung herangezogen werden können. Das sind [20] [112] [116] die Zellverlustraterate CLR (Cell Loss Ratio), die Zellverzögerung CTD (Cell Transfer Delay ) und die Schwankung der Zellverzögerung CDV (Cell Delay Variation ).

44

3 ATM (Asynchronous Transfer Mode)

3.9.1 Zellverlustraterate (CLR) Die Zellverlustraterate berechnet sich als das Verhältnis der Anzahl der verlorenen Zellen zur Gesamtzahl der übertragenen Zellen.

CLR =

Zahl der verlorenen Zellen Gesamtzahl der übertragenen Zellen

Die Zellverluste können durch verschiedene Faktoren verursacht werden, wie z.B. einen fehlerhaften Zellkopf, Überschreiten der zulässigen Zellverzögerung, Überlastung eines Netzknotens oder Verfälschung einer VPI bzw. VCI.

3.9.2 Zellverzögerung (CTD) Zellverzögerungen sind besonders für zeitkritische Anwendungen wichtig, wie z.B. Übertragung von Audio- und Videodaten. Die Zellverzögerung beinhaltet die Übertragungsverzögerung, die Vermittlungsverzögerung und Warteschlagensverzögerung. ATM-Endstationen sollten vorher im Netz durch die höhere Schicht die maximale Zellverzögerung aushandeln und feststellen. Verspätete Zellen werden markiert oder verworfen.

3.9.3 Schwankung der Zellverzögerung (CDV) Die Zellen, die im Empfänger eintreffen, können verschiedene Zellverzögerungen haben, obwohl sie gleichmäßig in das Netz gegeben wurden. Zu dieser Schwankung der Zellverzögerung können verschiedene Faktoren führen. Die Hauptursache für die Schwankung der Zellverzögerung ist die, dass sich die Füllstände des ATMZellpuffers statistisch ändern können. Besonderes empfindlich gegenüber Schwankungen der Zellverzögerung sind CBR und rt-VBR–Verkehrstypen. Im Verkehrsver-

45

3 ATM (Asynchronous Transfer Mode)

trag ist eine zulässige Schwankung der Zellverzögerung festgelegt. Zellen mit einer höheren Schwankung als hierin festgelegt werden verworfen.

3.10 Verkehrsmanagement in ATM-Netzen Unter Verkehrsmanagement in ATM-Netzen versteht man alle Maßnahmen [23] [31] [64] [87] [122], die zu einer effektiven Ausnutzung der zur Verfügung stehenden Netzressourcen führen und ein Auftreten von unterschiedlichen Überlastsituationen vermeiden. Das Verkehrsmanagement in ATM-Netzen umfasst die Verkehrssteuerung (Verkehrskontrolle) und die Überlastbehandlung (Überlastkontrolle). Ein ATM-Netz wird als überlastet bezeichnet, wenn die vereinbarten Verkehrsparameter für eine vorhandene Verbindung nicht mehr eingehalten werden können. Zu einer Überlastsituation können verschiedene Faktoren führen, wie z.B. nicht richtig vorhersehbare statistische Eigenschaften der Verkehrsquellen oder ein Fehler innerhalb des Netzwerks. Die Verkehrskontrolle hat die Aufgabe, eine Überlastsituation zu vermeiden. Die Überlastkontrolle hat die Aufgabe, bei einer Überlastsituation des Netzes die Dauer einer solchen Überlastung zu minimieren und das Netz so schnell wie möglich wieder in den normalen Betriebzustand zu bringen. Es sind verschieden Funktionen innerhalb des Verkehrsmanagements vorgesehen, um die oben genannten Aufgaben besser erfüllen zu können. Einige dieser Funktionen werden in den folgenden Abschnitten näher beschrieben

3.10.1 Verbindungsannahmen Die Zulassung einer neuen Verbindung über die ATM-Netze hängt direkt von den zur Verfügung stehenden Ressourcen ab [31] [87] [101]. Da die Ressourcen der ATMNetze keine feste Zuordnung haben, sondern nach Bedarf eine dynamische Zuteilung der Ressourcen erfolgt, müssen die Verkehrs- und QoS-Parameter für jede Verbindung ausgehandelt und festgelegt werden. Dafür sind CAC-Funktionen (Con46

3 ATM (Asynchronous Transfer Mode)

nection Admission Control) definiert, die es ermöglichen, eine Anforderung für eine neue Verbindung zu akzeptieren oder zu verweigern. Durch die CAC-Funktionen wird während des Verbindungsaufbaus überprüft, ob eine neue Verbindung mit den ausgehandelten Verkehrsparametern bzw. den gewünschten Parametern aufgebaut werden kann, ohne die QoS-Parameter der vorhandenen Verbindungen zu verletzen. Gleichzeitig wird der Weg zwischen Sender und Empfänger gesucht, der während der gesamten Übertragung die gewünschte Bandbreite für die neue Verbindung zur Verfügung stellen kann. Neben der Bandbreitenreservierung muss auch der entsprechende Speicher (Puffer) für die neue Verbindung reserviert werden, um die QoS-Parameter zu gewährleisten. Wenn es zu einem neuen Verbindungsaufbau kommt, wird dies als ein abgeschlossener Verkehrsvertrag (Traffic Contract) zwischen einem ATM-Endknoten und einem ATM-Netz bezeichnet.

3.10.2 Prioritätsteuerung ATM-Netze müssen gewährleisten, dass Verbindungen mit unterschiedlichen Anforderungen an die QoS-Parameter über dieselbe ATM-Verbindung bzw. Physikalische Leitung übertragbar sind. Diese Aufgabe können ATM-Netze durch Prioritätsmechanismen erfüllen. Im ATM-Zellkopf (Bild 3.7) ist ein CLP Feld vorgesehen [61] [81], durch das die Festlegung der Priorität auch innerhalb einer ATM-Verbindung möglich ist. Wenn das CLP-Feld mit dem Wert 0 belegt ist, heißt das, dass die ATM-Zellen eine höhere Priorität haben, als die, bei denen das CLP-Feld den Wert 1 hat. Bei einer Überlastsituation werden zuerst die Zellen mit CLP = 1 verworfen, um das Netz wieder in einen normalen Betriebszustand zu bringen. Auch die unterschiedlichen Verkehrstypen CBR, VBR , ABR und UBR können durch das CLP Feld unterschiedliche Priorität innerhalb eines ATM-Pfads oder einer Physikalischen Leitung bekommen. Neben den zuvor genannten Prioritäten sind auch anderen Prioritätsstrategien zur Implementierung der Zellverlust–Priorität bekannt, wie z. B. Priorität der Zellen durch ein Schwellwertverfahren im Puffer oder durch Zeitpriorität .

47

3 ATM (Asynchronous Transfer Mode)

Beim Schwellwertverfahren wird im Puffer ein Grenzwert für den Pufferstand definiert. Die Zellen mit niedriger Priorität können nur gespeichert werden, wenn der Pufferzustand sich unter dem definierten Grenzwert befindet. Der Wert soll so definiert werden, dass der noch freie Pufferplatz es ermöglicht, die Verlustwahrscheinlichkeit der ATM-Zellen mit höherer Priorität unter einem gewünschten Wert zu halten. Dadurch ist es möglich, die Zellen mit hoher Priorität vor Verlust durch einen überlaufenden Puffer zu schützen. Für Anwendungen mit unterschiedlichen Anforderungen an die Zellenverzögerung und an die Schwankung der Zellenverzögerung sind die Zeitprioritätsverfahren sehr gut geeignet. Wenn es in einem ATM-Netz zur Überlastsituation kommt, müssen alle Zellen, die zu einem CPCS-PDU bzw. einem LAN-Paket gehören, gleichzeitig verworfen werden, da bei einem Zellverlust das gesamte zugehörige CPCS–PDU bzw. LAN-Paket sowieso neu übertragen werden muss. Dadurch wird Pufferspeicherplatz frei, sodass neu ankommende Pakete gespeichert werden können. Die Zahl der CPCS-PDU bzw. LAN-Pakete, deren Zerlegung und Übertragung wiederholt werden müssen, bleibt dadurch niedrig.

3.10.3 Quellflusskontrolle In ATM-Netzen bekommen die Sender keine Quittung über die ausgesendete Zellen. Sie senden kontinuierlich Zellen, ohne darauf zu achten, ob im Netz eine Überlastsituation auftreten kann oder schon aufgetreten ist. Deshalb benötigen ATMNetze Quellflusskontrollfunktionen [64] [122] [130]. Die Quellflusskontrolle (UPC, Usage Parameter Control) hat die Aufgabe, die vereinbarten Verkehrsparameter zu überwachen und falls eine Überlastsituation (Verletzung des vereinbarten Vertrags) auftritt, entsprechende Maßnahmen zu ergreifen, um das Netz wieder in den normalen Betriebszustand zu bringen. Als Maßnahmen sind vorgesehen, dass Zellen mit niedriger Priorität verworfen werden, während bei Zellen mit hoher Priorität die Priorität vermindert wird. Die UPC soll auch die Gültigkeit des VCI– und VPI-Feldes überprüfen.

48

3 ATM (Asynchronous Transfer Mode)

Die am häufigsten zu überwachenden Parameter sind Spitzenzellrate (PCR), Schwankung der Verzögerung und der Burstfaktor. Da die UPC gleichzeitig mehrere Verkehrsparameter einer Verbindung kontrolliert, muss die Überwachung in mehreren Instanzen organisiert werden, die möglicherweise miteinander zu koordinieren sind. Bis heute sind verschiedene Mechanismen zur Implementierung der Quellenflusskontrolle bekannt. Ein wichtiger Mechanismus zur Überwachung der Spitzenzellrate ist z.B. der sogenannte Leaky Bucket Mechanismus, bei dem die eintreffenden Zellen gezählt werden [80].

3.11 Signalisierung in ATM-Netzen In ATM-Netzen werden die Nutzdaten und Signalisierungsinformationen [64] [126], wie bei Schmalband ISDN (S-ISDN), in getrennten Kanälen übertragen. Das wird als Outband Signalisierung bezeichnet. Die Signalisierung in ATM-Netzen wird in zwei Bereiche unterteilt, in UNI (User-Network Interface) und in NNI (Node-Node Interface). Die UNI-Signalisierung hat die Aufgabe, die Steuerinformationen zwischen ATMEndknoten und ATM-Netzknoten zu übertragen, z.B. die Steuerung des Auf- und Abbaus der Verbindung zwischen ATM-Endknoten und einem Switch. NNI ermöglicht die Übertragung der Steuerinformationen zwischen ATM-Netzknoten, z.B. die Steuerung des Auf- und Abbaus einer ATM-Verbindung zwischen ATMNetzknoten und die Gewährleistung der festgelegten Verkehrs- und QoS-Parameter. Für die UNI- Signalisierung ist von der ITU–T der Standard DSS2 (Digital Subscriber Signalling System) definiert worden. Die Signalisierung wird über entsprechende Kanäle abgewickelt, die einen bestimmten VPI und VCI Wert haben müssen. Der Wert von VPI und VCI wird entweder im Netz vorher freigegeben oder durch die sogenannte Metasignalisierung festgelegt. Bezüglich der Signalisierung wird im B-UNI (Broadband User-Network Interface) zwischen einer Punkt zu Punkt und einer Punkt zu Mehrpunkt Verbindung unterschieden.

49

3 ATM (Asynchronous Transfer Mode)

3. 12 Adressierung in ATM-Netzen Telekommunikationssysteme können ihre Aufgaben nur dann erfüllen, wenn die Arbeitsplätze innerhalb der Telekommunikationssysteme und die Anwendungen durch bestimmte Werte und Verfahren ganz genau bestimmt werden. Das gilt auch für ATM-Netze, in denen die Arbeitsplätze und Anwendungen durch bestimmte Kennzeichen (Adressen) erkennbar sind. In ATM-Netzen [1] [39] [60] [126] sind zwei Arten von Adressen zu unterscheiden, Virtual Circuit Identifier–VCI und ATM Adressen. Durch VCI wird die Verbindung zwischen ATM-Knoten, wie schon erwähnt wurde, gekennzeichnet. Sie haben keinen festen Wert. Bei jedem neuen Verbindungsaufbau wird der VCI ein neuer Wert zugeordnet. Dieser Wert steht nach dem Verbindungsabbau nicht mehr für den nächsten Verbindungsbedarf zur Verfügung. Er wird als Freikennzeichen für die anderen ATMKnoten bzw. Anwendungen genutzt. Durch die VCI ist es unmöglich, einen ATMKnoten innerhalb der ATM-Netze zu identifizieren, da sich der VCI-Wert ändern kann, und der VCI nur einen logischen Kanal innerhalb mehrerer Kanäle in derselben Physikalischen Leitung bestimmt. Ein Arbeitsplatz innerhalb eines ATM-Netzes wird nur durch eine ATM Adresse weltweit bekannt. Die ATM Adresse wird aus zwei wesentlichen Teilen gebildet. Im vorderen Teil stehen die Informationen, wie ein Arbeitsplatz innerhalb des ATM-Netzes zu erreichen ist. Der hinter Teil der ATM-Adresse stellt die Adresse des Arbeitsplatzes dar. Die ATM-Adressen können in drei Formaten vorliegen: -

Data Country Code (DCC) ATM-Format

-

International Code Designator (ICD) ATM-Format

-

E.164 ATM-Format

Sie sind in Bild 3.12 dargestellt. Alle genannten ATM-Adressformate sind 20 Byte lang und ineinander übersetzbar.

50

3 ATM (Asynchronous Transfer Mode)

Bild 3.12 ATM- Adressformate Das E.164 ATM-Adressformat ist ein öffentliches Adressformat, die beiden anderen DCC und ICD sind sogenannte private ATM-Adressformate. Das

E.164 ATM-

Adressformat entspricht dem S-ISDN, das von der ITU -T Empfehlung als Adressformat bei B-ISDN vorgesehen ist.

51

4 Kopplungen zwischen Netzwerken

4 Kopplungen zwischen Netzwerken In diesem Kapitel werden einige Kopplungseinheiten wie Repeater, Bridge, Router, Gateway und Switch sowie Kopplungen zwischen LANs über ATM und deren Integrationsmöglichkeiten näher erläutet.

4.1 Kopplungsziel Die Begrenzung der Physikalischen Ausdehnung der LANs sowie die Einschränkung der Anzahl von Arbeitsplätzen, die an ihnen angeschlossen werden können, ist ein großer Nachteil der LANs. Um eine gewünschte räumliche Ausdehnung zu erhalten, oder mehr als die maximale Anzahl von Arbeitsplätzen zu ermöglichen, ist es oftmals sinnvoll, die LANs in kleinen Sub-Netze zu unterteilen. Diese Sub-Netze (Sub LANs) werden miteinander über die Netzkopplungseinheiten gekoppelt. Dabei können die Sub-LANs ganz unterschiedliche Protokolle verwenden. Wenn sich zwei oder mehrere LANs in größerer Entfernung voneinander befinden, können sie miteinander nur über ein WAN (Wide Area Network) gekoppelt werden, wie z.B. über ISDN, X.25 oder ATM [1] [2] [9] [24]. Je mehr Arbeitsplätze in einem LAN zusammengeschlossen sind, um so größer ist die Wahrscheinlichkeit, dass Fehler auftreten, durch die auch die Arbeit der anderen angeschlossenen Arbeitsplätze beeinträchtigt wird. Mit der Trennung des Netzes durch Netzkopplungseinheiten ist es möglich, die Fehler auf die jeweiligen Sub-LANs zu begrenzen. Große LANs müssen öfter aus organisatorischen und betrieblichen Gründen in SubLANs unterteilt werden, da Fehlersuche und Netzmanagement mit wachsender Netzgröße komplexer werden. Die Unterteilung des LANs in Sub LANs ermöglicht ein verteiltes und effektives Management und eine getrennte Fehleranalyse. Die grundliegenden Ziele der Kopplung sind in Bild 4.1 dargestellt.

52

4 Kopplungen zwischen Netzwerken

Bild 4.1 Hauptziel der LAN Kopplung

4.2 Einfluss von Netzmerkmalen in einer Netzkopplungseinheit Die Merkmale verbundener Netze spielen in der Kopplung [1] [24] zwischen Netzen eine zentrale Rolle. Deshalb ist es sehr wichtig, die Einflüsse von Netzmerkmalen in Kopplungseinheiten zu erläutern, um später die Kopplung der LANs über ATM besser erklären zu können. In den folgenden Abschnitten werden die Einflüsse von Netztopologien, Paketgröße, Übertragungsrate, Vermittlungsverfahren, Verbindungskonzept, Adressierungskonzept und Dienstqualität näher beschreiben.

53

4 Kopplungen zwischen Netzwerken

4.2.1 Netztopologien Die Topologie von gekoppelten Netzen stellt kein spezielles Problem für die Kopplung dar. Als Netzkopplungseinheit wird oft ein Arbeitsplatz verwendet [9]. Bei der Kopplung von Netzen mit Sterntopologie ist es sinnvoll, den zentralen Arbeitsplatz auch als Kopplungseinheit zu verwenden. Bei Netzen mit Baumtopologie ist die Wurzel des Netzes als Kopplungseinheit zu verwenden. Bus - und Ringtopologien haben keinen herausgehobenen Arbeitsplatz, der sich als Netzkopplungseinheit anbietet. Falls innerhalb des Netzes eine Prioritätsübertragung möglich ist, dann muss der Arbeitsplatz, der als Kopplungseinheit verwendet wird, eine höhere Priorität haben, um einen potentiell möglichen Engpass zu vermeiden. Hierzu muss auch eine zeitliche Beschränkung beim Senden von Paketen der Kopplungseinheit aufgehoben werden. Das bedeutet, dass die Kopplungseinheit ihre Pakete unmittelbar hintereinander übertragen können muss, ohne auf die laufende Zeit Rücksicht zu nehmen.

4.2.2 Paketgröße Wenn die Netze gemäß OSI-Referenzmodell auf der Schicht N miteinander gekoppelt werden sollen, dann müssen die Protokolle auf der Schicht N - 1 unterschiedlich sein und von der Schicht N an aufwärts identisch sein. Die Paketgrößen der Netze können von der Kopplungsschicht N abwärts unterschiedlich sein. Ist dies der Fall, dann muss eine Paketgrößenranpassung auf dieser Schicht durchgeführt werden. Dabei können folgende Fälle auftreten, bei denen eine Paketgrößenanpassung durchgeführt werden muss [82]. - Wenn die angebotene SDU (Service Data Unit) die auf dieser Schicht maximal bearbeitbare Größe überschreitet, muss sie spätestens in dieser Schicht in kleine PDUs (Protocol Data Unit) aufgeteilt werden. Da den aufgeteilten PDUs sehr oft Steuerdaten hinzugefügt werden müssen, sollte eine Teilung immer so spät wie möglich erfolgen. Bei einem verbindungslosen Betrieb, wie z.B. LANs, soll die Zusammenfügung erst beim Empfänger durchgeführt werden, da die aufgeteilten Pakete eines LAN unterschiedliche Wege nehmen können. Falls eine Kopplung zwischen LANs und einem verbindungsorientierten Netz stattfindet, wie z.B. ISDN oder ATM, dann soll

54

4 Kopplungen zwischen Netzwerken

die Zusammenfügung bei der Netzkopplungseinheit zwischen dem verbindungsorientierten Netz und dem LAN durchgeführt werden. Im diesem Fall können die zerlegten Segmente nur einen Weg nehmen und in der richtigen Reihenfolge übertragen werden [82] [83] [125]. Der Arbeitsplatz, an dem die Zusammenfügung durchgeführt werden soll, muss mit ausreichendem Speicherplatz ausgestattet sein, damit die Zeitdauer bis zum Eintreffen aller Pakete überbrückt werden kann, um so unerwünschte Verluste zu vermeiden. Falls die angebotenen Pakete einer Schicht kleiner sind als die Größe, die von der nächsten Abwärtsschicht bearbeitet werden kann, müssen mehrere SDUs zu einem PDU Block oder zu mehreren PDUs verkettet werden, um die Anzahl der PDUs zu reduzieren. Eine andere Möglichkeit, die gewünschte Paketgröße zu erreichen, ist das Hinzufügen von Füllbits. Die Netzkopplungseinheiten oder Arbeitsplätze können die Grenze der Nutzdaten in einem Paket durch Längenindikatorsbits erkennen und die hinzugefügten Bits wieder entfernen. Diese Möglichkeit wird bei CSMA/CD-Netzen verwendet, um die minimale Paketgröße von 64 Byte zu erreichen [51]. Die Zusammenfassung von mehreren Dateneinheiten und die anschließende Bearbeitung als ganzes Paket ist in der Kopplungseinheit sinnvoll, wenn damit die Leistungsfähigkeit der Netzkopplungseinheit gesteigert werden kann.

4.2.3 Übertragungsrate Wenn Netze mit unterschiedlicher Übertragungsrate miteinander zu koppeln sind, muss die Netzkopplungseinheit mit genügendem Speicher ausgerüstet sein, um die Spitzenrate zwischen den Netzen ausgleichen zu können. Die Pakete, die in Richtung des langsameren Netzes weitergeleitet werden müssen, werden zuerst in einem Netzkopplungspuffer zwischengespeichert, dann bearbeitet und dann mit einer geringeren Übertragungsrate weiter gesendet [9] [38]. Die Pakete, die von dem langsamen Netz kommen, werden in der Netzkopplungseinheit nur bearbeit und unmittelbar weiter gesendet. Bei verbindungslosen Netzen, wie bei herkömmlichen LANs, gibt es Schwierigkeiten, den ankommenden Verkehr zu drosseln, wenn die gekoppelten Netze unterschiedli55

4 Kopplungen zwischen Netzwerken

che Übertragungsraten haben, da die ankommenden Pakete keine Beziehung zueinander haben und von unterschiedlichen Sendern kommen können. Außerdem werden die empfangene Pakete beim Sender nicht quittiert. Es gibt einen Vorschlag, durch Hinzufügen eines Bits dem Empfänger zu signalisieren, dass unterwegs ein Datenstau aufgetreten ist. Die Frage aber, wie der Empfänger dem Sender signalisiert, seine Übertragungsrate zu reduzieren, ist noch offnen. Auch die Kriterien, nach denen das Bit hinzugefügt wird, sind noch nicht festgelegt. Bei verbindungsorientierten Netzen werden die entsprechendene Flusskontrollmechanismen ausgenutzt, die Übertragungsrate zu reduzieren. Damit ist es möglich, eine Überlastung der einzelnen Übertragungsabschnitte zu vermeiden. Der Puffer in der Netzkopplungseinheit soll so dimensioniert werden, dass auf der einen Seite die Verluste möglichst niedrig bleiben und auf anderen Seite die gesamte Transferzeit durch die zwischengespeicherten Pakete in der Netzkopplungseinheit nicht zu groß wird.

4.2.4 Verbindungskonzept Durch eine Netzkopplungseinheit ist es möglich, Netze mit unterschiedlichen Verbindungskonzepten miteinander zu koppeln, wie z.B. LAN-ATM (eine verbindungsloses Netz mit einem verbindungsorientierten Netz) oder umgekehrt ATM-LAN [1] [72] [95] [96]. Im diesem Fall sind zahlreiche Funktionen der Protokolle auf der Kopplungsschicht anzupassen. Bei einem Übergang von einem verbindungsorientierten in ein verbindungsloses Netz muss bei jedem Verbindungsaufbau die Adresse von Empfänger und Sender gespeichert werden, da in der Regel nur das erste Paket entsprechende Adressen enthält. Da die Pakete an die verbindungslosen Netze weitergesendet werden, muss jedem dieser Pakete auch die Adressen von Empfänger und Sender hinzugefügt werden. Wenn in der Netzkopplungseinheit Pakete von einem verbindungslosen Netz ankommen, die auf ein verbindungsorientiertes Netz weitergeleitet werden, ist zuerst eine Zwischenspeicherung erforderlich. Dann wird überprüft, ob zu dem gewünschten Empfänger schon eine Verbindung existiert. Falls ja, werden die Pakete nach notwendiger Bearbeitung weitergesendet. Wenn keine Verbindung vorhanden ist,

56

4 Kopplungen zwischen Netzwerken

muss erst eine Verbindung zum gewünschten Empfänger aufgebaut werden. Die Pakete werden dann in der erforderlichen richtigen Reihenfolge hintereinander übertragen. Die verbindungslosen Netze haben keinen Flusskontrollmechanismus. Im Gegensatz hierzu können verbindungsorientierten Netze eine strenge Flusskontrolle haben, was zu einer starken Belastung der Netzkopplungseinheit führen kann.

4.2.5 Adressierung Bei der Kopplung zwischen Netzen spielt die Adressumsetzung eine wichtige Rolle, da es nur dadurch möglich ist, dass die Pakete die gewünschten Empfänger erreichen. Vor der Kopplung zwischen Netzen muss im gesamten Netz oberhalb der Kopplungsschicht die Adresse im Ende-zu-Ende Protokoll eindeutig sein. Die Adressen auf den gekoppelten Netzen können je nach Kopplungsschicht und verwendeten Protokollen hierarchisch oder flach sein. Hierarchische Adressen werden meisten auf der Vermittlungsschicht verwendet. Eine hierarchische Adresse enthält die benötigten Informationen über die Lage der angeschlossenen Arbeitsplätze im gesamten Netz. Sie werden bei einer Verkehrslenkung immer ausgewertet. Falls ein Arbeitsplatz mit einer solchen hierarchischen Adresse an ein anderes Netz angeschlossen werden soll, dann muss ein Teil von dieser Adresse geändert werden. Je nach der Hierarchischebene, der die Netzkopplungseinheit angehört, muss nur ein bestimmter Teil der Adresse ausgewertet werden, um die Pakete zum entsprechenden Empfänger weiterzuleiten. Das bedeutet, dass Adressen–Tabellen in der Kopplungseinheit nur die Adressenteile enthalten müssen, die für die Verkehrslenkung benötigt werden. Bei der flachen Adresse handelt es sich um eine feste, gerätespezifische Adresse, die jedem Arbeitsplatz zugeordnet ist. Wenn ein Arbeitsplatz in einem anderen Bereich des Netzwerks angeschlossen wird, muss seine Adresse nicht umbenannt werden. Dieses Adressierungskonzept [24] [129] ist sehr wichtig bei mobilen Arbeitsplätzen wie z.B. bei WLAN. Eine weitere Unterscheidung wird zwischen einstufiger und mehrstufiger Adressierung gemacht. Wenn Arbeitsplätze des anderen Netzes durch bisher nicht verwende57

4 Kopplungen zwischen Netzwerken

te Adressen, sogenannte Aliasadressen, adressiert werden, spricht man von einer einstufigen Adressierung. In jeder Netzkopplungseinheit wird bei jedem Paket mit Hilfe einer Adressentabelle die Aliasadresse des Empfängers in eine andere Aliasadresse, wenn der Empfänger direkt im nächsten Netz angeschlossen ist, oder in die tatsächliche Adresse transformiert. Ein Problem, das sehr oft bei diesem Adressierungsverfahren auftritt, ist, die Aktualität und Konsistenz der Adressentabellen in den verschiedenen Netzkopplungseinheiten zu gewährleisten und zu überwachen. Wenn etwas an der Konfiguration geändert wird, dann soll dies in der Regel manuell erfolgen. Im Gegensatz zu der einstufigen Adresse werden bei der mehrstufigen Adresse eine Folge von Adressen in jedem Paket eingetragen, durch die der Weg bis zum Empfänger festgelegt ist. Auf seinem Weg wird in jedem Paket in den Netzkopplungseinheiten diese Folge von Adressen sequentiell abgearbeitet, bis bei der letzten Adresse der gewünschte Empfänger erreicht ist. Um bereits im Sender den Weg auswählen und ihn in die Pakete eintragen zu können, muss jeder Arbeitsplatz zu jeder Zeit genau die Konfiguration des Netzes kennen.

4.2.6 Dienstqualitäten Die Dienstqualitäten werden in der Regel durch den Einsatz von Kopplungseinheiten [1] [20] [24] verschlechtert. Falls ein Arbeitsplatz als Netzkopplungseinheit eingesetzt wird, muss er eine größere Zuverlässigkeit und Verfügbarkeit haben als ein normaler Arbeitsplatz, da er den Zugang zu vielen anderen Arbeitsplätzen im zweiten Netz ermöglichen soll. Im allgemeinen sind die Dienstqualitätsmerkmale in heterogenen Netzen schlechter als in homogenen Netzen. Die Pakete werden in jeder Netzkopplungseinheit bearbeitet und das verursacht eine zusätzliche Verzögerung, was die gesamte Transferzeit erhöht. Sehr oft treten in Kopplungseinheiten auch Paketverluste wegen der begrenzten Leistungsfähigkeiten der Netzkopplungseinheiten auf. Die Behandlung aufgetretener Fehler wird in der Regel nicht so zuverlässig durchgeführt, da die Ende-zu-Ende Signifikanz der Protokolle innerhalb der Netzkopplungseinheiten verloren geht. Ebenfalls zeigt die Flusskontrolle der Ende-zu-Ende Verbindung weniger Wirkung.

58

4 Kopplungen zwischen Netzwerken

In heterogenen Netzen werden des öfteren Funktionalitätsverluste

auftreten, da

nicht alle Eigenschaften der Protokolle in den Kopplungseinheiten in jedem Teilnetz realisiert werden können. Einige Dienstqualitätskriterien können durch zusätzliche Maßnahmen bei der Netzkopplung eingehalten oder sogar verbessert werden. Die Sicherheit des Netzes wird verbessert, wenn die Netzkopplungseinheiten den Zugang zu den anderen Netzen überwachen. Auch eine Überlastung des Netzes kann vermieden oder wenigsten verringert werden, wenn die Kopplungseinheit es überwacht und entscheidet, ob ein Arbeitsplatz mit einem Netz kommunizieren darf oder nicht. Durch eine Verbindungsaufspaltung in einem langsameren Netz kann eine geforderte Bandbreite auch dann bereitgestellt werden, wenn eine einzelne Verbindung auf diesem Netz diese Bandbreite nicht zur Verfügung stellen kann.

4.3 Klassifikation von Netzkopplungseinheiten In diesem Abschnitt wird erläutert, wie die Kopplungseinheiten auf verschiedenen Kopplungsschichten realisiert werden. Die Funktionen und Eigenschaften von Netzkopplungseinheiten sind direkt von der Kopplungsschicht abhängig [20] [24]. In welcher Kopplungsschicht die Kopplung zwischen den Netzen durchgeführt wird, hängt von der Netztopologie, den verwendeten Protokollen in den gekoppelten Netzen und der räumlichen Ausdehnung ab.

4.3.1 Repeater Repeater [53] sind die einfachsten Kopplungseinheiten, mit denen Netze miteinander auf der Bitübertragungsschicht gekoppelt werden. Repeater arbeiten gemäß dem OSI-Referenzmodell auf der ersten Schicht, der Physikalischen Schicht. Die Kopplung der Netze über einen Repeater ist in Bild 4.2 dargestellt. Sie werden eingesetzt, um die räumliche Ausdehnung eines Netzes, die aus physikalischen Gründen begrenzt ist, zu erweitern [9]. Repeater dienen ausschließlich der Signalverstärkung; das bedeutet, dass ein Repeater das Signal aufnimmt, es verstärkt und es auf andere Teilnetze weiterleitet. Deshalb sind die Protokolle und Zugriffsmethoden für Re-

59

4 Kopplungen zwischen Netzwerken

peater uninteressant [53] [56]. Die zu koppelnden Segmente müssen jedoch das gleiche Zugriffsverfahren haben. Die Übertragungsraten der gekoppelten Netze müssen gleich sein, da ein Repeater keinen Puffer besitzt, um eine Lastspitze ausgleichen zu können.

Bild 4.2 Kopplung der Netze (Sub-LANs) über Repeater In Repeatern können keine Informationen ausgewertet werden, weshalb alle Adressen in den gekoppelten Netzen einem gemeinsamen Adressraum entnommen sein müssen. Durch Repeater sind gekoppelte Netze als gemeinsames Netz, das aus mehreren Segmenten aufgebaut ist, zu betrachten. Der interne Verkehr eines Segments wird an andere Segmente weitergesendet. Damit kommt es zu unerwünschter Belastung der anderen Netzsegmente. Wenn es in einem Netzsegment zu einer Kollision kommt, dann kann der Repeater diese Kollision detektieren und das Segment von den anderen Segmenten isolieren, um eine Ausbreitung der Kollision über das ganze Netz zu vermeiden. Arbeitet das Segment später fehlerfrei, dann wird es automatisch an die anderen Netzsegmente wieder angekoppelt. Wenn ein Repeater mehr als zwei Segmente miteinander koppelt, dann spricht man von einem Multiport Repeater. Um eine große Entfernung zu überbrücken, müssen zwei Repeater mit60

4 Kopplungen zwischen Netzwerken

einander über eine Punk-zu-Punkt Verbindung verbunden sein, was als RemoteRepeater bezeichnet wird.

4.3.2 Bridge Findet die Kopplung zwischen zwei oder mehreren Netzen gemäß OSIReferenzmodell auf Schicht 2 statt, wird die Kopplungseinheit als Bridge bezeichnet. In der Regel wird die Kopplung auf der Schicht 2a (MAC) durchgeführt, so dass die Informationen der Schicht 2b eine Ende-zu-Ende-Signifikanz haben. Die Kopplung der Netze über eine Bridge ist in Bild 4.3 dargestellt. Meistens wird eine Bridge wie ein Repeater zur Erweiterung der räumlichen Ausdehnung eines Netzes eingesetzt. Bei CSMA/CD-Netzen ist es auch möglich, durch eine Segmentierung des Netzes und die Kopplung der Segmente über Bridges eine Beschränkung der Anzahl von Arbeitsplätzen zu vermeiden [51]. Ein Vorteil der Bridge ist, dass sie auf der Unterschicht 2a (MAC) arbeitet und auf der Unterschicht 2b (LLC) Protokolltransparenz anbietet [50]. Das bedeutet, dass über eine Bridge LANNetze gekoppelt werden, die unterschiedliche Protokolle verwenden. In der Regel werden über eine Bridge gleichartige Netze miteinander gekoppelt, es können aber auch Netze mit unterschiedlichen Zugriffsverfahren durch eine Bridge verbunden werden. Das ist möglich, da die Zugriffsverfahren der beiden Netze unabhängig voneinander arbeiten können. Mit anderen Worten, eine Bridge trennt die Netze in zwei “unabhängige“ Sub–Netze, wobei jedes von ihnen ein eigenes Zugriffsverfahren realisiert.

61

4 Kopplungen zwischen Netzwerken

Bild 4.3 Kopplung von Netzen über eine Bridge Wenn die beiden Netze das selbe Zugriffsverfahren haben, dann werden die PDUs einfach durchgereichet, wenn sie unterschiedliche Zugriffsverfahren haben, dann müssen sie transformiert werden. Ist die Transformation zu aufwendig und soll nur die räumliche Ausdehnung vergrößert werden, kann das zweite Netz als Transitnetz verwendet werden. Über Bridges ist es möglich, Netze mit unterschiedlichen Übertragungsraten zu koppeln, da bei Bridges Puffer vorhanden sind, durch die die Spitzraten der Netze ausgeglichen werden. Die Funktionen einer Bridge sind: -

Filtern und Weiterleiten von Paketen,

-

Pflege von Adressen– und Filtertabellen,

-

Managementfunktionen für die oben angeführten Funktionen.

Wenn Pakete in der Bridge eingetroffen sind, werden zuerst die Quell- und Zieladressen ausgewertet. Dann wird mit Hilfe eines Filtermechanismus entschieden, ob sie in das nächste Netz weitergeleitet werden oder nicht. Um das Paket zu filtern, werden meistens Adresstabellen verwendet. Wenn ein Paket in das nächste Netz weitergeleitet wird, bezeichnet man das als positives Filter, sonst wird es als negatives Filter bezeichnet. Durch den Filtermechanismus ist es möglich, den internen

62

4 Kopplungen zwischen Netzwerken

Verkehr vom externen Verkehr in einem LAN-Segment zu trennen, das heißt ein LAN-Segment wird nicht vom internen Verkehr eines andren LAN-Segments belastet. Dadurch wird die Leistungsfähigkeit des gesamten Netzes vergrößert [24]. Die Adress-Tabellen können statisch oder im dynamischen Betrieb aufgebaut und aktualisiert werden. Von der IEEE sind für die Verkehrslenkung und den Aufbau von Filtertabellen bei Bridges zwei Standards, Spanning Tree Bridges und Source-Routing Bridges, festgelegt. Bei dem Spanning Tree Bridge Standard ist der sogenannte Spanning Tree Algorithmus (STA) der Kernpunkt, bei dem über eine Bridge gekoppelte Netze mit physikalisch unterschiedlicher Topologie eine logische Baumtopologie abgebildet wird. Schleifen innerhalb eines gesamten Netzes, die Stationen über unterschiedliche Wege erreichbar machen, werden durch den STA erkannt. Es wird nur ein durch die Baumtopologie vorgesehener Weg ausgewählt, die anderen werden gesperrt. Source Routing Bridges sind als Erweiterung des bisherigen Token-Ring zu sehen, da diese Art von Bridges speziell für die Kopplung von Token-Ring Netzen (Standard IEEE 802.5) konzipiert sind [56]. Der Kernpunkt von Source Routing Bridges ist der Source Routing Algorithmus (SRA), durch den der Absender den Weg der Pakete festlegt. Zusammen mit der Zieladresse werden auch die Routing-Informationen in ein Routing–Kontrollfeld eingetragen. Wenn eine Bestätigung durch den Empfänger erforderlich ist, kommen die Bestätigungen in umgekehrter Reihenfolge des Routing– Kotrollfeldes zum Sender. SRA eignet sich

besonders für verbindungsorientierte

Protokolle auf hoher Schicht. Des weitern unterscheidet man, wie bei Repeatern, zwischen lokalen Bridges, Remote Bridges und Multiport Bridges.

4.3.3 Router Die Router stellen gemäß Bild 4.4 eine Kopplung zwischen Netzen auf der Schicht 3 des OSI-Referenzmodells her und realisieren somit die Funktionen bis zu dieser Schicht. Die zentrale Aufgaben des Routers ist die Wegwahl vom Sender bis zum Empfänger. Deshalb setzen Router das Vorhandensein einer Vermittlungsschicht in beiden Netzen voraus, was bei LANs oft nicht der Fall ist. Router müssen Protokolle

63

4 Kopplungen zwischen Netzwerken

oberhalb der LLC-Unterschicht verstehen und kennen [24] [50]. Das bedeutet, dass ein Arbeitsplatz und ein Router nicht kommunizieren können, wenn sie mit unterschiedlichen Vermittlungsprotokollen arbeiten. Deswegen spricht man davon, dass Router protokollabhängig sind. Die Kopplung von Netzen über Router ist in Bild 4.4 dargestellt.

Bild 4.4 Kopplung von Netzen über Router Wenn die Vermittlungsprotokolle der gekoppelten Netze unterschiedlich sind, muss eine Protokolltransformation durchgeführt werden. In diesem Fall muss mindestens der Teil der Vermittlungsschlicht, der für die Adressierung und Verkehrslenkung zuständig ist, in den gekoppelten Netzen identisch sein. Die Router sind durch die Routingfunktionen in der Lage, die günstigsten Wege zwischen Sender und Empfänger zu wählen. Wenn ein Weg bzw. Router ausfällt, ist es möglich einen alternativen Weg zu finden. Dadurch bieten die gekoppelten Netze über Router eine hohe Zuverlässigkeit und Verfügbarkeit. Falls fehlerhafte Pakete auf den Schichten 2 und 3 auftreten, werden sie nicht an andere Netze weitergeleitet, wodurch eine negative Wir64

4 Kopplungen zwischen Netzwerken

kung auf die anderen Netze ausgeschlossen wird. In diesem Fall generieren Router eine Fehlermeldung mit dem Hinweis, dass die Pakete nicht transportiert werden während bei Bridges die Pakete ohne eine Fehlermeldung vernichtet werden. Die Router werden vom internen Verkehr nicht belastet, da sie nicht jedes Pakete überprüfen, sondern nur die, die an den Router explizit adressiert sind. Die Router sind mit teilnehmerspezifischer Adresse adressiert. Die Vermittlungsadressen, die in der Regel hierarchisch strukturiert sind und im gesamten Netz eindeutig sein müssen, werden in der Netzübergangsschicht ausgewertet und durchgereichtet. Durch Router ist es möglich, ein LAN durch eine logische Unterteilung der LAN-Segmente mit unterschiedlichen Netzwerkadressen in echte Sub-LANs zu unterteilen. Deswegen müssen Router bei der Installation konfiguriert werden, im Gegensatz zu Bridges, bei denen die gekoppelten Netze einfach an diese angeschlossen werden. Bei der ersten Generation von Routern war es nur möglich, ein gemeinsames Protokoll einzusetzen, aber mit der Entwicklung der Netze und deren unterschiedlichen Protokollen reicht das nicht mehr aus. Deshalb sind in letzter Zeit multiprotokollfähige Router entwickelt worden, in denen mehrere Schicht 3 Protokolle implementiert sind. Um über eine Router routbare und nicht–routbare Protokolle zu unterstützen, sind Bridge-Router (Brouter) entwickelt worden, bei denen nicht–routbare Protokolle (wie z.B. NetBios oder LAT) gemäß einer Bridgefunktion behandelt und transportiert werden [9].

4.3.4 Gateway Wenn die Kopplung gemäß Bild 4.5 zwischen zwei oder mehreren Netzen auf der Transportschicht oder in einer höheren Schicht realisiert wird, bezeichnet man die Kopplungseinheit als Gateway [2] [9]. Gateways als Kopplungseinheiten werden in Netzen eingesetzt, die sich wenigsten, bis zur Transportschicht unterscheiden oder in Netzen, die unterschiedliche Protokolle verwenden. Daher müssen Gateways im Vergleich zu anderen Kopplungseinheiten mehr Intelligenz mitbringen, weshalb oft ein Rechner als Gateway eingesetzt wird, der die gestellten Anforderungen und Leistungen erbringen muss.

65

4 Kopplungen zwischen Netzwerken

Bild 4.5 Kopplung von Netzen über ein Gateway Gateways ermöglichen es, dass die gekoppelten Netze voneinander unabhängig bleiben. Oft werden Gateways zur Kopplung von LANs über WAN eingesetzt. Alle benötigten Anpassungen wegen unterschiedlicher gekoppelter Netze werden ebenfalls im Gateway durchgeführt.

4.4 LAN-ATM Kopplung und deren Integration Sollen zwei oder mehrere LANs miteinander gekoppelt werden, die sich in größer Entfernung voneinander befinden, so muss dies über ein WAN geschehen. Hierbei hat sich wegen der Zeittransparenz, der Skalierbarkeit und der hohen Bandbreite das ATM-Netz gegenüber anderen Lösungen wie X.25 und S-ISDN als besonders zukunftsträchtig erwiesen. Da durch die Weiterentwicklung des LAN diese auch in Zukunft eine große Rolle spielen werden, ist es sehr sinnvoll, die Kopplung und deren Integration zwischen LAN-Netzen und ATM-Netz zu untersuchen [2] [84].

66

4 Kopplungen zwischen Netzwerken

Wenn eine solche Kopplung zwischen LAN und ATM und deren Integration angestrebt ist, dann müssen die Unterschiede in der Funktionsweise dieser Netztypen ausgeglichen werden. Es sind einige Möglichkeiten der Kopplung und deren Integration untersucht worden, die in diesem Kapitel näher beschrieben werden. Wenn das ATM-Netz nur eine Kopplung der LAN-Netze über eine große Entfernung herstellen sollen, dann dient es als reines Transit Netz (Backbone). In diesem Fall ist es unmöglich, dass die Arbeitsplätze des ATM-Netzes mit denen der LAN-Netze kommunizieren: Wird aber die Integration beider Netze angestrebt, dann müssen die Eigenschaften des einen Netzes in dem anderen nachgebildet werden.

4.4.1 LAN Emulation Um die LAN Kommunikation in ATM-Netzen unterstützen zu können, müssen die LAN-Besonderheiten in ATM-Netzen nachgebildet werden, was als LAN-Emulation (LANE) bezeichnet wird [40]. Dabei sieht der LANE-Client auf der einen Seite die ankommenden LAN-Pakete und auf der anderen Seite die ATM-Zellen und muss diese ineinander überführen. Das wird durch das LAN Emulation User to Network Interface (LUNI) ermöglicht. Ferner ist es möglich, eine LAN-Emulation von virtuellen LANs aufzubauen, also die Emulation mehrerer lokaler Netze innerhalb eines ATMNetzes. Die LAN-spezifischen Funktionen werden oberhalb des Adaption Layers (AAL) aufgesetzt, was nur die Endsysteme betrifft aber nicht die Vermittlungseinrichtungen. Die LAN Emulation ist ein Dienst der Schicht 2 gemäß OSI-Referenzmodell und damit unabhängig von höheren Protokollen. Deshalb unterstützt LANE alle Protokolle. In der AALx-Schicht wird die Zerlegung von LAN-Paketen in ATM-Zellen durchgeführt, die später wieder zu Paketen zusammengesetzt werden. Wenn die Kopplungseinheit zwischen LAN und ATM auf der Schicht 2 stattfindet, (ATM–MAC Bridge), dann spricht man von eine LAN Emulation auf der MAC-Schicht. Das entspricht völlig den herkömmlichen Remote Bridges, die für die Kopplung zwischen LAN und WAN eingesetzt werden. Die Bridge muss für die MAC-Adressen des LANE-Moduls dessen ATM-Adresse ermitteln und bestimmen.

67

4 Kopplungen zwischen Netzwerken

Eine Mögliche logische Struktur zur Kopplung zwischen LANs über ATM-Netze auf der MAC-Schicht ist in Bild 4.5 dargestellt. Falls die Daten zu einem ATM– Arbeitsplatz gesendet oder falls die LANs über die ATM-Netze gekoppelt werden sollen, muss die Bridge ermitteln, ob bereits eine Verbindung zum erwünschten Ziel vorhanden ist. Ist dies nicht der Fall, muss zuerst die Verbindung aufgebaut werden, bevor die LAN-Pakete als ATM Zellen weiter übermittelt werden können.

Bild: 4.5 Mögliche LAN-Kopplung über ATM-Netze auf der MAC-Schicht Wenn eine LAN Emulation innerhalb der Netzwerkschicht durchgeführt wird, stellt die Kopplungseinheit einen ATM–Router für die Integration zwischen LAN und WAN. Diese Art der LAN-Emulation ist im RFC 1577 (Klassisches Internet Protokoll über ATM) vorgestellt [86]. Die LAN-Emulation innerhalb der Netzwerkschicht wird durch Nachbildung der LAN-spezifischen Netzwerkschicht oberhalb der Adaptionsschicht AAL realisiert. Danach werden die LAN-Pakete in ATM-Zellen zerlegt und an die unteren Schichten weitergegeben. Eine logische Struktur der LAN-Kopplung über ATMNetze auf der Netzwerkschicht ist in Bild 4.6 dargestellt.

68

4 Kopplungen zwischen Netzwerken

Der Sender-Router muss nach Bedarf eine ATM Verbindung zum Empfänger-Router aufbauen, falls sie noch nicht exsistiert. Aufgrund der Netzwerkadresse des Empfänger - Routers muss dessen ATM-Adresse ermitteln werden. Da die Router in der Regel nur die Angaben von Netzwerkprotokollen (NP) interpretieren, müssen sie über zwei Adressermittlungstabellen verfügen. Im Sender Router wird eine Tabelle zur Bestimmung der ATM- Adresse mit den Einträgen: Empfängeradresse SUB–LAN--> ATM-Adresse des Empfänger–Routers abgespeichert. Da nur die Pakete des Netzwerksprotokolls (NP–Pakete) aber keine MAC-Teile über das ATM-Netz übermittelt werden, sind die MAC-Adressen des Ziel LANArbeitsplatzes dem Empfänger-Router nicht bekannt. Deshalb ist im Empfänger Router eine zweite Tabelle mit den Einträgen : Netzwerkadresse des Empfängers --> MAC-Adresse des Empfängers abgespeichert. Das ARP-Protokoll (Address Resolution Protocol) übernimmt die Verwaltung der Adressermittlungstabellen [43] [86].

Bild: 4.6 Mögliche LAN-Kopplung über ATM-Netze auf der NP–Schicht

69

4 Kopplungen zwischen Netzwerken

Vom ATM Forum sind für die LAN-Emulation auf AAL-5 vier Komponenten spezifiziert (definiert) [132]. -

LAN Emulation Client ( LEC)

-

LAN Emulation Server (LES)

-

LAN Emulation Configuration Server ( LECS)

-

Broadcast and Unknown Server Bus (BUS)

LAN Emulation Client (LEC) Ein LEC innerhalb der LANE entspricht einem Arbeitsplatz in einem herkömmlichen LAN, der als Hardware–Modul oder als Treiber–Software implementiert werden kann. Die wichtigsten Aufgaben des LEC sind die Adressumsetzung der MAC–Zieladresse auf die ATM–Zieladresse, der Aufbau der Verbindung und die Datenübertragung über die ATM-Netze. Um mit dem Server zu kommunizieren, verwendet der LEC zwei verschiedene ATM Verbindungen, zum einem die Kontrollverbindungen, über die administrativen Aufgaben durchgeführt werden, zum anderen die Datenverbindung. LAN Emulation Server (LES) Der LES spielt eine zentrale Rolle bei einem emulierten LAN. Er soll die LECs unterstützen, da in ihm alle vorhandenen LECs registriert und die registrierten Adressen verwaltet werden. Falls ein LEC ein Paket sendet, sendet er dazu auch die eigene MAC-Adresse, die dazugehörige ATM-Adresse sowie Wegwahlinformationen an den LES. Der LES fragt in seiner eigenen Adresstabelle die ATM Adresse ab. Wenn er die ATM–Empfängeradresse findet, beginnt er mit der Datenübertragung. Wenn er die Adressen nicht kennt, wird die Adresszuordnung mit Hilfe einer Broadcast Message über den BUS durchgeführt. LAN Emulation Configuration Server (LECS) Falls sich ein LEC bei seinem zugehörige LES anmeldet, zeigt der LANE Server nicht, wie man die ATM-Adresse des anderen LES in Erfahrung bringen kann. Ein LECS wird eingerichtet, um eine automatische Konfiguration der anderen LANE– Server zu ermöglichen. Der LECS enthält eine Datenbank mit den bereits emulierten LANs und den ATM-Adressen der zugehörigen LES. Dadurch wird die Zugehörigkeit der LAN Emulation Server zu den verschiedenen LANs zentral verwaltet. 70

4 Kopplungen zwischen Netzwerken

Broadcast and Unknown Server (BUS) Ein wesentliches Merkmal der LAN-Technologie ist das Broadcasting, was in ATMNetzen unbekannt ist. Für eine erfolgreiche Emulation muss dies nachgebildet werden. Es wird durch den BUS erreicht, der für die Broadcast- und MulticastDatenpakete zuständig ist. Um die hinzukommenden LEC aufnehmen und nicht mehr aktive LEC aus der Verbindung herausnehmen zu können, muss er seine Broad-Multicast Verbindungen ständig der aktuellen Konfiguration anpassen. Um eine mögliche Überschneidung mit AAL5 Datenpaketen von andern Sendern zu vermeiden, werden vom BUS die empfangenen Pakete streng in der richtigen Reihenfolge an die angeschlossenen LECs weitergeleitet. Die zuvor gezeigte LAN-Emulation unterstützt nur Token-Ring- und EthernetNetzwerke über die AAL5-Schicht. Eine FDDI-Umsetzung ist bisher nur über die Ethernet–Paketumsetzung möglich. Ein weiteren Nachteil der LAN Emulation besteht darin, dass die Dienstqualitäten und garantierten Bandbreiten für Multimedia– Anwendungen als herausragende Eigenschaften von ATM nicht nachgebildet werden können. Die LAN-Emulation erlaubt es nicht, dass Arbeitsplätze im Ethernet mit Arbeitsplätzen im Token-Ring Netzwerken kommunizieren können. Das kann nur über einen Router realisiert werden.

4.4.2 IP über ATM Um zukünftig ATM-Netze in das Internet integrieren zu können, sind bei der IETF (Internet Engineering Task Force) Standards entwickelt worden, die die Übertragung von IP-Paketen über ATM-Netze definieren. Im Dokument RFC 1483 sind die Möglichkeiten beschrieben, um unterschiedliche LAN Protokolle (Ethernet, Token Ring, FDDI) über ATM-Netze zu übertragen [43]. Die IP-Pakete werden in ATM-Zellen gemäß AAL5 eingepackt und verschickt. Es gibt zwei unterschiedliche Möglichkeiten, die IP-Pakete einzukapseln und über ein ATMNetz zu übertragen. Die erste Möglichkeit zum Transport unterschiedlicher Protokolle über die gleiche ATM-Verbindung ist die Einkapselung des IP-Pakets in ein LLC/SNAP Paket, wie in Bild 4.8 dargestellt. Das bedeutet, dass ein zusätzlicher

71

4 Kopplungen zwischen Netzwerken

Header in jedes IP-Paket eingefügt werden muss, um die unterschiedlichen Protokolle identifizieren zu können. Die zweite Möglichkeit sieht vor, für jedes Protokoll eine eigene Verbindung aufzubauen. Dies ist als VC- based Multiplexverfahren bekannt. Bei dieser zweiten Möglichkeit ist es theoretisch möglich, die Qualitätsanforderungen an die Verbindung einzuhalten. Bis jetzt hat nur die erste Möglichkeit eine praktische Bedeutung gefunden. Die Empfehlung RFC 1577 beschreibt, wie IP-Pakete vollständig in ATM implementiert werden können. Die Möglichkeit einer ATM-LAN Kopplung nach RFC 1577 ist in Bild 4.7 dargestellt [86].

Bild 4.7 : ATM-LAN Kopplung nach RFC 1577 Die Clients, Arbeitsplätze und Router werden, wie bei der LAN-Emulation, zu einem logischem IP Sub-Netz, LIS (Logical IP Subnetwork) zusammengefasst, und haben dieselben IP-Adresse und Subnetzmaske. Außer den Clients enthält ein LIS auch einen ATMARP-Server (ATM Address Resolution Protocol Server), der für die Adressenauflösung zuständig ist. Die Datenübertragung erfolgt über das ATM-Netz als eine Punkt–zu-Punkt Verbindung. Ein Client, der Daten zu übertragen hat, baut zuerst eine virtuelle Verbindung zum ATMARP-Server auf. Der ATMARP-Server wandelt die IP-Adresse in eine ATM-Adresse um und sendet sie an die anfragende Station. Danach kann der Senderarbeitsplatz direkt eine Verbindung mit dem Empfängerarbeitsplatz herstellen. Falls ein Arbeitsplatz ein Datenpaket an einen Arbeitsplatz schicken will, dessen Adresse sich nicht in der ATMARP-Tabelle befindet, folgt eine ARP Request-Mitteilung (ARP-Adress Resolution Protocol) an den ATMARP-Server. Dieser schickt eine ARP-Antwort, die die ATM Adresse des Empfängers beinhaltet.

72

4 Kopplungen zwischen Netzwerken

So kam dann eine Verbindung zwischen dem Sender und dem Empfänger aufgebaut und eine Datenübertragung durchgeführt werden [29] [72] [97]. Später wurde noch die maximale IP-Paketgröße, die theoretisch bis zu 65535 Byte betragen kann, auf 9180 Byte festgelegt. Die IP-Pakete werden normalerweise in ATM-Zellen segmentiert und jede verlorene Zelle bedeutet, dass

das ganze IP-

Paket wiederholt werden muss. Die Wiederholung wird durch das TCP-Protokoll realisiert [32] [106] [123].

Bild 4.8 : LLC / SNAP-Einkapselung eines IP-Paketes über die AAL-Schicht.

73

4 Kopplungen zwischen Netzwerken

4.4.3 MPOA (Multiprotocol over ATM) Die bisher erläuterten Möglichkeiten, um verbindungslose Netze über ATM-Netze zu koppeln, nutzen noch nicht die eigentlichen Vorteile, die das ATM-Netz anbieten kann, wie z.B. die direkte Kommunikation zwischen Arbeitsplätzen in unterschiedlichen Netzwerkschichten, die Möglichkeit, vorher Bandbreite zu reservieren, eine Dienstgüte in Form der QoS–Parametern anzubieten oder die Verteilung von Multicast über Punkt-zu-Mehrpunkt Verbindungen. Beim Entwurf einer LAN-ATM Kopplungseinheit sollte immer versucht werden, die positiven Eigenschaften von beiden Netzen so gut wie möglich beizubehalten. LANE und CLIP ermöglichen keine Kopplung von LANs mit unterschiedlichen Netzwerkprotokollen über ATM-Netze, ohne Verwendung von Routern. Auch können zwei Arbeitplätze, die in unterschiedlich emulierten LANs (ELAN) angemeldet aber am selben ATM-Switch angeschlossen sind, nicht miteinander kommunizieren, ohne dass ein Umweg über mehre Router notwendig wird. Der Einsatz von Routern kann jedoch zu Engpässen führen. Deshalb wurde vom ATM-Forum die ArbeitsgruppeMPOA gegründet, die für die obengenannten Probleme eine Lösung finden sollte [132]. MPOA ermöglicht ein Routing unterschiedlicher Protokolle über ATM-Netze, da MPOA direkt auf die Netzwerkschicht (Schicht 3) aufgesetzt wird. Damit erreicht man es, die Routingfunktionalität der herkömmlichen IP - Netzen mit der entsprechenden Funktionalität von ATM-Netzen zu verschmelzen. Dazu wurde vom ATM-Forum ein virtuelles LAN (VLAN) definiert, das aus zwei Bestandteilen besteht [72] [132]. -

1 Adressbereich der Arbeitsplätze im virtuellen LAN

-

2 Netzwerkschicht-Protokolle, über die Arbeitsplätze miteinander kommunizieren.

Die Vorteile, die sich bei einer MPOA Kopplung zwischen LAN und ATM-Netzen und deren Integrationsmöglichkeit ergeben, lassen sich wie folgt zusammenzufassen. -

Unterstützung von Multicast Verkehr

-

Unterstützung einer garantierten Dienstgüte (QoS-Parameter bei ATM)

-

Arbeit auf der Schicht 2 und Schicht 3 gemäß OSI-Referenzmodell

-

Unterstützung aller Routing Protokolle über ATM

74

4 Kopplungen zwischen Netzwerken

Durch “Short Cut“ VCC ist es möglich, eine Direktverbindung zwischen Arbeitsplätzen in unterschiedlichen Sub-Netzen herzustellen, ohne einen Router einzusetzen. Das wird durch der Protokoll NHPR (Next Hop Resolution Protocol) realisiert. Die Spezifikationen, die von MPOA verwendet werden, sind in Bild 4.9 dargestellt.

Bild 4.9 : Spezifikationen die in MPOA verwendet werden MARS (Multicast Address Resolution Server) übernimmt das Versenden von IPMulticast Paketen. In der RFC 2022 Spezifikation ist beschrieben, wie man durch einen zusätzlichen Mechanismus IP-Multicasting über ATM-Netze ausnutzen kann.

75

4 Kopplungen zwischen Netzwerken

RSVP (Resource Reservation Protokoll) ermöglicht die Bandbreitereservierung. Dadurch ergibt sich die Möglichkeit, verbindungslosen Netze auch für zeitkritische Anwendungen zu nutzen [116] [119] [131]. Das PNNI (Privat Network-to-Network Interface) vermeidet eine unerwünschte Belegung von Pfad - und Kanalverbindungen durch ineffektives Routing. PNNI ermöglicht sowohl Source-Routing als auch Hop–by–Hop–Routing. Im Source-Routing wird der Pfad zwischen Empfänger und Sender durch den Sender festgelegt. Im Hop–by–Hop–Routing wählt jedes System, unabhängig von den anderen, den nächsten Schritt (Hop) von einem Knoten zum anderen Knoten entlang des verwendeten Pfades. Die Architektur des MPOA ist in Bild 4.10 dargestellt. Sie beinhaltet die folgenden Komponenten. -

MPOA Clients (MPC)

-

MPOA Server (MPS)

-

ATM-Hosts

Bild 4.10: MPOA-Architekturmodell

76

4 Kopplungen zwischen Netzwerken

Die MPOA Clients (MPC) befinden sich auf Edge Devices oder Arbeitsplätzen, die direkt an ATM-Switches angeschlossen sind. Edge Devices vermitteln die Datenpakete zwischen LAN-Netzen und ATM-Netzen. Damit Datenpakete ihr Ziel erreichen, verwenden sie die Adressen der Netzwerkschicht oder MAC-Adressen. Sie integrieren auch herkömmliche LAN-Sub Netze (Segmente) und sind für das Weiterleiten von LAN-Paketen von und zum ATM-Netz sowie zwischen LAN-Sub Netzen zuständig. Der MPOA Server (MPS) übergibt dem angefragten MPC die Informationen über den anderen MPC und ATM-Host. Deswegen muss er die Adresstabellen der Netzwerkschicht, die MAC Adressen sowie die ATM Adressen bereithalten. Durch diese Adressinformationen wird es möglich, eine direkte Verbindung zwischen zwei gewünschten Arbeitsplätzen herzustellen. MPS kann als eine Sammlung von Funktionen bezeichnet werden, mit denen sich Subnetze, die auf der Netzwerkschicht definiert sind, auf ATM abbilden lassen. Als ATM-Hosts werden die Arbeitsplätze mit einem ATM-Netzadapter bezeichnet, deren Treiber das MPOA unterstützen. Die ATM-Hosts können normalerweise miteinander direkt über das ATM-Netz kommunizieren, aber mit Arbeitsplätzen von herkömmlichen LANs können sie nur über ein Edge-Device kommunizieren. Ingesamt ermöglicht das MPOA-Modell den Aufbau eines virtuellen Routers mit einem einzigen “Hop“ über das gesamten ATM-Netz.

4.4.4 Übertragung der ATM-Zellen als LAN-Pakete Bisher wurde erläutert, wie die LAN-Pakete in ATM-Zellen zerlegt und als ATMZellen bis zur nächsten Kopplungseinheit übertragen werden. Was aber ist zu beachten, wenn ATM–Dienste bis zum Arbeitsplatz gebracht werden, ohne auf herkömmlichen LANs zu verzichten? Dazu werden die herkömmlichen LANs, wie Ethernet oder Token-Ring als Transportnetze von ATM-Zellen näher betrachtet [1] [72] [82] [126]. Es gibt einige Probleme, die auftreten können, wenn die ATM-Zellen über herkömmliche LANs übertragen werden. Wie werden z.B. die priorisierter Zellen erkannt und behandelt, wie wird die gewünschte Bandbreite reserviert und wie werden die verhandelten QoS-Parametern in ATM-Netzen in LANs weiter gewährleistet?

77

4 Kopplungen zwischen Netzwerken

Das Problem der Bandbreitenreservierung wird in etwa durch das RSVP (Resource Reservation Protocol) vermieden, das von der IFTE für die Bandbreitreservierung in IP–Netzen entworfen wurde. Die Priorität der LAN-Pakete ist im IEEE 802.3p Standard definiert, der die herkömmlichen Ethernet–Pakete modifiziert. Beides reicht aber noch nicht aus, die Eigenschaften von ATM-Netzen auch in LANs weiter zu betreiben. Für die Übertragung von ATM-Zellen über LANs muss es wenigsten möglich sein, QoS Parametern für herkömmliche LANs bereitzustellen, um damit die MultimediaAnwendungen zu ermöglichen. Darüber hinaus soll gemäß ATM für den ABRVerkehrstyp eine Datenflusskontrolle ermöglicht werden. Da die Ethernet Paketgröße mindesten 64 Byte beträgt [51], müssen mehrere ATMZellen zu einem Ethernetpaket zusammengefügt werden, um über das Ethernetnetz übertragen werden zu können. Diese Zellen müssen dem gleichen virtuellen Kanal angehören. Des weiteren wird ein zusätzlicher CIF/ATM–Header (CIF-Cell in Frame) von 8 Byte hinzugefügt. Das ist in Bild 4.11 dargestellt.

Bild 4.11 Cells– in – Frame – Paketesstruktur Bei Ethernet gemäß IEEE 802.3 und Token-Ring gemäß 802.5 [56] wird, wie in Bild 4.11 dargestellt, dem CIF-Header ein SNAP-Header vorangestellt. Die Möglichkeit der variablen Paketlänge, die zwischen einer Unter- und Obergrenze schwanken kann (z.B. bei Ethernet 64 – 1500 Byte) [51], erschwert die Bearbeitung 78

4 Kopplungen zwischen Netzwerken

der Pakete in Routern und Switches [24], da die Kopplungseinheit zuerst die Länge der Pakete identifizieren muss. Für die Datenflusskontrolle ist vom ATM-Forum [132] Explizit Rate Flow Control vorgeschlagen worden, das nach dem Prinzip der Kontrollmeldung (RM-Ressource Management) arbeitet. Hierbei wird durch RM-Zellen dem Sender mitgeteilt, seine Übertragungsrate zu reduzieren. Diese RM-Zellen kann jeder Netzknoten erzeugen, falls er erkennt, dass es zu einer Überlastsituation gekommen ist.

4.4.5 Connectionless Server (CLS) Außer den bisher beschriebenen Möglichkeiten zur Koppelung und Integration von LAN-Netzen und ATM-Netzen kann das ATM-Netz selbst die Funktionalität der verbindungslosen Dienste durch einen CLS (Connectionless Server) anbieten [11] [82] [95] [96]. Ein CLS ist in der Lage, die verbindungslosen Protokolle zu verarbeiten und die verbindungslosen Dateneinheiten an die Übermittlung in einer verbindungsorientierten Umgebung anzupassen. Ein derartiger Dienst wird als SMDS (Switched Multimegabit Data Service) bezeichnet. In Bild 4.12 ist ein Referenzmodel zur LAN Kopplung über B-ISDN dargestellt. Auf der SMDS–Basis hat das ETSI (European Telecommunications Standards Institut) in Europa den CBDS (Connectionless Broadband Data Service) definiert[16]. Um die LAN-Netze über ATM-Netze zu koppeln, benötigt der CLS zusätzliche CLSFunktionen (Connectionless Service Function), wie z.B. die Wegsuche, die Adressierung und die Dienstgüteauswahl. Die CLSF können in einer ATM-Vermittlung oder separat in einem verbindungslosen Server (CLS) implementiert werden [11].

79

4 Kopplungen zwischen Netzwerken

Bild 4.12: Referenzmodell der LAN Kopplung über B-ISDN Die Funktionen werden oberhalb der AAL 3/4 angeordnet. Es gibt dabei die folgende Protokolle. -

CLNAP (Connectionless Network Access Protocol)

-

CLNIP (Connectionless Network Interface Protocol)

-

CLLR&R (Connectionless Layer Routing & Relaying)

Wie aus Bild 4.13 ersichtlich, sind die verwendeten verbindungslosen Protokolle in der CLNAP-Schicht enthalten. Mittels CLNAP bekommt der Benutzer den Zugang zum verbindungslosen Datenübermittlungsdienst des ATM-Netzes. Das CLNAP ermöglicht eine ungesicherte Übermittlung der Datenpakete mit variabler Länge vom Benutzer zum ersten verbindungslosen Server. Zwar werden die CLANP-PDUs in richtigen Reihenfolge übertragen, aber verlorengegangene oder verfälschte Dateneinheiten werden nicht wiederholt. In der CLNAP-Schicht werden auch die Adressfunktionen und eine Kontrolle der sogenannten Zugangsparameter durchgeführt. Im zugefügten CLANP-PDU-Kopf sind die benötigte Quell- und Zieladresse gemäß ITUT–Empfehlung E.164 (Abschnitt 2.11) enthalten. Das CLNAP erhält über das verbindungslose Protokoll des Benutzers die Dateneinheiten und übergibt sie an die AAL3/4-Schicht , die im ATM-Netz eine transparente Übermittlung der Protokolldateneinheit des CLNAP zwischen zwei beteiligten CLANP - Einheiten ermöglicht. Die Übergabe der CLNAP-Protokolldateneinheiten an die AAL3/4 kann dabei in zwei Modi durchgeführt werden, im Message-Modus und im Streaming-Modus (Abschnitt 2.6.3).

80

4 Kopplungen zwischen Netzwerken

Bild 4.13: ATM-Netz mit verbindungslosem Server ( CLS) Das CLNIP unterstützt, wie ebenfalls aus Bild 4.13 dargestellt ist, den verbindungslosen Datenübermittlungsdienst zwischen verbindungslosen Servern.

81

4 Kopplungen zwischen Netzwerken

4.5 Ausblick auf gegenwärtige Zustand der Kopplung zwischen LAN und ATM und der Integration In diesem Kapitel werden unterschiedliche Verfahren erläutet, die eine Kopplung und Integration eines LAN- mit einem ATM-Netz ermöglichen. Diese Verfahren, wie z.B. LAN-Emulation, IP über ATM oder MPOA, nutzen aber noch nicht die besonderen Eigenschaften des ATM-Netzes aus, wie die Flexibilität der Bandbreite und der Ausdehnung sowie die QoS. Das bedeutet, dass die wesentlichen Vorteile des ATMNetzes bei der Kopplung mit LAN-Netzen noch verborgen bleiben. Die LAN-Emulation als Kopplungsverfahren zwischen LAN und ATM ist in Abschnitt 4.4.1 erläutert. Der Hauptvorteil der LAN-Emulation besteht darin, dass sie die vorhandenen LAN-Netze bzw. die herkömmlichen LAN-Typen wie Ethernet und TokenRing an das ATM-Netz anpasst. Somit ist es möglich, LAN-Netze über ATM-Netze miteinander zu koppeln. Die unterschiedlichen LAN-Protokolle, die in LAN- Netzen angewendet werden, stellen kein Problem für die LAN-Emulation dar, da die MACSchicht emuliert wird. Das bedeutet, dass die LAN-Emulation unterschiedliche Netzwerkprotokolle unterstützt bzw. die Netzwerkprotokolle transparent sind. Die

wesentlichen

Eigenschaften

des

ATM-Netzes

können

bei

dem

LAN-

Emulationsverfahren nicht ausgenutzt werden. Die LAN-Emulation unterstützen keine QoS-Parameter und die QoS-Eigenschaften von ATM werden im LAN nicht nachgebildet. Ein anderer Schwachpunkt der LAN-Emulation ist, dass sie nur die Kopplung zwischen gleichen LAN-Typen anbieten kann. Dass heisst, dass die LANEmulation die Kopplung zwischen Ethernet und Token-Ring nicht ermöglicht. Andere LAN-Typen, wie z.B. FDDI unterstützt die LAN-Emulation nicht. Im diesem Fall muss eine Paketumsetzung von FDDI-Paketen in Ethernet-Pakete durchgeführt werden. Beim LAN-Emulationsverfahren ist die Paketgröße auf 1500 Byte beschränkt und alle Pakete müssen die gleiche Größe haben. Verwendet ein LAN eine andre Paketgröße, muss eine Paketgrößenanpassung durchgeführt werden. Die

Anwendung

der

BUS

(Broadcast

und

Unknown

Server) beim

LAN-

Emulationsverfahren begrenzt die Übertragungsrate, da BUS keine Übertragungsrate zulässt, die höher als die Datenrate des LAN-Arbeitsplatzes ist. Diese Nachteile betrifft besonderes die Multimedia Anwendungen, die große Bandbreiten benötigen. Die

82

4 Kopplungen zwischen Netzwerken

obengenannten Nachteile des LAN-Emulationsverfahrens zeigen, dass dieses Verfahren für größere Netze nicht geeignet ist und es kann bei Multimedia Anwendungen nicht eingesetzt werden. Das IP über ATM-Verfahren, das in Abschnitt 4.4.2 erläutert wurde, ermöglicht die direkte Nutzung der IP (Internet Protokoll) über das ATM-Netz. Diese Verfahren macht einen weiteren Schritt, Internet und ATM zu koppeln bzw. zu integrieren. Durch die größeren Pakete von 9180 Byte erreicht das IP über ATM-Verfahren eine höhere Effizienz als das LAN-Emulationsverfahren. Es ist völlig kompatibel zu IP, weshalb keine Änderungen von Protokollen und Applikationen durchzuführen sind. Aber auch das IP über ATM-Verfahren leidet unter fast denselben Schwächen wie das LAN-Emulationsverfahren. Das IP über ATM-Verfahren unterstützt nur die IP-Protokolle. Die wesentlichen Eigenschaften der ATM-Netze, wie QoS und die Skalierbarkeit kann das IP über ATMVerfahren nicht unterstützen. Deshalb ist diese Verfahren ungeeignet für Multimedia Anwendungen. Ein weiterer Nachteil des IP über ATM-Verfahren ist, dass es keine direkte Verbindung für unterschiedliche Subnetze anbietet. In diesem Fall muss ein Router eingesetzt werden, was zu Engpässen führen kann. Bis jetzt unterstützt dieses Verfahren nur den Unicast-Verkehr, die anderen wie Multicast- und BroadcastVerkehr fehlen bei diesem Verfahren. Eine weitere Möglichkeit zur Kopplung von LAN- und ATM-Netzen bietet das MPOAVerfahren, das sich jedoch erst noch in der Entwurfsphase befindet. Durch den Einsatz unterschiedlicher LAN-Protokolle werden bei diesem Verfahren einige Nachteile der beiden zuvor genannten Verfahren vermieden und wesentliche Merkmale des ATM-Netzes ausgenutzt. Mit dem MPOA-Verfahren lassen sich unterschiedliche Subnetze ohne Einsatz eines Routers direkt kopplen. Das Verfahren eignet sich gut für große Netzstrukturen. Durch den Einsatz der RSVP-Protokolle kann das MPOA-Verfahren unterschiedliche Bandbreiten zur Verfügung stellen. Die Protokolle ermöglichen es aber nicht, QoSParameter in dem bei ATM-Netzen gegebenen Umfang anzubieten. Das MPOAKopplungsverfahren ist daher für Multimedia-Anwendungen nicht geeignet. Weitere

83

4 Kopplungen zwischen Netzwerken

Problemstellungen ergeben sich darüber hinaus bei diesem Verfahren aufgrund der noch nicht ausreichenden Stabilität und der Komplexität der Protokollstruktur. Bei einer Analyse der bisher bekannten Verfahren zur LAN-ATM-Netzkopplung zeigt sich, dass die besonderen Eigenschaften des ATM-Netzes dabei nur teilweise ausgenutzt werden. Für eine integrierte Netzverkopplung sind insbesondere noch Lösungen für die folgenden Problemstellungen zu erarbeiten. Wie werden die priorisierten Zellen erkannt und behandelt? Wie wird die erforderliche Bandbreite reserviert? Wie werden die QoS-Parameter des ATM-Netzes in LAN weiter gewährleistet? Für Multimedia Anwendungen ist zumindest die Lösung der zuletzt genannten Problemstellung von großer Bedeutung. Zur eingehenden Untersuchung der sich in diesem Zusammenhang ergebenden technisch-wissenschaftlichen Detailfragen ist im Rahmen der vorliegenden Arbeit eine LAN-ATM-Kopplungseinheit entwickelt und in Computersimulation erstellt worden, die eine volle Ausnutzung der QoS-Parameter des ATM-Netzes im LAN ermöglicht und innerhalb eines CL-Servers zum Einsatz kommen kann. Aufbau der Kopplungseinheit und die Modellierung der einzelnen Systemkomponenten werden im nachfolgenden Kapitel eingehend behandelt.

84

5. Modellierung des LAN- und ATM-Netzes

5. Modellierung des LAN- und ATM-Netzes

Wenn man Kommunikationssysteme und deren Leistungsparameter untersuchen will, dann ist die Modellierung des gesamten Systems gemäß der Nachrichtenverkehrstheorie1 [104] ein gangbarer Weg, das zu erreichen. Die Modellierung hilft besonders in der Entwurfsphase der Komponenten eines Kommunikationssystems. In der Entwurfsphase ist es möglich, verschiedene Realisierungsmöglichkeiten und deren unterschiedliche verwendeten Komponentenwerte zu vergleichen. Somit kann man später eine Dimensionierung und Optimierung des Kommunikationssystems durchführen. Die Modellierung des Netzes gemäß der Nachrichtenverkehrstheorie eignet sich besonders für das ATM-Netz und dessen Kopplungseinheiten mit anderen Netzen. Wegen der Komplexität des ATM-Netzes hängen die Architektur und die Leistungsparameter, im Gegensatz zu anderen Netztypen, stark voneinander ab. Wie schon in Abschnitt 4.5 erwähnt wurde, fehlt in den bisherigen Kopplungsverfahren zwischen LAN und ATM noch die Ausnutzung einer der wesentlichsten Eigenschaft des ATM-Netzes, die QoS. In Rahmen der vorliegenden Arbeit ist eine eigene Netzkopplungseinheit entwickelt worden, die es der ermöglicht, bei einer Kopplung zwischen LAN und ATM die QoS-Eigenschaften des ATM-Netzes auszunutzen. Diese Ausnutzung der QoS-Eigenschaften bringt Vorteile besonders bei Multimedian Anwendungen. Die entwickelte Netzkopplungseinheit zwischen herkömmlichen LAN– und ATM-Netzen ist als Blockdiagram in Bild 5.1 dargestellt. Sie kann innerhalb eines CL-Server eingesetzt werden. Im folgenden Kapitel werden die wichtigsten QoSParameter, wie Verlustwahrscheinlichkeit, Warteschlangenlänge, Wartezeit, ungenutzte Bandbreite und Auslastungskoeffizient gemäß der Nachrichtenverkehrstheorie berechnet. Diese QoS-Parameter der Netzkopplungseinheit sind auch in den Simulationsergebnissen im sechsten Kapitel dargestellt. Die Simulationen sind für unterschiedliche Bandbreitenreservierungsstrategien, unterschiedliches Angebot, unterschiedliche Paketgröße, unterschiedliche LAN-Typen, unterschiedliche Bandbreite1

Die Nachrichtenverkehrstheorie bietet wichtige Grundlage für eine theoretische Analyse der Vorgän-

ge in Telekommunikationsnetzen, die durch Verkehrsquellen, Leitungen, Kanäle, Warteplätze, Prozessoren usw. geprägt sind.

85

5. Modellierung des LAN- und ATM-Netzes

reservierungsveranlassungen und unterschiedliche Ausrüstungsparameter der Netzkopplungseinheit durchgeführt worden. Dadurch lassen sich die entsprechenden Parameter in den unterschiedlichen möglichen Fällen untersuchen. Die einzelnen Blöcke der Netzkopplungseinheit müssen durch abstrakte Modelle modelliert werden. Die modellierten Komponenten der Kopplungseinheit zwischen beiden Netzen enthalten die wesentlichen Eigenschaften der realen Komponenten. Die Komponenten, von denen die Leistungsparameter der Kopplungseinheit nicht beeinflusst werden, können entweder durch vereinfachte Modelle dargestellt oder nicht berücksichtigt werden. Damit wird die Modellierung der Kopplung vereinfacht, um den Einfluss der wichtigen Komponenten auf die Leistungsparameter der Kopplungseinheit besser überwachen zu können. Durch die Modellierung ist es auch möglich, den Verlauf der Kommunikation in der gesamten Kopplungseinheit sowie die Beziehung zwischen den Komponenten im gesamten Netz zu verfolgen und zu bestimmen. In diesem Kapitel werden die wichtigsten modellierten Komponenten von ATM- und LAN-Netzen sowie eine untersuchte Kopplungseinheit zwischen LAN– und ATMNetzen dargestellt. Speziell wird der Einfluss der einzelnen Komponenten der Kopplungseinheit auf deren Leistungsparameter untersucht.

86

5. Modellierung des LAN- und ATM-Netzes

87

5. Modellierung des LAN- und ATM-Netzes

5.1 Modellierung des Verkehrs Vor der Modellierung und der Beschreibung der einzelnen Komponente der Netzkopplungseinheit wird zuerst der Lauf des Verkehrsstroms in dem gesamten modellierten System beschrieben. Um den Verkehrsstrom modellieren zu können , muss man zuerst beschreiben, wie sich eine sporadische Quelle (in der vorliegenden Arbeit bzw. in der dargestellten Netzkopplungseinheit ein LAN-Arbeitsplatz) verhalten wird und welche Verteilungen verwendet werden können. Die Beschreibung des Verkehrstroms wird auf verschiedenen Ebenen realisiert, die auf der Nachrichtenverkehrstheorie und dem bei Netzwerken bekannten OSI/ISO-Referenzmodell basieren (siehe Anhang A Abschnitt a.1). Aus der Nachrichtenverkehrstheorie ist bekannt, dass die Erzeugung bzw. das Eintreffen der LAN-Pakete durch Punktprozesse über der Zeit beschrieben werden kann, wie in Bild 5.2 dargestellt ist [39] [77] [78] [104].

Bild 5.2: Beschreibung der eintreffenden Pakete durch Punktprozesse Die Ankunftsabstände der eintreffenden Pakete ti (Ti − Ti −1 ) sind völlig voneinander unabhängig, deshalb sollten Stochastische Prozesse verwendet werden, bei denen die Ankunftsabstände der Ereignisse auch voneinander unabhängig sind. Wenn man die Ankunftsabstände der Ereignisse dieser Stochastischen Prozesse durch eine Verteilungsfunktion F(t) beschreibt, dann muss diese Funktion Gleichung 5.1 erfüllen [39] [77] [104].

F ' (t) = const. = λ 1 − F(t)

88

(5.1)

5. Modellierung des LAN- und ATM-Netzes

Die Lösung dieser Gleichung ergibt die in Gleichung 5.2 dargestellte negativexponentielle Verteilung

F(t) = 1 − e − λt

(5.2)

Die Ankunftsabstände der zu erzeugenden LAN-Pakete können demnach durch eine negativ-exponentielle Verteilung modelliert werden (siehe Anhang B Abschnitt b.2.1). Bei der Modellierung werden insbesondere der Übertragungswunsch, die Pausendauer und die Aktivitätsdauer eines LAN-Arbeitsplatzes berücksichtigt. Das Verhalten eines LAN-Arbeitsplatzes wird in mehreren hierarchischen Ebenen modelliert. Durch welche Ebene ein LAN-Arbeitsplatz modelliert wird, hängt direkt vom Quellentyp (z.B. Videoquelle, Datenquellen) bzw. vom generierten Verkehrstyp ab. In der vorliegenden Arbeit wird das Verhalten der LAN-Arbeitsplätze gemäß der Nachrichtenverkehrstheorie und dem OSI/ISO-Referenzmodell durch die Verbindungs-, Burst-, Paket- und Zellen Ebene modelliert. Wenn man die modellierten Verbindungs- und Burstebenen mit OSI/ISOReferenzmodel vergleicht, so entsprechen sie der Transportschicht und anderen höheren Schichten. Die darunterliegenden Schichten, Netzwerkschicht, Sicherungsschicht, Physikalische Schicht entsprechen der modellierten Paket- und Zellenebene (siehe Anhang A, Abschnitt a.1).

89

5. Modellierung des LAN- und ATM-Netzes

Bild : 5.3 Hierarchische Modellierung des Verkehrs Die Modellierung eines LAN-Arbeitsplatzes ist in Bild 5.3 dargestellt. Diese vereinfachte Modellierung bietet die Möglichkeit, die Leistungsparameter der Kopplungseinheit in Abhängigkeit vom generierten Verkehr zu untersuchen. Das Verhalten eines LAN-Arbeitsplatzes in einer Ebene beeinflusst die tiefer gelegenen Ebenen. Das Verhalten des LAN-Arbeitsplatzes innerhalb einer Ebene lässt sich durch die Pausendauer und Aktivitätsdauer beschrieben werden, die jeweils durch eine negativexponentielle oder geometrische Verteilung modelliert werden können.

90

5. Modellierung des LAN- und ATM-Netzes

5.1.1 Modellierung der Verbindungsebene Durch die Verbindungsebene (siehe Bild 5.3) ist es möglich, den Verbindungsaufbau, den Verbindungsabbau sowie „bestehende“ Verbindungen und „nicht bestehende“ Verbindungen zu modellieren. Im Verkehrsmodell sind auf der Verbindungsebene nur die „bestehenden“ und die „nicht bestehenden“ Verbindung wichtig, weil durch sie alle darunter liegenden Ebenen beeinflusst werden. Die beiden Zustände der sporadischen Quelle werden durch die Dauer der „bestehenden“ Verbindung Tv ,h und die Dauer der „nicht bestehenden“ Verbindung Tv ,s beschrieben. Die Aktivitätsdauer sowie die Pausendauer werden durch Bernouli-Prozesse (Anhang B Abschnitt b.21) und Poisson-Prozesse (Anhang B Abschnitt b.2.3) modelliert. Der Übergang von einem Zustand in einen anderen Zustand wird durch eine negativexponentielle Verteilung beschrieben. Für ATM-Netze bedeutet „bestehende“ Verbindung die Realisierung einer virtuellen Verbindung zwischen Empfänger und Sender. Bei LAN-Netzen bedeutet „bestehende“ Verbindung die Realisierung einer Verbindung auf höheren Protokollen, z.B. TCP -Protokollen.

5.1.2 Modellierung der Burstebene Bei einer „bestehenden“ Verbindung kann sich der Bedarf an Bandbreite innerhalb der Verbindung ändern [130]. Die Schwankung der Bandbreite kann auch bei LAN durch die Burstebene modelliert werden. Innerhalb der Burstebene läßt sich der LAN-Arbeitsplatz, wie in Bild 5.3 dargestellt, durch eine Aktivitätsphase Tb ,h und eine Pausenphase Tb ,s beschreiben. Pausenphasen können dadurch entstehen, dass der Sender wartet, bis die gesendeten Pakete von Empfänger quittiert werden. Es kann z.B. beim Token-Ring die Burstebene verwendet werden, um den Besitz eines Token bei einem Arbeitsplatz zu modellieren. Falls der Arbeitsplatz ein Frei-Token besitzt und Pakete zu übertragen hat, dann entspricht das der Aktivitätsphase. Die Zeit, die der Arbeitsplatz wartet, bis er wieder ein Frei-Token bekommt, wird als Pausenphase innerhalb einer „bestehenden“ Verbindung beschrieben. Beim Ethernet zeigt die

91

5. Modellierung des LAN- und ATM-Netzes

Pausenphase bzw. Aktivitätsphase an, ob der Arbeitsplatz auf das Übertragungsmedium zugreifen kann oder nicht. Bei andere LAN-Typen bezeichnet die Aktivitätsphase die Erzeugung der Pakete, während in der Pausenphase keine Pakete erzeugt werden. Falls der Arbeitsplatz eine Quelle von Bewegtbildern ist, wird die Variabilität der Bitrate innerhalb der Verbindung auf der Burstebene modelliert. Auch die variable Bitrate bei komprimierten Videodaten kann gut auf der Burstebene modelliert werden[91]. Wenn ein LAN oder ein LAN-Segment mit N-Arbeitsplätzen unterschiedlichen Bedarf an Bandbreite auf der Brustebene hat, dann wird dies durch einen sogenannten Zustandsautomaten dargestellt. Dieser Zustandsautomat kann sich in verschiedenen Zuständen k = 0, 1, 2,..., K befinden, wobei jeder dieser Zustände eine bestimmte Bandbreite bzw. die Höhe des von den LAN-Arbeitsplätzen erzeugten Verkehrs darstellt. Die Zeitdauer, in der sich der Zustandsautomat in einem bestimmten Zustand befindet, wird durch die Größe TB (k ) beschrieben und stellt die Zeitdauer dar, in der das LAN-Segment die Daten mit der Rate k erzeugt. Das bedeutet, dass in dem LAN-Segment in diesem Moment k der Arbeitsplätze in der Aktivphase sind. Die mittlere Verweildauer des Zustandsautomaten im Zustand k wird durch die Zeit t b (k) bezeichnet, was der mittleren Verweildauer der k Arbeitsplätze eines LAN-Segments im Active-Zustand entspricht. Die Übergangswahrscheinlichkeit q(m / k ) beschreibt den Übergang des Zustandsautomaten von einem Zustand k in einen Zustand m. Bei der erzeugten Datenrate des LAN-Segments bedeutet das, dass die Bitrate k in die Bitrate m übergeht. Ist k > m , dann gehen ein oder mehrere Arbeitsplätze von der Aktivphase in die Pausenphase über. Durch k < m wird der Übergang von einer Pausenphase in eine Aktivphase beschrieben. Verwendet man die aus der Nachrichtenverkehrstheorie bekannten Übergangwahrscheinlichkeiten der einzelnen Zustände [77], dann lassen sich die Überganswahrscheinlichkeiten der Bitrate eines LAN-Segments in Form einer Übergangsmatrix Q = [q(m/k)] ( m, k = 0,1,2, ..., K)

darstellen.

92

(5.3)

5. Modellierung des LAN- und ATM-Netzes

5.1.3 Modellierung der Paketebene Durch die Paketebene (siehe Bild 5.3) wird die Erzeugung der Pakete innerhalb der Burstebene modelliert. In Token-Ring Netzen kann die Paketebene verwendet werden, um die erzeugten LAN-Pakete zu modellieren, solange ein Arbeitsplatz das Frei-Token besitzt. Bei Ethernet kann man ebenfalls die erzeugten LAN-Pakete von einem Arbeitsplatz modellieren, solange er Zugriff auf das Übertragungsmedium hat. Die Zeitdauer der Paketübertragung ist variabel und hängt direkt von der Zellrate (reservierte Bandbreite) und der Länge der Pakete ab. Die Länge der Pakete innerhalb der Paketebene kann konstant oder variabel sein. Wird z.B. eine große Datei übermittelt, dann wird sie in Pakete konstanter Länge zerlegt. Im Gegensatz hierzu wird bei einem interaktiven Meldungsaustausch die Länge der Pakete variabel sein. Durch die Dauer der Aktivitätsphase Tp ,h und die Dauer der Pausenphase Tp ,s wird das Verhalten der sporadischen Quellen innerhalb der Paketebene beschrieben. Der Abstand zwischen den erzeugten Paketen innerhalb der Paketebene wird als konstant angenommen, falls mögliche Engpässe im Netz nicht berücksichtigt werden müssen und die höheren Protokolle einen kontinuierlichen Datenstrom gewährleisten.

5.1.4 Modellierung der Zellenebene Durch die Zellenebene [44] ist es möglich, die zeitliche Folge der Zellen zu modellieren (siehe Bild 5.3). Der Ankunftsabstand zwischen Zellen wird durch die Größe Tz ,a beschrieben, die die Zeitdauer der Zellen Tz ,h und den Zellenabstand Tz ,s enthält, wobei die Beziehung Tz ,a = Tz ,h + Tz ,s gilt. In dieser Darstellung sind die möglichen eingefügten Leerzellen nicht berücksichtigt. Um den Zellenstrom innerhalb der Zellenebene zu modellieren, kann in der Regel entweder die Poisson-Verteilung oder die Bernoulli-Verteilung verwendet werden. Für eine CBR ist es sinnvoll, die Deterministische Verteilung zu verwenden. Die Zellenebene ermöglicht es, die unterschiedlichen ATM-Verkehrstypen zu modellieren.

93

5. Modellierung des LAN- und ATM-Netzes

5.2 Modellierung der LAN-Arbeitsplätze Eine der wichtigsten Komponenten der als Blockdiagramm dargestellten Netzkopplungseinheit, Bild 5.1, sind die Arbeitsplätze des LAN-Netzes, die durch eine sporadische Datenquelle modelliert werden. Es sind N sporadische Quellen angenommen, die die wesentlichen Eigenschaften von N LAN-Arbeitsplätzen berücksichtigen. Wenn man die Modellierung des Verkehrsstroms im Gesamtsystem berücksichtig und wenn man die bekannte Modellierung einer sporadischen Quellen durch eine Markoff-Kette verwendet, dann lässt sich eine sporadische Quelle bzw. ein LANArbeitsplatz durch das in Bild 5.4 dargestellte Zustandsdiagramm beschreiben [3] [7] [34] [77]. Wie zu sehen ist, wird der Arbeitsplatz durch drei Zustände dargestellt: durch den Zustand Idle, wenn der Arbeitsplatz kein Paket zu übertragen hat, durch den SilentZustand, wenn die Verbindung aufgebaut ist und der Arbeitsplatz sich in der Pausenphase befindet sowie durch den Active-Zustand, wenn der Arbeitsplatz seine Pakete übertragen kann.

5.4 Zustandsgraf eines Arbeitsplatzes In der vorliegenden Arbeit wird nur das Verhalten der LAN-Arbeitsplätze auf der Burstebene und den darunter liegenden Ebenen berücksichtigt. Das bedeutet, dass die Arbeitsplätze sich entweder im Active- oder im Silent- Zustand befinden, wie in Bild 5.5 dargestellt.

94

5. Modellierung des LAN- und ATM-Netzes

Bild 5.5 Zustandsgraf eines Arbeitsplatzes auf der Burstebene Dabei stellt α die mittlere Übergangsrate vom Active-Zustand in den SilentZustand dar und β die mittlere Übergangsrate vom Silent-Zustand in den ActiveZustand. Es gilt

α=

1 1 und β = E[Tb,a ] E[Tb, s ]

(5.4)

E[Tb ,a ] ist die mittlere Verweildauer des Arbeitsplatzes im Active-Zustand mit ei-

ner negativ-exponentiellen Verteilung (siehe Anhang B Abschnitt b.3.2). E[Tb ,s ] ist die mittlere Verweildauer des Arbeitsplatzes im Silent-Zustand mit einer

negativ-exponentiellen Verteilung (siehe Anhang B Abschnitt b.3.2) Der Zustandswahrscheinlichkeitsvektor des Arbeitsplatzes wird durch q = ( qa , qs ) beschrieben. Die Wahrscheinlichkeit qa gibt an, dass der Arbeitsplatz sich im Active-Zustand, die Wahrscheinlichkeit q s , dass der Arbeitsplatz sich im Silent Zustand befindet. Die Übergangsmatrix 1− α α   Q =   β 1− β  zeigt die Übergangwahrscheinlichkeit von einem Zustand in den anderen. Mit der Bedingung: q(Q − E) = 0 und qa + qs = 1,

(darin ist E die Einheitsmatrix) erhält man die Lösungen

95

(5.5)

5. Modellierung des LAN- und ATM-Netzes

qa =

β α und q s = α+β α+β

(5.6)

Daraus folgt  β α   q =  , α+β α +β

(5.7)

Eine andere zu berücksichtigende Größe ist die Spitzenpaketrate und der Aktivitätsfaktor b . Der Aktivitätsfaktor ist der relative Anteil der Zeit, während der sich der Arbeitsplatz im Active-Zustand befindet, also mit der Spitzenrate sendet. Er wird durch Gleichung 5.8 definiert.

b = 1 − qa = q s =

α α+β

(5.8)

In Abschnitt 5.1 wird gezeigt, dass die Erzeugung der LAN-Pakete durch die negativ-exponentielle Verteilung modelliert werden kann. Im diesem Fall ist einer der wichtigsten Parameter, der berechnet werden muss, die mittlere Paketrate eines Arbeitsplatzes. Sie wird durch die Gleichung 5.9 definiert.

λm = b λ =

α λ α +β

(5.9)

Innerhalb eines LAN-Netzes oder eines LAN-Segmentes sind mehrere Arbeitsplätze vorhanden, die durch N sporadische Quellen modelliert werden. Die Markoff–Kette von N sporadischen Quellen ist in Bild 5.6 dargestellt [28] [78] [130]. Jede Quelle hat eine Active–Silent-Charakteristik und erzeugt während des Active-Zustandes mindestens ein Paket, wobei die erzeugten Pakete eine konstante Länge haben sollen.

96

5. Modellierung des LAN- und ATM-Netzes

Bild 5.6 Übergangsgraf von N-Arbeitsplätzen mit Active–Silent Charakteristik Dieser Übergangsgraf von N sporadischen Quellen bzw. von N LAN-Arbeitsplätzen hat für die vorliegende Arbeit (die in Bild 5.1 vorgestellten Netzkopplungseinheit) folgende Bedeutung. Der Zustand 0 bedeutet, dass keiner von N Arbeitsplätzen sich im Active-Zustand befindet. Die Übergangswahrscheinlichkeit, in den Zustand 1 zu kommen, wird mit der mittleren Übergangsrate Nα bezeichnet, da sich N Arbeitsplätze in der Pausenphase befinden und jeder von ihnen aus der Silent-Phase in die Active-Phase übergehen kann. Es wird angenommen, dass alle Arbeitsplätze eines LAN-Segments mit derselben mittleren Übergangsrate vom Silent-Zustand in den Active-Zustand übergehen. Hat der Übergangsgraf zu einem Zeitpunkt t i den Zustand i, dann befinden sich in diesem Moment i Arbeitsplätze im Active- und N–i Arbeitsplätze im SilentZustand. Die Wahrscheinlichkeit, dass ein weiterer Arbeitsplatz in den ActiveZustand wechselt, ist durch die negativ-exponentielle Verteilung mit der mittleren Übergangsrate (N − i)α modelliert. Der Übergang vom Zustand i in den Zustand i-1 wird auch durch eine negativexponentielle Verteilung mit der mittleren Übergangsrate iβ modelliert und es lässt sich die Wahrscheinlichkeit berechnen, mit der ein Arbeitsplatz vom Active-Zustand in den Silent-Zustand übergeht. Die Übergangsmatrix der N-sporadischen Quellen ist in Gleichung (5.10) dargestellt.

97

5. Modellierung des LAN- und ATM-Netzes

β 0  − Nα  2β  Nα − ((N − 1)α + β)  0 (N - 1)α - ((N- 2)α + 2β  Q= . . .  . . .   0 0 0  0 0  0

0 0

. .

3β .

0

. 0

. 2α

0

0

   . .   . .  (5.10) . .  − ((N − 1)β + α) Nβ   α - Nβ  . .

. .

Die Matrix Q bezeichnet man als Generatormatrix von N LAN–Arbeitsplätzen, wobei die Elemente der Matrix die mittleren Übergangsraten darstellen. Wendet man Gleichung 5.9 auf N sporadische Quellen an, dann bekommt man N

λ m,N = ∑ j λ m

(5.11)

j=0

λ m,N = N

α λ α +β

(5.12)

Die Erzeugung der Pakete von N-Arbeitsplätzen wird durch einen Poisson-Prozess modelliert, wobei die mittlere Paketrate λ m , N gemäß Gleichung 5.12 berechnet wird (siehe Anhang B Abschnitt b.2.1).

5.2.1 Modellierung eines Zugangsverfahrens bei LANs Die Betrachtung der in Bild 5.1 dargestellten Netzkopplungseinheit lässt erkennen, dass das LAN-Netz nur durch die Arbeitsplätze modelliert ist. Die andere Komponenten wie Bridge, Router, Switch etc. werden nicht berücksichtigt. Die erzeugten Pakete werden durch eine negativ-exponentielle Verteilung modelliert. Aber wenn man die QoS-Parameter des gesamten Systems berechnen will, muss immer berücksichtigt werden, dass die LAN-Pakete sehr oft warten müssen, bevor sie auf das Übertragungsmedium gelangen können. Falls zwei LAN-Arbeitsplätze gleichzeitig mit der Übertragung anfangen, dann findet immer eine Kollision satt (siehe Abschnitt 2.4). Diese Warte- und Kollisionswahrscheinlichkeit verschlechtern die QoS-Parameter der in Bild 5.1 dargestellten Netzkopplungseinheit.

98

5. Modellierung des LAN- und ATM-Netzes

Um die Warte- und Kollisionswahrscheinlichkeit zu berechnen, wird das Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) Kanalzugriffsverfahren herangezogen, weil es dem Ethernet-Kanalzugriffsverfahren (CSMA/CD) ähnlich ist und weil das CSMA/CA-Kanalzugriffsverfahren nach den letzten Vorschlägen für HIPERLAN 2 und HIPERLAN 3 (High Performance Radio LAN) auch im WLAN Anwendung findet. Das CSMA/CA-Kanalzugriffsverfahren wird nach IEEE 802.11 für Wireless LAN standardisiert [48] [49]. Hat eine Station Daten zu übertragen, überprüft sie zuerst, ob sich schon ein Paket auf dem Übertragungsmedium befindet. Ist das Übertragungsmedium frei, beginnt sie mit der Datenübertragung. Danach muss sie die Zeit des sogenannten Contention Windows (CW) abwarten, bevor sie erneut übertragen darf. Ist das Übertragungsmedium nicht frei, wählt die Station ein zufälliges Zeitintervall (Backoff Time) und wartet ab, bis dieses Zeitintervall abgelaufen ist. Hat die Station nach Ablauf dieser Zeit noch keine Zugangsmöglichkeit, wird das Zeitintervall verkürzt, bis sie das Zugangsrecht auf das Übertragungsmedium bekommt. Die Backoff Time ist ein Vielfaches der sogenannten Slot Time, die für jedes Übertragungsmedium unterschiedlich ist [7] [48] [104]. Es wird angenommen, dass N-Stationen auf das Übertragungsmedium zugreifen wollen. Die Anzahl der Stationen, die nach (k–1) Slots übertragen wollen, ist j. Das bedeutet, dass j Stationen dieselbe Backoff Time haben. Die anderen N - j haben entweder eine andere Backoff Time oder keine Datenpakete zu übertragen. Das kann durch eine Binomialverteilung modelliert werden. Die Wahrscheinlichkeit dafür, dass j Stationen im k-ten Slot übertragen wollen, ergibt sich zu j

N− j

 N  1   i  pi =      1− CW   j   CW  

; i = k ∆t ≤ CW ; k = 1,2,3 ...;

j = 1,2,...,N; (5.13)

wobei ∆t die Dauer eines Slots darstellt. Um eine erfolgreiche Übertragung der Datenpakete durchzuführen, darf nicht mehr als eine Station im k-ten Slot mit der Übertragung anfangen. Das bedeutet, dass eine erfolgreiche Übertragung nur stattfinden kann, wenn j = 1 ist. In diesem Fall geht Gleichung 5.13 in Gleichung 5.14 über. Sie stellt die Wahrscheinlichkeit für eine angefangene erfolgreiche Übertragung dar.

99

5. Modellierung des LAN- und ATM-Netzes N−1

1  i  pie = N 1−  CW  CW 

(5.14)

Die Gesamtwahrscheinlichkeit errechnet sich als Summe der Einzelwahrscheinlichkeiten. CW

pe = ∑ pie

(5.15)

i =1

Die Kollisionswahrscheinlichkeit kann entweder durch Gleichung (5.13) oder im Fall j ≥ 2 unter der Voraussetzung

CW

CW

i =1

i

p e + p k = 1 → p k = 1 − ∑ p ie = ∑ p ik

(5.16)

durch Gleichung 5.17 berechnet werden. j

 N  1   i  p ik = ∑     1 −  CW  j= 2  j   CW   N

N− j

(5.17)

Die Gleichung 5.17 beschreibt die Verlustwahrscheinlichkeit der LAN-Pakete bedingt durch Kollision. Die mittlere Wartezeit der Datenpakete in der LAN–Station, bevor sie übertragen werden können, wird durch Gleichung 5.18 bestimmt. CW

Wm = ∑ (pik + pie ) (i - ∆t )

(5.18)

i = ∆t

Hierbei ist die Wiederholung nicht berücksichtigt, die aber nach jeder Kollision durchgeführt werden muss. Bei zeitkritischen Anwendungen ist die Berechnung der mittleren Wartezeit wichtig, um Verluste durch Verzögerung oder durch Verzögerungsschwankungen zu vermeiden, weil diese Verzögerung und die Verzögerung in der Kopplungseinheit zwischen

100

5. Modellierung des LAN- und ATM-Netzes

LAN und ATM sich addieren. Die gesamte Verzögerung kann den erlaubten Wert überschreiten und zu unerwünschten Verlust führen. Für die Begrenzung der Wartezeit bei zeitkritischen Anwendungen kann man entweder eine Wartezeitschwelle einführen oder eine maximal erlaubte Anzahl von Paketen, die in einer Warteschlange warten können, bevor sie auf dem LANÜbertragungsmedium übertragen werden. Diese beiden Möglichkeiten hängen von der Paketgröße, vom LAN Typ sowie vom Typ der zeitkritischen Anwendungen ab.

5.3

Modellierung der Bandbreitenreservierung

Wird ein LAN mit einem ATM-Netz, das QoS-Parameter anbietet, gekoppelt, kann das LAN die von ihm benötigte Bandbreite dem ATM–Netz nicht anzeigen. Um diesen Schwachpunkt des LAN zu überwinden, ist in der in Bild 5.1 dargestellten Netzkopplungseinheit die Möglichkeit vorgesehen, den ankommenden Verkehr des LAN zu messen und der Pufferfüllzustand zu beobachten. Wie aus Bild 5.1 zu sehen ist, wird der ankommende Verkehr durch die „Blöcke“ Paketzähler, Fenstergröße, Paketlängenermittlung, Pufferschwelle und erwünschte Bandbreite ermittelt. Die Funktionalität dieser Blöcke ist in Abschnitt 5.3.2 näher beschrieben. Im folgenden wird die benötigte Bandbreite bzw. die ermittelte Bandbreite als erwünschte Bandbreite bezeichnet. Die Bandbreite, die das ATM-Netz zur Verfügung stellen kann, um LAN-Pakete zu übertragen, wird als vorhandene Bandbreite bezeichnet. In der im Bild 5.1 dargestellten Netzkopplungseinheit kann die erwünschte Bandbreite durch Zählen der eintreffenden LAN-Pakete und durch Beobachtung des Pufferfüllzustands ermittelt werden. Wie schon im letzen Kapitel erläutet wurde, ist beim MPOA-Verfahren das RSVP– Protokoll vorgesehen, um die erwünschte Bandbreite zu erkennen bzw. mitzuteilen, falls dieses Protokoll von den LAN–Netzkomponenten unterstützt wird. Es ist aber nicht möglich, durch das RSVP-Protokoll die Bandbreite nach Bedarf innerhalb einer Verbindung variabel anzupassen, oder, wenn eine Bandbreite reserviert ist, diese Bandbreite für die gesamten Übertragung zu gewährleisten. Das bedeutet auch, das RSVP-Protokoll ist nicht für alle ATM-Verkehrstypen geeignet, wie z.B. für CBR oder rt-VBR (siehe Abschnitt 3.8). Deshalb kann ein Teil der reservierten Bandbreite wegen der burstartigen Natur der erzeugten LAN-Pakete ungenutzt bleiben oder es 101

5. Modellierung des LAN- und ATM-Netzes

kann sehr oft zum Überlauf des Puffers kommen. Auch wenn eine zusätzliche Bandbreite benötig wird, um die Qos-Parameter der Netzkopplungseinheit innerhalb des gewünschten Rahmens zu halten, kann sie von dem ATM-Netz nicht angefordert werden, da LAN-Netze noch keinen Mechanismus haben, dies mitzuteilen. In der Zukunft werden die Multimedia Anwendungen in LAN Netzen eine wichtige Rolle spielen, wodurch die Anforderung an die QoS-Parameter und die Variabilität der Bandbreite innerhalb einer Verbindung steigt. Die Spitzenbitrate der Arbeitsplätze und die Variabilität der gewünschten Bandbreite durch die Änderung der Anzahl an aktiven Arbeitsplätzen können bis zu einem gewissen Grade durch die Puffer geglättet werden. Das ist aber keine dauerhafte Lösung, da es zum Überlauf der Puffer kommen kann und die Verzögerungszeit der LAN-Pakete und deren Schwankung bei zeitkritischen Anwendungen begrenzt ist. Die Ermittlung der erwünschten Bandbreite in der Kopplungseinheit kann durch Zählen der eintreffenden Pakete (Paketzähler) über eine bestimmte Zeitdauer (Fenstergröße) und durch die Ermittlung der Paketlänge (Paketlängenermittlung) durchgeführt werden. Diese Verfahren werden als Verkehrsmessungsverfahren bezeichnet. Ein anderes Verfahren ist die Ermittlung der erwünschten Bandbreite gemäß dem Pufferfüllstand in der Netzkopplungseinheit, das als Pufferfüllstandsverfahren bezeichnet wird. Der Füllstand des Puffers wird in „Block“ Pufferschwelle ermittelt. Die in Bild 5.1 dargestellte Netzkopplungseinheit ermöglicht es, beide Verfahren getrennt oder kombiniert zu verwenden (siehe Bild 5.1). Um die LAN-Pakete über das ATM-Netz zu übertragen, werden unterschiedliche ATM-Verkehrstypen verwendet. In Abhängigkeit von dem verwendeten ATMVerkehrstyp, dem Bandbreitenermittlungsverfahren und den angeforderten QoSParametern werden unterschiedliche Berechnungsmethoden durchgeführt, um die erwünschte Bandbreite zu berechnen, wie die Überschätzung der mittleren Bitrate um den Faktor K g , die Erhöhung der vorhandene Bitrate durch den RIF (Rate Increase Factor) Koeffizienten sowie die Vakil-Gleichung und die Kelly-Gleichung. Diese Berechnungsmethoden und Ermittlungsverfahren für die in Bild 5.1 dargestellte Netzkopplungseinheit werden in den folgenden Abschnitt näher erläutet. Am Ende des Abschnitts wird ein Teil des Flussdiagramms dargestellt, das anzeigt, wie die Ermittlung der erwünschten Bandbreite in dem in der Programmiersprache C geschriebenen Programm realisiert wird (siehe Flussdiagramm 1 und Flussdiagramm 2). 102

5. Modellierung des LAN- und ATM-Netzes

Die mittlere Bandbreite wird auch gemäß Gleichung 5.19 im „Block“ erwünschte Bandbreite berechnet. Die Anzahl der eintreffenden Pakete N p wird mit der Paketlänge multipliziert und durch die Fenstergröße dividiert.

Ber =

Np * Paketlänge  Mbit  Fenstergröße  s 

(5.19)

Um die LAN-Pakete als ATM-Zellen zu übertragen, können in der Netzkopplungseinheit unterschiedliche ATM-Verkehrstypen verwendet werden wie CBR, VBR oder ABR. Bei CBR als Verkehrstyp in ATM wird normaleweise für die gesamte Übertragungsdauer eine konstante maximale benötigte Bandbreite reserviert. Trotz der Ermittlung der Spitzenbitrate während einer Fenstergröße wird bei der Verwendung des CBR-Verkehrstyps in der dargestellten Netzkopplungseinheit nicht die Spitzenbitrate vom ATM-Netz angefordert, sondern die mittlere Bitrate multipliziert mit einem Koeffizienten K g > 1 . Das bedeutet, dass die Netzkopplungseinheit die mittlere Bandbreite um den Faktor K g zu hoch anfordert. Falls das ATM-Netz diese Bandbreite reservieren kann, bleibt sie konstant, solange die Anzahl der LAN-Arbeitsplätze, die über ein ATM-Netz eigene Datenpakete übertragen wollen, konstant bleibt. Falls sich die Anzahl der LAN-Arbeitsplätze ändert, wird eine Anpassung der Bandbreite gemäß dem neuen Zustand durchgeführt. Die auftretende Spitzenbitrate wird durch die Puffer geglättet. Der Wert des Faktors K g hängt direkt von den Leistungsparametern der Kopplungseinheit bzw. den geforderten QoS-Parametern der Dienste ab. Bei der Verwendung des VBR (Variable Bit Rate) Verkehrstyps in der Netzkopplungseinheit wird die Bandbreite während der ganzen Zeit der Übertragung variabel in Abhängigkeit von der erwünschten Bandbreite und den angeforderten QoSParameter geändert. Das bedeutet, dass die erwünschte Bandbreite ständig überwacht wird und entsprechende Maßnamen ergriffen werden, um zusätzliche Bandbreite anzufordern oder einen Teil der nicht verwendeten Bandbreite wieder

103

5. Modellierung des LAN- und ATM-Netzes

freizugeben. In diesem Fall wird die erwünschte Bandbreite nach der Vakil- oder der Kelly-Gleichung berechnet, die in den folgenden Abschnitten näher erläutet werden [133] [134]. Bei der Verwendung des ABR (Available Bit Rate) Verkehrstyps in der Netzkopplungseinheit wird eine garantierte Mindestbandbreite reserviert. Ob eine zusätzliche Bandbreite reserviert wird oder nicht, hängt vom Lastzustand des ATMNetzes ab. Das bedeutet, dass eine zusätzliche Bandbreite reserviert und verwendet wird, solange diese Bandbreite nicht vom CBR-Verkehrstyp und VBR-Verkehrstyp benötigt wird (siehe Bild. 3.11). Um den Zustand der ATM-Netze zu erfahren, werden von der Netzkopplungseinheit regelmäßig RM-Zellen (Resource Management) in einem zeitliche Abstand erzeugt, der der Fenstergröße entspricht. Diese RM-Zellen werden im „Block“ Ressource Management der Netzkopplungseinheit generiert (siehe Bild 5.1). Falls kein Überlastzustand angemeldet ist und die Netzkopplungseinheit eine zusätzliche Bandbreite benötigt, dann wird die vorhandene Bandbreite bzw. die Übertragungsrate um den RIF-Koeffizienten erhöht werden. Das wird in den folgenden Abschnitten näher beschrieben.

5.3.1 Beschreibung der Bandbreitenreservierungsverfahren In diesem Abschnitt wird beschrieben, wie die bekannten Bandbreitenreservierungsverfahren von der in Bild 5.1 dargestellten Netzkopplungseinheit verwendet werden können. Wie aus den Simulationsergebnissen (Kapitel 6) zu sehen ist, hängen die Leistungsparameter bzw. die QoS-Parameter der Kopplungseinheit von dem verwendeten Bandbreitenreservierungsverfahren ab.

Das Fast Reservation Protocol ist eines der wichtigsten Bandbreitenreservierungsverfahren [39] [102] [130]. Man unterscheidet hierbei zwei Möglichkeiten.

-

Fast Reservation Protocol / Delayed Transmission (FRP/DT)

-

Fast Reservation Protocol / Immediate Transmission (FRP/IT)

104

5. Modellierung des LAN- und ATM-Netzes

Bei dem FRP/DT Verfahren wird zuerst eine Anforderung an das ATM-Netz für eine zusätzliche Bandbreite gesendet. Falls die Bestätigung vom ATM-Netz kommt, dass die entsprechende Bandbreite reserviert ist, kann die Kopplungseinheit mit der neuen Bitrate ihre Zellen senden. Jeder ATM-Knoten, der die erwünschte Bandbreite reservieren kann, liest die „Anforderungs-Zelle“, reserviert die Bandbreite und sendet die „Anforderungs-Zelle“ zum nächsten ATM-Knoten weiter. Falls ein ATM-Knoten die erwünschte Bandbreite nicht reservieren kann, verwirft er die „Anforderungs-Zelle“. Für die Kopplungseinheit bedeutet das, dass die Anforderung einer zusätzlichen Bandbreite abgelehnt ist. Wenn die „Anforderungs-Zelle “ den letzten CL-Server (Kopplungseinheit) erreicht, bedeutet dies, dass das ATM-Netz die gewünschten Bandbreite reservieren kann. Deshalb generiert der CL-Server eine „Bestätigungs-Zelle “ und sendet sie zurück zur Netzkopplungseinheit. Falls ein ATM-Knoten die gewünschte Bandbreite reserviert, wird sofort ein Mechanismus aktiviert, um die Zeit zu messen, bis die „Bestätigungs-Zelle“ eingetroffen ist. Wenn die festgelegte Zeit abläuft, bevor die „Bestätigungs-Zelle“ eintrifft, stellt der ATM-Knoten fest, dass die Anforderung zusätzlicher Bandbreite vom nächsten ATMKnoten abgelehnt ist. In diesem Fall wird die reservierte Bandbreite wieder freigegeben. Sobald die „Bestätigungs-Zelle“ die Kopplungseinheit erreicht, beginnt sie mit erhöhter Bitrate zu senden. Bei FRP/DT ist die Wahrscheinlichkeit, dass ATM-Zellen im ATM-Netze verloren gehen, nicht so groß [102]. Bei diesem Bandbreitenreservierungsverfahren wird angenommen, dass die gewünschte Bandbreite entweder komplett reserviert oder abgelehnt wird. Bei Ablehnung der Bandbreitenanforderung sendet die in Bild 5.1 dargestellte Kopplungseinheit mit der ursprünglichen Bandbreite weiter und versucht erneut, eine zusätzliche Bandbreite zu reservieren, solange die erwünschte Bandbreite B e größer ist als die vorhandene Bandbreite B h

Be > Bh

(5.20)

Falls die Kopplungseinheit einen Teil der reservierten Bandbreite nicht mehr benötigt, sendet sie eine „Freigabe-Zelle“, mit der sie den ATM-Knoten meldet, dass sie einen Teil der reservierten Bandbreite freigibt. Beim FRP/DT kommt es zum Pufferüberlauf

105

5. Modellierung des LAN- und ATM-Netzes

und zur Verzögerung der Daten in der Kopplungseinheit. Aber die Wahrscheinlichkeit, dass eine Zelle im ATM-Knoten verloren geht, ist gering. Demnach wird das ATM-Netz in der Bandbreite durch die erforderliche Wiederholung des gesamten LAN-Pakets nicht zusätzlich belastet. Beim FRP/IT-Verfahren wartet die Kopplungseinheit nicht auf die Bestätigung der Bandbreitenanforderung, sondern beginnt sofort, mit der erwünschten Bitrate zu senden. Kann ein ATM-Knoten diese erwünschte Bandbreite bereitstellen, so sendet er mit der erhöhten Bitrate. Andernfalls verwirft er die Anforderungszelle sowie die Nutzdatenzelle. In diesem Fall müssen alle Zellen eines segmentierten LAN-Pakets wiederholt werden, was zu einer höheren Belastung des ATM-Netzes führt. Das wird durch den Wiederholungskoeffizienten der Netzkopplungseinheit K w berücksichtigt.

Kw =

Nwü Ngü

(5.21)

Darin ist N gü die Anzahl der gesamten Übertragungspakete und N wü der Anzahl der Wiederholungspakete. Das FRP/IT-Verfahren ist für zeitkritische Anwendungen geeignet, da die Wartezeit auf die Bestätigungen entfällt. „Anforderungs-Zelle“ und „Bestätigungs-Zelle“ entsprechen den RM-Zellen (Resource Management Zelle). Ein weiteres Reservierungsverfahren stellt das Bandwidth Tracking Verfahren dar. Hierbei wird angenommen, dass für jeden virtuellen Kanal bzw. virtuellen Path ein virtueller Puffer zur Verfügung steht. Um eine zusätzliche Bandbreite anzufordern oder wieder freizugeben, wird der Füllstand des Puffers überwacht. Der Füllstand des Puffers in der dargestellten Netzkopplungseinheit wird im „Block“ Pufferschwelle ermittelt (siehe Bild 5.1). Liegt der Füllzustand des Puffers über einem festgelegten Schwellwert, generiert die Kopplungseinheit eine „Anforderungs–Zelle“, mit der vom ATM-Netz zusätzliche Bandbreite angefordert wird. Liegt der Füllzustand des Puffers unter einem festgelegten Schwellwert, erzeugt die Netzkopplungseinheit eine „Freigabe Zelle“, mit der ein Teil der reservierten Bandbreite wieder freigegeben wird. Die Bestimmung der Schwellwerte für Reservierung und Freigabe der Bandbreite wird in Abhängigkeit von den Qualitätsanforderungen des Dienstes festgelegt. 106

5. Modellierung des LAN- und ATM-Netzes

Beim Empfänger kann der Füllzustand des Puffers zur lokalen Takterzeugung mittels einer PLL (Phase Locked Loop) verwendet werden (siehe Bild 5.1). Wird ein bestimmter Schwellwert unterschritten, so wird die Taktfrequenz verringert und bei Überschreitung der Schwelle entsprechend erhöht.

ABR-Verfahren Beim ABR-Verfahren [19] [39] werden von der Kopplungseinheit im „Block“ Ressource Management regelmäßig (siehe Bild 5.1), unabhängig vom Zustand der Netzkopplungseinheit, RM-Zellen generiert und gesendet. Falls die Netzkopplungseinheit zusätzliche Bandbreite benötigt, fügt sie diese Anforderung der RM-Zelle hinzu. Kann ein ATM-Knoten die in der RM-Zelle stehende Bandbreite zur Verfügung stellen, reserviert er diese und sendet die RM-Zelle weiter. Falls ein ATM-Knoten die in der RM-Zelle stehende Bandbreite nicht reservieren kann, ändert er den Wert der RM-Zelle und sendet sie weiter. Wenn die RM-Zelle zur empfangenden Netzkopplungseinheit kommt, kann sie somit einen anderen Wert haben, sogar den Wert Null. Ihr Wert zeigt die zusätzliche Bandbreite an, die das ATM-Netz zur Verfügung stellen kann. Die empfangende Netzkopplungseinheit bearbeitet die RM-Zelle und sendet sie zurück zur sendenden Netzkopplungseinheit. Durch Auswertung der empfangenen RM-Zelle erfährt die Netzkopplungseinheit, wie viel zusätzliche Bandbreite ihr das ATM-Netz zur Verfügung stellen kann. Falls die empfangene RM-Zelle den Wert Null enthält, wird die Übertragungsrate reduziert, da sonst das ATM-Netz die schon vorhandene Bandbreite nicht mehr gewährleisten kann. Das ATM-Netz ist zu hoch belastet. Die Reduzierung der Übertragungsrate entspricht dem Reduzierungsfaktor K r bzw. dem RDF (Rate Decrease Factor) -Koeffizienten.

Bh (i + 1) = Kr Bh (i)

, Kr < 1

(5.22)

Darin ist Bh (i ) die vorhandene Bandbreite der Netzkopplungseinheit zum Zeitpunkt i und Bh (i + 1) die zum Zeitpunkt (i+1). Die Reduzierung der Übertragungsrate darf aber die minimal garantierte Bitrate nicht unterschreiten.

107

5. Modellierung des LAN- und ATM-Netzes

Die Netzkopplungseinheit kann eine bestimmte Anzahl von RM-Zellen senden ohne eine Bestätigung von vorher gesendeten RM-Zellen bekommen zu haben. Die ATMKnoten unterscheiden Rückwärts-RM-Zellen von Vorwärts-RM-Zellen. Auch wenn die Kopplungseinheit keine zusätzliche Bandbreite benötigt, werden RM-Zellen regelmäßig generiert, um die ATM-Netzlast zu überwachen. Dadurch kann die Übertragungsrate der in Bild 5.1 dargestellten Netzkopplungseinheit an den Lastzustand des ATM-Netzes besser angepasst werden. Die Übertragungsrate der Netzkopplungseinheit wird auch der ATM-Netzlast angepasst. Falls die eingetroffene RM-Zelle keine Netzlast anzeigt, kann die Netzkopplungseinheit nach Bedarf die Übertragungsrate um den RIF-Koeffizienten K g erhöhen. Bh (i + 1) = K g Bh (i) , K g > 1

(5.23)

Der Wert des Erhöhungsfaktors K g wird in der Netzkopplungseinheit festgelegt. Er wird nicht vom momentanen Bandbreitebedarf der Netzkopplungseinheit und von der Höhe der Belastung des ATM-Netzes bestimmt. Das kann zu unerwünschten Verlusten führen, da das ATM-Netz die erhöhte Bitrate nicht immer unterstützen kann. Wie aus den Gleichungen 5.22 und 5.23 zu sehen ist, ändert sich die vorhandene Bandbreite zwischen einem Minimal- und einem Maximalwert. Die maximale Bandbreite jeder Verbindung wird durch die ATM-Knoten gemäß einem vorgegebenen Fairnesskriterium ständig bestimmt. Auch ein ATM-Knoten kann eine RM-Zelle generieren und zur Netzkopplungseinheit schicken, falls er überlastet wird. Damit signalisiert der ATM-Knoten der Kopplungseinheit, die Übertragungsrate zu reduzieren.

5.3.2 Modellierung der erwünschten Bandbreitenermittlung In diesem Abschnitt wird erläutet, wie in der Netzkopplungseinheit, Bild 5.1, die Ermittlung der erwünschte Bandbreite realisiert und modelliert wird. Wie den Bildern 5.1 und 5.7 zu sehen ist, können in der Netzkopplungseinheit zwei unterschiedliche Verfahren verwendet werden, das Verkehrsmessungsverfahren und Pufferfüllstandsverfahren. Bei dem Pufferfüllstandsverfahren wird eine Überwachung 108

5. Modellierung des LAN- und ATM-Netzes

des Pufferfüllstands durchgeführt, um eine zusätzliche Bandbreite vom ATM-Netz anzufordern oder einen Teil der reservierten Bandbreite wieder freizugeben. Die Verkehrsmessung in der Netzkopplungseinheit wird in den „Blöcken“, Paketzähler, Paketlängenermittlung, Fenstergröße und erwünschte Bandbreite realisiert. Die Überwachung des Pufferfüllstand wird im „Block“ Pufferschwelle realisiert (siehe Bild 5.1 oder 5.7). Im folgenden wird näher erläutet, wie diese Verfahren realisiert und modelliert worden sind. Die LAN-Arbeitsplätze bzw. LAN-Segmente werden durch N Quellen modelliert, die sich im Active- oder Silent-Zustand befinden können. Die Verweildauer eines Arbeitsplatzes im Active- oder Silent-Zustand wird durch eine negativ-exponentielle Verteilung modelliert. Jeder Arbeitsplatz, der sich im Active-Zustand befindet, erzeugt wenigstens ein Paket. Die gesamte Anzahl der erzeugten Pakete wird durch eine geometrische Verteilung modelliert (siehe Anhang B Abschnitt b.2.2). Um die Anzahl der erzeugten LAN-Pakete zu ermitteln, wird innerhalb der Netzkopplungseinheit eine Zählung („Block“ Paketzähler) der eintreffenden LAN-Pakete vorgenommen. Da die unterschiedlichen LAN-Typen unterschiedliche Paketgrößen haben, wird während einer Simulation und Analyse angenommen, dass die Paketgröße konstant bleibt. Die Ermittlung der Paketgröße wird im „Block“ Paketlängenermittlung durchgeführt. Der „Block“ Fenstergröße misst die Zeit in der Netzkopplungseinheit periodisch. Diese Periode entspricht dem zeitlichen Abstand, in dem eine Zählung der eintreffenden Pakete, eine Überwachung des Pufferfüllstands, oder eine Erzeugung der RM-Zellen realisiert wird. Da die Zeit in der gesamten Netzkopplungseinheit und im Simulationsprogramm eine zentrale Rolle spielt, wird sie so simuliert, dass sie unabhängig vom Rechner ist. Die eintreffenden Pakete werden durch den Paketzähler gezählt. Am Ende eines Fensters k speichert der Paketzähler seinen Zählerstand und beginnt wieder von Null an die eintreffenden Pakete im nächsten Fenster zu zählen. Die Fenstergröße ist durch die Gleichung 5.24 definiert,

k Ti =  0

i=k*w i ≠k*w

in der w die Fenstergröße darstellt. 109

, k = 1,2,3, ...

(5.24)

5. Modellierung des LAN- und ATM-Netzes

Das bedeutet, dass falls i = k * w bzw. Ti = k ist, im „Block“ Fenstergröße eine Berechnung der erwünschte Bandbreite bzw. eine Messung des Pufferfüllstands initialisiert wird. Die erwünschte Bandbreite berechnet die Kopplungseinheit durch die Ermittlung des Paketzählerstandes, der vom LAN-Typ bestimmten Paketlänge und der Fenstergröße. Die erwünschte Bandbreite wird gemäß Gleichung 5.19 berechnet. Bei der Überwachung des Pufferfüllstandsverfahrens bezeichnet die Fenstergröße das Zeitintervall, in dem der Lastzustand des Puffers überprüft wird. In Abhängigkeit vom Lastzustand des Puffers und von den angeforderten QoS-Parametern wird entschieden, ob ein Teil der vorhanden Bandbreite freigegeben oder eine zusätzliche Bandbreite angefordert wird. Beim ABR-Verfahren bezeichnet die Fenstergröße den zeitlichen Abstand, in dem die Kopplungseinheit die RM-Zellen generiert und sendet. Das bedeutet eine periodische Netzlast-Überwachung, wobei die Fenstergröße die Periode darstellt. In Bild 5.7 ist ausschnittsweiße das im Rahmen der vorliegenden Arbeit entwickelte Modell zur Ermittlung der erwünschte Bandbreite dargestellt.

Bild 5.7 : Modell zur Ermittlung der erwünschten Bandbreite

110

5. Modellierung des LAN- und ATM-Netzes

Nach der Ermittlung der erwünschten Bandbreite in der Kopplungseinheit, wird diese im „Block“ Komparator mit der vorhandenen Bandbreite verglichen. Eine mathematische Darstellung dieses Komparators ist in Gleichung 5.25 dargestellt. Seine Realisierung wird im folgenden näher beschrieben (seihe auch Abschnitt 5.3.2.1 Flussdiagramm 1). K gBh (i), Be (i + 1) > K gBh (i), Kg > 1  Bh (i + 1) = KrBh (i), Be(i + 1) < KrBh (i), Kr < 1  B (i), K B (i) ≤ B (i + 1) ≤ K B (i), r h e g h  h

(a ) (b) (c)

(5.25)

Ist die erwünschte Bandbreite größer als die vorhandene, wird nicht sofort eine zusätzliche Bandbreite angefordert, sondern erst, wenn sie um einen bestimmten Wert überschritten ist. Wenn die erwünschte Bandbreite nur geringfügig die vorhandene Bandbreite überschreitet, wird die Spitzenbitrate durch den Puffer geglättet. Die Überschreitungsgröße der vorhandenen Bandbreite wird durch den Koeffizienten Kg modelliert, der beschreibt, ab wann eine zusätzliche Bandbreite angefordert wird und im welchem Umfang. Die Veranlassung einer zusätzlichen Bandbreitenanforderung wird durch die Größe K g B h (i ) beschrieben und ist in Gleichung 5.25a dargestellt. Das bedeutet, dass der Komparator dem Ressource Management signalisiert, eine zusätzliche Bandbreite vom ATM-Netz anzufordern, falls Gleichung 5.25a erfüllt ist. Der Wert des Koeffizienten Kg wird in Abhängigkeit des erwünschten QoSParameters bestimmt, da die Einhaltung des QoS-Parameters innerhalb eines bestimmten Wertebereiches die Bandbreite

beeinflusst. Den Koeffizienten K g be-

zeichnet man als Rate Increase Factor(RIF). Auch wenn die erwünschte Bandbreite kleiner als die vorhandene Bandbreite ist, wird nicht sofort ein Teil der Bandbreite freigeben, sondern erst dann, wenn die erwünschte Bandbreite unter einen bestimmten Wert der vorhandenen Bandbreite sinkt. Diese Schwelle wird durch den Koeffizienten K r modelliert. Ein Teil der vorhandenen Bandbreite, die durch den Rate Decrease Factor (RDF) bestimmt wird, wird freigegeben. Das heisst, der Komparator signalisiert dem Ressource Management, einen Teil der vorhandenen Bandbreite wieder freizugeben, falls die Gleichung 5.25b erfüllt ist.

111

5. Modellierung des LAN- und ATM-Netzes

Falls keiner der oben vorgestellten Fällen auftritt, wird weiter mit derselben Übertragungsrate gesendet. Das bedeutet, dass der Komparator dem Ressource Management signalisiert, dass die vorhandene Bandbreite ausreicht, die LAN-Pakete über das ATM-Netz zu übertragen. Dies entspricht der Gleichung 5.25c. Die Erzeugung der RM-Zellen findet im Resource Management „Block“ statt, durch den eine zusätzliche Bandbreite angefordert, ein Teil der vorhandenen Bandbreite freigegeben oder nur die Netzlast ermittelt wird (siehe Bild 5.7) . In „Block“ erwünschte Bandbreite (siehe Bild 5.1 oder 5.7) kann die erwünschte Bandbreite aus dem Paketzählerzustand, der Paketgröße und der Fenstergröße bestimmt werden. Die Berechnung der erwünschten Bandbreite gemäß Gleichung 5.19 entspricht der mittleren Bitrate innerhalb einer Fenstergröße. Aber auch die Spitzenbitrate innerhalb der Fenstergröße bzw. der Burstfaktor beeinflusst die Leistungsparameter bzw. die QoS-Parameter der Netzkopplungseinheit. Deshalb muss auch die Spitzenbitrate innerhalb der Fenstergröße bei Anforderung der zusätzlichen Bandbreite vom Ressource Management berücksichtigt werden. In diesem Fall wird im „Block“ erwünschte Bandbreite die mittlere- und die Spitzenbitrate innerhalb einer Fenstergröße ermittelt. Anschließend muss hieraus in geeigneter Weise ein Wert für die gewünschte Bandbreite, die dem Komparator mitgeteilt wird, berechnet werden, um die QoS-Parameter bei der Verwendung des VBR-Verkehrstyps im gewünschten Rahmen zu halten. Vakil hat in seinen Untersuchungen im ATM-Netz eine Gleichungen entwickelt, die es den ATM-Knoten ermöglicht, vom ATM-Netz eine bestimmte Bandbreite anzufordern, falls die mittlere und die Spitzenbitrate des ATM-Knotens bekannt ist. Die von Vakil angegebene Gleichung ist in 5.26 dargestellt [133]. Auch in der vorliegenden Arbeit wird diese Vakil-Gleichung verwendet, um die erwünschte Bandbreite bzw. die angeforderte zusätzliche Bandbreite zu berechnen, falls die mittlere Bitrate R m und die Spitzenbitrate R p innerhalb der Fenstergröße bekannt sind.

  R  R e = R m  1 − log m      Rp   

112

(5.26)

5. Modellierung des LAN- und ATM-Netzes

Falls diese zusätzliche Bandbreite die Kapazität der Verbindung bzw. die maximal erlaubte Bitrate dieser Verkehrsklasse überschreitet, wird die Anforderung sofort abgelehnt. In den Simulationsergebnissen in Abschnitt 6.10 sind die Leistungsparameter der im Bild 5.1 dargestellten Netzkopplungseinheit bei der Berechnung der erwünschten Bandbreite bzw. der angeforderten zusätzlichen Bandbreite gemäß der VakilGleichung dargestellt. .

5.3.2.1 Algorithmus zum Vergleich der erwünschten Bandbreite mit der vorhandenen Bandbreite Wie schon erwähnt wurde in der vorliegenden Arbeit parallel zu der theoretischen Analyse auch ein C-Programm entwickelt, das gemäß der in Bild 5.1 dargestellten Netzkopplungseinheit strukturiert ist. In diesem Abschnitt wird ein Teil des Flussdiagramm dargestellt, durch das die erwünschte Bandbreite mit der vorhandenen Bandbreite verglichen wird. In Abhängigkeit vom Vergleichsergebnis können folgende Fällen aufgetreten : eine zusätzliche Bandbreite wird angefordert, mit derselben Rate übertragen oder ein Teil der reservierten Bandbreite wird wieder freigegeben. Innerhalb des dargestellten Flussdiagramm stellen die „Blöcke“ Control, Verkehrsmessung, Bandbreitenanforderung (siehe Flussdiagramm 1) usw., eigenständige Programme dar, in denen die erwünschten Funktionen realisiert sind.

113

5. Modellierung des LAN- und ATM-Netzes

Flussdiagramm 1: Algorithmus zum Vergleich der erwünschten Bandbreite mit der vorhandenen Bandbreite

114

5. Modellierung des LAN- und ATM-Netzes

5.3.3 Markoff-Zustandsmodell bei Bandbreitenanmeldung und Wiederfreigabe Aus den bisherigen Erläuterungen ist zu erkennen, dass sich der Zustand der Netzkopplungseinheit ändert. Mit dem Zustand der in Bild 5.1 dargestellten Netzkopplungseinheit ist das Verhältnis zwischen erwünschter Bandbreite und vorhandener Bandbreite gemeint. Dieses Verhältnis kann sich z.B. wegen Änderung der Anzahl der LAN-Arbeitsplätze, der burstartigen Natur des erzeugten Verkehrs der LANArbeitsplätze oder der Überlastung des ATM-Netzes ändern. In der Nachrichtenverkehrstheorie werden sehr oft Markoff-Modelle bzw. MarkoffKetten verwendet, um die Änderung des Zustands eines Systems zu beschreiben [77] [78]. Auch in der vorliegenden Arbeit werden Markoff–Modelle verwendet, um die Änderung des Zustands der entwickelten Netzkopplungseinheit während der

Übertra-

gung sowie während der zusätzlichen Bandbreitenreservierung zu modellieren und zu beschreiben. Es wird angenommen, dass die Kopplungseinheit zwischen dem LAN und der ATM-Netzstrecke die gesamte Übertragungsrate mit der Bandbreite Bg (z.B. 155 Mbit/s) zur Verfügung stellen kann. Diese gesamte Übertragungsstrecke wird durch n Bedienungseinheiten modelliert. Die gesamte Bandbreite Bg wird in ng virtuelle Kanäle unterteilt, wobei jeder virtuelle Kanal die Bandbreite

Bi =

Bg

(5.27)

ng

zur Verfügung hat. Jede zusätzliche Bandbreite bedeutet eine weitere Bedieneinheit im entwickelten Modell. Es wird angenommen, dass die gesamte Anzahl der Arbeitsplätze N ist. Durch die Variable i wird die Anzahl der Arbeitsplätze beschrieben, die sich im betrachteten Moment im Active-Zustand befinden. Die Anzahl der virtuellen Kanäle, die für die Kopplungseinheit zur Verfügung stehen, wird durch die Variable j beschrieben. Die Anzahl der Arbeitsplätze, die sich im Active-Zustand befinden, stellt die erwünschte Bandbreite dar, während die Anzahl der Bedieneinheiten, die belegt werden können, die vorhandene Bandbreite darstellt. Es wird angenommen, dass die 115

5. Modellierung des LAN- und ATM-Netzes

erzeugten LAN-Pakete eines Arbeitsplatzes

durch eine Bedieneinheit verarbeitet

werden, was bedeutet, dass der erzeugte Verkehr eines Arbeitsplatzes durch einen virtuellen Kanal übertragen wird. Der Übergangsgraf bei der Reservierung und der Freigabe der Bandbreite ist in Bild 5.8 durch eine zweidimensionale Markoff–Kette dargestellt.

Bild: 5.8 Übergangsgraf bei Reservierung und Freigabe der Bandbreite, Zweidimensionale Markoff-Kette Wenn sich die Kopplungseinheit in einem betrachteten Moment im Zustand ( i, j ) befindet, bedeutet das, dass i Arbeitsplätze aktiv sind und ihnen j virtuelle Kanäle zur Verfügung stehen. Für i = j entspricht die vorhandene Bandbreite der erwünschten Bandbreite. Falls ein weiterer Arbeitsplatz vom Silent- in den Active-Zustand

über-

geht und die vorhandene Bandbreite konstant bleibt, dann wechselt das System von

(i,j) nach (i+1,j). Dies wird durch eine negativ–exponentielle Verteilung mit der mittleren Übergangsrate (N − i) α modelliert. In diesem Moment ist die erwünschte Bandbreite größer als die vorhandene, wodurch von der Netzkopplungseinheit eine Anforderung an zusätzlicher Bandbreite veranlasst wird. Falls die angeforderte Bandbreite zur Verfügung gestellt wird, geht das System über in den Zustand (i+1,j+1)

116

5. Modellierung des LAN- und ATM-Netzes

Die Verzögerung bei der Zuteilung einer zusätzlichen Bandbreite wird durch die Variable γ beschrieben. Solange die Netzkopplungseinheit auf die Bestätigung wartet, kann ein anderer Arbeitsplatz mit der mittleren Übergangsrate [N − (i − 1)] α vom Silent- in den Active-Zustand übergehen. Wird die Anforderung zusätzlicher Bandbreite abgelehnt, dann ändert sich der Zustand der Netzkopplungseinheit nicht. Wenn i > j ist, bedeutet das, dass in der Netzkopplungseinheit die erwünschte Bandbreite größer als die vorhandene Bandbreite ist und unmittelbar vom ATM-Netz eine zusätzliche Bandbreite angefordert wird. Die Anforderungen dauern solange an, bis die Bedingung i = j erfüllt ist. Falls i < j ist, bedeutet das, dass in der Netzkopplungseinheit die vorhandene Bandbreite größer ist als die erwünschte. In diesem Fall wird ein Teil der vorhandenen Bandbreite von der Kopplungseinheit als freie Bandbreite angemeldet. Unabhängig vom Verhältnis zwischen erwünschter und vorhandener Bandbreite kann jeder Arbeitsplatz vom Active-Zustand in den Silent-Zustand übergehen, was durch eine negative–exponentiale Verteilung mit der mittleren Übergangsrate β modelliert wird. Falls i Arbeitsplätze sich im Active-Zustand befinden, dann ist die

mittlere Übergangsrate i β

5.3.4 Ermittlung der erwünschten Bandbreite aus dem Füllstand des Puffers In der im Bild 5.1 dargestellten Netzkopplungseinheit ist ein „Block“ Pufferschwelle vorgesehen, der die Aufgabe hat, den Füllstand des Puffers zu ermitteln bzw. zu überwachen. Durch die Ermittlung des Pufferfüllstands ist es möglich, das Verhältnis zwischen erwünschter und vorhandener Bandbreite zu erfahren. Wird der Füllstand des Puffers erhöht, bedeutet es für die Netzkopplungseinheit, dass die erwünschte Bandbreite größer als die vorhandene Bandbreite ist. Wenn der Füllstand des Puffers sinkt, bedeutet es, dass die erwünschte Bandbreite kleiner als die vorhandene Bandbreite ist.

117

5. Modellierung des LAN- und ATM-Netzes

Im Puffer sind zwei Schwellen definiert, die als Oberschwelle und als Unterschwelle bezeichnet werden. Die Oberschwelle ist die Schwelle, ab der eine zusätzliche Bandbreite vom ATM-Netz angefordert wird. Die Unterschwelle ist die Schwelle, unterhalb der ein Teil der reservierten Bandbreite wieder freigegeben wird. Die Anforderung an zusätzlicher Bandbreite und die Freigabe eines Teils der reservierten Bandbreite wird durch den „Block“ Ressource Management realisiert (siehe Bild 5.1). Wie auch aus den Simulationsergebnissen zu sehen ist (siehe Abschnitt 6.6), werden die Schwellen des Puffers in Abhängigkeit von den angeforderten QoS-Parametern und dem Ausnutzungskoeffizienten festgelegt. Die Überwachung bzw. die Ermittlung des Pufferfüllstands wird periodisch durchgeführt und die Periode entspricht der Fenstergröße. Das heisst, dass auch beim Pufferfüllstandsverfahren die Reservierung einer zusätzlichen Bandbreite oder die Freigabe der vorhandenen Bandbreite nicht öfter als durch die in „Block“ Fenstergröße festgelegten Zeitabstände stattfinden kann. In der Nachrichtenverkehrstheorie ist das System M/M/m/l bekannt, wobei das erste

M die Ankunftsprozesse bezeichnet, die durch einen Markoff-Prozess modelliert werden. Das zweite M steht für die Bedienprozesse, die auch durch einen MarkoffProzess modelliert werden. m beschreibt die Bedieneinheiten im System und l den Speicherplatz bzw. Speichergröße für Ereignisse, die warten müssen [28] [44] [77] [78]. Die dargestellten Netzkopplungseinheit kann durch dieses System modelliert werden wie aus den folgenden Erläuterungen zu sehen ist. Die Erzeugung der LAN-Pakete ist durch einen Markoff-Prozess (Poisson-Prozess siehe Anhang B Abschnitt b.2.1) modelliert. Die Bedienung der LAN-Pakete ist ebenfalls durch einen Markoff-Prozess modelliert. Der Anzahl der Bedieneinheiten m entspricht der reservierten bzw. der vorhandenen Bandbreite der Netzkopplungseinheit.

l ist der Puffergröße, in dem die LAN-Pakete gespeichert werden, bevor sie über das ATM-Netz übermitteln werden. Bei der Festlegung der Schwelle im Puffer und bei der Anforderung der zusätzlichen Bandbreite muss immer die Puffergröße berücksichtigt werden. Das gilt besonders für zeitkritische Anwendungen, bei denen die Verzögerung beschränkt ist. Im allgemeinen Fall kann das Verhältnis zwischen zusätzlicher Bandbreite und Puffergröße in der dargestellten Netzkopplungseinheit gemäß Gleichung (5.28) definiert werden. 118

5. Modellierung des LAN- und ATM-Netzes

falls l → 0 , dann

R h (i + 1) = K g R h (i) → R p

falls l → ∞, dann

R h (i + 1) = K g R h (i) → R m

(5.28)

Aus der Gleichung (5.28) ergibt sich, dass für kleine Puffer die vorhandene Bandbreite im Moment (i+1) die gemessene Spitzenbitrate im Moment (i) anstreben soll, um die Verlustwahrscheinlichkeit gering zu halten. Für große Puffer wird die vorhandene Bandbreite im Moment (i+1) die gemessene mittlere Bitrate anstreben. Die Wartezeit der LAN-Pakete im Puffer ist in diesem Fall größer, aber der Auslastungskoeffizient der vorhandenen Bandbreite im ATM-Netz ist besser als im ersten Fall. Das ist auch durch im Kapitel 6 dargestellten Simulationsergebnisse bewiesen. Bei der bisherigen Ermittlung der erwünschten Bandbreite in der Netzkopplungseinheit sind die Verkehrsmessungsverfahren und das Pufferfüllstandsverfahren getrennt analysiert worden. In den folgenden Erläuterungen wird gezeigt, dass beide Verfahren gleichzeitig verwendet werden könne, um die Höhe der erwünschten Bandbreite zu bestimmen und vom ATM-Netz anzufordern. Auch ist es möglich, die Verlustwahrscheinlichkeit in der Netzkopplungseinheit zu ermitteln und bei der Anforderung einer zusätzlichen Bandbreite vom ATM-Netz mit einzubeziehen. In diesem Fall wird innerhalb der Fenstergröße die mittlere Bitrate Rm, die Spitzenbitrate Rp, der Füllstand des Puffers sowie die Verlustwahrscheinlichkeit ermittelt. In Bild 5.9 ist die Modellierung des Pufferfüllstands dargestellt.

5.9 Modellierung des Pufferfüllstands

119

5. Modellierung des LAN- und ATM-Netzes

Kelly hat in seinen Untersuchungen für „die effektive Bandbreite“ in Multiservice Netzwerken eine Gleichung entwickelt, bei der für die Berechnung „der effektiven Bandbreite“ die mittlere Bitrate, die Spitzenbitrate, die Verlustwahrscheinlichkeit sowie der Pufferfüllstand einbezogen worden sind [75] [134][135]. Diese Gleichung kann verwendet werden, um die Höhe der erwünschten Bandbreite in der dargestellten Netzkopplungseinheit zu bestimmen und vom ATM-Netz anzufordern. Wie schon erwähnt wurde, ist es möglich, innerhalb einer Fenstergröße in der dargestellten Netzkopplungseinheit die mittlere Bitrate, die Spitzenbitrate, die Verlustwahrscheinlichkeit sowie den Pufferfüllstand zu bestimmen. Es wird angenommen, dass die Puffergröße in der Netzkopplungseinheit l ist. Der Füllstand des Puffers in einem Moment i bzw. während einer Fenstergröße ist x ≤ l , die mittlere Bitrate Rm(i), die Spitzenbitrate Rp(i) sowie die Verlustwahrscheinlichkeit bis zu diesem Moment bzw. während einer Fenstergröße in der Netzkopplungseinheit ξ. Im diesem Fall wird die erwünschte Bandbreite, die angefordert wird, durch die KellyFormel berechnet, in der die Parameter x, Rp, Rm, ξ einbezogen sind.

Rh =

 R  −logξ R p  x log 1 + m  e x − 1    Rp  − logξ  

(5.29)

Bei der Verwendung der Kelly-Gleichung (5.29) zur Ermittlung der erwünschten Bandbreite wird nicht die Kapazität der ATM-Strecke oder die maximal erlaubte Bandbreite für eine Verkehrsklasse berücksichtigt. Falls die durch Gleichung (5.29) berechnete Bitrate in der dargestellten Netzkopplungseinheit die Kapazität oder die erlaubte Bandbreite überschreitet, wird die Anforderung an zusätzlicher Bandbreite abgelehnt. Das bedeutet, dass die Gleichung

R h (i + 1) = Rh (i) + R z ≤ R max

(5.30)

nicht verletzt werden darf, wobei Rmax die Kapazität der ATM-Strecke oder die maximal erlaubte Bandbreite für diese Verkehrsklasse darstellt.

120

5. Modellierung des LAN- und ATM-Netzes

Die Berechnung der zusätzlichen Bandbreite in der modulierten Kopplungseinheit gemäß der Kelly Formel hat große Bedeutung bei Anwendungen, die eine kleine Fehlerrate erfordern. Indirekt bietet die Kelly Formel auch die Möglichkeit, die Wartezeit der Pakete in der Kopplungseinheit zu berücksichtigen, da jedes Überschreiten der erlaubten Verzögerung eine Vergrößerung der Verlustrate bedeutet. Für die Anforderung der zusätzlichen Bandbreite von der Netzkopplungseinheit für Multimedia Anwendungen, bei denen die Verlustrate klein bleiben soll, ist die Kelly Formel sehr gut geeignet (siehe Simulationsergebnissen Kapitel 6 Abschnitt 6.11)

5.3.4.1 Algorithmus zur Ermittlung der erwünschten Bandbreite In den bisherigen Erläuterungen wurde dargestellt, wie die erwünschte Bandbreite in der im Bild 5.1 dargestellten Netzkopplungseinheit gemäß der Nachrichtenverkehrstheorie nach der Verkehrsmessungs- und nach dem Pufferfüllstandsverfahren ermittelt werden kann. In Flussdiagramm 2 wird ein Teil des Programms dargestellt, durch das die Ermittlung der erwünschten Bandbreite realisiert wird. Innerhalb des dargestellten Flussdiagrams stellen die „Blöcke“, wie z.B. Paketlängenermittlung, Bedienung der wartenden Pakete, Weiterleitung der Pakete usw., eigenständige Programme dar, in denen die erwünschten Funktionen realisiert sind.

121

5. Modellierung des LAN- und ATM-Netzes

Flussdiagramm 2 : Algorithmus zur Ermittlung der erwünschten Bandbreite

122

5. Modellierung des LAN- und ATM-Netzes

5.3.5 Modellierung der Antwortzeit und der Ablehnungswahrscheinlichkeit Wenn der Komparator bei der Ermittlung der erwünschten Bandbreite feststellt, dass eine zusätzliche Bandbreite vom ATM-Netz angefordert werden muss, werden die „Anforderungs-Zellen“ vom „Block“ Ressource Management generiert. Diese „Anforderungs-Zellen“ müssen von jeder ATM-Vermittlungsstelle bearbeitet werden, um zu entscheiden, ob die jeweilige Vermittlungsstelle die angeforderte Bandbreite gewährleisten kann oder nicht. In Abhängigkeit des verwendeten Bandbreitenreservierungsverfahrens muss die Netzkopplungseinheit warten, bis die Bestätigung oder die Ablehnung kommt. Die Zeit, ab der die „Anforderungs-Zellen“ erzeugt werden, bis hin zu einer Bestätigung der reservierten zusätzlichen Bandbreite oder einer Ablehnung wird als Antwortzeit bezeichnet. Die in Bild 5.1 dargestellte Netzkopplungseinheit enthält hierzu den „Block“ Verzögerung, in der diese Verzögerung des ATM-Netzes bis zum Eintreffen einer Antwort modelliert wird. Dieser „Block“ Verzögerung kann sich auch gemäß Bild 5.10 verzweigen. Wie auch aus den Simulationsergebnissen zu sehen ist (siehe Kapitel 6 Abschnitt 6.2), beeinflusst die Antwortzeit die Leistungsparameter der Netzkopplungseinheit, weshalb im Folgenden erläutet wird, wie in der im Bild 5.1 dargestellten Netzkopplungseinheit der „Block“ Verzögerung bzw. die Antwortzeit gemäß der Nachrichtenverkehrstheorie modelliert werden kann. Hierzu werden im Folgenden die Parameter wie die mittlere Wartezeit, die Varianz und der Variationskoeffizient der Wartezeit sowie die Ablehnungswahrscheinlichkeit für die Netzkopplungseinheit gemäß der Nachrichtenverkehrstheorie berechnet. Wenn Gleichung 5.25a erfüllt ist, fordert das Ressource Management eine zusätzliche Bandbreite vom ATM-Netz an. Wie schon erwähnt, gibt es mehrere Bandbreitenreservierungsverfahren. Beim FRP/DT-Verfahren wartet die Netzkopplungseinheit auf eine Bestätigungsantwort, um die Übertragungsrate zu erhöhen [102]. Die Antworten (RM-Zellen) haben eine höhere Priorität innerhalb der ATM-Netze, da das CLP Feld in einer RM-Zelle immer den Wert 0 enthält. Demnach hängt die Schwankung der Verzögerung von der Last des ATM-Netzes bzw. der Vermittlungsstelle ab, da auch RM-Zellen in der Warteschlange warten müssen.

123

5. Modellierung des LAN- und ATM-Netzes

Die gesamte Vorzögerung von RM-Zellen kann als Summe der Ausbreitungsverzögerung γ c zwischen Sender-CLS und Empfänger–CLS auf dem Hin- und Rückweg, und der Verzögerung der RM-Zellen in der Warteschlage der ATM-Vermittlungsknoten γ v dargestellt werden.

γ = γc + γ v

(5.31)

Die Verzögerung γ c hängt von der Distanz zwischen den CL–Servern bzw. LANNetzen ab. Für eine schon aufgebaute Verbindung bleibt γ c konstant, während γ v von der Last des ATM-Netzes abhängt. Die Antwortzeit bzw. die Verzögerung in den ATM-Knoten kann durch eine negativexponentielle Verteilung mit der mittleren Wartezeit

γ vi , i = 1,2, ...,k

(5.32)

modelliert werden.

Bild 5.10: Modellierung der Antwortzeit in ATM-Vermittlungsstelle Die gesamte Wartezeit ergibt sich als Summe der Wartezeiten in jeder ATMVermittlungsstelle, die sich zwischen gekoppelten LANs befinden. Es wird angenommen, dass die mittlere Wartezeit der RM-Zellen in den ATMVermittlungsstellen gleich ist, das heißt:

γ v1 = γ v2 = ... = γ v κ = γ va

124

(5.33)

5. Modellierung des LAN- und ATM-Netzes

In diesem Fall erhält man die Summe aus k stochastischen negativ-exponentiel verteilten Zufallsgrößen mit dem gemeinsamen Parameter γ va , was eine Erlang– Verteilung mit den Parametern k und γ va darstellt [7] [104].

F(t ) = 1 - e

-ktγ v a

(tkγ va )i ,t ≥ 0 ∑ i! i=0 k −1

(5.34)

Gleichung (5.34) stellt die Verteilungsfunktion der Antwortzeit für das gesamte ATMNetz zwischen CL Servern dar, die im „Block“ Verzögerung berechnet wird. Die mittlere Antwortzeit, die Varianz sowie der Variationskoeffizient sind in den Gleichungen 5.35 und 5.36 dargestellt [7] [104].

E[ T ] =

V[ T ] =

k γ va

Var[ T ] =

Var[ T ] 1 = E[ T ] k

k γ

2

(5.35)

av

(5.36)

In Gleichung 5.36 geht man davon aus, dass der Variationskoeffizient der Antwortzeit nur von der Anzahl der ATM-Vermittlungsstellen zwischen den CLS abhängig ist. Der Verbindungsweg zwischen zwei CL-Servern bzw. LAN-Netzen kann sich in Abhängigkeit des ATM-Lastzustands ändern, da die Verbindung zwischen CL-Servern nicht immer über den direkten Weg realisiert wird, sondern sehr oft über einen alternativen Weg. Deswegen kann die Anzahl der ATM-Vermittlungsstellen zwischen den CL-Servern unterschiedlich sein. Bei Duplex Verbindungen kann die Kommunikation zwischen zwei CL-Servern durch zwei unterschiedliche virtuelle Kanäle mit unterschiedlichem Weg realisiert werden. Deshalb kann auch der Variationskoeffizient der Antwortzeit gemäß Gleichung 5.36 für jede Übertragungsrichtung unterschiedlich sein. Bei der bisherigen Betrachtung ist die Ablehnungsmöglichkeit der Anforderung an zusätzlicher Bandbreite noch nicht berücksichtigt. Die Anforderung an zusätzlicher Bandbreite durch die in Bild 5.1 dargestellte Netzkopplungseinheit kann jedoch vom

125

5. Modellierung des LAN- und ATM-Netzes

ATM-Netz häufig abgelehnt werden. Im Folgenden wird daher die Ablehnungswahrscheinlichkeit näher erläutet und gemäß der Nachrichtenverkehrstheorie modelliert. Das ATM-Netz bzw. die ATM-Knoten entscheiden über eine Reservierung oder über eine Ablehnung in Abhängigkeit von der momentanen Netzlast. Es wird angenommen, dass das ATM-Netz für die Netzkopplungseinheit no Kanäle von insgesamt ng virtuellen Kanälen, reserviert hat. Die reservierte Bandbreite Bo kann als Bündelung der Bandbreiten dieser no virtuellen Kanälen betrachtet werden. Die Übertragungsrate eines virtuellen Kanals bleibt konstant. Der Hintergrundverkehr im ATM-Netz belegt nh virtuelle Kanäle, die der Bandbreite

Bh entsprechen. Es muss die Gleichung 5.37 erfüllt werden. Bg ≥ Bo + Bh

(5.37)

Im Fall B g = B o + B h ist die gesamte Bandbreite im ATM-Netz belegt und jede Anforderung der Netzkopplungseinheit an zusätzlicher Bandbreite wird abgelehnt. Es wird angenommen, dass B g > B o + B h ist und noch

Bf = Bg − (Bo + Bh )

(5.38)

Bandbreite frei ist. Diese freie Bandbreite Bf entspricht nf freien virtuellen Kanälen, wo nf = ng − (no + nh )

(5.39)

Die von der dargestellten Netzkopplungseinheit reservierte Bandbreite kann der minimal gewährleisteten Bandbreite bei ABR entsprechen und bleibt konstant. Die gesamte zur Verfügung stehende Bandbreite des ATM-Netzes bleibt auch konstant. Gemäß Gleichung 5.39 hängt die noch freie Bandbreite nur vom Hintergrundverkehr ab. Diesen Zustand der Bandbreite im ATM-Netz kann man durch nf freie Kanäle, die durch nf Bedieneinheiten modelliert werden, beschreiben. Die Anforderungen der Netzkopplungseinheit an zusätzlicher Bandbreite kommen unabhängig vom Zustand

126

5. Modellierung des LAN- und ATM-Netzes

des ATM-Netzes. Falls die zusätzliche Bandbreite von der Kopplungseinheit angefordert wird, hängen die Anforderungsraten nur vom Zustand in der Kopplungseinheit ab. Das bedeutet, dass die mittlere Anforderungsrate während der ganzen Zeit konstant bleibt. Die Ankunft der Anforderungen kann durch eine negativ-exponentielle Verteilung modelliert werden, da auch der Übergang der Arbeitsplätze vom Silent- in den Active-Zustand durch eine solche Verteilung modelliert ist. Die Belegungsdauer eines virtuellen Kanals wird ebenfalls durch eine negativ-exponentielle Verteilung modelliert und entspricht dem Übergang eines Arbeitsplatzes von Active-Zustand in den Silent-Zustand. Die Anforderung an zusätzlicher Bandbreite vom Hintergrundverkehr kann ebenfalls durch die negativ-exponentielle Verteilung modelliert werden. Den gesamten Zustand der Bandbreite in der dargestellten Netzkopplungseinheit kann man durch ein aus der Nachrichtenverkehrstheorie bekanntes M/M/m–Verlust System darstellen [77][78]. Das erste M stellt das Eintreffen von Anforderungen für zusätzliche Bandbreite im ATM-Netz dar. Das zweite M zeigt die Bedienung der Anforderungen durch das ATM-Netz an. Beides wird durch einen Poisson-Prozess modelliert [78]. Das ganze System hat m Server zur Verfügung, was bei der in der vorliegenden Arbeit bzw. in der dargestellten Netzkopplungseinheit durchgeführten Analyse der Anzahl der freien virtuellen Kanäle nf entspricht. Falls alle Kanäle belegt sind und eine Anforderung für zusätzliche Bandbreite ankommt, wird diese sofort abgelehnt. Die Anforderungen haben damit keine Wartemöglichkeit im System. In diesem Fall versucht die Kopplungseinheit, erneut eine zusätzliche Bandbreite zu reservieren. Der Übergangsgraf der eintreffenden Anforderungen an zusätzlicher Bandbreite sowie das Bedienen dieser Anforderungen ist in Bild 5.11 durch eine eindimensionale Markoff-Kette dargestellt.

127

5. Modellierung des LAN- und ATM-Netzes

Bild : 5.11 Übergangsgraf der Belegung und der Freigabe von freien virtuellen Kanälen

Für den in Bild 5.11 dargestellten Übergangsgraf kann die Erlang-Gleichung verwendet werden, um die Wahrscheinlichkeit dafür zu berechnen, dass der Übergangsgraf sich in einem bestimmten Zustand befindet [7] [21] [22][78]. Die Erlang-Gleichung für die Zustandwahrscheinlichkeit des ATM-Netzes bzw. der nf freien Kanälen mit dem Angebot A =

α ist durch Gleichung 5.40 gegeben. β

x

α 1   β x! p x =   i , x = 1,2 , ... , nf x α 1   ∑ i = 1  β  i!

(5.40)

Hierin stellt α die konstante mittlere Anforderungsrate an zusätzlicher Bandbreite dar, die unabhängig vom Netzlastzustand ist, β bezeichnet die mittlere Bedienrate. Die zusätzlich reservierte Bandbreite wird als freie Bandbreite angemeldet, falls die Kopplungseinheit sie nicht mehr verwendet. Die mittlere Freigaberate ist abhängig von der Anzahl der belegten Kanäle. Gleichung 5.40 beschreibt die Wahrscheinlichkeit dafür, dass in einem Moment ti bereits x von nf freien Kanälen belegt sind. Die Verlustwahrscheinlichkeit bzw. die Ablehnungswahrscheinlichkeit der eintreffenden Anforderungen an zusätzlicher Bandbreite im vorliegenden Fall ist durch die Erlang-Gleichung 5.41 gegeben [7] [21] [22][78]. Diese Ablehnungswahrscheinlichkeit

128

5. Modellierung des LAN- und ATM-Netzes

entspricht in der vorliegenden Arbeit der Wahrscheinlichkeit dafür, dass alle freien Kanäle belegt sind und das ATM–Netz keine Bandbreite mehr reservieren kann. nf

pab

α 1   β n! =   if , nf α 1   ∑ i = 1  β  i!

(5.41)

Wenn die Höhe der angeforderten Bandbreite größer ist als die Zahl der freien Kanäle, hat die Ablehnungswahrscheinlichkeit den Wert 1. Bei den bisherigen Ausführungen ist nicht berücksichtigt, dass innerhalb der Kopplungseinheit sowie im ATM-Netz unterschiedliche Verkehrsklassen mit unterschiedlichem Bandbreitebedarf verwendet werden können. Auch ist bei der Ablehnungswahrscheinlichkeit für die Anforderung an zusätzlicher Bandbreite nicht berücksichtigt, dass die Ablehnungswahrscheinlichkeit nicht nur von der noch freien Bandbreite abhängt, sondern auch von der Verkehrsklasse (CBR, Nrt-VBR, rt-VBR, ABR, UBR), die die Anforderung an zusätzlicher Bandbreite stellt. Für jede Verkehrsklasse kann die maximal zur Verfügung stehende Bandbreite begrenzt werden. Das bedeutet, dass die Anforderung einer Verkehrsklasse abgelehnt wird, auch wenn noch freie Bandbreite zur Verfügung steht, falls durch die zusätzliche Bandbreite die maximal erlaubte Bandbreite für diese Verkehrsklasse überschritten wird. Im diesem Fall ist Gleichung 5.41 nicht mehr verwendbar, da sie nicht die Beschränkung innerhalb einer Verkehrsklasse berücksichtigt. In diesem Fall muss die mehrdimensionale Erlang–Formel verwendet werden, um die Ablehnungswahrscheinlichkeit zu berechnen [25] [26]. Die Menge der erlaubten Zustände der freien Bandbreite wird durch die Größe Ω beschreiben. Die Belegung der freien Kanäle wird durch den Belegungsvektor

x = (x1, x 2 , x 3 ,..., x S ) x ∈ Ω , wenn

S

∑x

s =1

129

s

(5.42) rs ≤ Bf

5. Modellierung des LAN- und ATM-Netzes

beschrieben, wobei xs die Anzahl der etablierten virtuellen Kanäle der Verkehrsklasse s beschreibt, rs die benötigte Bitrate der Verkehrklasse s und S die Anzahl der Verkehrsklassen im Netz. Durch P(x) wird gemäß Gleichung 5.43 die Belegungswahrscheinlichkeit des Belegungszustands x beschrieben.

A xs s P(x ) = G (Ω)∏ , s =1 x s ! S

−1

x∈ Ω

(5.43)

Hierin ist G( Ω ) ein Normierungsfaktor, der durch Gleichung 5.44 definiert wird.

A xs s ) G(Ω) = ∑ ( ∏ n∈Ω s =1 x s ! S

(5.44)

As ist das Angebot der Verkehrklasse s Die Ablehnungswahrscheinlichkeit ergibt sich aus der Addition der Belegungswahrscheinlichkeit der virtuellen Kanäle, in denen keine Anforderung an zusätzlicher Bandbreite mehr vom ATM-Netz angenommen werden kann, auch wenn die Netzkopplungseinheit eine zusätzliche Bandbreite benötigt. Kaufman und Robert haben in ihren Untersuchungen gezeigt, wie die Ablehnungswahrscheinlichkeit in einem Telekommunikationssystem mit unterschiedlichen Verkehrsklassen berechnet werden kann [73] [74]. Im ATM-Netz sind unterschiedliche Verkehrsklassen definiert, wie CBR, VBR, ABR usw., die auch bei der Kopplung mit den LAN-Netzen bzw. in der dargestellten Netzkopplungseinheit verwendet werden können. Deshalb soll bei der Berechnung der Ablehnungswahrscheinlichkeit in der dargestellten Netzkopplungseinheit eine Methode verwendet werden, die die unterschiedlichen Verkehrsklassen im ATM-Netz berücksichtigt. Um die Ablehnungswahrscheinlichkeit in diesem Fall zu berechnen, können die von Kaufman/Roberts vorgestellten Berechnungsmethoden verwendet werden. Voraussetzungen für diese Berechnungsmethoden sind ganzzahlige und normierte Werte für die Bitrate und die zur Verfügung stehende Bandbreite Bf , eine negativexponentielle Verteilung der ankommenden Anforderungen sowie eine kleine Bitrate

130

5. Modellierung des LAN- und ATM-Netzes

für alle Verkehrsklassen. Die Anforderungsabstände für zusätzliche Bandbreiten können jeden beliebige Wert haben. Diese Voraussetzungen sind in der hier modellierten Netzkopplungseinheit zur Berechnung der Ablehnungswahrscheinlichkeit des ATM-Netzes für zusätzliche Bandbreite erfüllt. Um die Ablehnungswahrscheinlichkeit zu berechnen, werden die Wahrscheinlichkeiten für die einzelnen Belegungszustände aufaddiert. Die Wahrscheinlichkeit p(x), dass x virtuelle Kanäle belegt sind, wird gemäß Kaufman/Roberts durch die Gleichung 5.45 berechnet [73] [74]. 1 S  x ∑ rs A s p(x − rs )  s =1 p(x ) =  c  0  

, x = 1, 2, 3, ... , nf ,x = 0 ,x< 0

(5.45)

Der Wert der Konstanten c ergibt sich aus der Forderung, dass die Summe über alle Zustände den Wert 1 haben muss. nf

∑ p(x) = 1

(5.46)

x =0

Die Ablehnungswahrscheinlichkeit für die Verkehrsklasse s ist die Summe der Wahrscheinlichkeiten der Belegungszustände, in denen keine zusätzliche Bandbreite mehr für die Verkehrsklasse s reserviert werden kann. Sie wird durch Gleichung 5.47 berechnet. pab (nf ) =

nf

∑ p(x)

(5.47)

x = n f − rs + 1

Durch die Gleichung 5.47 lässt sich die Ablehnungswahrscheinlichkeit der zusätzlichen Bandbreite berechnen, auch wenn innerhalb der dargestellten Netzkopplungseinheit und

dem ATM-Netz unterschiedliche Verkehrsklassen (CBR, VBR, UBR,

ABR) benutzt werden.

131

5. Modellierung des LAN- und ATM-Netzes

Sind die vorgenannten Voraussetzungen nicht erfüllt, können andere Berechnungsmethoden verwendet werden, wie z.B die Verfahren von Labourdette und Hart, die aber in der vorliegenden Arbeit nicht angewendet werden.

5.4 Die Modellierung des Wartesystems der Netzkopplungseinheit durch Fluid Flow Model In der im Bild 5.1 dargestellten Netzkopplungseinheit wird der Puffer virtuell in zwei Teile aufgeteilt. Im ersten Teil werden die LAN-Pakete und im zweiten Teil die ATMZellen gespeichert. Während der Übertragung der LAN-Pakete kann es öfter zum Überlauf des Puffers kommen bzw. können des Öfteren die LAN-Pakete oder ATMZellen verworfen werden, da es keinen freien Platz im Puffer gibt. Die verlorenen Pakete bzw. Zellen werden im „Block“ Verluste berechnet (siehe Bild 5.1). Somit kann man den Verlust auf der Paketebene und auf der Zellenebene untersuchen. Diese Aufteilung des Puffers wird auch im Simulationsprogramm durchgeführt. Die Ereignisse im Puffer beeinflussen die QoS-Parameter der Netzkopplungseinheit. Deshalb werden diese möglichen aufgetretenen Ereignisse gemäß der Nachrichtenverkehrstheorie modelliert, um die Leistungsparameter der Netzkopplungseinheit zu berechnen. Telekommunikations-Netze, durch die Informationen als Pakete übermittelt werden, können durch das Fluid Flow Modell modelliert werden [28] [37] [78] [105]. Auch in der vorliegenden Arbeit wird das Fluid Flow Modell verwendet, um die Speicherplatzprobleme, wie Pufferüberlauf, Verzögerung der Pakete, Warteschlangenlänge, Auslastung der vorhandenen Bandbreite bei der dargestellten Netzkopplungseinheit zwischen LAN und ATM, zu modellieren und zu untersuchen. In Bild 5.12 ist gezeigt, wie der Puffer in der im Bild 5.1 dargestellten Netzkopplungseinheit modelliert werden kann. Der Puffer wird nicht als Speicherplatz mit diskreten Werten modelliert, sondern als kontinuierlicher Speicher.

132

5. Modellierung des LAN- und ATM-Netzes

Bild 5.12: Modellierung des Puffers Hierin ist x der Füllstand des Puffers und l die Puffergröße. Bh ist die vorhandene, d.h. die vom ATM-Netz gewährleistete Bandbreite, sie wird durch den Abfluss modelliert. Be ist die erwünschte, d.h. die von den LAN-Paketen benötigte Bandbreite, sie wird durch den Zufluss modelliert. Der Puffer selbst ist durch einen Flüssigkeitsbehälter modelliert. Die Modellierung des Wartesystems durch das Fluid Flow Model entspricht gut den realen Vorgängen im Puffer, falls die eintreffende LAN-Paketgröße klein ist. Bei größerer Paketgröße ist diese Methode der Wartesystem-Modellierung ungeeignet. Der Füllstand des Puffers ändert sich kontinuierlich, aber ein LAN-Paket wird nur dann gespeichert, wenn für das gesamte Paket Speicherplatz vorhanden ist. Anderenfalls wird das LAN-Paket verworfen. Das gleiche gilt auch für die ATM-Zellen. Nach Bild 5.6 kann man die Wahrscheinlichkeit dafür berechnen, dass sich zu einem Zeitpunkt t i , i von insgesamt N Arbeitsplätzen im Active-Zustand befinden. Diese Wahrscheinlichkeit wird durch die Binomialverteilung nach Gleichung 5.48 berechnet.

 N p i =   (p a ) i i

(1 − pa ) N − i

0≤i≤N

(5.48)

darin ist pa die Wahrscheinlichkeit, dass sich ein Arbeitsplatz im Active-Zustand befindet. Die Wahrscheinlichkeit, dass einer von (N-i) Arbeitsplätzen vom Silent-Zustand in den Active-Zustand übergeht, was bedeutet, dass das System vom Zustand i in den Zustand (i + 1) wechselt, ergibt sich zu 133

5. Modellierung des LAN- und ATM-Netzes

p(i, i + 1) = (N − i)α

(5.49)

Die Wahrscheinlichkeit, dass einer von i Arbeitsplätzen vom Active-Zustand in den Silent-Zustand übergeht, bzw. das System vom Zustand i in den Zustand (i − 1) wechselt, ist. p(i, i − 1) = iβ

(5.50)

Damit ist die Wahrscheinlichkeit, dass eine Zustandsänderung erfolgt, gegeben durch: p(i) = p(i, i − 1) + p(i, i + 1) = iβ + (N − i)α

(5.51)

Die Gleichung 5.51 bestimmt auch die Wahrscheinlichkeit, dass sich die erwünschte Bandbreite ändert und damit der Füllstand des Puffers. Die Wahrscheinlichkeit, dass die erwünschte Bandbreite bzw. die Bitrate der eintreffenden LAN-Pakete konstant bleibt, was bedeutet, dass das System den Zustand i nicht verlässt, wird durch Gleichung 5.52 berechnet.

p(i, i) = 1 − p(i) = 1 − (iβ + (N − i)α )

(5.52)

Jetzt soll die Wahrscheinlichkeit dafür berechnet werden, dass der Füllstand des Puffers den Wert x mit 0 ≤ x ≤ l nicht überschreitet, falls i Arbeitsplätze im ActiveZustand sind, die erwünschte Bandbreite B i ist und die vorhandene Bandbreite B j (siehe Bild 5.6 und Bild 5.8). Es wird ein kleines Zeitintervall ∆t angenommen, um den Füllstand des Puffers zu analysieren. Dafür braucht man die Verteilungsfunktion des Füllstands des Puffers in Abhängigkeit von der erwünschten Bandbreite und der vorhandenen Bandbreite in der dargestellten Netzkopplungseinheit. Dann gehen die Gleichungen 5.49 bis 5.52 über in p(i, i + 1) = (N − i)α ! t

(5.53)

p(i, i − 1) = iβ ! t

(5.54)

134

5. Modellierung des LAN- und ATM-Netzes

p(i, i) = 1 − p(i) = 1 − (iβ + (N − i)α ) ! t

(5.55)

Während dieses Zeitintervalls kann sich die Bandbreite um ∆B ij = Bei − Bhj ändern. Diese Änderung kann zur Änderung des Pufferfüllstands x führen und zwar um ∆x = − ∆B ij ∆t

(5.56)

Um die Leistungsparameter der im Bild 5.1 dargestellten Netzkopplungseinheit zu berechen, muss zuerst die Verteilungsfunktion bestimmt werden, durch die zu jeder Zeit der Füllstand des Puffers in der Netzkopplungseinheit beschrieben werden kann. Um zu dieser Verteilungsfunktion zu kommen, werden die bisherigen Erläuterungen für die möglichen Änderungen des Verhältnisses zwischen erwünschter Bandbreite und vorhandener Bandbreite, das auch zur Änderung des Füllstands des Puffers führt, und die bekannten Gleichungen der Nachrichtenverkehrstheorie verwendet. Aus der Nachrichtenverkehrstheorie ist das Chapman-Kolmogoroff-Theorem bekannt, durch das die Zustandswahrscheinlichkeit und die Übergangswahrscheinlichkeit eines stochastischen Prozesses berechnet werden kann [28][77] [104] [105]. In vorliegenden Arbeit wird dieses Chapman-Kolmogoroff–Theorem verwendet (siehe Gleichung 5.57), um die Wahrscheinlichkeit dafür zu berechnen, dass der Füllstand des Puffers während des Zeitintervalls ∆t den Wert x nicht überschreitet, obwohl das Verhältnis zwischen erwünschter Bandbreite und vorhandener Bandbreite in der dargestellten Netzkopplungseinheit sich um den Wert ∆B ij = Bei − Bhj ändert.

Pi (t + !t, x) =

Pi + 1(t, x - (Bei - Bhj )!t) (i + 1) β !t ) +

+ Pi (t, x − (Bei − Bhj )!t) (1- ((N - i) α !t + iβ!t) +

(5.57)

+ Pi-1(t, x − (Bei − Bhj )!t) (N - (i - 1))!t + o(!t)2 Aus Gleichung 5.56 ist zu sehen, dass, falls !t gegen null geht, auch !x gegen null geht. In diesem Fall geht Gleichung 5.57 über in

135

5. Modellierung des LAN- und ATM-Netzes

Pi (t + !t , x) - Pi-1(t, x - !x) = Pi +1(t, x) (i + 1)β − !t !t → 0 − Pi (t, x) ((N - i)α + iβ) +

lim

(5.58)

+ Pi-1(t, x) (N - i + 1) α

∂ Pi (t, x ) ∂ Pi (t, x) = + (B ei − Bhj ) ∂x ∂t

(i + 1) β Pi+1 (t, x) + + ( N - i + 1)α Pi-1 (t, x) -

(5.59)

- ( Nα + ( β − α ) i) Pi (t, x)

Das Wartesystem bzw. die dargestellte Netzkopplungseinheit wird im weiteren nur im stationären Zustand analysiert, das bedeutet, dass der Ausdruck

∂ Pi (t, x ) = 0 ist. ∂t

In diesem Fall wird eine Funktion Fij(x) definiert, die die Verteilung des Pufferfüllstands darstellt, wenn die erwünschte Bandbreite mit B ei und vorhandene Bandbreite mit Bhj bezeichnet wird. Damit geht die Gleichung 5.59 über in.

∆ Beihj

dFij (x) = p(i − 1,i)Fi −1(x) + p(i + 1,i)Fi +1(x) − p(i,i)Fi (x ) dx

(5.60)

In Bild 5.8 (Seite 115) ist dargestellt, das die Netzkopplungseinheit sich in Abhängigkeit vom Verhältnis zwischen erwünschter Bandbreite und vorhandener Bandbreite in unterschiedlichen Zuständen befinden kann bzw. unterschiedliche Fälle auftreten können. Für alle möglichen auftretenden Fälle soll die Gleichung 5.60 durch eine MatrixGleichung dargestellt werden, wobei die Elemente der Matrix alle möglichen Fällen bzw. alle möglichen Zustände der Netzkopplungseinheit , die in Bild 5.8 dargestellt sind, berücksichtigen. Die Matrixform der Gleichung 5.60 ist

D

wobei

dF(x) = M F(x) ; 0 < x < l dx

D = diag{ Be0 - Bhj ,Be1 - Bhj , ..., BeN - Bhj }

136

(5.61) (5.62)

5. Modellierung des LAN- und ATM-Netzes

Die Matrix D, die als sogenannte Driftmatrix bezeichnet wird, da auf der Hauptdiagonalen die sogenannten Driften ∆Beihj = Bei − B hj stehen, ist in Gleichung 5.63 dargestellt.

 ∆ Be0hj   0 D= M   0 

0 ∆Be1hj M 0

L L M L

0   0  M   ∆BeNhj 

(5.63)

Das heisst, dass die Matrix D auf der Hauptdiagonalen das Verhältnis bzw. die Differenz ∆B eihj zwischen erwünschter Bandbreite und vorhandener Bandbreite der im Bild 5.1 (Seite 87) dargestellten Netzkopplungseinheit enthält. Mit Gleichung 5.60 und Gleichung 5.63 stellt man fest, dass die Matrix M eine Übergangsmatrix ist, die alle in Bild 5.6 möglichen Übergangswahrscheinlichkeiten der Netzkopplungseinheit enthält. Sie ist in Gleichung 5.64 dargestellt.

p(2,0)  − p(0,0) p(1,0)   p(0,1) − p(1,1) p(2,1) M =  p(0,2) p(1,2) − p(2,2)  M M M   p(0, N) p(1, N) p(2, N) 

p(N,0)   L p(N,1)  L p(N,2)   M M  L − p(N, N)  L

(5.64)

Die Koeffizienten der Matrix M sind die Wahrscheinlichkeiten p(i , j) , die gemäß den Gleichungen 5.49, 5.50, 5.51 und 5.52 berechnet werden. Man erhält die Werte der Koeffizienten der Matrix Q, Gleichung 5.10 (Seite 97). In der dargestellten Matrix M ist die Übergangswahrscheinlichkeit bzw. die Variabilität der vorhandenen Bandbreite nicht berücksichtigt, sondern nur die der erwünschten Bandbreite. Wenn auch die vorhandene Bandbreite in die Matrix M einbezogen wird, dann ist M eine vierdimensionale Matrix und stellt genau die Übergangswahrscheinlichkeit der im Bild 5.1 dargestellten Netzkopplungseinheit gemäß Bild 5.8 dar. Gleichung 5.64 kann auch dazu verwendet werden, um die Verteilungsfunktion der Füllstände des Puffers in der Netzkopplungseinheit zu berechnen. Falls die zur Verfügung stehende Bandbreite vom ATM-Netz konstant bleibt (z.B. CBR-Constant Bit Rate), dann soll Gleichung 5.65 verwendet werden.

137

5. Modellierung des LAN- und ATM-Netzes

Bhj = c = kons tan t , ∀j ≤ N

(5.65)

Durch Umformung von Gleichung 5.61 erhält man.

F ' (x) = D −1M F(x)

(5.66)

Die Gleichung 5.66 stellt die allgemeine Matrixform der Modellierung der im Bild 5.1 dargestellten Kopplungseinheit zwischen LAN und ATM dar. Sind innerhalb des LAN-Netzes mehr als ein Typ von Arbeitsplätzen vorhanden, wie z.B. Telefon, Audioquelle, Videoquelle, Datenquelle, dann wird die Driftmatrix D sowie die Matrix M gemäß der Kronecker–Algebra berechnet [28].

M = M1 ⊕ M2 ⊕ M3 ⊕ M4 D = D1 ⊕ D2 ⊕ D3 ⊕ D4

(5.67)

Aus der Mathematik ist bekannt, dass eine allgemeine Lösung dieser Differentialgleichung sich gemäß Gleichung 5.68 ergibt zu N

Fi (x) = ∑ a i Φ i e z i x

(5.68)

i= 0

wobei z i die Eigenwerte und Φ i die entsprechenden Rechts-Eigenvektoren der Matrix D-1M sind. Da diese Matrix die Dimension R (Gesamtanzahl aller möglichen Aktivitätszustände während der gesamten LAN-Kopplung über ATM) hat, existieren auch

R Eigenwerte und Rechts–Eigenvektoren, wobei dann jedem Aktivitätszustand der LAN–Arbeitsplätze i (Anzahl der Arbeitsplätze, die sich im Active-Zustand befinden) genau ein Eigenwert z i , und eine Rechts–Eigenvektor Φ i zugeordnet werden kann. Die Werte der Koeffizienten a i werden durch die Randbedingungen bestimmt und hängen vom Verhältnis der erwünschten Bandbreite zur vorhandenen Bandbreite sowie von der Speichergröße der im Bild 5.1 dargestellten Netzkopplungseinheit ab. In der dargestellten Netzkopplungseinheit können drei unterschiedliche Fälle auftreten, von denen die Leistungsparameter der Netzkopplungseinheit abhängen. Diese Fälle werden gemäß Gleichung 5.66 analysiert. 138

5. Modellierung des LAN- und ATM-Netzes

Bei der Realisierung der in Bild 5.1 dargestellten Netzkopplungseinheit ohne Puffer ( l = 0 ) wird jedes ankommende LAN-Paket entweder sofort bedient bzw. übertragen oder verworfen. In diesem Fall wird die Kopplungseinheit zwischen LAN und ATM als reines Verlustsystem modelliert, ohne eine Wartemöglichkeit zu haben. Ist die Netzkopplungseinheit mit einer endlichen Puffergröße ausgestattet, ( 0 < l < ∞ ), wo nur eine bestimmte Anzahl von LAN-Paketen warten kann, kommt es zum Verlust, falls kein Platz mehr im Puffer ist, oder falls für diesen Dienst (LANPakettyp) keine Pakete gespeichert werden können. Falls die Kopplungseinheit mit einer unbegrenzten Puffergröße ausgestattet ist ( l → ∞ ), kann jedes ankommende Paket gespeichert werden. Die beiden Fälle ( l = 0 und l → ∞ ) werden in der weiteren Analyse nicht betrachtet, da sie, wie im nächsten Kapitel über die Simulationsergebnisse zu sehen ist, in der Netzkopplungseinheit zwischen LAN und ATM nicht verwendet werden können. Im Fall ( l = 0 ) wird die Anzahl der verlorenen Pakete groß, da es keinen Speicherplatz gibt. Das ATM-Netz kann nicht immer die von den LAN-Arbeitsplätzen erwünschte Bandbreite gewährleisten. Im Fall l → ∞ werden Verluste in der Netzkopplungseinheit und im gesamten Übermittlungsverfahren auftreten, besonderes bei zeitkritischen Anwendungen. In der weiteren Analyse wird nur der Fall ( 0 < l < ∞ ) betrachtet. Für den Fall l ≠ 0 ist in der im Bild 5.1 dargestellten Netzkopplungseinheit ein „Block“ Zeitüberprüfung vorgesehen, der eine Zeitüberprüfung der wartenden LAN-Pakete und ATM-Zellen durchgeführt. Überschreitet ein LAN-Paket bzw. eine ATM-Zelle die maximal erlaubte Wartezeit, wird sie verworfen und als verlorenes Paket bzw. Zelle im „Block“ Verlust berechnet. Das gilt besonders für zeitkritische Anwendungen. Wenn für die zufälligen Ereignisse Fluid Flow Model verwendet wird, um eine Analyse der Speicherplatzprobleme durchzuführen, ist die Zustandswahrscheinlichkeit des Systems ui, j definiert, die sich die Wahrscheinlichkeit ergibt, dass in eine Zeitpunkt t i

i Ereignisse eintreffen, j Ereignisse können bedient werden und der Speicherplatz voll ist. Diese Zustandswahrscheinlichkeit ui, j ist gemäß Gleichung 5.69 definiert [105], ui, j = p i, j − lim Fi, j (x) x→ l

139

(5.69)

5. Modellierung des LAN- und ATM-Netzes

Für die vorliegenden Arbeit bzw. die modellierten Netzkopplungseinheit lässt sich u i , j die Wahrscheinlichkeit berechnen, dass sich zu einem Zeitpunkt t i i LAN-Arbeitsplätze im Active–Zustand befinden, dass j virtuelle Kanäle belegt sind bzw. eine vorhandene Bandbreite Bhj reserviert ist und der Puffer voll ist. Die im Bild 5.1 dargestellte Netzkopplungseinheit wird als Warte-Verlust System modelliert, bei dem unterschiedliche Fälle auftreten können, die im Folgenden erläutert werden. '

! Fi,j (x) > 0 : Die Funktion des Pufferfüllstands in der Netzkopplungseinheit ist eine monoton steigende Funktion. Der Puffer wird mit der Bitrate, die der Differenz zwischen erwünschter Bandbreite und vorhandener Bandbreite entspricht, gefüllt. Dadurch ist die Wahrscheinlichkeit, dass der Puffer leer ist, null und es wird keine Bandbreite freigegeben. Es gilt:

lim Fi, j (x) = 0

(5.70)

x→ 0

'

! Fi,j (x) < 0 ; Die Funktion des Pufferfüllstands in der Netzkopplungseinheit ist eine monoton fallende Funktion. Der Puffer wird mit der Bitrate, die der Differenz der Bandbreiten entspricht, entleert ∆Beihj = Bhj − Bei , wo B ei < Bhj Die Wahrscheinlichkeit, dass der Puffer in der Netzkopplungseinheit voll ist, wird durch Gleichung 5.71 berechnet. lim Fi, j (x) = p i, j x→ l

und ui, j = 0

(5.71)

'

! Fi,j (x) = 0 ; Die erwünschte Bandbreite in der Netzkopplungseinheit ist gleich der vorhandenen Bandbreite. Der Eigenwert zi bekommt einen unbestimmten Wert. Das heißt lim zi = ±∞ . In diesem Fall bleibt der Füllstand des Puffers B ei →B ej

in der Netzkopplungseinheit unverändert. Für die Analyse sind zwei Fälle wichtig, nämlich der Fall, dass der Puffer in der Netzkopplungseinheit voll ist (x = l ) , was zum Verlust führt, und der Fall, dass der

140

5. Modellierung des LAN- und ATM-Netzes

Puffer in der Netzkopplungseinheit leer ist ( x = 0 ) und ein Teil der verwendeten Bandbreite freigegeben wird. In diesen Fällen ergeben sich die Parameter von Gleichung 5.68 als N

∑a k=0

k

{ Φk }i, j = 0

k

{Φ κ } i, j e l zk = p i, j

N

∑a k =0

B ei < Bhj < B eN

0 < Bhj < B ei

für x = 0

für

x= l

(5.72)

(5.73)

5.4.1 Verlustwahrscheinlichkeit Ein sehr wichtiger Parameter der Netzkopplungseinheit, die Verlustwahrscheinlichkeit, wird im modellierten Wartesystem nach dem Fluid Flow Modell [28] berechnet. Ein Verlust tritt auf und wird im „Block“ Verlust berechnet, falls der Puffer voll ist und LAN-Pakete ankommen. Verluste wegen anderer Ursachen, wie z.B. Kollision oder wegen Überschreitung der erlaubten Wartezeit, werden bei dieser Berechnung nicht berücksichtigt. '

Ein Verlust kann auftreten, wenn Fi,j (x) > 0 und ∆Beihj = Bhj − Bei , wo Bei > Bhj ist. Die Verlustrate ist in diesem Fall proportional zur Differenz zwischen erwünschter Bandbreite und vorhandener Bandbreite in der Netzkopplungseinheit und der Wahrscheinlichkeit u i , j . Die mittlere Verlustrate in der dargestellten Netzkopplungseinheit ergibt sich mit Gleichung 5.12 und Gleichung 5.69 zu.

∑ (B N

Plos =

i, j =0

ei

− Bhj ) ui, j

λ m,N

, B ei > Bhj

(5.74)

Ist B ei < B hj , so ergibt sich die Verlustwahrscheinlichkeit in der dargestellten Netzkopplungseinheit zu null.

141

5. Modellierung des LAN- und ATM-Netzes

Plos = 0

, B ei < Bhj

(5.75)

5.4.2 Warteschlangenlänge Die Warteschlangenlänge ist ein weiterer Parameter der Netzkopplungseinheit, von dem ihre Leistungsparameter abhängen. Sie dient dazu, den Puffer in der Netzkopplungseinheit für eine bestimmte Strategie der Bandbreitenreservierung geeignet zu dimensionieren Die Funktion in Gleichung 5.68 stellt die Verteilungsfunktion des Pufferfüllstands dar. Die Warteschlangenlänge im Puffer kann als Summe der einzelnen Füllstände für jedes B ei , B hj der Netzkopplungseinheit aufgefasst werden. Die Verteilungsfunktion der Warteschlangenlänge der LAN-Pakete im Puffer der Netzkopplungseinheit wird durch Gleichung 5.76 beschrieben.

L(länge ≤ x ) =

N

∑ F (x)

i ,j = 0

(5.76)

ij

5.4.3 Wartezeit Für zeitkritische Anwendungen ist es sehr wichtig, die Verteilungsfunktion der Wartezeit der LAN-Pakete im Puffer der Netzkopplungseinheit zu definieren. Da die Verteilungsfunktion Fi , j ( x) den Füllstand des Puffers darstellt, kann man sie verwenden, um die Verteilungsfunktion der Wartezeit zu definieren. Da die ankommenden LANPakete im Fluid Flow Modell als kontinuierlicher Fluss modelliert werden [105], kann

x in Gleichung 5.68 durch Bhj t ersetzt werden. In diesem Fall wird die Verteilungsfunktion der Wartezeit durch Gleichung 5.77 berechnet .

w ( Verzögerung ≤ t ) =

N

∑ i F(B

i, j= 0

142

hj

t)

(5.77)

5. Modellierung des LAN- und ATM-Netzes

Die mittlere Wartezeit der LAN-Pakete im Puffer der Netzkopplungseinheit wird mit Gleichung 5.12 und Gleichung 5.78 definiert. N

W ( Verzögerung ≤ t ) =

∑ i F(B

i , j= 0

hj

t)

λ m,N

(5.78)

5.4.4 Algorithmus zur Erzeugung der ATM-Zellen In diesem Abschnitt wird ein Teil des Flussdiagramms dargestellt, der zeigt, wie die ATM-Zellen erzeugt werden und wie die Verluste und die Wartezeit in der im Bild 5.1 dargestellten Netzkopplungseinheit berechnen sind. Innerhalb des dargestellten Flussdiagramms stellen die „Blöcke“, wie z.B. Adressumsetzung, Paket wird bedient, Zellübertragung usw., eigenständige Programme dar, in denen die erwünschten Funktionen realisiert werden.

143

5. Modellierung des LAN- und ATM-Netzes

Flussdiagramm 3: Algorithmus zur Erzeugung der ATM-Zellen

144

5. Modellierung des LAN- und ATM-Netzes

5.4.5 Ungenutzte Bandbreite und Auslastungskoeffizient Unter ungenutzter Bandbreite wird der Teil der Bandbreite verstanden, der vom ATM-Netz reserviert ist aber nicht für die Übertragung der Nutzdaten verwendet wird. Das bedeutet, dass eine Anzahl von ATM-Zellen als Leerzellen übertragen wird, um einen kontinuierlichen Zellenstrom zu gewährleisten [28] [78] [130]. Auch in der in Bild 5.1 dargestellten Netzkopplungseinheit werden Leerzellen generiert, falls es keine Nutzzellen gibt, um einen kontinuierlichen Zellenstrom zu gewährleisten. Die Anzahl der generierten Leerzellen hängt vom Verhältnis zwischen erwünschter Bandbreite und vorhandener Bandbreite ab. Durch diese Leerzellen wird ein Teil der reservierten Bandbreite nicht genutzt. Deshalb muss bei der Verwendung einer Bandbreitenreservierungsstrategie bzw. bei der Berechnung der erwünschten Bandbreite das Faktum berücksichtigt werden, dass ein Teil der reservierten Bandbreite „verloren“ gehen kann (siehe Bild 5.13). Im Folgenden wird beschrieben, wie für die in Bild 5.1 dargestellte Netzkopplungseinheit die ungenutzte Bandbreite und der Auslastungskoeffizient gemäß der Nachrichtenverkehrstheorie modelliert und berechnet werden können. Am Ende des Abschnitts wird ein Teil des Flussdiagramms dargestellt, der zeigt, wie dies im Simulationsprogramm realisiert ist. Das Verhältnis von mittlerer erwünschter Bandbreite und mittlerer vorhandener Bandbreite ergibt sich zu. N

dm =

∑B

ei i

∑B

Pj

i =1 N j =1

P

(5.79)

hj

Die mittlere erwünschte Bandbreite in der Netzkopplungseinheit wird als Summe der Zustandswahrscheinlichkeiten definiert und berechnet.

145

5. Modellierung des LAN- und ATM-Netzes

Bild 5.13: Modellierung des Puffers und der ungenutzten Bandbreite Die mittlere vorhandene Bandbreite in der Netzkopplungseinheit wird durch die Zustandswahrscheinlichkeit definiert. N

Bh,m = ∑ Bhj Pj

(5.80)

j =1

Aus Bild 5.13 ist zu sehen, dass die ungenutzte Bandbreite bestimmt wird durch

B u ,m = B h ,m − B o ,m

(5.81)

Die mittlere erwünschte Bandbreite in der Netzkopplungseinheit wird durch die Zustandswahrscheinlichkeit in Gleichung 5.82 definiert N

B e ,m = ∑ B eiPi

(5.82)

i =1

Durch Gleichung 5.83 wird die mittlere unterschiedliche Bandbreite zwischen erwünschter und vorhandener Bandbreite in der Netzkopplungseinheit berechnet.

!Bij,m =

N

∑ (B

i, j= 0

ei

- Bhj ) Pij

146

(5.83)

5. Modellierung des LAN- und ATM-Netzes

Hierhin ist Pij - die Wahrscheinlichkeit dafür, dass sich die Netzkopplungseinheit im Zustand (i , j) befindet. Die globale ungenutzte Bandbreite wird durch die Gleichung 5.84 definiert. N

Bu,m = ∑ !Bij Puij

(5.84)

i, j

wobei Puij die Wahrscheinlichkeit ist, dass sich die Netzkopplungseinheit im Zustand

( i , j) befindet und

B ei < B hj bzw. i < j ist.

Die ungenutzte Bandbreite kann als Verlustwahrscheinlichkeit der vorhandenen bzw. reservierten Bandbreite von der Netzkopplungseinheit definiert werden. Sie wird durch Gleichung 5.85 berechnet. N

Pu =

Bu,m Bh,m



Pu =

∑ !B

ij

Puij

i, j

N

∑B j =1

hj

(5.85) Pj

In Telekommunikationssystemen ist der Auslastungsfaktor einer der wichtigsten Parameter. Auch für die in Bild 5.1 dargestellten Kopplungseinheit zwischen LAN und ATM-Netz wird der Auslastungsfaktor berechnet und untersucht. Gemäss Bild 5.13 ergibt sich der Auslastungsfaktor durch Gleichung 5.86 zu.

ρ=

B o ,m

(5.86)

Bh,m

Das bedeutet, dass der Auslastungskoeffizient der Netzkopplungseinheit als Verhältnis von genutzter Bandbreite zu reservierter Bandbreite bestimmt wird. Der Auslastungskoeffizient ist ein Parameter der im Bild 5.1 dargestellten Netzkopplungseinheit, der auch in den durchgeführten Simulationen ermittelt worden ist (siehe Simulationsergebnisse Kapitel 6).

147

5. Modellierung des LAN- und ATM-Netzes

Hierbei ergibt sich der Auslastungsfaktor der in Bild 5.1 dargestellten Netzkopplungseinheit zu mit (Gleichung 5.81 )

ρ=

Bh,m − Bu,m

ρ = 1−

Bh,m Bu,m

→ (5.87)

Bh,m

und mit ( Gleichung 5.85 ).

ρ = 1 − Pu

(5.88)

5.4.5.1 Algorithmus zur Berechnung der ungenutzten Bandbreite und des Auslastungskoeffizienten In diesem Abschnitt wird ein Teil des Flussdiagramms dargestellt, der anzeigt, wie die ungenutzte Bandbreite und der Auslastungskoeffizient der Netzkopplungseinheit berechnet werden. Gleichzeitig wird ein Teil des Flussdiagramm dargestellt, der die Berechnung der Verluste bei den ATM-Zellen ermöglicht. Innerhalb des dargestellten Flussdiagramms stellen die „Blöcke“, wie z.B. Berechnung der übertragenen Pakete und Wartezeit, Zelle wird gespeichert, Speicherzeit wird gekennzeichnet, LAN (siehe Flussdiagramms 4) usw., eigenständige Programme dar, in denen die erwünschten Funktionen realisiert werden.

148

5. Modellierung des LAN- und ATM-Netzes

Flussdiagramm 4: Algorithmus zur Berechnung der ungenutzten Bandbreite und des Auslastungskoeffizienten

149

6. Simulationsergebnisse

6. Simulationsergebnisse

In der vorliegenden Arbeit sind gleichzeitig mit der theoretischen Analyse gemäß Kapitel 5 auch Teile des Flussdiagramms dargestellt, die anzeigen, wie die Leistungsparameter der im Bild 6.1 dargestellten Netzkopplungseinheit untersucht werden. Die meisten Funktionen der „Blöcke“ der Netzkopplungseinheit wurden im letzten Kapitel erläutert und in Flussdiagrammen dargestellt. Die anderen „Blöcke“ werden im Folgenden erläutert. Im „Block“ Adressumsetzung sind die LAN- und ATM-Adressen in den Tabellen gespeichert. Jeder Arbeitsplatz bekommt gleichzeitig eine LAN- und eine ATM-Adresse. Trifft ein Paket mit einer LAN-Adresse in der Netzkopplungseinheit ein, wird in dem „Block“ Adressumsetzung für die LAN-Adresse eine entsprechende ATM-Adresse ermittelt. Befindet sich die LAN- oder ATM-Adresse nicht in der Tabelle, wird an den Arbeitsplatz eine Rückmeldung “Adresse nicht gefunden“ zurückgesendet und die Anzahl der Arbeitsplätze verringert sich um einen Arbeitsplatz. Falls die entsprechende ATM-Adresse gefunden ist, wird die ATM-Verbindung zwischen den Netzkopplungseinheiten initialisiert und aufgebaut. Im „Block“ LAN-Pakete werden die Nutzdaten von den Steuerdaten der eintreffenden LAN-Pakete getrennt und in entsprechende „Blöcke“ weitergeleitet (siehe Bild 6.1) Der „Block“ Segmentierung hat die Aufgabe, die Nutzdaten der LAN-Pakete in eine feste Länge von 48 Byte (AAL5) zu zerlegen und in den „Block“ ATM-Zelle weiterzuleiten. Falls 48 Byte bei den letzten Nutzdaten eines Pakets nicht vorhanden sind, werden Nullen eingefügt, um die Länge von 48 Byte zu erreichen. Diese eingefügten Nullen werden in der empfangenden Netzkopplungseinheit erkannt und entfernt. Dieses Verfahren beeinträchtigt die Leistungsparameter der Netzkopplungseinheit, weshalb die Anzahl der aufgefüllten ATM-Zellen berechnet werden muss. Alle Programme zur Untersuchungen der Leistungsparameter der Netzkopplungseinheit sind in der Programmiersprache C geschrieben, und Teile des Flussdiagramms sind im Kapitel 5 dargestellt. Bei der Untersuchungen werden die drei herkömmlichen LAN-Typen, Ethernet 10 Mbit/s, Token-Ring 4 Mbit und Token-Ring 16 verwendet. Während der Simulation bleibt die Paketlänge konstant, und zwar für Ethernet 1500 Byte, für Token-Ring 4 4000 Byte und für Token-Ring 16 17700 Byte.

150

6. Simulationsergebnisse

Die Simulationen sind auf Rechnern des Lehrstuhls Nachrichtentechnik der UNI – Wuppertal durchgeführt worden. Von dem LAN-Netz sind mehrere Millionen Pakete generiert worden und in der Netzkopplungseinheit eingetroffen. Das bedeutet, dass damit bis zu 30 Minuten Datenübertragung über das ATM-Netz realisiert werden. In den meisten Fällen werden, wenn nicht anders erwähnt, 10 Arbeitsplätze bzw. LAN-Segmente verwendet. Für die Übertragung der LAN-Pakete als ATM-Zellen über ATM-Netze wird die AAL5 verwendet. Bei der Modellierung der LAN Arbeitsplätze werden folgende Parameter angenommen: α = 5 s -1 als mittlerer Wert der negativ-exponentiellen Verteilung der ActivePhase und β = 0.26 s als mittlerer Wert der negativ-exponentiellen Verteilung der -1

Silent-Phase. Die Anzahl der ATM-Zellen pro LAN Paket wird in Abhängigkeit vom LAN Typ angenommen. Falls die Paketlänge kein ganzzahliges Vielfaches der ATM-Zellengröße (48 Byte) ist, werden die ATM-Zellen mit Restnutzdaten aufgefüllt und der noch frei bleibende Teil wird mit Null gefüllt, um die Länge von 53 Byte zu erreichen. In der Netzkopplungseinheit des Empfängers werden die Null - Werte erkannt und wieder verworfen. Um einen kontinuierlichen Zellenstrom zu gewährleisten, werden im Simulationsprogramm Leerzellen generiert, falls keine Nutzdaten mehr vorhanden sind. Der Puffer ist virtuell in zwei Teile unterteilt, ein Teil für die LAN-Pakete und ein anderer für die ATM-Zellen. Jede verlorene Zelle im Puffer oder im ATM-Knoten bedeutet für die Netzkopplungseinheit, dass sie das gesamte LAN Paket wiederholen muss. Als Puffergröße wird im allgemeinen ein Pufferplatz für 15 LAN-Pakete reserviert. Bei Überlauf des Puffers in der Netzkopplungseinheit oder im ATM-Knoten werden alle Zellen des Paketes verworfen, um zu vermeiden, dass die Zellen von unterschiedlichen Paketen verloren gehen.

151

6. Simulationsergebnisse

152

6. Simulationsergebnisse

6.1 Fenstergröße Der „Block“ Fenstergröße misst die Zeit in der Netzkopplungseinheit periodisch. Diese Periode entspricht dem zeitlichen Abstand, in dem eine Zählung der eintreffenden Pakete, eine Überwachung des Pufferfüllstands oder eine Erzeugung der RM-Zellen realisiert wird (siehe Abschnitt 5.3.2). Da die Zeit in der gesamten Netzkopplungseinheit und im Simulationsprogramm eine zentrale Rolle spielt, wird sie so simuliert, dass sie unabhängig vom Rechner ist. Bei dem Verkehrsmessungsverfahren werden die eintreffenden Pakete durch den Paketzähler gezählt. Am Ende eines Fensters speichert der Paketzähler seinen Zählerstand und beginnt wieder von Null an die eintreffenden Pakete im nächsten Fenster zu zählen. Bei dem Pufferfüllstandverfahren wird ein periodische Überwachung des Pufferfüllstands durchgeführt. Abhängig vom Pufferfüllstand werden gemäß Abschnitt 5.3.4 entsprechende Massnahmen eingeleitet. Teile des Flussdiagramms, die zeigen, wie die erwünschte Bandbreite ermittelt und berechnet wird, sind in den Diagrammen 1 und 2 dargestellt. Die Periode bzw. das Zeitinterwall, in dem die erwünschte Bandbreite ermittelt und berechnet wird, ist abhängig von der Paketlänge und der Bitrate des verwendeten LAN Typs. Wie in Bild 6.2 zu sehen ist, beeinflusst die Fenstergröße stark die Verlustwahrscheinlichkeit. Die Verlustwahrscheinlichkeit im Ethernet steigt rasch an bei einer Fenstergröße unter 2 ms und im Token-Ring –Netze für Werte unter 8 ms. Zu diesem Verlust kommt es, weil die Fenstergröße kleiner als die Paketdauer ist und während dieser Fenstergröße kein Paket den „Block“ Paketzähler passiert. Deshalb hat die erwünschte Bandbreite den Wert 0 hat, was zur ständigen Verkleinerung der vorhandenen Bandbreite führt. Wird die Fenstergröße bei Ethernet größer als 3 ms und bei Token-Ring größer als 10 ms, dann nimmt die Verlustwahrscheinlichkeit ab. Falls die Fenstergröße Werte zwischen 10 ms und 60 ms annimmt, dann ist die Verlustwahrscheinlichkeit für alle untersuchten LAN Typen gering. Das bedeutet, dass die vorhandene Bandbreite auf die erwünschte Bandbreite angepasst werden kann, falls es der momentane Lastzustand des ATM-Netzes erlaubt.

153

6. Simulationsergebnisse

Bild 6.2: Verlustwahrscheinlichkeit in Abhängigkeit von der Fenstergröße Wenn bei der gewählten Fenstergröße eine starke Verlustrate auftritt, dann kann die Fenstergröße dynamisch verkleinert oder vergrößert werden. Somit ist es möglich, die vorhandene Bandbreite besser auf die erwünschte Bandbreite und den Lastzustand des ATM-Netzes anzupassen. Die Fenstergröße wird in gewissen Maße durch die Puffergröße bestimmt. Es ist besser, wenn die Fenstergröße ein Mehrfaches der Dauer der LAN-Pakete beträgt, obwohl der Ankunftsabstand zwischen den Paketen eine Poisson-Verteilung ist. Falls die erwünschte Bandbreite durch den Pufferfüllstand ermittelt werden soll, dann hat die Fenstergröße keine strenge Unterschwelle wie bei der Bandbreitenmessung. Für die weiteren Untersuchungen wird die Fenstergröße auf 30 ms gesetzt. Es dauert 22 ms, bis die Netzkopplungseinheit die Bestätigung für die zusätzliche Bandbreite vom ATM-Netz bekommt. Falls für die Fenstergröße mehr als 30 ms angenommen wird, werden alle Leistungsparameter der Netzkopplungseinheit beeinträchtigt. In Bild 6.3 und Bild 6.4 sind die mittlere Wartezeit bzw. die Ausnutungskoeffizienten in Abhängigkeit von der Fenstergröße dargestellt.

154

6. Simulationsergebnisse

Bild : 6.3 Mittlere Wartezeit in Abhängigkeit von der Fenstergröße

Bild 6.4: Auslastungskoeffizient in Abhängigkeit von der Fenstergröße 155

6. Simulationsergebnisse

6.2 Antwortzeit Wenn der Komparator bei der Ermittlung der erwünschten Bandbreite feststellt, dass eine zusätzliche Bandbreite vom ATM-Netz angefordert werden muss, werden die „Anforderungs-Zellen“ vom „Block“ Ressource Management generiert (siehe Bild 6.1). Die Netzkopplungseinheit muss warten, bis die Bestätigung oder die Ablehnung kommt. Die Zeit, ab der die „Anforderungs-Zellen“ erzeugt werden, bis hin zu einer Bestätigung der reservierten zusätzlichen Bandbreite oder einer Ablehnung wird als Antwortzeit bezeichnet. Die in Bild 6.1 dargestellte Netzkopplungseinheit enthält hierzu den „Block“ Verzögerung, in dem diese Verzögerung des ATM-Netzes bis zum Eintreffen einer Antwort modelliert und berechnet wird. Wie auch aus den Simulationsergebnissen zu sehen ist, beeinflusst die Antwortzeit die Leistungsparameter der Netzkopplungseinheit. Hierzu werden im Folgenden Simulationsergebnisse von untersuchten Parametern, wie die mittlere Wartezeit, die Verlustwahrscheinlichkeit und der Auslastungskoeffizient für die Netzkopplungseinheit dargestellt. Der Einfluss der Antwortzeit auf die Leistungsparameter der Netzkopplungseinheit hängt

von

der

verwendeten

Bandbreitenreservierungsstrategie,

vom

ATM-

Verkehrstyp und vom zu koppelnden LAN Typ, ab. Beim CBR-Verfahren, wo meistens die reservierte Bandbreite der Spitzenbitrate entspricht, spielt die Antwortzeit keine Rolle. Beim VBR-Verfahren, wo die vorhandene Bandbreite variabel ist und an die erwünschte Bandbreite angepasst werden soll, hängen die Leistungsparameter der Netzkopplungseinheit von der Antwortzeit ab. Die Antwortzeit beeinflusst am meisten den ABR-Verkehrstyp, bei dem der Lastzustand des ATM-Netzes und der Netzkopplungseinheit ständig überwacht werden muss, da, falls das ATM-Netz überlastet wird, ein Teil der nicht garantierten Bandbreite wieder freigegeben werden muss. Bei diesem Verkehrstyp hängen die Leistungsparameter der Netzkopplungseinheit zusätzlich von der Warteschlangenlänge, von der maximal erlaubten Wartezeit, von der Puffergröße und vom gewählten RIF-Koeffizienten (Rate Increase Factor) ab. Der RIF-Koeffizient kann jedoch auch konstant sein und die Netzkopplungseinheit fängt an, mit der zusätzlichen Bitrate zu senden, sobald sie erfährt, dass im ATMNetz keine Überlast aufgetreten ist. Ansonsten wird der RF–Koeffizient in Abhängigkeit vom ATM-Lastzustand angepasst.

156

6. Simulationsergebnisse

Um dem Einfluss der Antwortzeit auf die Leistungsfähigkeit der Netzkopplungseinheit zu untersuchen, wird ABR als ATM-Verkehrstyp verwendet. Die garantierte Bandbreite des ATM-Netzes für die Netzkopplungseinheit entspricht 60% der erwünschten Bandbreite. Der konstante Teil der Antwortzeit enthält die benötigte Verteilungszeit der Signale zwischen zwei End-CL-Servern sowie die konstante Bearbeitungszeit, die der ATMKnoten benötigt, um die RM-Zellen zu bearbeiten. Der restliche Teil der Antwortzeit ist variabel und hängt vom Lastzustand der ATM-Knoten ab. Das ist durch eine negativ-exponentielle Verteilung modelliert. Die Antwortzeit ist begrenzt. Falls die zulässige Antwortzeit überschritten wird, nimmt die Netzkopplungseinheit an, dass die Anforderung vom ATM-Netz abgelehnt ist.

Bild 6.5 Verlustwahrscheinlichkeit in Abhängigkeit von der Antwortzeit In Bild 6.5 ist die Verlustwahrscheinlichkeit in Abhängigkeit von der Antwortzeit dargestellt. Wie aus dem Simulationsergebnis zu sehen ist, beeinflusst die Antwortzeit das Ethernet mehr als die Token-Ring Netze. Die eintreffenden Pakete sind als zufällige diskrete Ereignisse modelliert. Bevor ein Paket gespeichert wird, wird zuerst

157

6. Simulationsergebnisse

überprüft, ob noch genug freier Speicherplatz vorhanden ist. Der Pufferzustand bekommt seinen neuen Wert nur, wenn das gesamte Paket eingetroffen ist. Der Ankunftsabstände zwischen den eintreffenden Paketen ist beim Ethernet kleiner, was bedeutet, dass Ethernet Pakete schneller hintereinander kommen. Deshalb sind die Verluste bei Ethernet größer und treten früher ein als bei Token-Ring Netzen. Wie aus Bild 6.5 zu sehen ist, wird die Verlustwahrscheinlichkeit der Netzkopplungseinheit leicht erhöht, wenn die Antwortzeit zwischen 22 ms und 66 ms beträgt. Ist die Antwortzeit mehr als 66 ms, dann treten starke Verluste in der Netzkopplungseinheit auf.

Bild : 6.6 Mittlere Wartezeit in Abhängigkeit von der Antwortzeit In Bild 6.6 und Bild 6.7 sind die mittlere Wartezeit bzw. die Ausnutungskoeffizienten in Abhängigkeit von der Fenstergröße dargestellt. Wie aus den Bildern zu sehen ist, werden die mittlere Wartezeit und der Auslastungskoeffizient leicht erhöht, wenn die Antwortzeit zwischen 22 ms und 110 ms beträgt.

158

6. Simulationsergebnisse

Bild 6.7: Auslastungskoeffizient in Abhängigkeit von der Antwortzeit Die Schwelle der Antwortzeit ist vom LAN Typ, dem Angebot und von der gewählten ATM-Strecke abhängig. Für die weiteren Untersuchungen wird die Antwortzeit in einen konstanten und einen variablen Teil unterteilt. Die konstante Antwortzeit umfasst die Signallaufzeit auf der ATM – Übertragungsstrecke sowie die Mindestbearbeitungszeit (Wartezeit) der Zelle im ATM-Knoten und wird mit 22 ms angenommen. Der variable Teil der Antwortzeit umfasst die Schwankung der Antwortzeit wegen der unterschiedlichen Auslastung der ATM-Knoten und nimmt Werte zwischen 1 ms und 11 ms gemäß einer negativ-exponentiellen Verteilung an .

159

6. Simulationsergebnisse

6.3 CBR (Constant Bit Rate) In diesem Abschnitt werden die Leistungsparameter der Netzkopplungseinheit untersucht, wenn die LAN-Netze über ATM-Netze mit dem CBR-Verfahren gekoppelt werden, bzw. falls der AAL-Typ 1 verwendet wird. Dieser ATM-Verkehrstyp wird verwendet, wenn die Pakete zeitkritische Anwendungen enthalten. Bei CBR als ATMVerkehrstyp wird normaleweise für die gesamte Übertragungsdauer eine konstante maximal benötigte Bandbreite reserviert. In den Untersuchungen der vorliegenden Arbeit wird jedoch nicht die Spitzenbitrate angefordert und reserviert, sondern am Anfang wird die mittlere Bitrate gemessen und mit dem Faktor K g multipliziert. Das bedeutet, dass die Netzkopplungseinheit die mittlere Bandbreite um den Faktor K g = 1.2 zu hoch anfordert (siehe Abschnitt 5.3).

Im diesem Fall bleibt die vorhandene Bandbreite während der gesamten Zeit konstant. Der vom LAN generierte Verkehr ist burstartig und es kann die Spitzenbitrate auftreten, die durch den Puffer abgefangen werden muss. Die Leistungsparameter werden in Abhängigkeit vom Puffer untersucht. Die Puffergröße wird durch die Anzahl der Pakete dargestellt, die für die unterschiedlichen LAN-Typen unterschiedliche Größe haben. In Bild 6.8 ist die Verlustwahrscheinlichkeit in Abhängigkeit von der Puffergröße dargestellt. Wird die Puffergröße l kleiner als 15 Pakete, steigt die Verlustwahrscheinlichkeit rapide an und die Netzkopplungseinheit ist nicht mehr verwendbar.

160

6. Simulationsergebnisse

Bild 6.8: Verlustwahrscheinlichkeit in Abhängigkeit von der Puffergröße Die Verlustwahrscheinlichkeit ist bei Token-Ring 16 größer als bei Ethernet und Token-Ring 4. Um die Verlustwahrscheinlichkeit beim CBR-Verkehrstyp unter 0.01% zu halten, muss eine Puffergröße gemäß Tabelle 6.1 gewählt werden. Verlustwahrscheinlichkeit

0.01%

0.001%

Ethernet

l ≥ 25 (kbyte)

l ≥ 55 (kbyte)

Token-Ring 16

l ≥ 350 (kbyte)

l ≥ 750 ( kbyte)

Token-Ring 4

l ≥ 75 (kbyte)

l ≥ 150 ( kbyte)

Tabelle 6.1: Benötige Pufferlänge beim CBR-Verfahren Die Wahrscheinlichkeit dafür, dass eine ATM-Zelle verloren geht, ist bei Token-Ring 16 größer als bei den beiden anderen LAN Typen. Der Speicherbedarf bei Token-

161

6. Simulationsergebnisse

Ring 16 ist wegen der großen Paketlänge größer als bei den beiden anderen LANTypen, was einen größeren Puffer erfordert.

Bild 6.9: Auslastungskoeffizient in Abhängigkeit von der Puffergröße

162

6. Simulationsergebnisse

Bild 6.10 : Mittlere Wartezeit in Abhängigkeit von der Puffergröße Im Bild 6.9 ist der Auslastungskoeffizient dargestellt, der nur das Verhältnis zwischen der Nutzzellenanzahl und der Leerzellenanzahl berücksichtigt. Die anderen Faktoren, wie Wiederholung oder die benötige Bandbreite, um die Steuerinformationen bei ATM-Netzen zu übermitteln, sind nicht berücksichtigt. Der Auslastungskoeffizient ist bei Token-Ring 16 besser als bei den beiden anderen LAN-Typen. Unter

l ≤ 15 Paketen sinkt der Auslastungskoeffizient für fast alle LAN-Typen. In diesem Fall, wie auch schon erwähnt wurde, ergibt sich der Auslastungskoeffizient als Verhältnis von Nutzzellen zu den gesamten übertragenen Zellen, ohne dass die zu wiederholenden Zellen berücksichtigt werden. Die mittlere Wartezeit ist gemäß Bild 6.10 bei Token-Ring größer als bei Ethernet, da Token-Ring große Pakete verwendet, die selbstverständlich mehr Zeit zur Bearbeitung benötigen.

163

6. Simulationsergebnisse

Während bei Ethernet die mittlere Wartezeit der Pakete nur leicht vom Puffer beeinflusst wird und unter 1 ms bleibt, nimmt die mittlere Wartezeit bei Token Ring mit dem Vergrößern des Puffers zu. Ist der Puffer größer als 15 Pakete, ist die mittlere Wartezeit der LAN-Pakete in der Kopplungseinheit bei Token-Ring 16 bereits mehr als 3 ms. Im Bild 6.11 ist die mittlere Warteschlangenlänge in Abhängigkeit vom Puffer dargestellt.

Bild 6.11 : Warteschlangenlänge in Abhängigkeit von der Puffergröße Die mittlere Warteschlangenlänge ermöglicht es, die Last des Puffers zu ermitteln. Durch die Warteschlangenlänge kann die Netzkopplungseinheit dem ATM-Netz die erwünschte Puffergröße anzeigen. Die ATM-Knoten zwischen CL-Servern reservieren Speicherplatz gemäß der Warteschlangenlänge in der Netzkopplungseinheit. Aus Bild 6.11 ist zu ersehen, dass die mittlere Warteschlangenlänge sich nicht mehr ändert, falls der Puffer größer als 20 LAN-Pakete ist. Wenn CBR als ATM-Verkehrstyp verwendet wird, um die End-CL–Server miteinander zu koppeln, ist zu empfehlen, die reservierte Bandbreite um den Faktor 1.2 gegenüber der mittleren erwünschten Bandbreite zu erhöhen. 164

6. Simulationsergebnisse

Der Speicherplatz muss in Abhängigkeit vom Angebot bzw. von der Anzahl der Arbeitsplätze oder LAN-Segmente reserviert werden. Für 10 Arbeitsplätze bzw. LANSegmente sollte der Puffer mindestens Platz für 15 Pakete haben.

6.4 Variabler Wert des RIF (Rate Increase Factor) Koeffizienten Der RIF-Koeffizient kann nicht immer festgelegt sein, da die erwünschte Bandbreite variiert und nicht immer in gewünschter Höhe reserviert werden kann. Die Variation der zugeteilten Bandbreite erfolgt in Abhängigkeit vom Lastzustand des ATM-Netzes. Das bedeutet, dass in den Wert des RIF-Koeffizienten auch der Einfluss des Hintergrundverkehrs einbezogen ist. Ein ATM-Knoten wird die Anforderung für zusätzliche Bandbreite nicht sofort ablehnen, sondern eine eventuell noch freie Bandbreite an die RM-Zellen übergeben. Der Hintergrundverkehr und die Variation der zugegebenen Bandbreite des ATMNetzes wird durch eine negativ-exponentielle Verteilung modelliert. In den folgenden Bildern werden die Leistungsparameter der Netzkopplungseinheit in Abhängigkeit von der maximal möglichen zugeteilten Bandbreite des ATM-Netzes dargestellt (siehe Abschnitt 5.3.5). Wie aus Bild 6.12 ersichtlich, ist die Verlustwahrscheinlichkeit bei Ethernet kleiner als bei Token-Ring 16 und Token-Ring 4. Die Verluste steigen rapide, falls der maximal mögliche RIF-Koeffizient kleiner als 300 kbit/s ist. Für die drei unterschiedlichen LAN-Typen sind unterschiedliche Puffergrößen verwendet worden. Jeder Typ hat die Möglichkeit, bis zu 15 Pakete zu speichern, bevor sie in ATM-Zellen zerlegt und übertragen werden

165

6. Simulationsergebnisse

Bild 6.12: Verlustwahrscheinlichkeit in Abhängigkeit vom variablen RIF-Koeffizienten

Bild 6.13: Mittlere Wartezeit in Abhängigkeit vom variablen RIF-Koeffizienten 166

6. Simulationsergebnisse

Wenn der ABR-Verkehrstyp verwendet wird, dann sollte für Token-Ring 16 eine Puffergröße von mehr als 15 Paketen reserviert werden, um eine Verlustwahrscheinlichkeit in der Netzkopplungseinheit im Bereich von der des Ethernets zu erhalten. Die mittlere Wartezeit sinkt gemäß Bild 6.13 ständig mit wachsendem RIFKoeffizienten. Bei Token-Ring 4, bei denen die mittlere Wartezeit wegen der Paketlänge und der niedrigen Bitrate größer ist, sinkt die mittlere Wartezeit stärker als bei Ethernet. Die mittlere Warteschlangenlänge für die drei LAN-Typen ist in Bild 6.14 dargestellt.

Bild 6.14 : Mittlere Warteschlangenlänge in Abhängigkeit vom variablen RIF-Koeffizienten Wird der RIF-Koeffizient größer als 800 kbit/s, dann hat der Auslastungskoeffizient einen Wert unter 75 %. Bei diesem Bandbreitenreservierungsverfahren muss ein Kompromiss zwischen mittlerer Verzögerung, Verlustwahrscheinlichkeit und

167

Auslastungskoeffizient gemacht

6. Simulationsergebnisse

werden, um die reservierte Bandbreite rationell zu nutzen und die Verlustwahrscheinlichkeit unter einem bestimmten Wert zu halten. Für Anwendungen, bei denen die Verlustwahrscheinlichkeit gering sein muss, sollte immer versucht werden, eine ATM-Strecke zu wählen, die einen möglichst großen RIF-Koeffizienten gewährleisten kann.

Bild 6.15: Auslastungskoeffizient in Abhängigkeit vom variablen RIF-Koeffizienten

6.5 Festgelegter Wert des RIF-Koeffizienten Die Netzkopplungseinheit erhöht die vorhandene Bandbreite um den Wert des RIFKoeffizienten, sobald sie erfährt, dass das ATM-Netz keinen Überlastzustand zeigt. Bei dieser Bandbreitenreservierungsstrategie wird der momentane Lastzustand des ATM-Netzes nicht streng berücksichtigt. Die Erhöhung der Bitrate berücksichtigt nicht die noch frei Bandbreite im ATM-Netz. Das bedeutet, dass der Wert des RIF-

168

6. Simulationsergebnisse

Koeffizienten einen ATM-Knoten überlasten kann, was zum Datenverlust führt (siehe Abschnitt 5.3.1).

Bild 6.16: Verlustwahrscheinlichkeit in Abhängigkeit von einem festgelegten RIF–Koeffizienten

169

6. Simulationsergebnisse

Bild 6.17: Mittlere Wartezeit in Abhängigkeit von einem festgelegten RIF-Koeffizienten In Bild 6.16 ist die Verlustwahrscheinlichkeit der Netzkopplungseinheit in Abhängigkeit vom festgelegten RIF-Koeffizienten dargestellt, ohne den Lastzustand exakt zu berücksichtigen. Vergleicht man die Werte für festgelegte und variable RIF-Koeffizienten miteinander, erkennt man den Einfluss des Hintergrundverkehrs bei den Leistungsparametern der Netzkopplungseinheit. So sind bei variablen RIF-Koeffizienten die Verluste für dieselbe angeforderte Bandbreite von 500 kbit/s bis zu 5 mal größer. Die Wartezeit der Pakete wird fast verdoppelt. Deshalb muss beim Entwurf der Netzkopplungseinheit und bei der Wahl der ATMStrecke zwischen End-CLS–Servern im ABR-Verkehrstyp immer der Einfluss des Hintergrundverkehrs berücksichtigt werden. Bis jetzt ist die garantierte Bandbreite des ATM-Netzes bzw. die Anfangsbandbreite ( k an B e , mit k an = 0.6 ) angenommen worden. In den Leistungsparametern der

170

6. Simulationsergebnisse

Netzkopplungseinheit spielt die Anfangsbitrate bzw. die garantierte Bandbreite eine große Rolle. Der Wert des Koeffizienten k an stellt das Anfangsverhältnis zwischen der vorhandenen und der erwünschten Bandbreite dar .

Bild 6.18 Verlustwahrscheinlichkeit in Abhängigkeit vom Koeffizienten kan Wenn das ATM-Netz die von der Netzkopplungseinheit angeforderte Bandbreite zur Verfügung stellt, kann man den Koeffizient kan als Verhältnis zwischen „konstanter“ und „variabler“ Bandbreite darstellen. Im Bild 6.18 ist die Verlustwahrscheinlichkeit in Abhängigkeit von der Anfangsbitrate dargestellt. Diese garantierte Bandbreite kann man als statischen Teil der gesamten Bandbreite beschreiben, die in der Zwischenzeit reservierte Bandbreite als den dynamischen Teil, der sie in Abhängigkeit vom Lastzustand des ATM-Netzes und der erwünschten Bandbreite ändert. Die Verlustwahrscheinlichkeit fällt rapide bis zu

k an = 0.6 ab, danach sinkt sie nur noch leicht. Die Verlustwahrscheinlichkeit hängt dann mehr von der statistischen Änderung des Lastzustands des ATM-Netzes wäh-

171

6. Simulationsergebnisse

rend der gesamten Übertragungszeit ab als von der Erhöhung des Koeffizienten

k an . Diese Bandbreitenreservierungsstrategie kann verwendet werden, falls die LANPakete unterschiedliche Verkehrstypen enthalten. Der „konstante“ Teil der Bitrate kann für zeitkritische Anwendungen verwendet werden, während der „variable“ Teil für Anwendungen, die nicht für Verluste empfindlich sind, genutzt werden kann

6.6 Pufferschwelle Wie schon erwähnt wurde, ist es möglich, durch die periodische Ermittlung des Pufferfüllstands das Verhältnis zwischen erwünschter und vorhandener Bandbreite zu erfahren (siehe Abschnitt 5.3.4). Wird der Füllstand des Puffers erhöht, bedeutet es für die Netzkopplungseinheit, dass die erwünschte Bandbreite größer als die vorhandene Bandbreite ist. Wenn der Füllstand des Puffers sinkt, bedeutet es, dass die erwünschte Bandbreite kleiner als die vorhandene Bandbreite ist. Im Puffer sind zwei Schwellen definiert, die erste wird Oberschwelle und die zweite als Unterschwelle bezeichnet. Die Oberschwelle ist die Schwelle, ab der eine zusätzliche Bandbreite vom ATM-Netz angefordert wird. Die Unterschwelle ist die Schwelle, unter der ein Teil der reservierten Bandbreite wieder freigegeben wird. Wie auch die folgenden Simulationsergebnisse zeigen, müssen die Schwellen des Puffers in Abhängigkeit von den angeforderten QoS-Parametern und dem Ausnutzungskoeffizienten festgelegt werden. Als ATM-Verkehrstyp wird ABR verwendet, bei dem die garantierte Bandbreite des ATM-Netzes 60% der vorhandenen Bandbreite entspricht. Der Wert des RIF Koeffizienten entspricht 10% der Übertragungsrate eines Arbeitsplatzes. Der Puffer kann 15 Pakete eines jeden LAN Typs speichern. Der Puffer wird ständig überwacht und die Anforderung an zusätzlicher Bandbreite wird periodisch durchgeführt, falls der Füllstand des Puffers die festgelegte Schwelle überschreitet. In Bild 6.19 ist die Verlustwahrscheinlichkeit für Ethernet, Token-Ring 16 und TokenRing 4 in Abhängigkeit von der Pufferschwelle dargestellt.

172

6. Simulationsergebnisse

Bild 6.19: Verlustwahrscheinlichkeit in Abhängigkeit von der Pufferschwelle Wird als Pufferschwelle 30% der Puffergröße verwendet, um eine zusätzliche Bandbreite zu veranlassen, dann ist die Verlustwahrscheinlichkeit in der Netzkopplungseinheit kleiner als 0.001 %. Die Verlustwahrscheinlichkeit nimmt besonders stark zu, falls die Schwelle des Puffers größer als 70% angenommen wird. Bei festgelegter Pufferschwelle ist Token-Ring 16 empfindlicher als die beiden anderen Typen. In Bild 6.20 ist die mittlere Wartezeit der übertragenen LAN-Pakete in Abhängigkeit von der Pufferschwelle dargestellt. Bei Ethernet ist die Verzögerung am geringsten und steigt nur leicht mit der Vergrößerung der Pufferschwelle an. Bei Token-Ring 4 ist die mittlere Verzögerung der Pakete eine lineare Funktion der Pufferschwelle, während bei Token-Ring 16 die mittlere Verzögerung der Pakete nach dem Schwellwert von 70 % stark ansteigt.

173

6. Simulationsergebnisse

Bild 6.20: Mittlere Wartezeit in Abhängigkeit von der Pufferschwelle

Bild 6.21 Auslastungskoeffizient in Abhängigkeit von der Pufferschwelle 174

6. Simulationsergebnisse

In Bild 6.21 ist der Auslastungskoeffizient in Abhängigkeit von der Pufferschwelle dargestellt. Wie zu sehen ist, ändert sich bei allen LAN-Typen der Auslastungskoeffizient nahezu linear mit der Pufferschwelle. Während bei einem Schwellwert von 30 % die Verluste einen niedrigen Wert haben, ist der Auslastungskoeffizient bei dieser Schwelle zu klein. Wenn bei diesem Auslastungskoeffizienten zusätzlich noch die Steuerdaten und die Paketwiederholungen berücksichtigt werden, sinkt der Auslastungskoeffizient bis unter 60%. Bei Anwendungen, die dieses Verfahren verwenden, um eine zusätzliche Bandbreite anzufordern, muss der Schwellwert des Puffers 30% sein. Wenn die Anwendung nicht so empfindlich für Verluste ist, dann kann als Schwellwert die halbe Puffergröße angesetzt werden. In diesem Fall hat auch der Auslastungskoeffizient einen günstigeren Wert. Es ist zu erwähnen, dass die Pufferschwelle immer in Abhängigkeit von der Antwortzeit und vom RIF-Koeffizienten festgelegt werden muss. Die Pufferschwelle kann auch dynamisch in Abhängigkeit vom ATM-Lastzustand und von der Verlustrate festgelegt werden. Treten starke Verluste auf, kann die Pufferschwelle kontinuierlich verkleinert werden, bis die Verlustrate den gewünschten Wert erreicht. Durch die dargestellte Netzkopplungseinheit ist es möglich, die gesamten Verluste in der Netzkopplungseinheit und im ATM-Netz zu ermitteln.

6.7 Leistungsparameter der Netzkopplungseinheit in Abhängigkeit vom RDF-Koeffizienten Wenn die Netzkopplungseinheit feststellt, dass die erwünschte Bandbreite kleiner ist als die vorhandene Bandbreite, dann soll ein Teil der vorhandenen Bandbreite wieder freigegeben werden. Hier werden zwei unterschiedliche Strategien angewendet, um festzustellen, dass ein Teil der vorhandenen Bandbreite freigeben werden kann. -

Durch Bandbreitenmessung wird festgestellt, dass die erwünschte Bandbreite kleiner als die vorhandene Bandbreite ist

-

Wenn der Puffer leer ist, kann die Netzkopplungseinheit einen Teil der vorhandenen Bandbreite freigeben.

175

6. Simulationsergebnisse

In beiden Fällen wird nicht sofort die Differenz zwischen vorhandener und erwünschter Bandbreite freigegeben, sondern es wird Schritt für Schritt jeweils ein Teil der vorhandenen Bandbreite freigegeben. Die Größe der freigegebenen Bandbreite wird durch den RDF-Koeffizienten bestimmt. In den dargestellten Bilder werden die zwei verwendeten Strategien für Ethernet miteinander vergleichen. Aus Bild 6.22 ist zu sehen, dass die Verlustwahrscheinlichkeit bei Verwendung der Pufferschwelle sehr viel niedriger ist als bei der Messung der Bandbreite. Dies liegt daran, dass die erwünschte Bandbreite kleiner als die vorhanden Bandbreite sein kann, als Folge der burstartigen Natur der generierten Daten der LAN. Die Freigabe kann nur innerhalb der Fenstergröße geschehen. Die Netzkopplungseinheit vergleicht die erwünschte Bandbreite mit der vorhandenen Bandbreite und gibt einen Teil der vorhandenen Bandbreite wieder frei, ohne auf die Pufferwartschlange zu achten. Das bedeutet, dass die vorhandene Bandbreite verkleinert werden kann, auch wenn der Puffer fast voll ist. Gemäß Gleichung 5.25 wird der Wert des Koeffizienten K k = 0.9 angenommen. Das bedeutet, dass ein Teil der vorhandenen Bandbreite nur freigegeben wird, falls die mittlere erwünschte Bandbreite während einer Periode die vorhandene Bandbreite um 10 % unterschreiten. Wenn die Netzkopplungseinheit einen Teil der vorhandenen Bandbreite freigegeben hat und bei der nächsten Bandbreitenmessung feststellt, dass die erwünschte Bandbreite größer als die vorhandene Bandbreite ist, dann muss sie eine Anforderung nach zusätzlicher Bandbreite generieren. Die Freigabe der Bandbreite findet ohne Verzögerung statt, während die Reservierung um die Antwortzeit verzögert wird. Ist der Puffer bei Freigabe belastet, dann treten Verluste auf, bis die Bandbreite wieder reserviert wird, bzw. bis das ATM-Netz dies bestätigt hat. Deshalb ist die Verlustwahrscheinlichkeit bei der Bandbreitenmessungsstrategie zu hoch und vom RDFKoeffizient beeinflusst. Wie in Bild 6.22 dargestellt, liegt die Verlustwahrscheinlichkeit über 1 %, wenn der RDF-Koeffizient 75 Kbit/s erreicht. Beim Pufferschwellen-Verfahren wird ein Teil der vorhandenen Bandbreite nur freigegeben, wenn der Puffer leer ist. Das geschieht nur, wenn die erwünschte Bandbreite über eine längere Zeit kleiner ist als vorhandene Bandbreite, d.h. die Differenz wird nicht durch einen momentanen Zustand oder die burstartige Natur der generierten LAN-Pakete bestimmt, sondern durch einen langfristigen Vorgang. 176

6. Simulationsergebnisse

Das Pufferschwellen-Verfahren bringt im Vergleich mit der Bandbreitenmessung zwei Vorteile ! Der Puffer muss leer sein, um einen Teil der Bandbreite freizugeben ! Ein Teil der Bandbreite wird nur freigegeben, wenn bei mehreren periodischen Messungen die vorhandene Bandbreite größer als die erwünschte Bandbreite ist.

Bild 6.22: Die Verlustwahrscheinlichkeit in Abhängigkeit vom RDF-Koeffizienten Deshalb wird die Verlustwahrscheinlichkeit beim Pufferschwellen-Verfahren nur im geringen Maße durch den RDF-Koeffizienten beeinflusst. Die mittlere Wartezeit der LAN-Pakete in der Netzkopplungseinheit wird ebenfalls durch den RDF-Koeffizienten beeinflusst, aber nicht so stark wie die Verlustwahrscheinlichkeit. Auch die mittlere Wartezeit der LAN-Pakete ist beim Bandbreitenmessungs - Verfahren größer und nimmt mit Vergrößerung des RDF-Koeffizienten zu.

177

6. Simulationsergebnisse

Der Variationskoeffizient der Wartezeit nimmt beim Bandbreitenmessungs-Verfahren mit Erhöhung des RDF-Koeffizienten ab, während er beim Pufferschwellen-Verfahren fast konstant bleibt.

Bild 6.23: Mittlere Wartezeit in Abhängigkeit vom RDF-Koeffizienten

178

6. Simulationsergebnisse

Bild 6.24 Variationskoeffizient der Wartezeit in Abhängigkeit vom RDF-Koeffizienten Falls die Bandbreitenmessung als Mittel zur Bandbreitenfreigabe verwendet wird, dürfen die Teilbandbreiten freigegeben werden, wenn die mittlere erwünschte Bandbreite während einer Fenstergröße die vorhandene Bandbreite unterschreitet. Aus den dargestellten Bildern kann man feststellen, dass das PufferschwellenVerfahren sich besser eignet, um zu entscheiden, wann ein Teil der vorhandenen Bandbreite freigegeben werden kann. Wenn für die Ermittlung der erwünschten Bandbreite das Verkehrsmessungsverfahren verwendet wird, muss die Freigabe der Bandbreite auch hier in Abhängigkeit vom Lastzustand des Puffers durchgeführt werden.

179

6. Simulationsergebnisse

6.8 Einfluss der Paketgröße auf die Leistungsparameter Bisher sind die Leistungsparameter der Netzkopplungseinheit für LAN mit der maximal erlaubten Paketgröße untersucht worden. Eine Paketgröße von 1500 Byte kann nicht verwendet werden, wenn es sich um eine Sprachquelle handelt. Die Paketgröße von 1500 Byte bedeutet für einen LAN Arbeitsplatz 187.5 ms Paketierungsverzögerung, falls alle 125 µs eine Byte eintrifft. Dieser Wert ist fast doppelt so groß wie die „ideale“ Verzögerungsgrenze von 100 ms. Deshalb ist zu erwarten, dass die Paketgröße sehr oft kleiner als 1500 Byte sein wird, um die Paketierungsverzögerung klein zu behalten. Bei Multimedia Anwendungen werden die Pakete mit unterschiedlichen Größen und mit unterschiedlichen Anforderungen an die QoS-Parametern eintreffen. Deshalb werden in diesem Abschnitt die Leistungsparameter der Netzkopplungseinheit in Abhängigkeit von der Paketgröße dargestellt. Die untersuchten Parameter werden für ein Netz mit einer Geschwindigkeit von 10 Mbit/s und mit zwei unterschiedlichen Puffergrößen untersucht. Als ATMVerkehrstyp wird CBR mit 1.2 als Überschätzungsfaktor verwendet (Abschnitt 6.3). Es wird zunächst ein dynamischer Puffer angenommen, in dem von 10 Arbeitsplätzen insgesamt 15 Pakete gespeichert werden können.

180

6. Simulationsergebnisse

Bild 6.25: Verlustwahrscheinlichkeit in Abhängigkeit von der Paketgröße Der Puffer wird dynamisch verwaltet. In jeder Paketgröße werden jedoch nur 15 Pakete gespeichert. Zum anderen wird ein statischer Puffer mit einer festgelegten Puffergröße von 23.7 Kbyte verwendet. In Bild 6.25 sind die Simulationsergebnisse dargestellt. Bei kleineren Paketen, unter 500 Byte ist die Verlustwahrscheinlichkeit bei statischen Puffern sehr klein und ist zu vernachlässigen. Beim dynamischen Puffer steigt der Verlust mit der Paketgröße ständig an, damit auch die Puffergröße, da für jedes verlorene Paket das ganze Paket wiederholt werden muss. Bei der TCP/ IP Protokoll-Familie reagiert das TCP– Protokoll mit einer drastischen Reduzierung der Senderate, was den Auslastungskoeffizienten (Durchsatz) reduziert. Das kann zum Oszillieren zwischen Überlastzustand und Unterlastzustand führen (siehe Abschnitt 2.6.1). Ein einzige verlorene Zelle macht die gesamte TCP–Dateneinheit ungültig.

181

6. Simulationsergebnisse

Bild 6.26 Mittlere Wartezeit in Abhängigkeit von der Paketgröße Das zeigt, dass für dasselbe Angebot und für dasselbe Verhältnis zwischen Paketgröße und Puffergröße für große Pakete immer mehr Puffer in Betracht gezogen werden muss. Aus Bild 6.25 und 6.26 ersieht man, dass kleinere Pakete weniger Puffer benötigen, eine kleinere Verlustrate haben und die mittlere Wartezeit in der Netzkopplungseinheit auch kleiner ist. Bild 6.26 zeigt, dass die mittlere Wartezeit eines Paketes in der Netzkopplungseinheit von der Paketgröße abhängt und weniger von der Puffergröße, wenn dieselbe vorhandene Bandbreite verwendet wird.

182

6. Simulationsergebnisse

Bild 6.27 Variationskoeffizient der Wartezeit in Abhängigkeit von der Paketgröße Im Bild 6.27 ist der Variationskoeffizient der Wartezeit in Abhängigkeit von der Paketgröße dargestellt. Dieser sinkt mit der Größe der Pakete und ist bei großem Puffer deutlich größer. Von der Paketlänge werden nicht nur die Leistungsparameter der Netzkopplungseinheit, sondern auch die ATM-Knoten beeinflusst. In der ATM-Vermittlungsstelle werden die ATM-Zellen zwischengespeichert, bevor sie weitergeleitet werden. Deshalb ist es wichtig, die Verlustwahrscheinlichkeit bzw. die Wiederholungswahrscheinlichkeit in Abhängigkeit des Puffers in der ATMVermittlungsstelle zu untersuchen. Hierbei werden zwei unterschiedliche Paketgrößen angenommen, 576 Byte, entsprechend der Internet-Standard-Paketgröße, und 1500 Byte, was der LANE (Abschnitt 4.4.1) bzw. Ethernet Paketgröße entspricht.

183

6. Simulationsergebnisse

Bild 6.28 Wiederholungswahrscheinlichkeit in Abhängigkeit von der Pufferlänge in der ATM-Vermittlungsstelle In Bild 6.28 ist die Wiederholungswahrscheinlichkeit der Pakete durch Verluste in den ATM-Vermittlungsstellen dargestellt. Die Wiederholungswahrscheinlichkeit der Pakete für dieselbe Übertragungsrate und dieselbe Puffergröße ist bei einer Paketgröße von 1500 Byte größer als bei 576 Byte. Für andere LAN-Typen, die größere Pakete verwenden, wie Token-Ring 16, TokenRing 4 oder IP über ATM, muss die ATM-Vermittlungsstelle mit einem größeren Puffer ausgestattet werden, bzw. muss ein größerer Speicherplatz in der ATMVermittlungsstelle reserviert werden. Für eine richtige Dimensionierung der Puffergröße in der Netzkopplungseinheit sowie in der ATM-Vermittlungsstelle muss immer die Paketgröße berücksichtigt werden, um die gewünschten Leistungsparameter zu erhalten, da sonst starke Verluste auftreten. Bei einem Verkehrsvertrag zwischen CL-Servern und dem ATM-Netz kann auch eine Pufferreservierung durchgeführt werden. Bei jeder verwendeten Pufferreservierungs-

184

6. Simulationsergebnisse

strategie muss immer die Paketgröße berücksichtigt werden, damit die Wiederholungen wegen der Verluste in den ATM-Knoten bis zu einem gewissen Grade reduziert werden. Ein abgeschlossener Verkehrsvertrag, der die Paketgröße nicht berücksichtigt, kann öfter verletzt werden.

6.9 Anzahl der Arbeitsplätze Die Leistungsparameter der Netzkopplungseinheit werden vom Verkehrsangebot beeinflusst. Um dies zu untersuchen, wird das Angebot durch die unterschiedliche Anzahl der Arbeitsplätzen bzw. LAN-Segmenten simuliert. Dadurch lassen sich die Verlustwahrscheinlichkeit und die mittlere Wartezeit der Pakete in der Netzkopplungseinheit ermitteln. Die garantierte Bandbreite des ATM-Netzes entspricht der erwünschten Bandbreite nur zu 60%. Die anderen Teile der Bandbreite werden dynamisch reserviert und freigegeben in Abhängigkeit vom Lastzustand des ATM-Netzes und des Verkehrsangebotes. Um die erwünschte Bandbreite zu ermitteln, wird der ankommende Verkehr gemessen. Die Puffergröße und der RIF-Koeffizient haben dauernd denselben Wert. Im Puffer können 15 Pakete gespeichert werden und der RIF-Koeffizient beträgt 10% der Übertragungsrate eines Arbeitsplatzes. In diesem Fall wird die mögliche Einschränkungen der maximalen Bandbreite nicht berücksichtigt.

185

6. Simulationsergebnisse

Bild 6.29 Verlustwahrscheinlichkeit in Abhängigkeit vom Angebot In Bild 6.29 ist die Verlustwahrscheinlichkeit in Abhängigkeit vom Angebot dargestellt. Der Verlust nimmt mit dem Angebot zu und wenn die Anzahl der Arbeitsplätze größer als 20 ist, sind die Verluste nicht mehr zu tolerieren.

186

6. Simulationsergebnisse

Bild 6.30. Mittlere Wartezeit in Abhängigkeit von der Anzahl der Arbeitsplätze In Bild 6.30 ist die mittlere Wartezeit in Abhängigkeit vom Angebot dargestellt. Die mittlere Wartezeit fällt rapide mit dem Angebot, da die Bearbeitungszeit und die Übertragungsrate auch steigen. Besonderes bei Token-Ring Netzen sinkt die mittlere Wartezeit mit dem Angebot.

6.10 Vakil Bandbreitenreservierungsstrategie In der im Bild 6.1 dargestellten Netzkopplungseinheit können im „Block“ erwünschte Bandbreite die mittlere und die Spitzenbitrate innerhalb der Fenstergröße ermittelt und berechnet werden. Anschließend muss hieraus in geeigneter Weise ein Wert für die gewünschte Bandbreite, die dem Komparator mitgeteilt wird, berechnet werden, um die QoS-Parameter bei der Verwendung des VBR-Verkehrstyps im gewünschten Rahmen zu halten. Ausserdem sind die Leistungsparameter der Netzkopplungseinheit von der Spitzenbitrate innerhalb der Fenstergröße abhängig. In diesem Fall wird 187

6. Simulationsergebnisse

die von Vakil entwickelte Gleichung verwendet, um die erwünschte Bandbreite bzw. die angeforderte zusätzliche Bandbreite zu berechnen, falls die mittlere Bitrate R m und die Spitzenbitrate R p innerhalb der Fenstergröße bekannt sind (siehe Abschnitt 5.3.2 Gleichung 5.26). In der vorliegenden Arbeit wird die Berechnung der erwünschten Bandbreite nach der Vakil-Gleichung als Vakil-Bandbreitenreservierungsstrategie bezeichnet

Bild 6.31: Verlustwahrscheinlichkeit in Abhängigkeit von der Puffergröße beim Vakil-Verfahren Wegen der burstartigen Form des generierten Verkehrs der LAN-Arbeitsplätze kann es passieren, dass die angeforderte Bandbreite zu hoch wird. Die Ablehnungswahrscheinlichkeit des ATM-Netzes steigt mit der Erhöhung der angeforderten Bandbreite. Deshalb ist die maximal erlaubte Bandbreite, mit der die Netzkopplungseinheit innerhalb der nächsten Fenstergröße übertragen darf, höchstens 30% höher als der mittlere Bandbreitenwert. In Bild 6.31 ist die Verlustwahrscheinlichkeit der drei LAN Typen in Abhängigkeit von der Puffergröße dargestellt.

188

6. Simulationsergebnisse

Diese Bandbreitenreservierungsstrategie kann bei unterschiedlichen LAN Typen verwendet werden, da, wie Bild 6.31 zeigt, die Verluste bei Ethernet, Token-Ring 4 und Token-Ring 16 fast denselben Wert haben. Die Verlustwahrscheinlichkeit in der Netzkopplungseinheit hängt vom Verhalten der Arbeitsplätze auf der Burstebene und von der Spitzenbitrate der Arbeitsplätze ab. Beide Abhängigkeiten sind in die Vakil-Bandbreitenreservierung einbezogen, wodurch die Verlustwahrscheinlichkeit bei der Vakil-Bandbreitenreservierungsstrategie niedriger ist als bei den vorher dargestellten CBR- und ABR-Verfahren. Ebenso ist es hiermit möglich, die vorhandene Bandbreite besser an die erwünschte Bandbreite anzupassen. Ab einer Puffergröße von 20 Paketen bleibt die Verlustwahrscheinlichkeit für die drei LAN-Typen fast konstant, weshalb diese Bandbreitenreservierungsstrategie auch für kleine Puffer verwendet werden kann.

Bild 6.32: Mittlere Wartezeit in Abhängigkeit von der Puffergröße bei Vakil-Verfahren In Bild 6.32 ist die mittlere Wartezeit der Pakete in Abhängigkeit von der Puffergröße bei der Vakil-Bandbreitenreservierungsstrategie dargestellt. Außer den niedrigen

189

6. Simulationsergebnisse

Verlusten ist beim Vakil-Bandbreitreservierungsverfahren auch die mittlere Wartezeit der Pakete in der Netzkopplungseinheit ab einer Puffergröße von 15 Paketen fast konstant. Um einen Eindruck über die Variation der Wartezeit der Pakete zu haben, ist in Bild 6.33 die Standardabweichung dargestellt. Es zeigt auch, dass ab einer Puffergröße von 20 Paketen die Standardabweichung der mittleren Wartezeit nur leicht ansteigt.

Bild 6.33 Standardabweichung der mittleren Wartezeit in Abhängigkeit von der Puffergröße beim Vakil-Verfahren

190

6. Simulationsergebnisse

Bild 6.34 Auslastungskoeffizient in Abhängigkeit von der Puffergröße beim Vakil-Verfahren. Im Bild 6.34 ist der Auslastungskoeffizient in Abhängigkeit von der Puffergröße bei der Vakil-Bandbreitereservierungsstrategie dargestellt. Für die Puffergröße von 20 Paketen erreicht man einen Auslastungskoeffizienten der vorhandenen Bandbreite von 86%, wenn man die Wiederholungsmöglichkeiten wegen der Verluste in ATMKnoten nicht berücksichtigt und wenn AAL5 verwendet wird. Das bedeutet, dass für eine ATM-Strecke von 155 Mbit/s fast 120 Mbit/s für die Nutzdatenübertragung zur Verfügung stehen.

191

6. Simulationsergebnisse

6.11 Kelly Bandbreitenreservierungsstrategie Bei den bisherigen dargestellten Simulationsergebnissen ist die erwünschte Bandbreite in der Netzkopplungseinheit nach dem Verkehrsmessungsverfahren und nach dem Pufferfüllstandsverfahren getrennt ermittelt und berechnet worden. In den folgenden Grafiken und den Erläuterung wird gezeigt, wie beide Verfahren gleichzeitig verwendet werden können, um die Höhe der erwünschten Bandbreite zu bestimmen und von dem ATM-Netz anzufordern. Auch ist es möglich, die Verlustwahrscheinlichkeit in der Netzkopplungseinheit zu ermitteln und bei der Anforderung einer zusätzlichen Bandbreite vom ATM-Netz einzubeziehen. In diesem Fall werden innerhalb der Fenstergröße die mittlere Bitrate Rm, die Spitzenbitrate Rp, der Füllstand des Puffers sowie die Verlustwahrscheinlichkeit ermittelt. Der Verlustwahrscheinlichkeit kann man auch vorher einen bestimmten Wert zuweisen. Dadurch ist es möglich, die Verlustwahrscheinlichkeit unter einer bestimmten Schwelle zu halten. Ein weiterer Vorteil bei der Verwendung dieser Kelly-Bandbreitenreservierungsstrategie besteht darin, dass auch die Warteschlangenlänge einbezogen ist, die in indirekter Weise die Belastung des Puffers bzw. die Wartezeit der Pakete im Puffer darstellt. Um die erwünschte Bandbreite in der Netzkopplungseinheit (im „Block“ erwünschte Bandbreite) zu berechnen, wird die von Kelly entwickelte Gleichung verwendet (siehe Abschnitt 5.3.4). Da für LAN-Typen mit großer Paketlänge die angeforderte Bandbreite die erlaubte Bandbreite für die Netzkopplungseinheit überschreiten kann bzw. für eine hohe angeforderte Bandbreite die Ablehnungswahrscheinlichkeit vom ATM-Netz zu hoch ist, darf die maximale angeforderte Bandbreite den Wert von 25 % der mittleren Bandbreite innerhalb der Fenstergröße nicht überschreiten. Im Bild 6.35 ist die Verlustwahrscheinlichkeit in Abhängigkeit von der Puffergröße bei der Kelly-Bandbreitenreservierungsstrategie dargestellt.

192

6. Simulationsergebnisse

Bild 6.35: Verlustwahrscheinlichkeit in Abhängigkeit von der Puffergröße beim Kellyl-Verfahren Sie ist bei Verwendung eines kleinen Puffers unter 15 Paketen fast gleich mit der Vakil-Bandbreitenreservierungsstrategie. Ab einer Puffergröße von 20 Paketen ist die Verlustwahrscheinlichkeit bei der Kelly-Bandbreitenreservierungsstrategie niedriger und braucht nicht mehr berücksichtigt zu werden. In Bild 6.36 ist die mittlere Wartezeit der Pakete in Abhängigkeit der Puffergröße dargestellt. Sie steigt bis zu einer Größe von 15 Paketen an und bleibt dann fast konstant.

193

6. Simulationsergebnisse

Bild 6.36 Mittlere Wartezeit der Pakete in Abhängigkeit von der Puffergröße

Bild 6.37: Variationskoeffizient der Wartezeit in Abhängigkeit von der Puffergröße

194

6. Simulationsergebnisse

.

Bild 6.38: Auslastungskoeffizient in Abhängigkeit von der Puffergröße Bild 6.37 zeigt den Variationskoeffizienten der Wartezeit in Abhängigkeit von der Puffergröße. Er steigt mit der Puffergröße an. In Bild 6.38 ist der Auslastungskoeffizient in Abhängigkeit von der Puffergröße dargestellt. Der Auslastungskoeffizient erreicht bei der vorgestellten Netzkopplungseinheit den Wert von 86%, ohne die Wiederholungswahrscheinlichkeit und die Steuerdaten zu berücksichtigen, die einen Teil der vorhandenen Bandbreite einnehmen (Kapitel 3). Die maximale Bitrate für Nutzdatenübertragung im analysierten Fall einer ATMStrecke von 155 Mbit/s beträgt 118 Mbit/s. Die dargestellten Ergebnisse zeigen, dass für Multimedia Anwendungen und für die Kopplung der unterschiedlichen LAN-Typen über dieselbe Netzkopplungseinheit, eine Bandbreitenreservierungsstrategie gemäß der vorgestellten Kelly–Formel eine gute Lösung ist.

195

7. Zusammenfassung

7. Zusammenfassung

Bei jedem Lösungsversuch LANs und ATM zu koppeln bzw. zu integrieren muss es wenigsten möglich sein, die besten Eigenschaften des ATM-Netzes, wie die Flexibilität der Bandbreite und der Ausdehnung sowie die QoS Parameter auszunutzen. Die bisherigen Entwicklungen, die im vierten Kapitel erläutet sind, machen es klar, dass die wesentlichen Eigenschaften des ATM-Netzes bei der Kopplung bzw. der Integration mit LANs noch nicht ausgenutzt sind. Diese Eigenschaften müssen in zukünftigen Verfahren, bzw. in weiteren Entwicklungen der vorhandenen Verfahren ausgenutzt werden, um eine Integration zwischen beiden Netze zu erreichen. Jede Entwicklung, die das nicht berücksichtigt, ist keine Lösung oder nur eine vorläufige Lösung. Um einen solchen Schritt in der Kopplung bzw. Integration zwischen LAN und ATM zu ermöglichen, ist in der vorliegenden Arbeit eine Kopplungseinheit entwickelt worden, die innerhalb eines CL-Servers eingesetzt werden kann. Durch diese Netzkopplungseinheit können die QoS-Parameter des ATM-Netzes recht gut ausgenutzt werden, was aus den Simulationsergebnisse im sechsten Kapitel zu sehen ist. Die Simulationsergebnisse für diese Netzkopplungseinheit werden im Folgenden zusammengefasst. In der Simulation wurden die QoS-Parameter, die Verlustwahrscheinlichkeit, die mittlere Wartezeit, der Variationskoeffizient der mittleren Wartezeit, die Standardabweichung, die Warteschlangenlänge und der Auslastungskoeffizient der reservierten Bandbreite berücksichtigt. Diese Untersuchungen sind an den bedeutendsten LAN Typen Ethernet und Token Ring durchgeführt worden, wobei die Programmiersprache C verwendet wurde. Um die erwünschte Bandbreite zu ermitteln, sind zwei Verfahren untersucht worden. ! Die Verkehrsmessungsverfahren ! Der Pufferfüllstandsverfahren Die Bandbreitenmessung bzw. die Überwachung des Pufferzustands wurde periodisch mit dem vorgestellten Algorithmus durchgeführt. Die Periode bzw. das Zeitin-

196

7. Zusammenfassung

tervall wurde abhängig von der Paketlänge und der Bitrate des verwendeten LAN Typs gewählt. Ferner wurde die Fenstergröße in gewissem Maße durch die Puffergröße und die Bandbreitreservierungsstrategie bestimmt. Bei einer Fenstergröße zwischen 10 ms und 60 ms ist die Verlustwahrscheinlichkeit für alle untersuchten LAN Typen gering. Bei der Ermittlung der erwünschten Bandbreite durch den Pufferfüllstand zeigt sich bei der Fenstergröße keine strenge Unterschwelle wie bei der Bandbreitenmessung. Der Einfluss der Antwortzeit auf die Leistungsparameter der Netzkopplungseinheit hängt

von

der

verwendeten

Bandbreitenreservierungsstrategie,

vom

ATM-

Verkehrstyp und vom zu koppelnden LAN-Typ ab. Die Antwortzeit beeinflusst das Ethernet mehr als die Token-Ring Netze, da die Verluste bei Ethernet wegen des kleineren Ankunftabstandes zwischen den eintreffenden Paketen größer sind und früher eintreten. Beim CBR-Verfahren, das verwendet wird, falls die Pakete zeitkritische Anwendungen enthalten, ist die Verlustwahrscheinlichkeit bei Token-Ring 16 größer als bei Ethernet und Token-Ring 4, da die Wahrscheinlichkeit, dass eine ATM-Zelle verloren geht, bei Token-Ring 16 größer als bei den beiden anderen LAN-Typen ist. Der Pufferbedarf der Token-Ring 16 ist wegen der großen Paketlänge größer als bei den beiden anderen LAN-Typen. Der Auslastungskoeffizient ist bei Token-Ring 16 besser als bei den beiden anderen, falls andere Faktoren, wie z.B. die Paketwiederholung, nicht berücksichtigt werden. Die mittlere Wartezeit ist bei Token-Ring größer als bei Ethernet, da Token-Ring große Pakete verwendet, die selbstverständlich mehr Zeit zur Bearbeitung benötigen. Während bei Ethernet die mittlere Wartezeit der Pakete nur leicht vom Puffer beeinflusst wird und unter 1 ms bleibt, nimmt die mittlere Wartezeit bei Token Ring mit der Vergrößerung des Puffers zu. Ist der Puffer größer als 15 Pakete, dann ist die mittlere Wartezeit der LAN-Pakete in der Kopplungseinheit bei Token-Ring 16 bereits mehr als 3 ms. Durch die Warteschlangenlänge kann die Netzkopplungseinheit dem ATM-Netz die erwünschte Puffergröße anzeigen. Die ATM-Knoten zwischen CL-Servern reservieren den Speicherplatz gemäß der Wartenschlangenlänge in der Netzkopplungseinheit; das bedeutet, dass die Wartenschlangenlänge als Kriterium bei der Pufferreser-

197

7. Zusammenfassung

vierungsstrategie verwendet wird. Falls der Puffer größer als 20 LAN-Pakete ist, ändert sich die mittlere Wartenschlangenlänge nicht mehr. Beim ABR-Verfahren steigen die Verluste rapide an, falls der RIF-Koeffizient kleiner als 300 kbit/s ist. Wird der RIF-Koeffizient größer als 800 kbit/s, dann hat der Auslastungskoeffizient einen Wert unter 75 %. Bei diesem Bandbreitenreservierungsverfahren muss ein Kompromiss zwischen mittlerer Verzögerung, Verlustwahrscheinlichkeit und Auslastungskoeffizient gemacht werden, um die reservierte Bandbreite rational zu nutzen und die Verlustwahrscheinlichkeit unter einem bestimmten Wert zu halten. Beim Pufferfüllstandsverfahren wird die erwünschte Bandbreite durch den Pufferlastzustand ermittelt. Wird als Pufferschwelle 30% der Puffergröße verwendet, um eine zusätzliche Bandbreite zu veranlassen, dann ist die Verlustwahrscheinlichkeit in der Netzkopplungseinheit kleiner als 0.001% . Die Verlustwahrscheinlichkeit nimmt besonders stark zu, falls die Schwelle des Puffers größer als 70% angenommen wird. Bei festegelegter Pufferschwelle ist Token-Ring 16 empfindlicher als die beiden anderen Typen. Wenn die Netzkopplungseinheit feststellt, dass die erwünschte Bandbreite kleiner als die vorhandene Bandbreite ist, dann soll ein Teil der vorhandenen Bandbreite wieder freigegeben werden. Die Verlustwahrscheinlichkeit ist bei Verwendung der Pufferschwelle sehr viel niedriger als bei der Verkehrsmessung, da beim PufferschwellenVerfahren ein Teil der vorhandenen Bandbreite nur freigegeben wird, wenn der Puffer leer ist. Das geschieht nur, wenn die erwünschte Bandbreite eine längere Zeit kleiner als die vorhandene Bandbreite ist. Deshalb wird die Verlustwahrscheinlichkeit beim Pufferschwellen-Verfahren nur im geringen Maße durch den RDF-Koeffizient beeinflusst. Bei Multimedia Anwendungen werden die Pakete mit unterschiedlicher Größe und mit unterschiedlichen Anforderungen an die QoS-Parameter eintreffen. Deshalb werden die Leistungsparameter der Netzkopplungseinheit in Abhängigkeit von der Paketgröße untersucht. Aus den Simulationsergebnissen kann man schließen, dass für dasselbe Angebot und für dasselbe Verhältnis zwischen Paketgröße und Puffergröße für große Pakete immer mehr Puffer in der Netzkopplungseinheit und in den ATMKnoten in Betracht gezogen werden muss, damit auch die Wiederholungen wegen der Verluste in den ATM-Knoten einigermaßen reduziert werden.

198

7. Zusammenfassung

Kleinere Pakete benötigen weniger Puffer, haben eine kleinere Verlustrate und die mittlere Wartezeit in der Netzkopplungseinheit ist auch kleiner. Die Leistungsparameter der Netzkopplungseinheit werden aber auch von der Spitzenbitrate innerhalb der Fenstergröße beeinflusst. Dies wird bei der von Vakil entwickelten Gleichung berücksichtigt. Da bei dieser Bandbreitenreservierungsstrategie die Verluste bei Ethernet, Token-Ring 4 und Token-Ring 16 fast denselben Wert haben und niedriger als bei den vorher dargestellten CBR- und ABR-Verfahren sind, kann sie bei unterschiedlichen LAN Typen verwendet werden. Die dargestellten Ergebnisse zeigen, dass für Multimedia Anwendungen und für die Kopplung der unterschiedlichen LAN-Typen über dieselbe Netzkopplungseinheit eine Bandbreitenreservierungsstrategie gemäß der vorgestellten Kelly-Gleichung eine gute Lösung ist, da bei dieser Bandbreitenreservierungsstrategie außer der mittleren Bitrate und der Spitzenbitrate innerhalb der Fenstergröße auch die Verlustwahrscheinlichkeit und die Warteschlangenlänge berücksichtigt sind. Der Einsatz des ATM-Netzes als Backbone-Netz zur Kopplung herkömmlicher von einander weit entfernter LAN-Netze ist die beste Lösung. Im lokalen Bereich ist das ATM-Netz in der gegenwärtigen Phase nicht als Ersatz der herkömmlichen LANs zu betrachten, sondern mehr als Ergänzung hierzu. Die Kopplung zwischen den herkömmlichen LAN-Netzen und dem ATM-Netz bzw. deren Integration stellt nur einen weiteren Schritt dar, alle Telekommunikationsnetze, wie herkömmliche LAN-Netze, Schmalband – Netze, X.25 und Frame Relay zu integrieren.

199

Abkürzungen und Formelzeichen

Abkürzungen und Formelzeichen

Abkürzungen

A AAL

ATM Adaption Layer

ABR

Available Bit Rate

AFI

Authorization Format Identifier

ARP

Address Resolution Protocol

ATD

Asynchronous Time Division

ATM

Asynchronous Transfer Mode

ATMARPS

ATM Address Resolution Protocol Server

B B-ISDN

Breitband-ISDN

BA–Size

Buffer Allocation Size Indication

B-NT1

Network Termination for B-ISDN

BOM

Begin Of Message

B-Tag

Beginning Tag

BUS

Broadcast and Unknown Server Bus

C CAC

Connection Admission Control

CBDS

Connectionless Broadband Data Service

CBR

Constant Bit Rate

CDV

Cell Delay Variation

CIF

Cell in Frame

CLLR&R

Connectionless Layer Routing & Relaying

CLNAP

Connectionless Network Access Protocol

CLNIP

Connectionless Network Interface Protocol

CLP

Cell Loss Priority

CLR

Cell Loss Ratio

CLS

Connectionless Server

200

Abkürzungen und Formelzeichen

CLSF

Connectionless Service Function

COM

Continuation Of Message

CPCS – UU

Common Part Convergence Sub Layer User to User Indication

CPCS

Common Part Convergence Sub Layer

CPI

Common Part Indicator

CRC

Cyclic Redundancy Check

CS

Convergence Sub Layer

CSI

Convergence Sub Layer Indication

CSMA/CD

Carrier Sense Multiple Access / Collision Detection

CTD

Cell Transfer Delay

CW

Contention Windows

D DCC

Data Country Code

DQDB

Dual Queue Distributed Bus

DS1

Digital Linie System, digitales Leitungssystem in den USA mit 1,544 Mbit/s (PDH)

DSP

Domain Specific Part

DSSS

Digital Subscriber Signalling System

DSSS

Direct Sequence Spread Spectrum

DT

Date Type

DXI

Data eXchange Interface

E ELAN

Emulation LAN

EOM

End Of Message

ETSI

European Telecommunications Standard Institute

F FDDI

Fiber Distributed Data Interface

FDM

Frequency Division Multiplexing

FHSS

Frequency Hopping Spread Spectrum

FRP/DT

Fast Reservation Protocol / Delayed transmission

G GFC

Generic Flow Control

H HDTV

High Definition Television 201

Abkürzungen und Formelzeichen

HEC

Header Error Control

HIPERLAN

High Performance Radio LAN

HSLAN

High Speed LAN

I IASG

Internetwork Address SubGroup

ICD

International Code Designator

ID

Identification

IDI

Initial Domain Identifier

IEEE

Institute of Electrical and Electronic Engineers

IETF

Internet Engineering Task Force

IP

Internet Protocol

IPX

Internetwork Packet Exchange

ISLAN

Integrated Service LAN

ISO

International Organization for Standardization

iso-Ethernet

Isochrone Ethernet

ITU-T

International Telecommunication Union, Telecommunication Standardization Sector

L LAN

Local Area Network

LANE

LAN-Emulation

LAT

Local Area Transport

LEC

LAN Emulation Client

LECS

LAN Emulation Configuration Server

LES

LAN Emulation Server

LI

Length Indicator

LIS

Logical IP Sub Network

LLC / SNAP

Logical Link Control / Sub-Network Access Protocol

LLC

Logical Link Control

LUNI

LAN Emulation User to Network Interface

M MAC

Media Access Control

MAN

Metropolitan Area Network

202

Abkürzungen und Formelzeichen

MARS

Multicast Address Resolution Server

MID

Message Identifier

MPC

MPOA Clients

MPEG

Motion Picture Experts Group

MPOA

Multiprotocol over ATM

MPS

MPOA Server

N ND

Nutzdaten

NetBios

Network Basic I/O - system

NHRP

Next Hop Resolution Protocol

NNI

Network Network Interface

NP

Netzwerkprotokoll

nrt-VBR

non real time–Variable Bit Rate

O OAM

Operation and Maintenance

OSI

Open System Interconnection

OUI

Organizational Unique Identifier

P PID

Protocol Identifier

PAD

Padding Feld

PCR

Peak Cell Rate

PDH

Plesiochrone Digitale Hierarchie

PDU

Protocol Data Unit

PHY

Physical Layer

PID

Protocol Identifier

PLL

Phase Locked Loop

PM

Physical Medium Sub Layer

PNNI

Private Network-to-Network Interface

POH

Path Overhead

PT

Payload Type

Q QoS

Quality of Service

203

Abkürzungen und Formelzeichen

R RDF

Rate Decrease Factor

RFC

Request for Comments

RIF

Rate Increase Factor

RM

Resource Management

RSVP

Resource Reservation Protocol

rt-VBR

real time–Variable Bit Rate

S S-ISDN

Schmalband ISDN

SAP

Service Access Point

SAR

Segmentation and Reassembly

SCR

Sustainable Cell Rate

SDH

Synchrone Digitale Hierarchie

SDU

Service Data Unit

SEL

Selection Byte

SMDS

Switched Multimegabit Data Service

SN

Sequence Number

SNAP

Sub-Network Access Protocol

SNP

Sequence Number Protection

Sof

Start of Frame Channel

SOH

Section Overhead

SPX

Sequenced Packet Exchange

SRA

Source Routing Algorithmus

SSCS

Service Specific Connection Protocol

STA

Spanning Tree Algorithmus

STD

Synchronous Time Division

STP

Shielded Twisted Pair

T TA

Terminal Adapter

TAXI

Transparent Asynchronous Xmitter / Receiver Interface

TC

Transmission Convergence Sub Layer

TCP

Transmission Control Protocol

TP

Transport Protocol

204

Abkürzungen und Formelzeichen

U UBR

Unspecified Bit Rate

UNI

User-Network Interface

UPC

Usage Parameter Control

UTP

Unshielded Twisted Pair

V VBR

Variable Bit Rate

VCC

Virtual Channel Connection

VCI

Virtual Channel Identifier

VG

Voice Grade

VLAN

Virtual LAN

VP

Virtual Path

VPI

Virtual Path Identifier

Vst

Vermittlungsstelle

W WAN

Wide Area Network

WLAN

Wireless LAN

205

Abkürzungen und Formelzeichen

Formelzeichen A

Angebot

ξ

Verlustwahrscheinlichkeit bei Kelly-Verfahren

ak

Koeffizient, dessen Wert durch Randbedingungen bestimmt wird

As

Angebot der Verkehrklasse s

b

Aktivitätsfaktor

Be

Erwünschte Bandbreite

Be,m

Mittlere erwünschte Bandbreite

Bf

Freie Bandbreite

Bg

Gesamte Bandbreite

Bh

Vorhandene Bandbreite

Bi

Zur Verfügung stehende Bandbreite eines virtuellen Kanals

Bo

Reservierte Bandbreite

Bu,m

Ungenutzte Bandbreite

D

Driftmatrix

dm

Verhältnis zwischen mittlerer erwünschter Bandbreite und mittlerer vorhandener Bandbreite

E(X)

Erwartungswert

E[Tb,a]

Mittlere Verweildauer des Arbeitsplatzes im Active-Zustand

E[Tb,s]

Mittlere Verweildauer des Arbeitsplatzes im Silent-Zustand

f(x)

Verteilungsdichtefunktion

F(x)

Verteilungsfunktion

i

Variable

j

Variable

k = 0,1,2,..., K

Zustandsautomat, der sich in verschiedenen Zuständen befinden kann

K

Maximalanzahl des Zustandautomaten

Kg

Erhöhungsfaktor

Kr

Reduzierungsfaktor

l

Puffergröße

M

Übergangsmatrix

M

Zustandautomat

mi

Moment der Ordnung i 206

Abkürzungen und Formelzeichen

N

Anzahl der Arbeitsplätze

nf

Freie Kanäle

ng

Gesamte Anzahl der virtuellen Kanäle

Ngü

Anzahl der gesamten Übertragungspakete

nh

Virtuelle Kanäle, die durch den Hintergrundverkehr im ATM-Netz belegt sind

no

Reservierte Kanäle

Np

Anzahl der eintreffenden Pakete

Nwü

Anzahl der gesamten Wiederholungspakete

pab

Ablegungswahrscheinlichkeit

pe

Gesamtenwahrscheinlichkeit

pi

Wahrscheinlichkeit

pie

Einzelnwahrscheinlichkeiten

pk

Kollisionswahrscheinlichkeit

Plos

Mittlere Verlustrate in der Netzkopplungseinheit

Pu

Verlustwahrscheinlichkeit der vorhandenen (reservierten) Bandbreite

q (m/k)

Übergangwahrscheinlichkeit

q = (qa, qs)

Zustandswahrscheinlichkeitsvektor des Arbeitsplatzes

Q =[q(m/k)] Übergangsmatrix q

Wahrscheinlichkeit, dass die Zeitschlitze mit einer Zelle belegt wird.

qa

Wahrscheinlichkeit, dass Arbeitsplatz sich im Active-Zustand befindet

qs

Wahrscheinlichkeit, dass der Arbeitsplatz sich im Silent-Zustand befindet

R

Gesamtanzahl aller möglichen Aktivitätszustände

Re

Erwünschte Bitrate

Rh

Vorhandene Bitrate

Rm

Mittleren Bitrate

Rmax

Kapazität der ATM-Strecke oder die maximale erlaubte Bandbreite einer Verkehrsklasse

Rp

Spitzenbitrate

rs

Benötigte Bitrate der Verkehrklasse s

S

Anzahl der Verkehrsklassen

s

Verkehrklasse

tb(k)

Mittlere Verweildauer des Zustandsautomaten im Zustand k 207

Abkürzungen und Formelzeichen

TB(k)

Zeitdauer, in der sich der Zustandsautomat in einem Zustand befindet

Tb,h

Aktivitätsphase

Tb,s

Pausenphase

Tp,h

Dauer der Aktivitätsphase innerhalb der Paketebene

Tp,s

Dauer der Pausenphasen innerhalb der Paketebene

Tv,h

Dauer der „bestehenden“ Verbindung

Tv,s

Dauer der „nicht bestehenden“ Verbindung

Tz,a

Ankunftsabstand zwischen Zellen

Tz,h

Zeitdauer der Zellen

Tz,s

Zellabstand

ui,j

Wahrscheinlichkeit, dass sich zu einem Zeitpunkt i Arbeitsplätze im Active-Zustand befinden, j virtuelle Kanäle belegt werden und der Puffer voll ist

V(X)

Variationskoeffizient

Var(X)

Varianz

W

Mittlere Wartezeit

w

Verteilungsfunktion der Wartezeit

x = (x1,x2,x3,...,xs)

Belegungsvektor

X

Zufallsvariable

x

Reelle Zahl

xs

Anzahl der etablierten virtuelle Kanäle der Verkehrklasse s

γ

Gesamte Verzögerung der RM-Zelle

γc

Ausbreitverzögerung

γv

Verzögerung der RM-Zelle in der Warteschlage der ATMVermittlungsknoten

z

Verzweigungswahrscheinlichkeit

zi

Eigenwert der Matrix D-1M

Bh , m

Mittlere vorhandene Bandbreite

Φi

Rechts-Eigenvektoren der Matrix D-1M



Menge der erlaubten Zustände der freien Bandbreite

α

Übergangsrate vom Active-Zustand in den Silent-Zustand

β

Übergangsrate vom Silent Zustand in den Active-Zustand

δ

Dirac-Function 208

Abkürzungen und Formelzeichen

γvi

Mittlere Wartezeit der RM-Zellen in den ATM-Vermittlungsstellen

λ

Mittlere Ankunftsrate

λm

Mittlere Paketrate eines Arbeitsplatzes

λm,N

Mittlere Paketrate

µ

Bedienrate

ρ

Auslastungsfaktor

209

Literaturverzeichnis

Literaturverzeichnis [1]

A. Badach:

Integrierte Unternehmensnetze: X.25, Frame Relay, ISDN,

LANs und ATM, Hüthing Verlag, Heidelberg:, 1997 [2]

A. Badach:

High Speed Internetworking. Heutige Möglichkeiten und

Perspektiven. In F. Kadarali (Hrsg.): Corporate networks und integrierte Unternehmenskommunikation. Verlag Online GmbH, Velbert, 1995 [3]

A. Baiocchi, N. B. Melazzi, M. Listani, A. Roveri, R. Winkler:

Loss Per-

formance Analysis of an ATM Multiplexer Loaded with High Speed ON – OFF Source, vol. SAC – 9, no. 3 S. 388 – 393, 1991 [4]

A. Borella, D. Broglio, G. Cancellieri, F. Chiaraluce:

Perfonance of

DQDB Protocol for MANs with Bandwidth Balancing Mechanism in a Multi – priority Environment. Proceedings of the EFOC / LAN 92, Paper No. 115, paris June 1992 [5]

A. Ciccardi, F, Ferrero:

System and Service Evaluation on High Speed

Network Field Trials. Proceedings of the EFOC / LAN 92, Paper NO. 152, June 1992 [6]

A. Girard, B. Sanso:

Multicommodity Flow Models, failure Propagation,

and Reliable Loss network Design, IEEE / ACM Transactions on Networking, Vol.6 . No.1, February 1998 [7]

A. Papoulis:

Propability , Random Variables and Stochtastic Process,

New York, Mc Graw Hill 1984 [8]

A. Schill, R. hess. S. Kümmel, D. Hege, H. Lieb:

ATM-Netze in der Pra-

xis, Bonn 1997 [9]

A. Zenk:

Lokal Netze Kommunikationsplattform der 90er Jahre. Addison

Wesely, Bonn, 1994 [10]

Almesberger, W. / Le Boudec, J. / Oechslin, P.:

Request for Comments

2170 –Application REQuested IP over ATM (AREQUIPA), Juli 1997 [11]

B. J. Vickers, T. Suda: Connectionless Service for Public ATM Networks,

IEEE Communications Magazine, August 1993 [12]

B. Ramamurthy, J. Iness, B. Mukherjee:

Optimizing Amplifier Place-

ments in a Multiwavelength Optical LAN / MAN:

The Unequally Powered

Wavelengths Case, IEEE / ACM Transactions on Networking, Vol.6 . No.6, December 1998

210

Literaturverzeichnis

[13]

Bauschert T., J. Frings, R. Siebenhaar:

Networks Engineering for ATM

with Virtual Paths, EFOC & N ’94: Papers on ATM and Networks, S. 22-26, Heidelberg, 21-24 Juni 1994 [14]

Braden, R. (Ed.):

Request for Comments RFC 2205 - Resource ReSer-

Vation Protocol (RSVP) - Version 1 Functional Specification, September 1997 [15]

C. A. Fulton, S. -Q. Li:

Delay Jitter First - Order and Second – Order Sta-

tistical Functions of General Traffic on High – Speed Multimedia Networks, IEEE / ACM Transactions on Networking, Vol.6 . No.2, April 1998 [16]

C.F. Hemrick, L.J. Lang:

Introduction to switched Multi – Megabit Data

Service (SMDS), an early Broadband Service, Proceedings XIII. International Switching Symposiums, Stockholm, 27.05 – 01.06.1990, Vol. 2, S. 1 – 8 [17]

Chr. G. Cassandras:

Discrete Event Systems Modelling and Perform-

ance Analysis, Asked Associates Incorporated Publishers, Boston, MA, 1993 [18]

D. Anick, D. Mitra, M.M. Sondhi:

Stochastic Theory of a Data – handling

System with Multiple Sources. The Bell System technical Journal, Vol. 61, No. 8, S. 1871 – 1894. October 1982 [19]

D. D. Clark, W. Fang:

Explicit Allocation of Best – Effort Packet Delivery

Service, IEEE / ACM Transactions on Networking, Vol.6. No.4, December 1998 [20]

D. H. Lorenz, A. Orda:

QoS Routing in Networks with Uncertain Parame-

ters, IEEE / ACM Transactions on Networking, Vol. 6. No.6 December 1998 [21]

D. Mitra, J. A. Morrison:

Erlang Capacity and Uniform Approximation for

Shared Unbuffered Resource, IEEE / ACM Transactions on Networking, 2 Nr.6 S. 558 – 570, December 1994 [22]

D. Mitra, J. A. Morrison:

Erlang Capacity of a Shared Resource, The

Fundamental Role of Teletraffic in the Evolution of Telecommunications Networks – ITC – 14, J Labetoulle, J. W. Roberts ( Hrsg.), Elsevier Science B. V., S. 875 – 885, 1994 [23]

D. Stiliadis, A. Varma:

Efficient Fair Queueing Algorithms for Packet –

Switched Networks, IEEE / ACM Transactions on Networking, Vol. 6. No.2, April 1998 [24]

E. Hoffmann, A. Badach,. O. Knauer:

High Speed Internetworking:

Grundlagen, Kommunikationsstandards, Technologien der Shared und Switches LANs 211

Literaturverzeichnis

[25]

E. J. Messerli:

Poof of a Convexity Property of the Erlang B Formula,

Bell System Technical Journal, 51 – 4. S. 951 - , 1972 [26]

E. Valdimarsson:

Blocking in Multirate Networks, IEEE Infocom ’91, S.

579 –588, 1991 [27]

F. Kresse:

Token Ring Netzwerke. Hüthing Verlag, Heidelberg, 1994

[28]

Fiedler M., Voos H.:

Fluid flow-Modellierung von ATM-Multiplexern Ma-

thematische Grundlagen und numerische Lösungsmethoden, Herbert Utz Verlag, 31. August 1997 [29]

G. J. Armitage, K. M. Adams:

How Inefficient is IP over ATM Anyway,

IEEE Network, January / February 1995 [30]

G. Parulkar, D. Schmidt, E. Kraemer, J. Turner, A. Kantawala:

An Archi-

tecture for Monitoring, Visualization, and Control of Gigabit Networks, IEEE Network, September / October 1997 [31]

G. Siegmund:

ATM – Die Technik des Breitband- ISDN, Heidelberg ,

1994 [32]

H. Balakrishnan, V. -N. Padmanabhan, S. Seshan, R. –H. Katz:

A Com-

parison of Mechanisms for Improving TCP performance over Wireless Links, IEEE / ACM Transactions on Networking, Vol. 5 No. 6 December 1997 [33]

H. –G. Hegering, A. Läpple:

Ethernet. DATACOM- Verlag , Bergheim,

1992 [34]

H. Heffes:

D. M. Lucantioni A Markov Modulated Characterization of

Packetized Voice and Data Traffic Related Statistical Multiplexer Performance. IEEE Journal on Selected Areas in Communications, Vol. 4, No. 6 S. 856 – 868, September 1986 [35]

H. Kobayashi:

Modeling and Analysis: An Introduction to System Per-

formance Evolution Methodology, Addison – Wesely, 1981 [36]

H. Kröner:

Statistical Multiplexing of Sporadic Sources – Exact and Ap-

proximate Performance Analysis, Teletraffic and data Traffic in a Period of Change, Jensen and Ivers , S. 787 – 793, Elsevier, 1991 [37]

H. Ohnishi, T. Okada, K. Noguchi:

Flow control schemes and delay /

loss tradeoff in ATM networks , IEEE Journal on Selected Area in Communications vol 6, No. 3, 1988, S. 1609 – 1616

212

Literaturverzeichnis

[38]

H. Ohsaki, N. Wakamiya, M. Murata, H. Miyahara:

Performance of an

Input / Output Buffered – type ATM LAN Switch with Back – Pressure Function, IEEE / ACM Transactions on Networking, Vol.5 No.2, April 1997 [39]

Haßlinger G., Klein T.:

Breitband- ISDN und ATM- Netze, Teubner,

Stuttgart, 1999 [40]

Hayward, Ken:

LAN emulation over ATM, Canadian Journal of Electrical

and Computer Engineering, Vol 21, Nr. 3, Juli 1996, S.109-112 [41]

Hein M.:

VBay Networks ATM LAN Guide, FOSSIL-Verlag 1997

[42]

Hein, Mathias:

IPv6, Teil2 - Das neue Internet-Protokoll - Vom World-

Wide-Wait zum Highway, PC-Netze, 5 (1997), S.74-78 [43]

Heinanen, Juha:

Request For Comments RFC 1483 - Multiprotocol En-

capsulation over ATM Adaptation Layer 5, Juli 1993 [44]

Herrmann Ch.:

Stochastische Modelle für ATM- Konzepte, Augustinus-

Buchh., Aachen 1995 [45]

Huitema, Christian:

IPv6 - The New Internet Protocol, Second Edition,

Prentice Hall, 1998 [46]

I.Ide:

Superposition of Interrupted Poisson Processes and Its Applica-

tions to Packetizied Voice Multiplexes, Teletraffic Science for New Cost – Effective Systems, Networks and Services, ITC – 12 Elsevier Science Publishers B.V (North Holland), 1989 [47]

IEEE 802.10a:

IEEE Standard for Local and Metropolitan Area Net-

works: Supplement to Standard for Interoperable LAN/MAN Security (SILS) Security Architecture Framework, 1999 [48]

IEEE 802.11a:

Wireless LAN (WLAN) MAC and PHY specifications:

High Speed Physical Layer in the 5 GHz band (draft supplement to 802.111997), 1999 [49]

IEEE 802.11b:

Wireless LAN (WLAN) MAC and PHY specifications:

Higher speed Physical Layer (PHY) extension in the 2.4 GHz band, 1999 [50]

IEEE 802.2:

Logical Link Control. ANSI / IEEE Standard 802.2, 1990

[51]

IEEE 802.3:

Carrier Sense Multiple Access with Collision Detection

(CSMA/CD), Access Method and Physical Layer Specifications. ANSI / IEEE 802.3, 1990 [52]

IEEE 802.3ab:

Carrier Sense Multiple Access with Collision Detection

(CSMA/CD) Access Method and Physical Layer Specifications-Physical Layer 213

Literaturverzeichnis

Parameters and Specification-for 1000 Mb/s Operation over 4-pair of Category 5 Balanced Copper Cabling, Type 1000 BASE-T, 1999 [53]

IEEE 802.3c:

Repeater Unit for 10 Mbit /s Baseband Networks. Supple-

ment to ANSI / IEEE Standard 802.3, 1988 [54]

IEEE 802.3w:

Enhanced Media Access Control Algorithm for IEEE 802.3

Ethernet, February 1997 [55]

IEEE 802.4:

Token Passing Bus, Access Method and Physical Layer

Specification ANSI / IEEE Standard 802.4, 1990 [56]

IEEE 802.5:

Token Ring, Access Method and Physical Layer Specifica-

tions. IEEE Standard 802.5, 1998 [57]

IEEE 802.6:

Working Group: DQDB Metropolitan Area Network Draft D0

of Proposed Standard, June 1988 [58]

IEEE 802.6j:

Connection-Oriented Service on a DQDB Subnetwork of a

MAN, 1995 [59]

IEEE 802.9

ISLAN, ISLAN Interface at the MAC and PHY Layers, 1996

[60]

ITU-T Recommendation:

B-ISDN ATM Layer Specification, ITU-T Re-

commendations I. 363, ITU, Helsinki, Mars 1993 [61]

ITU-T Recommendation:

B-ISDN ATM Layer Cell Transfer

Performance, ITU-T Recommendations I. 356, ITU, November 1993 [62]

ITU-T Recommendation:

B-ISDN ATM Layer Functional Description,

ITU-T Recommendations I. 362, ITU, Helsinki, Mars 1993 [63]

ITU-T Recommendation:

B-ISDN ATM Layer Specification, ITU-T

Recommendations I. 361, ITU, Helsinki, Mars 1993 [64]

ITU-T Recommendation:

B-ISDN Asynchronous Transfer Mode

Functional Characteristics, ITU-T Recommendations I. 150 ITU, Helsinki, Mars [65]1993 J. L. Adams:

Virtual Path Identifier and its Applications for Routing and

Priority of Connectionless and Connection - Orientated Services. International Journal of digital and Analog Cabled Systems, Vol. 1, No. 4, S. 257 – 262, 1988 [66]

J. S. Turner, L. F. Wyatt:

A Packet Network Architecture for Integrated

Services, IEEE GLOBECOM ’93, S. 45 – 50 [67]

J.N. Daigle and J.D. Langford:

Models for analysis of packet voice

Communications systems, IEEE, J. Select Areas Communications, vol. SAC – 4, No. 6. S. 747 – 756, 1974 214

Literaturverzeichnis

[68]

J.O. Limb C. Flores:

Description of Fasnet – A Unidirectional Local Area

network Communications Network. The Bell System Technical Journal, Vol. 61,No. 7, S. 1413 – 1440, September 1982 [69]

JP.Quinquis, A Lespangol, J. Francois:

Data Services and LANs

Interconnection using ATM Technique, Proceedings XIII, International Switching Symposium, Stockholm, 27.05 – 01.06.1990, Vol.2 S. 9-14 [70]

K. M. Chan, T.S.P. Yum :

The Maximum Mean Time to Blocking Routing

in Circuit – Switched Networks, IEEE Journal on Selected Areas in Communications, 12, Nr. 2. S. 313-321, February 1994 [71]

K. M. Chan, T.S.P. Yum:

Analysis of Adaptive Routing Schemes in

Multirate Loss Networks, IEEE Globecom ’93, S 840-846, 1993 [72]

K. –O. Detken:

ATM in TCP /IP – Netzen: Grundlagen und Migration zu

High Speed Networks , Hüthig Verlag, Heidelberg 1998 [73]

Kaufman J. S.:

Blocking in a Shared Resource Environment, IEEE

Transactions on Communications, COM – 29 , Nr. 10, S. 1474 – 1481, October 1981 [74]

Kaufman J. S.:

Blocking with retrials in a completely Shared Resource

Environment, Performance Evaluation, 15, S. 99 – 113, 1992 [75]

Kelly P. B.:

Optimal Control and Trunk Reservation in Loss Networks,

Probability in the Engineering and Informational Sciences, 4 S. 203 – 242 Cambridge University Press, 1990 [76]

L. Kalampoukas, A. Varma:

Analysis of Source Policy and its Effects on

TCP in Rate – Controlled ATM Networks , IEEE / ACM Transactions on Networking, Vol.6 . No.5, October 1998 [77]

L. Kleinrock:

Queueing Systems, Volume II Computer Applications, New

York: John Wiley & Sons, 1976 [78]

L. Kleinrock:

Queueing Systems, Volume I Theory, New York: John

Wiley & Sons, 1975 [79]

L. Mongiovi, M. Farrell, V. Trecordi:

Proposal for Interconnecting FDDI

Networks Through B-ISDN. Proceedings of the 10th Joint Conference of the IEEE Computer and Communications Societies (Infocom), Paper 10B.4 Bal Harbour, Florida, USA April 1991

215

Literaturverzeichnis

[80]

M. Butto, E. Cavarello, A. Tonietti:

Effectives of the ‘Leaky Bucket’ Polic-

ing Mechanism in ATM Networks, IEEE J. Select Areas Communications, vol. SAC –9, no. 3, S. 335 – 350, 1991 [81]

M. Deprycker:

Asynchronous Transfer Mode, München 1996

[82]

M. Garela, T.-Y. Tai, J. A. S:

Monterio, G. Gallassi, Interconnecting

LANs and MANs to ATM, Proc. 16th Conf. On Local Computer Networks, Minneapolis, Minnesota, USA, ctober 1991 [83]

M. Gerla, T. – Y. tai, G. Gallassi:

LAN / MAN Interconnection to ATM: A

Simulation Study. Proceedings of the 11th Joint Conference of the IEEE Computer and Communications Societies (Infocom), Paper 10B.2, Florence, Italy, May 1992 [84]

M. Gerla, T. – Y. Tai, J. A. S. Monterio, G. Gallassi:

Interconnecting

LANs and MANs to ATM Proceedings of the 11th Joint Conference on Local Computer Networks, pp. 259 – 270, Minneapolis, Minnesota, USA, October 1991 [85]

M. Hurwitzes:

Preparing for Gigabit Ethernet, in : Byte, Heft 10, 1997, S.

63 - 72 [86]

M. Laubach:

Classical IP and ARP over ATM, Internet Engineering Task

Force ( IETF) RFC 1577, Jan. 1994 [87]

M. Lee, J. R. Yee:

A Design Algorithm for Reconfigurable ATM

Networks, IEEE Infocom ’93, S 144 – 151, 1993 [88]

M. Molle, G. Watson:

100BASE – T / IEEE 802.12 / Packet Switching,

IEEE Communication Magazine, Vol. 34, No. 8, S. 64 – 73, August 1996, [89]

M. Molle, R. M. Kalkunte, J. Kadambi:

Frame Burstig, A Technique for

Scaling CSMA/CD to Gigabit Speeds, IEE Network, Juli August 1997, S. 6 – 15 , [90]

M. Willebeek – LeMair, P. Shahabuddin:

Approximating Dependability

Measures of Computer Networks: AN FDDI Case Study, IEEE / ACM Transactions on Networking, Vol. 5. No.2 April 1997 [91]

N. Otha:

Packet Video Modeling and Signal Processing, Artech House,

Inc, Norwodd, MA, 1994 [92]

N. Yin, M. G. Hluchyj:

A Dynamic Rate Control Mechanism for Source

Coded Traffic in a Fast Packet Network, IEEE Jou. On Sel. Areas in Communications, Vol 9, No. 7, September 1991 216

Literaturverzeichnis

[93]

Nichols, Kathleen (Ed.) / Balek, Steven (Ed.):

Differentiated Services

Operational Model an Definitions, Internet-Draft IETF, Februar 1998 [94]

O. Kyas:

Fast Ethernet. DATACOM – Verlag, Bergheim, 1995

[95]

P. Crocetti, G. Gallassi, M. Gerla:

Bandwidth Adverting for MAN / ATM

Connectionless Internetting . Proceedings of the 10th Joint Conference of the IEEE Computer and Communications Societies (Infocom), Paper 10B.2 Bal Harbour Florida, USA, April 1991 [96]

P. Crocetti, G. Gallassi, M. Gerla:

Bandwidth Advertising for MAN / ATM

Connectionless Internetting, Proc. Infocom 91, Bal Harbour, Florida, USA, April 1991 [97]

P. Newman, G. Minshall, T. L. Lyon:

IP Switching – ATM Under IP, IEEE

/ ACM Transactions on Networking, Vol.6 . No.2, April 1998 [98]

P. Newman:

ATM Local Area Networks, IEEE Communications

Magazine, March 1994, S. 44-50 [99]

P. Siebenhaar:

Multiservice Call Blocking Approximations for Virtual

Path Based ATM Networks with CBR, VBR Traffic, IEEE Infocom ’95, S. 321 – 329, Boston, April 1995 [100] P. Tran – Gia, H. Ahmadi:

Analysis of a discrete–time G / D / 1 – S

queueing system with applications in packet–switching systems, in Proc. Infocom 88, New Orleans, LA, 1988 [101] P.E. Boyer and D. P. Tranchier:

A Resevation Principle with

Applications to the ATM Traffic Control, Computer Network and ISDN Systems, Vol 24, 1992, S. 321 – 334 [102] P.E. Boyer and D. P. Tranchier:

Specifications of the FRP / DT : The

ATM Layer, CENT Technical Report No. LAA / RSM / 190, April 1990 [103] P.G. James, G. H. Schulzrinne, J. D. Touch:

Report und Discussion on

the IEEE ComSoc TCGN Gigabit Networking Workshop 1995, July / August 1995, S. 9 – 21 [104] P.J. Kühn:

Wartezeitprobleme der Daten und Nachrichtenverkehrstheo-

rie. Vorlesung an der Universität Stuttgart, Stuttgart 1996 [105] R. C. F. Tucker:

Accurate Method for Analysis of a Packet – Speech

Multiplexer with Limited Delay, IEEE Transactions on Communications, Vol. 36, No. 4, April 1988

217

Literaturverzeichnis

[106] R. Cohen S. Ramanathan:

TCP for High Performance in Hybrid Fiber

Coaxial Broad – Band Access Networks, IEEE / ACM Transactions on Networking, Vol.6 . No.1, April 1998 [107] R. Händel, M. N. Huber:

Customer Network Configurations and Generic

Flow Control International Journal of Digital and Analog cabled System [108] R. Izmailov, D. –S. Lee, B. Sengupta:

Design and Analysis of a

Congestion – Free Overly on a High – Speed Network, IEEE / ACM Transactions on Networking, Vol. 5 No. 6 December 1997 [109] R. J. Gibbens, F. P. Kelly, S. R. E. Turner:

Dynamic Routing in

Multiparented Networks, IEEE / ACM Transaction on Networking, 1, Nr. 2 S 261 – 270, April 1993 [110] R. Jäger: Bandbreitkommunikation:

ATM, DQDB, Frame Relay, Bonn

1996 [111] R. Murali, B. L. Hughes:

Random Access with Large Propagation Delay,

IEEE / ACM Transactions on Networking, Vol. 5 No. 6 December 1997 [112] R. Siebenhaar:

Verkehrslenkung und Kapazitätsanpassung in ATM –

netzen mit virtuellen Pfaden, Herbert Utz Verlag, München 1996 [113] R. W. Gibson:

IEEE 802 Standard Efforts. Computer Networks and

ISDN System, Vol. 19, No. 2, S. 95 – 104, October 1990 [114] Rathgeb, Erwin / Wallmeier, Eugen:

ATM- Infrastruktur für die

Hochleistungskommunikation, Springer, Berlin, 1997, 535 S. [115] RFC2211:

Wroclawski, J.: Request for Comments RFC 2211 –

Specification of the Controlled-Loaded Network Element Service, September [116] 1997 RFC2212:

Shenker, S. / Partridge, C. : Request for Comments RFC

2212 – Specification of Guaranteed Quality of Service, September 1997 [117] RFC2215:

Shenker, S. / Wroclawski, J.: Request for Comments RFC

2215 – General Cha-rakterization Paramters for Integrated Service Network Elements, September 1997 [118] RFC2381:

Garret, Mark W. / Borden, M.: Request fo Comments RFC

2381 – Interoperation of Controlled-Load Service and Guaranteed Service with ATM, August 1998 [119] RFC2382:

Crawley, E. (Ed.): Request for Comments RFC 2382 - A

Framework for Integrated Services and RSVP over ATM, August 1998

218

Literaturverzeichnis

[120] S. P. Chung, A. Kashper, K.W. Ross :

Computing Approximate Blocking

Probabilities for Large Loss Networks with State – Dependent Routing, IEEE / ACM Transaction on Networking, 1, Nr.1, February 1993 [121] Scheller, M. Boden, K.-P. Geenen, A. Kampermann J.:

Internet:

Werkzeuge [122] T. Bauschert, J. Frings:

Optimal Resource Management in ATM

Transport Networks Supporting Multimedia Traffic, Multimedia: Advacend Teleservices and High Speed Communications Architectures, IWACA ’94, R. Steinmetz ( Hrsg), Springer – Verlag, S 203 – 215, 1994 [123] T. V.Lakshman, U. Madhow:

The Performance of TCP/IP for Networks

with High Bandwidth – Delay Products and Random Loss, IEEE / ACM Transactions on Networking, Vol. 5. No.3 June 1997 [124] V. Hayes:

The 802.11 Working Group , IEEE Network, S.7 – 8 ,March /

April 1998 [125] W. Fischer , E. – H. Göldner:

The Evolution from LAN / MAN to

Broadband ISDN. Procedings of the IEEE International Conference on Communications (ICC), Denver, Colorado, USA, June 1991 [126] W. Riggert:

ATM – Technik und Einführung, bhv Verlags GmbH Kaarst

1998 [127] W. Schödel, U. Briem, H. Kröner, TH. Theimer:

A Bandwidth Allocation

Mechanism for LAN / MAN Interworking with an ATM Network, IEEE Workshop on Metropolitan Area Networks, Taormina, Italy, May 1992 [128] W. Willinger, M. S. Taqqu, R. Sherman, D. V. Wilson:

Self – Similarity

Through High – Variability: Statistical Analysis of Ethernet LAN Traffic at the Level, IEEE / ACM Transactions on Networking, Vol. 5. No.1 February 1997 [129] Walke B. :

Mobilfunknetze und ihre Protokolle, 2 Bde., Bd.2, Bündelfunk,

schnurlose Telefonsysteme, W-ATM, HIPERLAN, Satellitenfunk, UPT, Teubner, Stuttgart, 1998 [130] Wissing H.:

Dynamisches Bandbreitmanagement am ATM-Netzzugang

für Burstartige, verzögerungstolerante Datenströme, Hagen 1995 [131] Wroclawski, J.:

Request for Comments RFC 2210 – The Use of RSVP

with IETF Integrated Services, September 1997 [132] ATM Forum:

http://www.atmforum.com

219

Literaturverzeichnis

[133] Vakil F.:

A Capacity Allocation Rule for ATM – Networks, IEEE Globe-

com, 1993 [134]

Kelly F.P.:

Tariffs and effective bandwidths in multiservice networks,

International teletraffic Congress ITC –14, 6-10. Juni 1994 [135] Kelly F.P.:

Effective Bandwidth at Multiclass Queues, Queueing

Systems, Nr. 9 1991

220

Anhang A

Anhang A a.1 OSI / ISO-Referenzmodell Um Kopplung und Datenaustausch von offenen Systemen, (Open System Interconnection)

zu

ermöglichen,

ist

von

der

Internationalen

Organisation

für

Standarisierung (ISO) ein Modell für offene Netzwerke definiert worden, das seine Gültigkeit sowohl im Bereich der LANs als auch im Bereich der WANs (Wide Area Network) gefunden hat. Das OSI Referenzmodel ist in sogenannten Schichten aufgebaut. Auf jeder Schicht sind entsprechende Funktionen (Protokolle) festgelegt, die auch die Funktionen der nächst tiefer gelegenen Schicht unterstützten. Es kann als ein hierarchisches Modell bezeichnet werden, da jede Schicht nur mit der unmittelbar darunter- und darüberliegenden Schicht verbunden ist. Eine Schicht N stellt einer darüberliegenden Schicht N+1 eine Dienstleistung zur Verfügungen und erwartet eine Dienstleistung von der darunterliegenden Schicht N-1. Das OSI Referenzmodel ist in Bild a.1 dargestellt.

Bild a.1: OSI Referenzmodell 221

Anhang A

Die Physikalische Schicht, die auch als Übertragungsschicht bezeichnet wird, hat die Aufgabe, die Übertragung des Bitstroms über ein Übertragungsmedium (Leitung) zwischen Knoten zu gewährleisten. Um das zu erreichen, müssen in der Physikalischen Schicht die mechanischen und elektrischen Hilfsmittel für eine Physikalische Verbindung festgelegt werden. In der Physikalischen Schicht sind auch die entsprechenden Signalisierungs- und Kodierverfahren definiert. Die Sicherungsschicht soll einen zuverlässigen Datenaustausch zwischen den Knoten gewährleisten. Im Bereich von LANs wird das durch die Überprüfung der korrekten Paketfolge und Behebung der Übertragungsfehler sowie durch eine Flusskontrolle, d.h. durch die Anpassung der Senderrate an die Empfängerrate, erreicht. Damit die Sicherungsschicht ihre Aufgabe besser erfüllen kann, ist sie in zwei Unterschichten unterteilt. Die LLC-Schicht (Logical Link Control), die für die Fehlererkennung und Flussregelung zuständig ist, sowie MAC (Media Access Control), die zuständig ist für die Zugangskontrolle. Die Netzwerkschicht ist für einen optimalen Datenaustausch innerhalb des Netzwerks zuständig, der je nach Struktur des Netzwerks sehr unterschiedlich sein kann. Im LAN Bereich sind innerhalb des Netzwerks Funktionen für Vermittlung, Verbindungsauf- und –abbau sowie Fehlererkennung vorgesehen. Die Netzwerkschicht stellt dabei die von der Transportschicht benötigen Funktionen bereit, wie Verbindungsaufbau zwischen zwei oder mehreren Knoten, Flusskontrolle, Empfangbestätigung und die Meldung von Fehlern, die innerhalb der Netzwerkschicht nicht zu beseitigen sind. Die Aufgabe der Transportschicht ist es, einen transparenten Datenaustausch zwischen den Knoten zu ermöglichen. Mit einem transparenten Datenaustausch ist gemeint, dass Nutzdaten ohne Einschränkung bezüglich Format, Kodierung und Inhalt übertragen werden. In der Transportschicht sind die angeforderten QoS Parameter beschrieben, die Kommunikationseigenschaften wie Zuverlässigkeit, Leistung

und

Sicherheit

gewährleisten.

Trennungslinie

zwischen

den

Die

Transportschicht

anwendungsorientierten

ist

Schichten

auch und

als den

transportorientierten Schichten (Bild 2.a ) zu sehen. Die Steuerungsschicht hat die Aufgabe, die Kommunikation zwischen den einzelnen Knoten insbesondere deren Synchronisation zu steuern. Sie ist auch für die Abwicklung der Kommunikation zwischen zwei Prozessen verantwortlich. Die Steuerungs222

Anhang A

schicht stellt der Darstellungsschicht die Funktionen, Auf- und Abbau einer Kommunikationssteuerung sowie deren Überwachung, Datenflusssteuerung und Dialogkontrolle zur Verfügung. Die Darstellungsschicht setzt die Form der Daten so um, dass sie von der Anwendungsschicht interpretiert werden können. Sie ist die einzige Schicht, die Daten verändert, aber nur syntaktisch, nicht in ihrer Bedeutung oder in ihren Wert. Die Anwendungsschicht ist eine Schnittstelle zum Anwendungsprogramm innerhalb des Netzwerks. Sie ist aus einer Reihe von Protokollen zusammengesetzt, die, entsprechend den wachsenden Anforderungen der Anwender, ständig erweitert werden. Sie verwaltet das Gesamtsystem

a.2 wichtigsten Standards und Übertragungsmedien in ATM-Netz

Standard

Bitrate

Medium

E1 (PDH)

2.048 Mbit / s

Kupferkabel

E3 (PDH)

34.368 Mbit / s

Kupferkabel

E4 (PDH)

139.264 MBit / s

Kupferkabel

DS1 (PDH) T1

1.544 MBit / s

Kupferkabel

DS2 (PDH) T2

6.312 MBit / s

Kupferkabel

DS3 (PDH) T3

44.736 Mbit /s

Kupferkabel

SDH / STM - 1

155.21 Mbit /s

Single Mode Glasfaser

SDH / STM – 4

622.08 Mbit / s

Single Mode Glasfaser

ATM- Forum TAXI

100 Mbit / s

Mono Mode Glasfaser

SDH

51.84 Mbit / s

UTP

SDH

155.210 Mbit / s

Mono Mode Glasfaser

SDH

155.210 MBit / s

STP

Bild: a.2 Die wichtigsten Standards und Übertragungsmedien in ATM-Netze

223

Anhang A

a.3 AAL Diensttyp 1 (AAL1) AAL1 ist für die Übertragung der Datenströme mit einer konstanten Quellbitrate (Constant Bit Rate-CBR) standardisiert, wie z. B. für isochrone Dienste, bei denen eine Taktrückgewinnung beim Empfänger bzw. eine Taktsynchronisation zwischen Empfänger und Sender erforderlich ist [61] [81] [114]. Die Zellen müssen beim Empfänger vollständig und in der gleichen Reihenfolge, wie sie erzeugt werden, eintreffen. Der AAL1 Diensttyp ermöglicht es auch, strukturierte und unstrukturierte Daten zu übertragen. Um das zu ermöglichen, muss/müssen noch ein bzw. zwei Byte für zusätzlich benötigte Steuerinformationen bereitgestellt werden. Das ist in Bild a.3 gezeigt.

Bild: a.3 Aufbau des AAL Diensttyps 1 (P-Format und Non-P-Format) - CSI (Convergence Sublayer Indication) hat die Aufgabe , strukturierte von unstrukturierten Daten zu unterscheiden und eine Takterzeugung im Empfänger zu ermöglichen. - SN (Sequence Number): Bevor die Zellen übertragen werden, müssen sie zuerst gezählt und die jeweilige Sequenznummer im SN-Feld abgelegt werden. Falls ein Fehler bzw. ein Zellverlust auftritt, wird er sofort erkannt und von der Benutzerebene an die Managementebene

224

Anhang A

gemeldet, damit diese die Verkehrsparameter (Traffic Parameter) erneut überprüfen kann. - CRC (Cyclic Redundancy Check): Um die vier ersten Bits vor Verfälschung zu schützen, werden die nächsten vier Bits (drei CRC-Bits und eine Parity–Bit) verwendet Die drei CRC Bits werden durch ein Generatorpolynom x 3 + x 2 + 1 gebildet und sind in der Lage, einen Fehler zu korrigieren. Wenn mehrere Fehler auftreten, werden sie erkannt aber nicht korrigiert. Parity Bit: Durch das Parity Bit kann der Empfänger im Fehlerfall entscheiden, ob die Verfälschung bei den SN - Bits oder bei den CRC-Bits stattgefunden hat. Bei unstrukturierten Daten werden die verbleibenden 47 Byte für Nutzdaten benutzt, die im sogenannten Non-P-Format übertragen werden. Bei strukturierten Daten wird noch ein Byte (1 Byte-Pointer) für Steuerinformationen verwendet, um strukturierte Daten von anderen Formaten unterscheiden zu können. Sie werden abwechselnd im P-Format (46 Byte Nutzdaten) und im Non-P-Format (47 Byte Nutzdaten) übertragen. Das erste Bit des Pointers ist für zukünftige Anwendungen reserviert. Die nächsten 7 Bit (Offset-Feld) enthalten die Anzahl der Byte zwischen dem Ende des Pointerfeldes und dem nächsten strukturierten Datenblock innerhalb der nächsten 93 Byte.

a.4 AAL Diensttyp 2 (AAL 2) Der AAL Diensttyp 2 (AAL 2) bietet eine variable Übertragung von Daten, die auch ursprünglich mit einer variablen Bitrate erzeugt wurden und bei denen ein Zeitbezug zwischen Quelle und Ziel erforderlich ist, (wie z.B. MPEG2 – codierte Videosignale, Multimedia–Anwendungen, HDTV). Eine detaillierte Spezifikation für AAL 2 ist von der ITU-T noch nicht abgeschlossen [61] [63] [114]. Dennoch ist es möglich, einige der Grundfunktionen zusammenzustellen. Außer der SAR-Funktion, die für das Segmentieren und Zusammensetzen verantwortlich ist, muss AAL 2 folgende Funktionen in der Zukunft zur Verfügung stellen: wie z.B. Verarbeitung der Zellverzögerung, die Rückgewinnung des Sendertakts im Empfänger, Erkennung der verlorenen 225

Anhang A

oder falsch eingefügten Zellen und wenn möglich auch eine Korrektur der Fehler. AAL 2 muss bei einer strukturierten Datenübertragung die Zurückgewinnung der Datenstruktur im Empfänger ermöglichen. Ein möglicher Aufbau des AAL Diensttyps 2 ist in Bild a.4 dargestellt. Das SN-Feld soll dieselbe Funktion wie bei AAL 1 haben (Abschnitt. a.3) Durch das Feld DT (Date Type) ist es möglich, den Beginn (BOM), die Dauer (COM) oder das Ende der Mitteilungen (EOM) zu erkennen. Das LI-Feld (LI-Bits) gibt eine Information über Füllbits, die im Nutzdatenfeld hinzugefügt werden, um Zellen konstanter Länge zu erhalten. Das CRC-Feld hat dieselbe Funktione wie bei AAL 1.

Bild: a.4 Ein möglicher Aufbau des AAL Diensttyps 2 (AAL 2)

a.5 AAL Diensttyp 3/4 (AAL 3/4) Der AAL Diensttyp 3/4 [1] [39] [64] ist für zwei verschiedene Verbindungsarten spezifiziert, die als verbindungsorientiert und verbindungslos bezeichnet werden. AAL 3/4 unterstützt gesicherte und ungesicherte Datenübertragung. Bei gesicherter Übertragung werden die Zellen wiederholt, falls ein Fehler aufgetreten ist. Im Gegensatz hierzu werden bei der ungesicherten Datenübertragung die fehlerhaften Zellen verworfen. AAL 3/4 unterstützt zwei unterschiedliche Betriebsarten. Zum einen den MessageModus, bei dem die AAL-SDU (Service Data Unit) einmal vollständig an die AAL übertragen wird und zum anderen den Streaming-Modus, bei dem die AAL-SDU in mehreren Teilen an die AAL übertragen wird. Der AAL 3/4 ist der einzige Diensttyp, der es ermöglicht, über eine ATM-Verbindung mehrere Verbindungen zu realisieren. Um diese Funktionen zu gewährleisten, ist die CS-Schicht bei AAL 3/4 in zwei weite-

226

Anhang A

re Schichten unterteilt, in die gemeinsame Konvergenzteilschicht (Common Part Convergence Sublayer-CPCS) und die anwendungsspezifische Konvergenzteilschicht (Service Specific Connection Protocol-SSCS). Der Aufbau eines AAL Diensttyps 3/4 ist in Bild a.5 dargestellt.

Bild: a.5 Aufbau AAL Diensttyp 3/4 - Durch die DT-Daten erfährt der

Empfänger, ob der Sender sich mit der

Übertragung am Anfang (Begin Of Message , DT = 10), in der Fortsetzung (Continuation Of Message DT = 00) oder am Ende (End Of Message DT = 01) einer Mitteilung befindet. Wenn es sich um einzelne Mitteilungen handelt, dann ist DT = 11 (Single Segment Message). - SN-Sequence Number . Die Zellen werden vor der Übertragung durchnummeriert, um einen Verlust im Empfänger zu identifizieren. Durch das Feld MID ermöglicht es AAL 3/4, mehrere AAL Verbindungen (Anwendungen) über dieselbe ATM-Verbindung zu realisieren. Die Verbindungen werden gemultiplext und durch das MID-Feld identifiziert. - Durch das LI-Feld kann der Empfänger feststellen, wie viel Bits im Sender hinzugefügt worden sind, um ein Feld mit 44 Byte Nutzdaten zu gewährleisten. - Durch das CRC-Prüfsummenfeld, das mit Hilfe des Generatorpolynoms

x 10 + x 9 + x 5 + x 4 + x + 1

gebildet wird, hat der Empfänger die Möglichkeit, bis zu

10 verfälschte Bits zu erkennen und zu korrigieren. PDU (Protocol Data Unit ) beschreibt die enthaltenen Nutzdaten. Das CPCS-PDU Feld enthält einen 4 Bytes umfassenden Header, die CPCS–PDU– Nutzdaten, die eine variable Länge von 1 bis 65535 Byte haben können und den CPCS–PDU–Trailer.

227

Anhang A

-Das Padding–Feld (PAD) wird als ein Füllfeld verwendet. Es kann bis zu 3 Bytes Länge haben, um die Gesamtbyteanzahl der beiden Felder CPCS-PDU-Nutzdaten und PAD auf ein ganzzahliges Vielfaches von 4 Bytes aufzufüllen. Die gesamte CPCS-PDU wird im Sender in Pakete von 44 Bytes zerlegt und zur SAR-Teilschicht übertragen, wo auch ein SAR-PDU–Header und ein SAR–PDUsTrailer hinzugefügt werden. Im Empfänger wird das ganze Verfahren in umgekehrtem Reihenfolge durchlaufen. Für eine verbindungslose Datenübertragung ist eine SSCS-Unterteilschicht nicht nötig. Sie wird nur dann erforderlich, wenn innerhalb der AAL-Schicht eine verbindungsorientierte Datenübertragung realisiert werden soll. Das ist in Bild a.6 dargestellt.

Bild: a.6 Aufteilung der Nutzdaten bei AAL 3/4 228

Anhang A

a.6 AAL Diensttyp 5 (AAL 5) Der AAL Diensttyp 5 stellt eine vereinfachte Version des AAL 3/4 Diensttyps dar. AAL 5 unterstützt die verbindungslose und verbindungsorientierte Datenübertragung, stellt aber keine zeitliche Korrelation zwischen Sender und Empfänger zur Verfügung. Die AAL5-Schicht ist in die SAR–Schicht und CS–Schicht geteilt (Bild a.7). Die CS-Schicht ist in zwei weitere Unterschichten unterteilt, CPCS und SSCP. In der SAR-Schicht werden nicht wie bei AAL 3/4 4 Byte pro SAR–PDU als zusätzliche Protokollfunktionen hinzugefügt, sondern die gesamten 48 Bytes stehen als Nutzdaten einer ATM-Zelle zur Verfügung.

Bild: a.7 Aufteilung der Nutzdaten bei AAL5 Im CPCS-UU Feld wird eine Benutzerinformation übertragen. Das CPI Feld enthält Informationen über die Einheit, in der die Angaben des Längenfelds übertragen werden. 229

Anhang A

Das Length Feld enthält Informationen über die Länge der CPCS-PDUs–Nutzdaten. Wenn das Feld den Wert Null enthält, bedeutet das, dass die Übertragung bzw. die Verbindung abbrechen muss.

230

Anhang B

Anhang B b.1 Grundlagen der Wahrscheinlichkeitstheorie Die zufälligen Ereignisse, die in Kommunikationssystemen auftreten, werden durch die Zufallgröße X beschrieben, die eine reelle Zahl darstellt und einen kontinuierlichen oder diskreten Wert annehmen kann. Falls X eine Zufallsvariable ist, dann wird die Verteilungsfunktion dieser Zufallvariablen durch Gleichung b.1 definiert [7] [78]. F(x ) = P(X ≤ x )

(b.1)

Die Verteilungsfunktion F(x) einer Zufallvariablen X stellt die Wahrscheinlichkeit dar, dass F(x) für jede reelle Zahl x, einen Wert X gibt, der kleiner oder gleich x ist. Die Verteilungsfunktion hat die Eigenschaft F (∞) = 1 . Falls die Verteilungsfunktion F(x) einer Zufallvariable X differenzierbar ist, dann wird die erste Ableitung mit f(x) bezeichnet

f (x) =

dF(x) dx

(b.2)

und stellt die Verteilungsdichtefunktion der Zufallgröße X dar. Wenn die Zufallvariable X diskrete Werte annimmt, dann wird die Verteilungsfunktion durch Gleichung b.3 definiert.

F(x ) =

∑ P(X = x ) = ∑ p(x ) i

xi ≤ x

xi ≤ x

i

(b.3)

Außer durch die Verteilungsfunktion und die Verteilungsdichtefunktion wird eine Zufallvariable X auch durch den Erwartungswert E(X), die Varianz Var(X) und den Variationskoeffizienten V(X) charakterisiert. Der Erwartungswert einer kontinuierlichen Zufallsgröße X wird durch Gleichung b.4 beschrieben E(x ) =

+∞

∫ xf (x) dx

−∞

231

(b.4)

Anhang B +∞

∫ x f(x) dx < ∞

wobei

(b.5)

−∞

Oft wird auch ein sogenanntes Moment der Ordnung i verwendet, das durch folgende Gleichung b.6 definiert wird

mi = E(X i ) =

+∞

∫ x f (x)dx i

(b.6)

−∞

Für diskrete Zufallsgrößen wird der Erwartung durch Gleichung b.7 definiert. ∞

E(x ) = ∑ p i x i

(b.7)

i=0



∑p

mit

i=0

i

xi < ∞

(b.8)

Um eine klare Vorstellung für die Streuung einer Zufallvariable X zu bekommen, wird die Varianz Var(X) definiert, die die quadratische Abweichung der Zufallvariablen X vom Erwartungswert E(x) darstellt. Die Varianz Var(X) einer kontinuierlichen Zufallsvariablen X mit dem Erwartungswert E(X) wird durch Gleichung b.9 definiert.

Var (X ) =

+∞

∫ (x − E(X))

2

f (x )dx = E(X − E(X )) 2

(b.9)

−∞

Für diskrete Zufallsvariable wird die Varianz durch Gleichung b.10 definiert. ∞

Var (X ) = ∑ pi (x i − E(X )) 2 = E(X − E(X )) 2

(b.10)

i= 0

Der Variationskoeffizient einer Zufallvariable X mit der Varianz Var(X) und Erwartungswert E(X) wird durch die Gleichung b.11 definiert.

232

dem

Anhang B

V(X) =

Var (X ) E(X )

(b.11)

b.2 Wichtige stochastische Prozesse In diesem Abschnitt werden kurz die wichtigsten Verteilungen erläutert, die während der Beschreibung und Analyse der ATM- und LAN-Netzmodelle und deren Kopplungseinheit verwendet werden. Sie werden auch im Simulationsprogramm verwendet, um die Leistungsparameter der Kopplungseinheit zwischen LAN und ATM-Netzen zu untersuchen [7] [44] [46] [104]. Während der Erklärungen der wichtigsten Verteilungen und der späteren Analyse werden sehr oft Verteilungen und stochastische Prozesse verwendet, die Eigenschaften des Markoff–Prozesses besitzen. Prozesse mit Markoff-Eigenschaften sind Prozesse, bei denen die zukünftige Entwicklung nur vom gegenwärtigen Zustand des Prozesses abhängt und nicht von der vorherigen Entwicklung. Man kann die stochastischen Prozesse mit Markoff–Eigenschaften mathematisch so formulieren. P{X(t i+1 ) = x i+1 X(t i ) = x i ,...., X(t 0 ) = t 0

} = P{X(t i+1 ) = x i+1 X(t i ) = x n }

für alle t 0 < t 1 < ... < t i < t i+1

(b.12)

b.2.1 Poisson Prozess Ein Ankunftsprozess mit negativ-exponentiell verteilten Zwischenankunftsabständen wird als Poisson-Prozess bezeichnet [7] [39] [104]. Ein Poisson-Prozess ist der einzige zeitkontinuierliche Prozess, der die Markoff– Eigenschaften besitzt, und ist einer der wichtigsten Verteilungen für Verkehrsmodellierung in Telekommunikationssystemen. Durch den Poisson-Prozess kann man sehr gut die Ankunftsprozesse beschreiben. Die Modellierung der von Arbeitsplätzen erzeugten LAN– Pakete durch einen Poisson-Prozess stellt eine gute Näherung des

233

Anhang B

realen Prozesses dar, was in dieser Arbeit auch verwendet wird. Für die so modellierten Prozesse kann eine mathematische Analyse durchgeführt werden. Diese negativ-exponentielle Verteilung hat folgende Größen

Verteilungsfunktion

F(t ) = 1 − e − λt

(b.13)

Verteilungsdichtfunktion

f ( t ) = λ e - λt

(b.14)

Erwartungswert

E(X) = λ

(b.15)

Variationskoeffizient

V (X) = 1

(b.16)

Der Parameter λ wird als mittlere Ankunftsrate bezeichnet und stellt die mittlere Anzahl an Ereignissen (LAN-Pakete) pro Zeiteinheit dar.

b.2.2 Geometrische Verteilung Die geometrische Verteilung kann man als zeitdiskrete Variante eines Markoff– Prozesses bezeichnen, vergleichbar mit der negativ-exponentielle Verteilung bei zeitkontinuierlichen Prozessen [7] [44]. Die geometrische Verteilung ist eine gute Näherung, die Ankunftsprozesse der Zellen zu modellieren. Wenn die Ankunftsprozesse des ATM-Zellenstroms durch eine geometrische Verteilung modelliert werden, dann bezeichnet pi die Wahrscheinlichkeit, dass nach „i“ Zeitscheiben eine ATM-Zelle angekommen ist und in den vorangegangene „i-1“ Zeitscheiben keine Belegung durch ATM-Zellen stattgefunden hat. Es gilt Die Verteilungsfunktion

p i = q(1 − q)

Erwartungswert

E(X) =

Variationskoeffizient

V(X) = 1 − q

i −1

0 ≤ q ≤ 1; i = 1,2,...

1 q

(b.17) (b.18) (b.19)

234

Anhang B

b.2.3 Bernoulli-Verteilung Prozesse, die auf einer um eine Zeiteinheit verschobenen geometrische Verteilung basieren, werden als Bernoulli Prozess bezeichnet [7] [104]. Die Bernoulli-Verteilung besitzt auch die Eigenschaft, gedächtnislos zu sein und ist sehr gut geeignet, die Ankunftswahrscheinlichkeit und die Belegungswahrscheinlichkeit einer Zelle in einem Zeitschlitz zu beschreiben. Durch die Bernoulli-Verteilung kann man zwei Ereignisse darstellen, falls die Belegung der Zeitschlitze mit einer Zelle

durch

die

Wahrscheinlichkeit

q

und

die

„nicht–Belegung“

mit

der

Wahrscheinlichkeit 1 - q bezeichnet wird.

für i = 0 für i = 1

Verteilungsfunktion

q pi =   1− q

Erwartungswert

E(X) = 1 − q

Variationskoeffizient

V (X ) =

0≤q≤1

(b.20) (b.21)

q 1- q

(b.22)

b.2.4 Hypergeometrische Verteilung Die hypergeometrische Verteilung ist eine diskrete Verteilung, durch die man die Spitzenzellrate des ATM-Zellenstroms modellieren kann. Das ist möglich, da durch entsprechend gewählte Parameter Variationskoeffizienten erzeugt werden können, die größer als 1 sind. Auch Ankunftsprozesse mit einem variablen Angebot (im diesem Fall bleibt der Variationskoeffizient konstant) können durch die hypergeometrische Verteilung gut modelliert werden. Die hypergeometrische Verteilung enthält zwei geometrische Verteilungen, die durch die

Wahrscheinlichkeiten

q1 und

q2

bezeichnet

werden.

Die

sogenannte

Verzweigungswahrscheinlichkeit zwischen den beiden geometrischen Verteilungen wird durch die Wahrscheinlichkeit z beschrieben. Die Geometrische Verteilung hat folgenden Größen

235

Anhang B

Verteilungsfunktion p i = z q1 (1 - q1 ) − + (1 − z )q 2 (1 − q 2 ) − 0 ≤ q1 , q2 , z ≤ 1 (b.23) i −1

i −1

z 1− z + q1 q2

Erwartungswert

E( X ) =

Variationskoeffizient

 2z 2(1 − z ) 1 1   − V (X ) = E(X )  2 + − 2 E(X ) E(X ) 2  q2  q1

(b.24)

(b.25)

b.2.5 Deterministische Verteilung Wenn Ankunftsprozesse mit einem konstanten Zwischenabstand auftreten, oder wenn die Bedienzeit eine konstante Größe in der Modellierungseinheit darstellt, dann werden die Prozesse durch eine deterministische Verteilung modelliert. Die Deterministische Verteilung wird im ATM-Netz verwendet, um eine konstante Bitrate (CBR) zu modellieren [7] [112]. Die wichtigste Größe bei der deterministischen Verteilung ist die konstante Bedienrate, die durch µ beschrieben wird, was der Zeit entspricht, ein LAN-Paket zu bedienen (bearbeiten) oder der Zeit, in der ein Zeitschlitz mit einer ATM-Zelle belegt wird.

Die Verteilungsfunktion

p i = δ(i −

1 ) µ

i = 0,1,2,...

(b.26)

1  0 für i ≠ µ pi =  1 1 für i =  µ

(b.27)

Erwartungswert

E(X ) =

1 µ

(b.28)

Variationskoeffizienten

V(X) = 0

(b.29)

236

Anhang B

b.2.6 Binomialverteilung Die Binomialverteilung ist eine diskrete Verteilung, die als eine Überlagerung von statistisch unabhängigen geometrischen Verteilungen angesehen werden kann. Eine Binomialverteilung p(n,i,q) gibt demnach die zufällige Anzahl von Erfolgen in einer Serie von „n“ unabhängigen Versuchen an, wenn sich bei einem Einzelversuch der Erfolg mit der Wahrscheinlichkeit „q“ einstellt [7].

Verteilungsfunktion

n n−i p i =   qi (1 - q) 0 ≤ p ≤ 1 und i = 1,2,...., n (b.30) i

Erwartungswert

E(X ) = n q

Variationskoeffizient

V(X ) =

(b.31)

1− q nq

(b.32)

Die Wahrscheinlichkeit pi zeigt, dass „i“ Zeitscheiben mit der Wahrscheinlichkeit q mit Nutzzellen belegt werden. Die anderen „n - i“ Zeitscheiben werden mit der Wahrscheinlichkeit 1 - q nicht belegt und werden als Leerzellen bezeichnet. Die Binomialverteilung wird verwendet, um den geglätteten Verkehr (smoothed traffic) nachzubilden, da der Variationskoeffizient (Gleichung b.32) nur kleiner oder gleich eins werden kann. V(X) ≤ 1 Die Binomialverteilung geht in eine Poisson-Verteilung über, falls

n → ∞ , q → 0 und n q = const = λ

237

(b.33)

Suggest Documents