Forum

Einloggen | Registrieren | RSS  

mzx3001(R)

18.04.2018,
13:19
 

Erklärung der Mindestgröße eines Ethernet-Frames (Netzwerktechnik)

Hallo zusammen,

als Neuling in diesem Thema bin ich dankbar, dass ich ein Forum zum Thema Netzwerktechnik gefunden habe und vielleicht hier in Zukunft ein paar Antworten rund ums Thema NW-technik bekomme.
Ich bereite mich anhand eines vorgegebenen Lehrplans derzeit auf ein Fernstudium zum Netzwerktechniker LAN vor und bin gerade beim Thema Ethernet-Frame CSMA/CD-Verfahren.
Hierzu stellte ich mir die Frage, warum der Ethrnet-Frame mindestens 64 byte groß sein sollte. Als Begründung fand ich heraus, dass bei Unterschreitung des Grenzwertes sog ." late collisions" auftreten können.
Könnte mir jemand das an einem Beispiel erklären ?
Was würde schief laufen, wenn Station A einen Frame < 64 Byte an Station B senden würde ?

Herzlichen Dank für die Hilfe !

el-haber

18.04.2018,
14:09

@ mzx3001

Erklärung der Mindestgröße eines Ethernet-Frames

Hi,
schau dir mal die maximale Länge eines Segmentes an - z.B. 124m Cu bei CAT5
darüber kannst du die Laufzeit eines Impulses bei 75% Lichtgeschwindigkeit ausrechen.
dann die mögliche Übertragungsfrequenz und Schrittrate
- bei 100MB = 160MHz
- bei 1Gbit = ca. 1,6GHz (ohne QUAM)

das bedeutet, dass der Frame so lang sein muss, dass das Echo einer anderen Station vom anderen Ende, diesen stören (collison) kann.

cu
st

mzx3001(R)

18.04.2018,
15:24

@ el-haber

Erklärung der Mindestgröße eines Ethernet-Frames

Ok, ist folgende Denkweise richtig:

Angenommen: 10 Mbit/s, 64 byte --> Übertragungszeit von 51,2µs
Die beiden Stationen haben den größtmöglichen Abstand zueinander.

Nun nehme ich das gleiche System, aber einen kleineren Mindestrahmen an, 50 byte --> Übertragungszeit von 40 µs.
Nehmen wir an, PC 1 stellt fest, dass das Medium frei ist und beginnt seinen Sendevorgang. Die Information wird fast mit Lichtgeschwindigkeit übertragen.
Die Zeit, die das Signal maximal benötigen darf, um die größtmöglichen Abstand zu überbrücken, sei tmax, die maximale Signalaufzeit.
Nach Ablauf der 40 µs ist das Paket von PC 1 aber noch nicht bei PC2 angekommen, dennoch meint PC1 sein Paket sei erfolgreich übertragen worden.
Aber auch PC 2 stellt nun fest, dass das Medium frei ist und möchte etwas senden. Just in diesem
Moment erreicht das Signal von PC 1 das Signal von PC 2 und kollidiert mit diesem. Die Interferenz beider Signale führt zu einer Spannungsüberhöhung, die als Kollision gewertet wird.
PC 2 stellt daraufhin sofort seine Übertragung ein. Da PC 2 eine Kollision festgestellt hat, beginnt die ser mit dem Senden des JAM-Signals.
Die Spannungsüberhöhung und das JAM-Signal benötigen nun ebenfalls tmax, um bei PC 1 anzukommen.
Da PC 1 lediglich währendseines Sendevorgangs auf eine Kollision achtet, muss das Kollisionssignal also vor Abschluss des Sendevorganges bei PC 1 eintreffen.

Korrekt ?


» Hi,
» schau dir mal die maximale Länge eines Segmentes an - z.B. 124m Cu bei
» CAT5
» darüber kannst du die Laufzeit eines Impulses bei 75% Lichtgeschwindigkeit
» ausrechen.
» dann die mögliche Übertragungsfrequenz und Schrittrate
» - bei 100MB = 160MHz
» - bei 1Gbit = ca. 1,6GHz (ohne QUAM)
»
» das bedeutet, dass der Frame so lang sein muss, dass das Echo einer anderen
» Station vom anderen Ende, diesen stören (collison) kann.
»
» cu
» st