Zum Inhalt springen

Laufzeittoleranzrechnung

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 18. Dezember 2006 um 21:11 Uhr durch 84.60.242.146 (Diskussion) (Ein Füllwort beseitigt.). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Laufzeittoleranzrechnung befasst sich mit der Berechnung von Signallaufzeiten in Netzwerken mit Bauteilen (Gatter), die bestimmte Laufzeiten haben. Von Interesse sind dabei die minimal und maximal möglichen Gesamtlaufzeiten durch das Netzwerk. Das Netzwerk muss so abgestimmt werden, dass beide Fälle zum gleichen Ergebnis führen. Anschaulich beschrieben bremsen langsame Bauteile das gesamte Netzwerk, weil schnellere Bauteile ggf. warten müssen.

Die Methoden der Laufzeittoleranzrechnng finden in verschiedenen Gebieten der Elektro- und Digitaltechnik ihre Anwendung.



Reihenschaltung zweier Gatter

Minimale Laufzeit durch beide Gatter:

t1,min + t2,min

Maximale Laufzeit durch beide Gatter:

t1,max + t2,max


(Mit tx,min/max: Minimale/maximale Laufzeit von Gatter x)


Parallelschaltung zweier Gatter

Angenommen, der Eingang beider Gatter liegt an derselben Leitung. Doch wegen der Laufzeitunterschiede der Gatter kommen die Signale zeitverzögert an den Ausgängen an. Mit folgenden Formeln berechnet man den minimalen/maximalen Zeitunterschied zwischen den beiden Ausgangssignalen:

t1,max - t2,min

t1,min - t2,max


(Mit tx,min/max: Minimale/maximale Laufzeit von Gatter x)