GLOSSAR // J

Jitter

Jitter (engl. „zittern“) beschreibt das schnelle, nahezu wahllose Schwanken eines (digitalen oder analogen) Signals um einen Referenzzeitpunkt des idealen Clocksignals. In der Regel haben technische Geräte hierfür eine sogenannte Jitter-Korrektur eingebaut, die dies in gewissen Grenzen ausgleichen kann. Wird die Schwankung zu groß, kann sich das daher in eine Störung oder gar Komplettausfall einer Signalübertragung äußern. Jitter ist, wenn die Schwankungen nicht zu groß sind, bei rein digitaler Übertragung quasi unerheblich, jedoch hat es enorme Einflüsse auf den Klang bei A/D- und D/A-Wandlern. Dort zeichnen sich kleinere Schwankungen des Jitter-Signals als Frequenzmodulation des Signals aus, und resultieren in nicht-harmonischen Verzerrungen, Anhebung des Grundrauschens, Verschlechterung der Ortung, Präzisionsverlust der Transienten und einer allgemeinen Rauigkeit.

Für die Größe der Schwankungen gibt es zwei unterschiedliche Arten, sie zu erfassen: Peak-to-Peak, also die absolut größte auftretende Schwankung im Zeitbereich, oder als RMS-Wert, was eine zeitliche Mittelung darstellt und somit eine Art Durchschnittswert liefert. In allen Fällen sollte der Jitter im einstelligen Nanosekunden-Bereich liegen, um allzu große Verzerrungen, Ausfälle und ein akzeptables S/N des Audiosignals zu vermeiden. Eine andere Art des Jitters ist dabei das sogenannte „MIDI Jitter“, welches bei der Wiedergabe von MIDI Signalen aus Rechnerarchitekturen mit Buffersystem (z.B. einer DAW) auftritt und die schwankende Latenz des ausgegebenen MIDI Signals beschreibt, wenn der Onset des Signals zeitlich ungünstig zum Leeren des Audiobuffers passiert. Die Latenz schwankt dabei zwischen einer und zwei Buffergrößen.

zurück zur Gesamtübersicht