„Linear Predictive Coding“ – Versionsunterschied
[gesichtete Version] | [gesichtete Version] |
Asdert (Diskussion | Beiträge) K Dopplung entfernt |
Keine Bearbeitungszusammenfassung |
||
Zeile 3: | Zeile 3: | ||
Das Modell des Stimmtraktes besteht oft aus einem [[Signalgenerator|Schwingungsgenerator]], um die [[Stimmbänder]] bzw. den Kehlkopf nachzubilden, und einer einfachen Röhre als Repräsentation des nachgelagerten [[Vokaltrakt]]s bzw. Artikulationsraums ([[Rachen]], Mundraum). Der Schwingungsgenerator erzeugt eine regelmäßige Schwingung, die in ihrer Lautstärke und Tonhöhe [[Modulation (Technik)|moduliert]] werden kann. Die Röhre stellt den [[Resonanzraum]] von Rachen und Mundraum dar und dient im Falle einfacher Vokale üblicherweise als hinreichende Repräsentation, wogegen die Darstellung von Nasallauten Abzweigungen von der Röhre ([[Nasenhöhle]]) erfordern würden, die mathematisch weitaus aufwändiger darzustellen wären. Daher werden diese Klanganteile teils verworfen und teils mit Hilfe eines Restsignales beschrieben.<ref>[http://otolith.com/otolith/olt/lpc.html otolith.com]</ref> |
Das Modell des Stimmtraktes besteht oft aus einem [[Signalgenerator|Schwingungsgenerator]], um die [[Stimmbänder]] bzw. den Kehlkopf nachzubilden, und einer einfachen Röhre als Repräsentation des nachgelagerten [[Vokaltrakt]]s bzw. Artikulationsraums ([[Rachen]], Mundraum). Der Schwingungsgenerator erzeugt eine regelmäßige Schwingung, die in ihrer Lautstärke und Tonhöhe [[Modulation (Technik)|moduliert]] werden kann. Die Röhre stellt den [[Resonanzraum]] von Rachen und Mundraum dar und dient im Falle einfacher Vokale üblicherweise als hinreichende Repräsentation, wogegen die Darstellung von Nasallauten Abzweigungen von der Röhre ([[Nasenhöhle]]) erfordern würden, die mathematisch weitaus aufwändiger darzustellen wären. Daher werden diese Klanganteile teils verworfen und teils mit Hilfe eines Restsignales beschrieben.<ref>[http://otolith.com/otolith/olt/lpc.html otolith.com]</ref> |
||
Ein bekanntes Beispiel für die Nutzung von LPC für Audiodatenkompression ist [[Code Excited Linear Prediction|CELP]], welches das Restsignal mittels [[Codebuch|Codebüchern]] komprimiert. Das standardisierte Verfahren ''LPC-10e'' arbeitet ohne Codebücher und führt zu einer geringeren Bitrate auf Kosten |
Ein bekanntes Beispiel für die Nutzung von LPC für Audiodatenkompression ist [[Code Excited Linear Prediction|CELP]], welches das Restsignal mittels [[Codebuch|Codebüchern]] komprimiert. Das standardisierte Verfahren ''LPC-10e'' arbeitet ohne Codebücher und führt zu einer geringeren Bitrate auf Kosten der Klangqualität. |
||
== Siehe auch == |
== Siehe auch == |
Version vom 23. März 2017, 17:34 Uhr
Linear Predictive Coding (LPC) ist ein Verfahren der Audiosignal- und Sprachverarbeitung, das unter anderem für die Audiodatenkompression und Spracherkennung verwendet wird. Dabei wird ein vereinfachtes Modell des menschlichen Stimmtrakts gebildet, mit dem die Sprache synthetisiert werden kann. Damit kann ein Sprachsignal nur durch die Modellparameter und Erregungsmuster beschrieben werden. Im Vergleich zur PCM-Repräsentation fallen dabei erheblich weniger Daten an. Üblicherweise wird dazu noch ein zusätzliches Fehlersignal übertragen, das die Differenz zwischen Modellvorhersage und Originalsignal beschreibt.
Das Modell des Stimmtraktes besteht oft aus einem Schwingungsgenerator, um die Stimmbänder bzw. den Kehlkopf nachzubilden, und einer einfachen Röhre als Repräsentation des nachgelagerten Vokaltrakts bzw. Artikulationsraums (Rachen, Mundraum). Der Schwingungsgenerator erzeugt eine regelmäßige Schwingung, die in ihrer Lautstärke und Tonhöhe moduliert werden kann. Die Röhre stellt den Resonanzraum von Rachen und Mundraum dar und dient im Falle einfacher Vokale üblicherweise als hinreichende Repräsentation, wogegen die Darstellung von Nasallauten Abzweigungen von der Röhre (Nasenhöhle) erfordern würden, die mathematisch weitaus aufwändiger darzustellen wären. Daher werden diese Klanganteile teils verworfen und teils mit Hilfe eines Restsignales beschrieben.[1]
Ein bekanntes Beispiel für die Nutzung von LPC für Audiodatenkompression ist CELP, welches das Restsignal mittels Codebüchern komprimiert. Das standardisierte Verfahren LPC-10e arbeitet ohne Codebücher und führt zu einer geringeren Bitrate auf Kosten der Klangqualität.
Siehe auch
Weblinks
- Real-time LPC analysis/synthesis learning software princeton.edu (englisch)
- HawkVoice Open-source LPC software and API (englisch)
- Robert M. Gray: Distinguished Lecturer Program. IEEE Signal Processing Society (englisch)