„Unified Speech and Audio Coding“ – Versionsunterschied
[gesichtete Version] | [gesichtete Version] |
K verschob „Benutzer:Flugaal/Unified Speech and Audio Coding“ nach „Unified Speech and Audio Coding“ |
Keine Bearbeitungszusammenfassung |
||
Zeile 1: | Zeile 1: | ||
'''Unified Speech and Audio Coding''' (USAC) ist ein [[Audiodatenkompression]]sformat und [[Codec]] für sowohl Musik und Sprache oder |
'''Unified Speech and Audio Coding''' ('''USAC''') ist ein [[Audiodatenkompression]]sformat und [[Codec]] für sowohl Musik und Sprache oder gemischte Signale unter Verwendung sehr niedriger Bitraten zwischen 12 und 64 kbit/s.<ref>{{cite web |url=http://www.iis.fraunhofer.de/en/bf/amm/forschundentw/forschaudiomulti/usac/index.jsp |title=Unified Speech and Audio Coding |author=Fraunhofer Institute for Integrated Circuits |accessdate=2011-07-18}}</ref> Es ist derzeit unter Entwicklung in der [[Moving Picture Experts Group|MPEG]] und wird als ein internationaler Standard [[International Organization for Standardization|ISO]]/[[International Electrotechnical Commission|IEC]] 23003-3 (auch bekannt als [[MPEG-D]] Part 3)<ref>{{cite web |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=57464|title=ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding |date=2011-02-15 | accessdate=2011-07-18}}</ref> und auch als ein [[MPEG-4-Audio]]-Objekttyp in ISO/IEC 14496-3:2009/Amd 3 definiert.<ref>{{cite web |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=59635 |title=ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC) |date=2011-06-30 | accessdate=2011-07-18}}</ref> |
||
Es verwendet lineare Vorhersage in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals ([[Algebraic Code Excited Linear Prediction|ACELP]]-ähnliche Techniken) für Sprachsignal-Abschnitte und [[Transformationskodierung]]swerkzeuge ([[Modifizierte diskrete Kosinustransformation|MDCT]]-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. |
Es verwendet [[lineare Vorhersage]] in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals ([[Algebraic Code Excited Linear Prediction|ACELP]]-ähnliche Techniken) für Sprachsignal-Abschnitte und [[Transformationskodierung]]swerkzeuge ([[Modifizierte diskrete Kosinustransformation|MDCT]]-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. Unter den Zielsetzungen für die Entwicklung sind unter anderem Leistungssteigerungen gegenüber [[MPEG-4 High Efficiency Advanced Audio Coding#AAC+ v2|HE-AACv2]] und [[Adaptive Multi-Rate Wideband|AMR-WB]]+ als spezialisiertem Format für Sprachsignale. Verbesserte Varianten der MPEG-4-[[Spektralbandreplikation]] (SBR) und Techniken zur [[parametrische Audiokodierung|parametrischen Audiokodierung]] aus MPEG-D [[MPEG Surround]] sind in den USAC-Codec integriert.<ref>{{cite web |url=http://mpeg.chiariglione.org/workplan.htm#_Toc288682500 |title=Work Plan and Time Line |author=MPEG |accessdate=2011-07-18}}</ref><ref>{{cite web |url=http://mpeg.chiariglione.org/technologies/mpeg-d/mpd-usac/refsoft.htm |title=Unified Speech and Audio Coder Common Encoder Reference Software |year=2011 |month=March |accessdate=2011-07-18}}</ref> |
||
== Geschichte == |
|||
Der Standardisierungsprozess begann im Oktober 2007 mit dem Aufruf zur Einreichung von Vorschlägen auf dem 82. Treffen der MPEG. Für die Entwicklung des Standards wurde ein Vorschlag vom [[Fraunhofer-Institut für Integrierte Schaltungen]] und der VoiceAge Corporation (siehe ACELP) als Basis genommen. Auf diesen Vorschlag, das sogenannte „Reference Model 0 (RM0)“ legte man sich nach einer Testphase beim 85. MPEG-Treffen im Juli 2008 fest.<ref>{{Internetquelle |
|||
|hrsg = Fraunhofer-Institut für Integrierte Schaltungen IIS |
|||
|titel = Unified Speech and Audio Coding |
|||
|url = http://www.iis.fraunhofer.de/bf/amm/forschundentw/forschaudiomulti/usac/ |
|||
|werk = Website der Fraunhofer-Gesellschaft |
|||
|zugriff = 2012-01-15 |
|||
}}</ref> Bei dem 86. Treffen im Oktober wurde die Erstellung eines Referenz-Encoders vorgeschlagen und vereinbart.<ref>http://see.xidian.edu.cn/conference/mpegjpeg/workshop/PPT/Xieminjie.pdf</ref> |
|||
== Siehe auch == |
== Siehe auch == |
||
[[Opus (Audioformat)]] |
* [[Opus (Audioformat)]], ein alternativer, latenzarmer Codec ohne Patentrestriktionen für ähnliche Anwendungen |
||
== Quellen == |
== Quellen == |
Version vom 15. Januar 2012, 19:22 Uhr
Unified Speech and Audio Coding (USAC) ist ein Audiodatenkompressionsformat und Codec für sowohl Musik und Sprache oder gemischte Signale unter Verwendung sehr niedriger Bitraten zwischen 12 und 64 kbit/s.[1] Es ist derzeit unter Entwicklung in der MPEG und wird als ein internationaler Standard ISO/IEC 23003-3 (auch bekannt als MPEG-D Part 3)[2] und auch als ein MPEG-4-Audio-Objekttyp in ISO/IEC 14496-3:2009/Amd 3 definiert.[3]
Es verwendet lineare Vorhersage in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals (ACELP-ähnliche Techniken) für Sprachsignal-Abschnitte und Transformationskodierungswerkzeuge (MDCT-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. Unter den Zielsetzungen für die Entwicklung sind unter anderem Leistungssteigerungen gegenüber HE-AACv2 und AMR-WB+ als spezialisiertem Format für Sprachsignale. Verbesserte Varianten der MPEG-4-Spektralbandreplikation (SBR) und Techniken zur parametrischen Audiokodierung aus MPEG-D MPEG Surround sind in den USAC-Codec integriert.[4][5]
Geschichte
Der Standardisierungsprozess begann im Oktober 2007 mit dem Aufruf zur Einreichung von Vorschlägen auf dem 82. Treffen der MPEG. Für die Entwicklung des Standards wurde ein Vorschlag vom Fraunhofer-Institut für Integrierte Schaltungen und der VoiceAge Corporation (siehe ACELP) als Basis genommen. Auf diesen Vorschlag, das sogenannte „Reference Model 0 (RM0)“ legte man sich nach einer Testphase beim 85. MPEG-Treffen im Juli 2008 fest.[6] Bei dem 86. Treffen im Oktober wurde die Erstellung eines Referenz-Encoders vorgeschlagen und vereinbart.[7]
Siehe auch
- Opus (Audioformat), ein alternativer, latenzarmer Codec ohne Patentrestriktionen für ähnliche Anwendungen
Quellen
- ↑ Fraunhofer Institute for Integrated Circuits: Unified Speech and Audio Coding. Abgerufen am 18. Juli 2011.
- ↑ ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding. 15. Februar 2011, abgerufen am 18. Juli 2011.
- ↑ ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC). 30. Juni 2011, abgerufen am 18. Juli 2011.
- ↑ MPEG: Work Plan and Time Line. Abgerufen am 18. Juli 2011.
- ↑ Unified Speech and Audio Coder Common Encoder Reference Software. März 2011, abgerufen am 18. Juli 2011.
- ↑ Unified Speech and Audio Coding. In: Website der Fraunhofer-Gesellschaft. Fraunhofer-Institut für Integrierte Schaltungen IIS, abgerufen am 15. Januar 2012.
- ↑ http://see.xidian.edu.cn/conference/mpegjpeg/workshop/PPT/Xieminjie.pdf