Zum Inhalt springen

„Unified Speech and Audio Coding“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
'''Unified Speech and Audio Coding''' (USAC) ist ein [[Audiodatenkompression]]sformat und [[Codec]] für sowohl Musik und Sprache oder jegliche Mischungen von Sprache und Audio unter Verwendung sehr niedriger Bitraten zwischen 12 und 64&nbsp;kbit/s.<ref>{{cite web |url=http://www.iis.fraunhofer.de/en/bf/amm/forschundentw/forschaudiomulti/usac/index.jsp |title=Unified Speech and Audio Coding |author=Fraunhofer Institute for Integrated Circuits |accessdate=2011-07-18}}</ref> Es ist derzeit unter Entwicklung in der [[Moving Picture Experts Group|MPEG]] und wird als ein internationaler Standard [[International Organization for Standardization|ISO]]/[[International Electrotechnical Commission|IEC]] 23003-3 (auch bekannt als [[MPEG-D]] Part 3)<ref>{{cite web |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=57464|title=ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding |date=2011-02-15 | accessdate=2011-07-18}}</ref> und auch als ein [[MPEG-4-Audio]]-Objekttyp in ISO/IEC 14496-3:2009/Amd 3 definiert.<ref>{{cite web |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=59635 |title=ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC) |date=2011-06-30 | accessdate=2011-07-18}}</ref>
'''Unified Speech and Audio Coding''' ('''USAC''') ist ein [[Audiodatenkompression]]sformat und [[Codec]] für sowohl Musik und Sprache oder gemischte Signale unter Verwendung sehr niedriger Bitraten zwischen 12 und 64&nbsp;kbit/s.<ref>{{cite web |url=http://www.iis.fraunhofer.de/en/bf/amm/forschundentw/forschaudiomulti/usac/index.jsp |title=Unified Speech and Audio Coding |author=Fraunhofer Institute for Integrated Circuits |accessdate=2011-07-18}}</ref> Es ist derzeit unter Entwicklung in der [[Moving Picture Experts Group|MPEG]] und wird als ein internationaler Standard [[International Organization for Standardization|ISO]]/[[International Electrotechnical Commission|IEC]] 23003-3 (auch bekannt als [[MPEG-D]] Part 3)<ref>{{cite web |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=57464|title=ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding |date=2011-02-15 | accessdate=2011-07-18}}</ref> und auch als ein [[MPEG-4-Audio]]-Objekttyp in ISO/IEC 14496-3:2009/Amd 3 definiert.<ref>{{cite web |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=59635 |title=ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC) |date=2011-06-30 | accessdate=2011-07-18}}</ref>


Es verwendet lineare Vorhersage in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals ([[Algebraic Code Excited Linear Prediction|ACELP]]-ähnliche Techniken) für Sprachsignal-Abschnitte und [[Transformationskodierung]]swerkzeuge ([[Modifizierte diskrete Kosinustransformation|MDCT]]-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. Es wird entwickelt mit dem Ziel eines einzigen, einheitlichen Kodierers mit einer Leistung, die die spezialisierter Sprach- und Musikkodierer über einen weiten Bitratenbereich überbietet. Verbesserte Varianten der MPEG-4-[[Spektralbandreplikation]] (SBR) und Techniken zur [[parametrische Audiokodierung|parametrischen Audiokodierung]] aus MPEG-D [[MPEG Surround]] sind in den USAC-Codec integriert.<ref>{{cite web |url=http://mpeg.chiariglione.org/workplan.htm#_Toc288682500 |title=Work Plan and Time Line |author=MPEG |accessdate=2011-07-18}}</ref><ref>{{cite web |url=http://mpeg.chiariglione.org/technologies/mpeg-d/mpd-usac/refsoft.htm |title=Unified Speech and Audio Coder Common Encoder Reference Software |year=2011 |month=March |accessdate=2011-07-18}}</ref>
Es verwendet [[lineare Vorhersage]] in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals ([[Algebraic Code Excited Linear Prediction|ACELP]]-ähnliche Techniken) für Sprachsignal-Abschnitte und [[Transformationskodierung]]swerkzeuge ([[Modifizierte diskrete Kosinustransformation|MDCT]]-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. Unter den Zielsetzungen für die Entwicklung sind unter anderem Leistungssteigerungen gegenüber [[MPEG-4 High Efficiency Advanced Audio Coding#AAC+ v2|HE-AACv2]] und [[Adaptive Multi-Rate Wideband|AMR-WB]]+ als spezialisiertem Format für Sprachsignale. Verbesserte Varianten der MPEG-4-[[Spektralbandreplikation]] (SBR) und Techniken zur [[parametrische Audiokodierung|parametrischen Audiokodierung]] aus MPEG-D [[MPEG Surround]] sind in den USAC-Codec integriert.<ref>{{cite web |url=http://mpeg.chiariglione.org/workplan.htm#_Toc288682500 |title=Work Plan and Time Line |author=MPEG |accessdate=2011-07-18}}</ref><ref>{{cite web |url=http://mpeg.chiariglione.org/technologies/mpeg-d/mpd-usac/refsoft.htm |title=Unified Speech and Audio Coder Common Encoder Reference Software |year=2011 |month=March |accessdate=2011-07-18}}</ref>

== Geschichte ==
Der Standardisierungsprozess begann im Oktober 2007 mit dem Aufruf zur Einreichung von Vorschlägen auf dem 82. Treffen der MPEG. Für die Entwicklung des Standards wurde ein Vorschlag vom [[Fraunhofer-Institut für Integrierte Schaltungen]] und der VoiceAge Corporation (siehe ACELP) als Basis genommen. Auf diesen Vorschlag, das sogenannte „Reference Model 0 (RM0)“ legte man sich nach einer Testphase beim 85. MPEG-Treffen im Juli 2008 fest.<ref>{{Internetquelle
|hrsg = Fraunhofer-Institut für Integrierte Schaltungen IIS
|titel = Unified Speech and Audio Coding
|url = http://www.iis.fraunhofer.de/bf/amm/forschundentw/forschaudiomulti/usac/
|werk = Website der Fraunhofer-Gesellschaft
|zugriff = 2012-01-15
}}</ref> Bei dem 86. Treffen im Oktober wurde die Erstellung eines Referenz-Encoders vorgeschlagen und vereinbart.<ref>http://see.xidian.edu.cn/conference/mpegjpeg/workshop/PPT/Xieminjie.pdf</ref>


== Siehe auch ==
== Siehe auch ==
[[Opus (Audioformat)]] – einer patentfreier alternativer, latenzarmer Codec für ähnliche Nutzung
* [[Opus (Audioformat)]], ein alternativer, latenzarmer Codec ohne Patentrestriktionen für ähnliche Anwendungen


== Quellen ==
== Quellen ==

Version vom 15. Januar 2012, 19:22 Uhr

Unified Speech and Audio Coding (USAC) ist ein Audiodatenkompressionsformat und Codec für sowohl Musik und Sprache oder gemischte Signale unter Verwendung sehr niedriger Bitraten zwischen 12 und 64 kbit/s.[1] Es ist derzeit unter Entwicklung in der MPEG und wird als ein internationaler Standard ISO/IEC 23003-3 (auch bekannt als MPEG-D Part 3)[2] und auch als ein MPEG-4-Audio-Objekttyp in ISO/IEC 14496-3:2009/Amd 3 definiert.[3]

Es verwendet lineare Vorhersage in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals (ACELP-ähnliche Techniken) für Sprachsignal-Abschnitte und Transformationskodierungswerkzeuge (MDCT-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. Unter den Zielsetzungen für die Entwicklung sind unter anderem Leistungssteigerungen gegenüber HE-AACv2 und AMR-WB+ als spezialisiertem Format für Sprachsignale. Verbesserte Varianten der MPEG-4-Spektralbandreplikation (SBR) und Techniken zur parametrischen Audiokodierung aus MPEG-D MPEG Surround sind in den USAC-Codec integriert.[4][5]

Geschichte

Der Standardisierungsprozess begann im Oktober 2007 mit dem Aufruf zur Einreichung von Vorschlägen auf dem 82. Treffen der MPEG. Für die Entwicklung des Standards wurde ein Vorschlag vom Fraunhofer-Institut für Integrierte Schaltungen und der VoiceAge Corporation (siehe ACELP) als Basis genommen. Auf diesen Vorschlag, das sogenannte „Reference Model 0 (RM0)“ legte man sich nach einer Testphase beim 85. MPEG-Treffen im Juli 2008 fest.[6] Bei dem 86. Treffen im Oktober wurde die Erstellung eines Referenz-Encoders vorgeschlagen und vereinbart.[7]

Siehe auch

  • Opus (Audioformat), ein alternativer, latenzarmer Codec ohne Patentrestriktionen für ähnliche Anwendungen

Quellen

  1. Fraunhofer Institute for Integrated Circuits: Unified Speech and Audio Coding. Abgerufen am 18. Juli 2011.
  2. ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding. 15. Februar 2011, abgerufen am 18. Juli 2011.
  3. ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC). 30. Juni 2011, abgerufen am 18. Juli 2011.
  4. MPEG: Work Plan and Time Line. Abgerufen am 18. Juli 2011.
  5. Unified Speech and Audio Coder Common Encoder Reference Software. März 2011, abgerufen am 18. Juli 2011.
  6. Unified Speech and Audio Coding. In: Website der Fraunhofer-Gesellschaft. Fraunhofer-Institut für Integrierte Schaltungen IIS, abgerufen am 15. Januar 2012.
  7. http://see.xidian.edu.cn/conference/mpegjpeg/workshop/PPT/Xieminjie.pdf