Zum Inhalt springen

„Unified Speech and Audio Coding“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K Bot: Anpassung an neue Vorlage:Literatur
Vorlagen-fix (Format)
Zeile 1: Zeile 1:
'''Unified Speech and Audio Coding''' ('''USAC''') ist ein [[Audiodatenkompression]]sformat und [[Codec]] für sowohl Musik und Sprache oder gemischte Signale unter Verwendung sehr niedriger Bitraten zwischen 12 und 64&nbsp;kbit/s.<ref>{{cite web |url=http://www.iis.fraunhofer.de/en/bf/amm/forschundentw/forschaudiomulti/usac/index.jsp |title=Unified Speech and Audio Coding |author=Fraunhofer Institute for Integrated Circuits |accessdate=2011-07-18}}</ref> Es ist derzeit unter Entwicklung in der [[Moving Picture Experts Group|MPEG]] und wird als ein internationaler Standard [[International Organization for Standardization|ISO]]/[[International Electrotechnical Commission|IEC]] 23003-3 (auch bekannt als [[MPEG-D]] Part 3)<ref>{{cite web |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=57464|title=ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding |date=2011-02-15 | accessdate=2011-07-18}}</ref> und auch als ein [[MPEG-4-Audio]]-Objekttyp in ISO/IEC 14496-3:2009/Amd 3 definiert.<ref>{{cite web |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=59635 |title=ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC) |date=2011-06-30 | accessdate=2011-07-18}}</ref>
'''Unified Speech and Audio Coding''' ('''USAC''') ist ein [[Audiodatenkompression]]sformat und [[Codec]] für sowohl Musik und Sprache oder gemischte Signale unter Verwendung sehr niedriger Bitraten zwischen 12 und 64&nbsp;kbit/s.<ref>{{Internetquelle |autor=Fraunhofer Institute for Integrated Circuits |url=http://www.iis.fraunhofer.de/en/bf/amm/forschundentw/forschaudiomulti/usac/index.jsp |titel=Unified Speech and Audio Coding |zugriff=2011-07-18}}</ref> Es ist derzeit unter Entwicklung in der [[Moving Picture Experts Group|MPEG]] und wird als ein internationaler Standard [[International Organization for Standardization|ISO]]/[[International Electrotechnical Commission|IEC]] 23003-3 (auch bekannt als [[MPEG-D]] Part 3)<ref>{{Internetquelle |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=57464 |titel=ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding |datum=2011-02-15 |zugriff=2011-07-18}}</ref> und auch als ein [[MPEG-4-Audio]]-Objekttyp in ISO/IEC 14496-3:2009/Amd 3 definiert.<ref>{{Internetquelle |url=http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=59635 |titel=ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC) |datum=2011-06-30 |zugriff=2011-07-18}}</ref>


Es verwendet [[lineare Vorhersage]] in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals ([[Algebraic Code Excited Linear Prediction|ACELP]]-ähnliche Techniken) für Sprachsignal-Abschnitte und [[Transformationskodierung]]swerkzeuge ([[Modifizierte diskrete Kosinustransformation|MDCT]]-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. Unter den Zielsetzungen für die Entwicklung sind unter anderem Leistungssteigerungen gegenüber [[MPEG-4 High Efficiency Advanced Audio Coding#AAC+ v2|HE-AACv2]] und [[Adaptive Multi-Rate Wideband|AMR-WB]]+ als spezialisiertem Format für Sprachsignale. Verbesserte Varianten der MPEG-4-[[Spektralbandreplikation]] (SBR) und Techniken zur [[parametrische Audiokodierung|parametrischen Audiokodierung]] aus MPEG-D [[MPEG Surround]] sind in den USAC-Codec integriert.<ref>{{cite web |url=http://mpeg.chiariglione.org/workplan.htm#_Toc288682500 |title=Work Plan and Time Line |author=MPEG |accessdate=2011-07-18}}</ref><ref>{{cite web |url=http://mpeg.chiariglione.org/technologies/mpeg-d/mpd-usac/refsoft.htm |title=Unified Speech and Audio Coder Common Encoder Reference Software |year=2011 |month=March |accessdate=2011-07-18}}</ref>
Es verwendet [[lineare Vorhersage]] in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals ([[Algebraic Code Excited Linear Prediction|ACELP]]-ähnliche Techniken) für Sprachsignal-Abschnitte und [[Transformationskodierung]]swerkzeuge ([[Modifizierte diskrete Kosinustransformation|MDCT]]-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. Unter den Zielsetzungen für die Entwicklung sind unter anderem Leistungssteigerungen gegenüber [[MPEG-4 High Efficiency Advanced Audio Coding#AAC+ v2|HE-AACv2]] und [[Adaptive Multi-Rate Wideband|AMR-WB]]+ als spezialisiertem Format für Sprachsignale. Verbesserte Varianten der MPEG-4-[[Spektralbandreplikation]] (SBR) und Techniken zur [[Parametrische Audiokodierung|parametrischen Audiokodierung]] aus MPEG-D [[MPEG Surround]] sind in den USAC-Codec integriert.<ref>{{Internetquelle |autor=MPEG |url=http://mpeg.chiariglione.org/workplan.htm#_Toc288682500 |titel=Work Plan and Time Line |zugriff=2011-07-18}}</ref><ref>{{Internetquelle |url=http://mpeg.chiariglione.org/technologies/mpeg-d/mpd-usac/refsoft.htm |titel=Unified Speech and Audio Coder Common Encoder Reference Software |datum=2011-03 |zugriff=2011-07-18}}</ref>


== Geschichte ==
== Geschichte ==
Der Standardisierungsprozess begann im Oktober 2007 mit dem Aufruf zur Einreichung von Vorschlägen auf dem 82. Treffen der MPEG. Für die Entwicklung des Standards wurde ein Vorschlag vom [[Fraunhofer-Institut für Integrierte Schaltungen]] und der VoiceAge Corporation (siehe ACELP) als Basis genommen. Auf diesen Vorschlag, das sogenannte „Reference Model 0 (RM0)“ legte man sich nach einer Testphase beim 85. MPEG-Treffen im Juli 2008 fest.<ref>{{Internetquelle
Der Standardisierungsprozess begann im Oktober 2007 mit dem Aufruf zur Einreichung von Vorschlägen auf dem 82. Treffen der MPEG. Für die Entwicklung des Standards wurde ein Vorschlag vom [[Fraunhofer-Institut für Integrierte Schaltungen]] und der VoiceAge Corporation (siehe ACELP) als Basis genommen. Auf diesen Vorschlag, das sogenannte „Reference Model 0 (RM0)“ legte man sich nach einer Testphase beim 85. MPEG-Treffen im Juli 2008 fest.<ref>{{Internetquelle |url=http://www.iis.fraunhofer.de/bf/amm/forschundentw/forschaudiomulti/usac/ |titel=Unified Speech and Audio Coding |werk=Website der Fraunhofer-Gesellschaft |hrsg=Fraunhofer-Institut für Integrierte Schaltungen IIS |zugriff=2012-01-15}}</ref> Bei dem 86. Treffen im Oktober wurde die Erstellung eines Referenz-Encoders vorgeschlagen und vereinbart.<ref>http://see.xidian.edu.cn/conference/mpegjpeg/workshop/PPT/Xieminjie.pdf</ref>
|hrsg = Fraunhofer-Institut für Integrierte Schaltungen IIS
|titel = Unified Speech and Audio Coding
|url = http://www.iis.fraunhofer.de/bf/amm/forschundentw/forschaudiomulti/usac/
|werk = Website der Fraunhofer-Gesellschaft
|zugriff = 2012-01-15
}}</ref> Bei dem 86. Treffen im Oktober wurde die Erstellung eines Referenz-Encoders vorgeschlagen und vereinbart.<ref>http://see.xidian.edu.cn/conference/mpegjpeg/workshop/PPT/Xieminjie.pdf</ref>


== Siehe auch ==
== Siehe auch ==
Zeile 17: Zeile 11:
== Weblinks ==
== Weblinks ==
* {{Literatur
* {{Literatur
|Autor = Max Neuendorf, Philippe Gournay, Markus Multrus, Jérémie Lecomte, Bruno Bessette, Ralf Geiger, Stefan Bayer, Guillaume Fuchs, Johannes Hilpert, Nikolaus Rettelbach, Frederik Nagel, Julien Robilliard, Redwan Salami, Gerald Schuller, Roch Lefebvre, Bernhard Grill
|Autor=Max Neuendorf, Philippe Gournay, Markus Multrus, Jérémie Lecomte, Bruno Bessette, Ralf Geiger, Stefan Bayer, Guillaume Fuchs, Johannes Hilpert, Nikolaus Rettelbach, Frederik Nagel, Julien Robilliard, Redwan Salami, Gerald Schuller, Roch Lefebvre, Bernhard Grill
|Titel = A Novel Scheme for Low Bitrate Unified Speech and Audio Coding – MPEG RM0
|Titel=A Novel Scheme for Low Bitrate Unified Speech and Audio Coding – MPEG RM0
|TitelErg = Convention Paper 7713
|TitelErg=Convention Paper 7713
|Sammelwerk = Treffen der Audio Engineering Society
|Sammelwerk=Treffen der Audio Engineering Society
|Nummer = 126
|Nummer=126
|Ort = München
|Ort=München
|Jahr = 2009
|Datum=2009-05
|Sprache=en
|Monat = Mai
|Online=[https://www.researchgate.net/profile/Jeremie_Lecomte/publication/233389117_Audio_Engineering_Society_Convention_Paper_A_Novel_Scheme_for_Low_Bitrate_Unified_Speech_and_Audio_Coding_-MPEG_RM0/links/09e4150a0f9ad54cd6000000.pdf?origin=publication_detail&ev=pub_int_prw_xdl&msrp=wqRXGFORHSNk3mXFv5_7f3mG19hrlUKyI6AvqmL9nvYjxJZFFqQebPzpugF2p1WvL-lxTiq34Sf_nZjWZe6JaBtCxSK3m55X6egUnvZiCik.iffZCZo5aWsOtcIjE_0NhY5_w25ttp-4coasQzNAktDHcehyB3Qic2fVnvCfl7d2rXKEVTqsRCVl13uIxfB1jg.cCMa6mB1k0chASr9nEqX1vXc8LZQqDielzFVYBp9aW0YcNGJ3OfGbw2EA19geiSrNRVYoD9-nU9HkCgtLK39rg AES126_Neuendorf]
|Kommentar = PDF, 634 KB
|Format=PDF
|Online = [https://www.researchgate.net/profile/Jeremie_Lecomte/publication/233389117_Audio_Engineering_Society_Convention_Paper_A_Novel_Scheme_for_Low_Bitrate_Unified_Speech_and_Audio_Coding_-MPEG_RM0/links/09e4150a0f9ad54cd6000000.pdf?origin=publication_detail&ev=pub_int_prw_xdl&msrp=wqRXGFORHSNk3mXFv5_7f3mG19hrlUKyI6AvqmL9nvYjxJZFFqQebPzpugF2p1WvL-lxTiq34Sf_nZjWZe6JaBtCxSK3m55X6egUnvZiCik.iffZCZo5aWsOtcIjE_0NhY5_w25ttp-4coasQzNAktDHcehyB3Qic2fVnvCfl7d2rXKEVTqsRCVl13uIxfB1jg.cCMa6mB1k0chASr9nEqX1vXc8LZQqDielzFVYBp9aW0YcNGJ3OfGbw2EA19geiSrNRVYoD9-nU9HkCgtLK39rg AES126_Neuendorf.pdf ]
|KBytes=634}}
|Sprache = en
}}
* {{Literatur
* {{Literatur
|Autor = Max Neuendorf, Philippe Gournay, Markus Multrus, Jeremie Lecomte, Bruno Bessette, Ralf Geiger, Stefan Bayer, Guillaume Fuchs, Johannes Hilpert, Nikolaus Rettelbach, Frederik Nagel, Julien Robilliard, Redwan Salami, Gerald Schuller, Roch Lefebvre, Bernhard Grill
|Autor=Max Neuendorf, Philippe Gournay, Markus Multrus, Jeremie Lecomte, Bruno Bessette, Ralf Geiger, Stefan Bayer, Guillaume Fuchs, Johannes Hilpert, Nikolaus Rettelbach, Frederik Nagel, Julien Robilliard, Redwan Salami, Gerald Schuller, Roch Lefebvre, Bernhard Grill
|Titel = Unified Speech and Audio Coding Scheme for High Quality at Low Bitrates
|Titel=Unified Speech and Audio Coding Scheme for High Quality at Low Bitrates
|Datum=
|Kommentar = PDF, 393 KB
|Sprache=en
|Online = [https://www.researchgate.net/profile/Jeremie_Lecomte/publication/232629495_Unified_speech_and_audio_coding_scheme_for_high_quality_at_low_bitrates/links/0fcfd512bb6932d5c8000000.pdf?origin=publication_detail&ev=pub_int_prw_xdl&msrp=XFs2x5219o6bZmKQESoOCUsqCxT3pBqAfIdXYqtYOmvDrbS44y6O0bBcFd1o_KnXyLll2sJlBmUu_E6Yb1FgAA.KH_SH2fCEb1SdTQocdAIwqPBSRg3MiZgLUMVVR3HF96UYSvnyc-P_gVl-dTtwdiY7XEqWVVbZfmfEdsOJpTjsQ.vbuW-l87xJecD6AOcjmq4SB3_Aw6FUNn7NrVwSV9GdGYfrME60Bn1zuHrIlTeIEgTV9aL-gB7i3XUDji3L_yjQ ICASSP2009_Neuendorf.pdf]
|Online=[https://www.researchgate.net/profile/Jeremie_Lecomte/publication/232629495_Unified_speech_and_audio_coding_scheme_for_high_quality_at_low_bitrates/links/0fcfd512bb6932d5c8000000.pdf?origin=publication_detail&ev=pub_int_prw_xdl&msrp=XFs2x5219o6bZmKQESoOCUsqCxT3pBqAfIdXYqtYOmvDrbS44y6O0bBcFd1o_KnXyLll2sJlBmUu_E6Yb1FgAA.KH_SH2fCEb1SdTQocdAIwqPBSRg3MiZgLUMVVR3HF96UYSvnyc-P_gVl-dTtwdiY7XEqWVVbZfmfEdsOJpTjsQ.vbuW-l87xJecD6AOcjmq4SB3_Aw6FUNn7NrVwSV9GdGYfrME60Bn1zuHrIlTeIEgTV9aL-gB7i3XUDji3L_yjQ ICASSP2009_Neuendorf]
|Sprache = en
|Format=PDF
}}
|KBytes=393}}


== Quellen ==
== Quellen ==
<references />
<references />



[[Kategorie:Audiokompression]]
[[Kategorie:Audiokompression]]

Version vom 7. März 2017, 20:39 Uhr

Unified Speech and Audio Coding (USAC) ist ein Audiodatenkompressionsformat und Codec für sowohl Musik und Sprache oder gemischte Signale unter Verwendung sehr niedriger Bitraten zwischen 12 und 64 kbit/s.[1] Es ist derzeit unter Entwicklung in der MPEG und wird als ein internationaler Standard ISO/IEC 23003-3 (auch bekannt als MPEG-D Part 3)[2] und auch als ein MPEG-4-Audio-Objekttyp in ISO/IEC 14496-3:2009/Amd 3 definiert.[3]

Es verwendet lineare Vorhersage in der Zeitdomäne und Werkzeuge zur Kodierung des Restsignals (ACELP-ähnliche Techniken) für Sprachsignal-Abschnitte und Transformationskodierungswerkzeuge (MDCT-basierte Techniken) für Musik-Signalabschnitte und es kann abhängig vom Signalinhalt zwischen beiden Ansätzen dynamisch umschalten. Unter den Zielsetzungen für die Entwicklung sind unter anderem Leistungssteigerungen gegenüber HE-AACv2 und AMR-WB+ als spezialisiertem Format für Sprachsignale. Verbesserte Varianten der MPEG-4-Spektralbandreplikation (SBR) und Techniken zur parametrischen Audiokodierung aus MPEG-D MPEG Surround sind in den USAC-Codec integriert.[4][5]

Geschichte

Der Standardisierungsprozess begann im Oktober 2007 mit dem Aufruf zur Einreichung von Vorschlägen auf dem 82. Treffen der MPEG. Für die Entwicklung des Standards wurde ein Vorschlag vom Fraunhofer-Institut für Integrierte Schaltungen und der VoiceAge Corporation (siehe ACELP) als Basis genommen. Auf diesen Vorschlag, das sogenannte „Reference Model 0 (RM0)“ legte man sich nach einer Testphase beim 85. MPEG-Treffen im Juli 2008 fest.[6] Bei dem 86. Treffen im Oktober wurde die Erstellung eines Referenz-Encoders vorgeschlagen und vereinbart.[7]

Siehe auch

  • Opus (Audioformat), ein alternativer, latenzarmer Codec ohne Patentrestriktionen für ähnliche Anwendungen
  • Max Neuendorf, Philippe Gournay, Markus Multrus, Jérémie Lecomte, Bruno Bessette, Ralf Geiger, Stefan Bayer, Guillaume Fuchs, Johannes Hilpert, Nikolaus Rettelbach, Frederik Nagel, Julien Robilliard, Redwan Salami, Gerald Schuller, Roch Lefebvre, Bernhard Grill: A Novel Scheme for Low Bitrate Unified Speech and Audio Coding – MPEG RM0. Convention Paper 7713. In: Treffen der Audio Engineering Society. Nr. 126. München Mai 2009 (englisch, AES126_Neuendorf [PDF; 634 kB]).
  • Max Neuendorf, Philippe Gournay, Markus Multrus, Jeremie Lecomte, Bruno Bessette, Ralf Geiger, Stefan Bayer, Guillaume Fuchs, Johannes Hilpert, Nikolaus Rettelbach, Frederik Nagel, Julien Robilliard, Redwan Salami, Gerald Schuller, Roch Lefebvre, Bernhard Grill: Unified Speech and Audio Coding Scheme for High Quality at Low Bitrates. (englisch, ICASSP2009_Neuendorf [PDF; 393 kB]).

Quellen

  1. Fraunhofer Institute for Integrated Circuits: Unified Speech and Audio Coding. Abgerufen am 18. Juli 2011.
  2. ISO/IEC DIS 23003-3 - Information technology -- MPEG audio technologies -- Part 3: Unified speech and audio coding. 15. Februar 2011, abgerufen am 18. Juli 2011.
  3. ISO/IEC 14496-3:2009/PDAM 3 - Transport of unified speech and audio coding (USAC). 30. Juni 2011, abgerufen am 18. Juli 2011.
  4. MPEG: Work Plan and Time Line. Abgerufen am 18. Juli 2011.
  5. Unified Speech and Audio Coder Common Encoder Reference Software. März 2011, abgerufen am 18. Juli 2011.
  6. Unified Speech and Audio Coding. In: Website der Fraunhofer-Gesellschaft. Fraunhofer-Institut für Integrierte Schaltungen IIS, abgerufen am 15. Januar 2012.
  7. http://see.xidian.edu.cn/conference/mpegjpeg/workshop/PPT/Xieminjie.pdf