Diskussion:Lokalisation (Akustik)
Dieser Text ist von mir, Eberhard Sengpiel, von meiner Webseite
http://www.sengpielaudio.com/LokalisationUndOrtung.pdf
Bitte nicht wieder löschen.
- Schreib das bitte nächstes mal gleich auf die Diskussionsseite - dann sparst du uns beiden den Stress ;-) --rotewoelfin 08:10, 2. Mär 2004 (CET)
=
Habe den folgenden Weblink entfernt, da er einige stärkere Fehler enthält. Laufzeitdifferenz und Phasenverschiebung
1) Um Laufzeitunterschiede zu erkennen, werden sind 2 Methoden vom Gehör angewandt: Auswertung von Phasenlaufzeiten 2) Auswertung von Gruppenlaufzeiten.
Diese Mechanismen sind universell, unabhängig davon, um welche Art von Signal es sich handelt, es gilt für Sinussignale genauso wie für Musik.
Um die Signale auswertenzu können, fasst das Gehör die Schallsignale in Frequenzgruppen zusammen. Die Breite einer Frequenzgruppe beträgt bei niedrigen Frequenzen (unter 500 Hz) ca. 100 Hz, bei höheren etwa eine Terz (Bandbreite ca. 20% der Mittenfrequenz). Dies führt dazu, dass innerhalb der Frequenzgruppe selbst Musik- oder Sprachsignale den Charakter von modulierten Sinussignalen bekommen, Phasenunterschiede also auswertbar sind.
Phasenunterschiede sind aber nur dann eindeutig auswertbar, wenn sie geringer als 180 Grad bleiben, das heißt, bis zu den Frequenzen, bei denen der Ohrabstand eine halbe Wellenlänge beträgt, im gegebenen Beispiel wäre das etwas über 900 Hz.
Addition von Schallsignalen und Kammfiltereffekt hat nun absolut nichts mit der Auswertung der Schallsignale durch das Gehör zu tun. Alle Ergebnisse der psychoakustischen Forschung deuten eher darauf hin, dass das zur Auswertung von Laufzeitdifferenzen das Gehör eine Kreuzkorrelation zwischen den Ohrsignalen zur Richtungsbestimmung vornimmt (und keine Addition !).
Einen Kammfiltereffekt hat man zwar dann, wenn man ein Schallsignal über 2 räumlich getrennte Mikrofone aufnimmt und diese Mikrofonsignale dann zusammenmischt. Das mag ein Anfängerfehler bei Tonaufnahmen sein; das Gehör ist hier wesentlich intelligenter.
Skyhead 00:11, 6. Okt 2004 (CEST)
In meinem Artikel steht unten:
"Nur wenn dieses unverzögerte und um 0,5 ms verzögerte Signal mit gleichem Pegel elektrisch addiert wird, erscheint durch die Phasenverschiebung der nachfolgend abgebildete Kammfiltereffekt, der beim natürlichen Hören zwischen beiden Ohren zwar vorhanden ist, aber gehörmäßig nicht als störend erkannt wird."
Genau das erklärst du mir in deinem letzten Satz.
Ich würde liebend gerne die von dir erwähnten stärkeren Fehler in diesem Blatt
http://www.sengpielaudio.com/LaufzeitdifferenzUndPhasenverschiebung.pdf
richtigstellen, wenn du sie mir nennen würdest.
Gruß
ebs
=
Hallo ebs,
hier noch einmal die Probleme:
1) Zitat:
Merke: Es sind die Phasenverschiebungen, die bei Frequenzen unter 2000 Hz größere Bedeutung bei der Richtungslokalisation des natürlichen Hörens haben.
Problem:
Interaurale Phasendifferenzen können vom Gehör nur bis zur halben Periode zur Auswertung der Richtung genutzt werden. Im Bereich der Phasenwinkel -90°...+90° ist eine eindeutige Richtungsbestimmung möglich. Ein Phasenwinkel von +120° ergibt aber das gleiche interaurale Signal wie ein Phasenwinkel von -60°.
==> der korrekte Frequenzbereich ist unter 1000 Hz
2) Zitat:
Eine Verzögerung (Delay) geht immer einher mit frequenzabhängigen Phasenänderungen - wobei wir bei Sinussignalen vom Phasenwinkel zwischen zwei Signalen sprechen können – nicht aber bei Musiksignalen. (!)
Problem:
Diese Aussage, dass der Einfallswinkel von Musik- oder Sprachsignale nicht durch interaurale Phasendifferenzen vom Gehör lokalisiert werden kann, ist schlichtweg falsch.
Das Gehör wertet nicht das gesamte breitbandige Signal aus, sondern analysiert die Ohrsignale in sogenannten Frequenzgruppen. Frequenzgruppen sind relativ schmalbandige Signale (ca. 100 Hz Bandbreite bei Frequenzen < 500 Hz, eine Terz -d.h. < 20% Bandbreite bei Frequenzen > 500 Hz).
Konsequenz ist, dass die Signale innerhalb der Frequenzgruppe als modulierte Sinussignale beschreiben werden können. Die maximal mögliche Modulationsfrequenz entspricht hierbei der halben Bandbreite (siehe Elektrotechnik, Filtertheorie, lässt sich auch aus Formeln zur Addition von Sinussignalen herleiten). Das heißt konkret: Die Signale innerhalb der Frequenzgruppe haben (unabhängig von der Art des dargebotenen Schallsignals) den Charakter von (modulierten) Sinussignalen. Die Modulation ist relativ langsam (max. 10% der Mittenfrequenz), so dass die resultierende Kurvenform Sinuscharakter hat. Damit lassen sich aber Phasendifferezen wieder leicht bestimmen.
==> Das Gehör wertet Phasenwinkel auch bei Musiksignalen aus.
==> Oder um es auf den Punkt zu bringen:
Wir müssen beim Gehör bei Musiksignalen über frequenzabhängige Phasenänderungen sprechen
3) Zitat:
Der Vorteil der Rechnung mit der Laufzeitdifferenz ist, dass die Frequenzabhängigkeit nicht vorkommt.
Problem:
Dies ist zu verkürzt dargestellt und trifft die Problematik der Richtungsbestimmung durch das Gehör nicht
Ich vermute, dass hiermit die Auswertmechnismechnismus "Gruppenlaufzeit" angesprochen werden soll. Dies sollte dann genauer beschreiben.
Bei Frequenzen oberhalb 800..1000 Hz ist durch Phasenauswertung allein die Schall-Einfallsrichtung nicht mehr eindeutig zu bestimmen (siehe oben). Im obigen Frequenzgruppen-Modell (modulierte Sinussignale) beleibt aber noch die Möglichkeit, statt die Phasendifferenz des Trägersignals die Laufzeiten bezüglich der Hüllkurven zu bestimmen. Dies wird vom Gehör auch getan, insbesondere bei Signaleinsätzen lässen sich die entsprechenden Signal-Passagen von rechtem und linkem Ohr in der Frequenzgruppe leicht identifizieren und aus den Laufzeitunterschieden die Richtung bestimmen.
==> Den Unterschiede zwischen Phasen- und Gruppenlaufzeiten sollte man schon etwas konkreter erläutern.
4) Zitat:
Nur wenn dieses unverzögerte und um 0,5 ms verzögerte Signal mit gleichem Pegel elektrisch addiert wird, erscheint durch die Phasenverschiebung der nachfolgend abgebildete Kammfiltereffekt, der beim natürlichen Hören zwischen beiden Ohren zwar vorhanden ist, aber gehörmäßig nicht als störend erkannt wird.
Problem:
Dieses ist leider falsch !
Das Gehör addiert nirgendwo Schallsignale.
Es gibt beim beidohrigen Hören keinen Kammfiltereffekt.
Die Signalverarbeitungsmechanismen des Gehörs sind dort etwas anders.
Die Signalverarbeitung des Gehörs basiert bezüglich des Richtungshörens statt auf Signaladdition auf Kreuzkorrelationsfunktions-artiger Auswertung. Den Effekt einer Kreuzkorrelationsfunktion kann man sich vereinfacht so vorstellen, dass die Signale aus der Richtung, die das Gehör wahrnehmen möchte, Laufzeit-Korrigiert werden und dann die Intensität des Signals bestimmt wird. Dies entspricht eher einer Multiplikatition als einer Addition.
Durch die beiden Komponenten: Laufzeitkorrektur und Intensitätsbestimmung spielen Phasenunterschiede, die zu einem Kammfiltereffekt führen könnten, bei der Lokalisation keine Rolle.
==> Kammfiltereffekte spielen bei der Lokalisation und bei der Wahrnehmung des entsprechenden Signals keine Rolle.
Viele Grüße Skyhead 00:43, 14. Okt 2004 (CEST)
Ebenen und Lokalisation
Über die Betonung der möglichen Ebenen bin ich allzu glücklich, da sie sehr in die Irre führen.
Es sollte meiner Meinung nach im Vordergrund stehen, wie das Gehör funktioniert und welche Mechanismen hierbei eine Rolle spielen.
- Von den Mechanismen, die das Gehör anwendet, gibt es nur einen, der eine gesamte Ebene aufspannt, das ist die Auswertung der Außenohr-Resonanzen für die Medianebene
- Für die Horizontalebene gibt es keinen akustischen Mechanismus, der diese Ebene voll aufspannen kann, die Akustik des Gehörs erlaubt nur eine Analyse von Teilinformationen dieser Ebene.
- Zur direkten Bestimmung der Frontalebenen-Information gibt es keinen akustischen Mechanismus.
Somit habe ich einige Fehler korrigiert:
- Mechanismus 1: Die Mechanismen zu Laufzeit- und Pegeldifferenzen zwischen dne Ohren erlauben keine Unterscheidung vorne/hinten. Den Begriff Horizontalebene habe ich aus dem Text entfernt und statt dessen "horizontale Einfallsrichtung" verwendet, um Missverständnisse zu vermeinen. Auch habe ich versucht, statt vorne und hinten den Begriff geradeaus zu verwenden um hiermit zu sagen, es ist nicht entscheidbar ob vorn oder hinten, sondern einfach nur gerade.
- Transversalebene: Absatz habe ich herausgenommen, da es hierfür vom Gehör keine Lokalisationsmechnaismen gibt, die Betrachtung dieser Ebene verwirrt meines Erachtens eher
- Bild über die Ebenen. Eigentlich sehr schön. Aber ich finde, es verwirrt etwas, da es eine allgemeine Darstellung gibt, welche Ebenen vorstellbar sind, aber keinen direkten Bezug zum Gehör liefert. Optimal wäre hier ein Bild auf dem nur die vordere Hälfte der Horizontalebene und die Medianebene dargestellt ist, die Frontalebene aber nicht. Dann könnte man den Abbildungen gezielt Lokalisationsmechanismen zuordnen.
Skyhead 02:22, 14. Okt 2004 (CEST)
=
Hallo Skyhead,
> hier noch einmal die Probleme:
> 1) Zitat:
> Merke: Es sind die Phasenverschiebungen, die bei Frequenzen unter 2000 Hz größere
> Bedeutung bei der Richtungslokalisation des natürlichen Hörens haben.
Blauert, Räuliches Hören, S. 120: Im Schrifttum besteht weitgehend Einigkeit darüber, dass bei Lateralisationsversuchen mit reinen Tönen die durch intraurale Phasenlaufzeit erzielbare seitliche Hörauslenkung für Frequenzen ab 800 Hz stark abnimmt. Bei Frequenzen oberhalb 1,6 kHz ist eine seitliche Auslenkung "in der Regel" nicht mehr erkennbar.
Demnach hätte ich wohl den aus Rechnungsgründen gewählten runden Wert von 2000 Hz etwas tiefer auf 1600 Hz legen sollen. Auch wenn die Theoretiker (!) gerne die Frequenz von 800 Hz hätten, sieht die Praxis nicht so aus. Zwischen lambda und lamda Halbe ergibt sich hier ein Übergangsbereich. Ob man will oder nicht!
Nebenbei, das geschulte Tonmeisterohr hört wirklich den Grundtonfrequenzbereich zwischen 800 und 1600 Hz weniger präzise, also diffuser. Etwa Notenmäßig a´´ bis a´´´, dazu gehört auch der Vokal a und die Umlaute). Du meinst: "Die Qualität der Richtungsbestimmung wird hiervon nicht beeinträchtigt." Na ja, wenn ein diffuserer Klang keine Beeinträchtigung sein soll.
> 2) Zitat:
> Eine Verzögerung (Delay) geht immer einher mit frequenzabhängigen Phasenänderungen -
> wobei wir bei Sinussignalen vom Phasenwinkel zwischen zwei Signalen sprechen können –
> nicht aber bei Musiksignalen. (!)
> Problem:
> Diese Aussage, dass der Einfallswinkel von Musik- oder Sprachsignale nicht durch
> interaurale Phasendifferenzen vom Gehör lokalisiert werden kann, ist schlichtweg falsch.
Phasenwinkel können wir zwischen gleichen Sinussignalen messen aber nicht zwischen Musiksignalen. Es geht auch um unseren Korrelationsgradmesser, der die Phasenlage zwischen "verschobenen" Sinussignalen als cos φ richtig messen kann, aber nicht bei Musik. Musik hat keine Phasenlage. So steht es da oben. Nichts steht da von falschen interauralen Phasendifferenzen am Gehör. Ich bin Tonmeister und muss praktisch elektrische Signale richtig verarbeiten.
> ==> Das Gehör wertet Phasenwinkel auch bei Musiksignalen aus.
> ==> Oder um es auf den Punkt zu bringen:
> Wir müssen beim Gehör bei Musiksignalen über frequenzabhängige Phasenänderungen sprechen
Das ist richtig; dem habe ich nicht widersprochen. Man kann darüber sprechen, wenn es nützt.
> 3) Zitat:
> Der Vorteil der Rechnung mit der Laufzeitdifferenz ist, dass die Frequenzabhängigkeit
nicht vorkommt.
Problem:
Dies ist zu verkürzt dargestellt und trifft die Problematik der Richtungsbestimmung durch
das Gehör nicht
> Ich vermute, dass hiermit die Auswertmechnismechnismus "Gruppenlaufzeit" angesprochen
> werden soll. Dies sollte man dann genauer beschreiben.
Gerade diese "verkürzte" Vereinfachung brauchen wir Tontechniker, denn wir können mit den beiden wichtigsten erzeugten Stereo-Mikrofonsystemgrößen Laufzeit und Pegel wirkungsvoll bearbeiten. Frequenzabhängige Phasenlagen, auch Gruppenlaufzeit, sind sind nicht praktikabel.
> ==> Den Unterschiede zwischen Phasen- und Gruppenlaufzeiten sollte man schon etwas
> konkreter erläutern.
Ja, aber das bringt nichts für das Verständnis der Tonaufnahme.
> 4) Zitat:
> Nur wenn dieses unverzögerte und um 0,5 ms verzögerte Signal mit gleichem Pegel
> elektrisch addiert wird, erscheint durch die Phasenverschiebung der nachfolgend
> abgebildete Kammfiltereffekt, der beim natürlichen Hören zwischen beiden Ohren zwar
> vorhanden ist, aber gehörmäßig nicht als störend erkannt wird.
> Problem:
> Dieses ist leider falsch! Das Gehör addiert nirgendwo Schallsignale. Es gibt beim
> beidohrigen Hören keinen Kammfiltereffekt.
Das soll heißen, wenn ich an die Stelle des Kopfes ein Mikrofon plaziere, dann ist dort der Kammfiltereffekt einwandfrei zu messen. Dass das Gehör diesen Effekt aber nicht wahrnimmt, habe ich deutlich gesagt. Von durch das Gehör addierenden Schallsignalen steht dort nichts.
> Durch die beiden Komponenten: Laufzeitkorrektur und Intensitätsbestimmung spielen
> Phasenunterschiede, die zu einem Kammfiltereffekt führen könnten, bei der Lokalisation
> keine Rolle.
> ==> Kammfiltereffekte spielen bei der Lokalisation und bei der Wahrnehmung des
> entsprechenden Signals keine Rolle.
Dass Kammfiltereffekte irgend etwas mit der Richtungslokalisation zu tun haben sollen, habe ich niemals in meiner Vorstellung gehabt.
> Ebenen und Lokalisation:
> Über die Betonung der möglichen Ebenen bin ich allzu glücklich, da sie sehr in die Irre
> führen.
> Es sollte meiner Meinung nach im Vordergrund stehen, wie das Gehör funktioniert und
> welche Mechanismen hierbei eine Rolle spielen.
Ich vemute, dass du sagen wolltest: Über die Betonung der möglichen Ebenen bin ich "nicht" allzu glücklich. Da gehen unsere Meinungen sicher auseinander. Bei Hörversuchen brauchen wir ein raum- und kopfbezogenes Koordinatensystem mit allen drei Größen 1. Seitenwinkel, 2. Erhebungswinkel (= Absenkungswinkel) und 3. Entfernung. Wir brauchen keine einschränkenden Halb-Ebenen. Die gibt es einfach nicht, die hört man auch nicht. Man hört rundum, also nicht nur Stereo vorne oder Wellenfeldsynthese nur in der Horizontalebene. Man hört "Surround-Sound" mit oben und unten, ujnd vorne und hinten und links und rechts, also mit allen Freiheitsgraden. Dabei spielt es keine Rolle, dass die Hörschärfe in den verschiedenen Richtungen unterschiedlich ausgeprägt ist. Das Gehör erlaubt eine Analyse der Informationen aus jedem Raumwinkel. Ich kann deine Beschränkungen nicht nachvollziehen. Wir können, wenn auch manchmal mit Fehlern, vorne und hinten unterscheiden. Wie das von Gehör/Gehirn bestimmt wird, spielt keine Rolle. Gerade die neue Abbildung kann aufklären. Es gibt auch in der Literatur falsche Erklärungen der Ebenen, die immer aufkommen, wenn man nicht alle drei Ebenen darstellt.
> Optimal wäre hier ein Bild auf dem nur die vordere Hälfte der Horizontalebene und die
> Medianebene dargestellt ist.
Diese Meinung finde ich unverständlich.
> . . . um Missverständnisse zu vermeiden. Auch habe ich versucht, statt vorne und hinten
> den Begriff geradeaus zu verwenden um hiermit zu sagen, es ist nicht entscheidbar ob
vorn oder hinten, sondern einfach nur gerade . . .
Das ist mir schleierhaft.
> Aber ich finde, es verwirrt etwas, da es eine allgemeine Darstellung gibt, welche Ebenen
> vorstellbar sind, aber keinen direkten Bezug zum Gehör liefert.
Wieso das? Was können die Ebenen dafür? Die sind doch nicht wegzuleugnen und ich kann auf allen Punkten der Fontalebene: links, oben, recht und unten lokalisieren?
Warum möchtest du auf die in der Literatur vorkommenden Begriffe Vertikalebene und Lateralebene nicht hinweisen, dass sie eben nicht einheitlich festgelegt sind?
Warum willst du bei dem Begriff "Lokalisation" keine Erwähnung der so wichtigen kopfbezogenen Übertragungsfunktion HRTF?
Warum magst du hier keine Kopfsignale mit den bekannten Abkürzungen ITD für Interaural Time Delay und ILD Interaural Level Delay?
Unvorstellbar das Hören und Lokalisieren ohne diese Begriffe.
Vom 5.-8. November wirke ich in Leipzig auf der Tonmeistertagung mit. Vielleicht bist du auch dort.
Gruß
Eberhard Sengpiel 14.Okt.2004 18:25
Als Nachtrag möchte ich dir etwas beim Drei-Ebenen-Problem beim hören helfen:
Hier sind berühmte Vorbilder, die alle auch die Frontal-Ebene kennen und Halb-Ebenen gibt es nicht.
http://www.cs.princeton.edu/~pcalamia/thesis/calamia-thesis.pdf
http://music.northwestern.edu/classes/3D/pages/dhPhyAcst.html#anchor2566546
http://music.northwestern.edu/classes/3D/pages/sndPrmGK.html#anchor502428
http://interface.cipic.ucdavis.edu/PAPERS/jasa2002_Algazi_et_al.pdf
http://www.biols.susx.ac.uk/home/Chris_Darwin/Perception/Lecture_Notes/Hearing5/hearing5.html
http://www.ncbi.nlm.nih.gov/entrez/query.fcgicmd=Retrieve&db=PubMed&list_uids=9865779&dopt=Abstract
http://disi.eit.uni-kl.de/arbeiten/Mingli/hrtfmodelling_thesis.pdf
=
Hallo Eberhard,
Es geht doch in diesem Artikel um Lokalisation, darunter verstehe ich: Wie schafft es das menschliche Gehör, Richtungen und Entfernungen wahrzunehmen.
Deshalb bin ich der Meinung, dass das, was zum Thema Lokalisation gehört, hier aufgeführt werden sollte, Aber alles was, nicht direkt damit zu tun hat, würde ich erst einmal außen vor lassen und in anderen Wikipedia-Artikeln behandeln.
Nun zu den Diskussionspunkten im Einzelnen:
>> 1) Zitat:
>> Merke: Es sind die Phasenverschiebungen, die bei Frequenzen unter 2000 Hz größere
>> Bedeutung bei der Richtungslokalisation des natürlichen Hörens haben.
>
> Blauert, Räuliches Hören, S. 120: Im Schrifttum besteht weitgehend Einigkeit darüber,
> dass bei Lateralisationsversuchen mit reinen Tönen die durch intraurale Phasenlaufzeit
> erzielbare seitliche Hörauslenkung für Frequenzen ab 800 Hz stark abnimmt.
> Bei Frequenzen oberhalb 1,6 kHz ist eine seitliche Auslenkung "in der Regel"
> nicht mehr erkennbar.
>
> Demnach hätte ich wohl den aus Rechnungsgründen gewählten runden Wert von 2000 Hz
> etwas tiefer auf 1600 Hz legen sollen.
> Auch wenn die Theoretiker (!) gerne die Frequenz von 800 Hz hätten, sieht die Praxis
> nicht so aus. Zwischen lambda und lamda Halbe ergibt sich hier ein Übergangsbereich.
> Ob man will oder nicht!
Was soll ich dazu noch sagen ?
Du zitierst Blauert, der sagt, dass ab 800 Hz die Möglichkeit stark abnimmt, anhand von interauralen Phasenlaufzeiten die Richtung zu bestimmen. Und dass ab 1600 Hz eine Lokalisation anhand interauralen Phasenlaufzeiten unmöglich ist.
In Deinem Weblink behauptest Du aber, dass bis 2000 Hz interaurale Phasendiffernzen "größere Bedeutung haben".
Also wenn das kein Widerspruch ist!
Vielleicht solltest Du Literatur-Angaben nicht nur so ungefähr, sondern genau wiedergeben, sonst wirst Du immer Widerspruch ernten.
Mit Schmähungen, wie Theortiker (!), die Praxis nicht kennen, würde ich etwas vorsichtiger sein, denn dass es ab interauralen Laufzeiten von +/- Lambda Halbe zu mehrdeutigen Phasenwinkeln kommt, die eine eindeutige Lokalisation nicht zulassen, kannst Du auch bei Blauert nachlesen, in der englischen Ausgabe von "Räumliches Hören", "Spatial Hearing" findest Du dieses auf S.147 dieses in Abbildung 2.71 als Grafik dargestellt.
Den Rest mach bitte mit Blauert aus.
> Nebenbei, das geschulte Tonmeisterohr hört wirklich den Grundtonfrequenzbereich
> zwischen 800 und 1600 Hz weniger präzise, also diffuser.
> Etwa Notenmäßig a´´ bis a´´´, dazu gehört auch der Vokal a und die Umlaute).
> Du meinst: "Die Qualität der Richtungsbestimmung wird hiervon nicht beeinträchtigt."
> Na ja, wenn ein diffuserer Klang keine Beeinträchtigung sein soll.
Ich glaube hier verwechselst Du etwas: Es geht in diesem Artikel nicht um Klangeindrücke, sondern um Lokalisation. Ein diffuser Klang heißt nicht, dass die Richtung schlecht zu bestimmen ist. Klangeindruck und Richtungsbestimnmung sollte man nicht vermischen.
>> 2) Zitat:
>> Eine Verzögerung (Delay) geht immer einher mit frequenzabhängigen Phasenänderungen
>> wobei wir bei Sinussignalen vom Phasenwinkel zwischen zwei Signalen sprechen können
>> nicht aber bei Musiksignalen. (!)
>> Problem:
>> Diese Aussage, dass der Einfallswinkel von Musik- oder Sprachsignale nicht durch
>> interaurale Phasendifferenzen vom Gehör lokalisiert werden kann, ist schlichtweg
>> falsch.
>
>Phasenwinkel können wir zwischen gleichen Sinussignalen messen aber nicht
>zwischen Musiksignalen. Es geht auch um unseren Korrelationsgradmesser, der
>die Phasenlage zwischen "verschobenen" Sinussignalen als cos φ richtig
>messen kann, aber nicht bei Musik. Musik hat keine Phasenlage. So steht es
>da oben. Nichts steht da von falschen interauralen Phasendifferenzen am Gehör.
>Ich bin Tonmeister und muss praktisch elektrische Signale richtig verarbeiten.
Leider funktioniert das menschliche Gehör anders als ein Tonstudio.
Anders als im Tonstudio wertet das menschliche den Schall nicht als Breitbandsignal aus, sondern in relativ schmalbandigen Frequenzgruppen. In diesen Frequenzgruppen hat ein beliebiges Signal, egal ob Sinus oder Musik, nun einmal den Charakter von (modulierten) Sinussignalen.
Wo Du doch so gerne Blauert liest, empfehle ich Dir "Spatial Hearing" ab S.338, Hier werden zur Richtungsmäßigen Signalverarbeitung eine Filterung in Frequenzgruppen (englisch: "critical band") vorgeschlagen, ähnliches findest Du auch auf S.255 in der Beschreibung zu Abb. 3.34.
Zur Erläuterung, dass innerhalb von schmalbandig gefilterten Signalen alle Signale den Charakter von modulierten Sinussignalen haben, empfehle ich ein beliebiges Funk- oder Nachrichtentechnik-Lehrbuch.
Du kannst Dir dies auch selber im Tonstudio ansehen: Baue einen Terzfilter mit hohen Flankensteilheiten auf (ca. 20-40 dB/Oktave) und zeichne ein beliebiges Musiksignal nach dem Filter auf. Wenn Du Dir dann die Kurvenformen ansiehst, wirst Du ein moduliertes Sinussignal sehen. Und zwischen sinusartigen Signalen kannst Du wunderbar Phasenlaufzeiten bestimmen.
>> 3) Zitat:
>> Der Vorteil der Rechnung mit der Laufzeitdifferenz ist, dass die Frequenzabhängigkeit
>> nicht vorkommt.
>> Problem:
>> Dies ist zu verkürzt dargestellt und trifft die Problematik der Richtungsbestimmung
>> durch das Gehör nicht
>> Ich vermute, dass hiermit die Auswertmechnismechnismus "Gruppenlaufzeit" angesprochen
>> werden soll. Dies sollte man dann genauer beschreiben.
>
> Gerade diese "verkürzte" Vereinfachung brauchen wir Tontechniker, denn
> wir können mit den beiden wichtigsten erzeugten Stereo-Mikrofonsystemgrößen
>Laufzeit und Pegel wirkungsvoll bearbeiten. Frequenzabhängige Phasenlagen,
>auch Gruppenlaufzeit, sind sind nicht praktikabel.
>
>> ==> Den Unterschiede zwischen Phasen- und Gruppenlaufzeiten sollte man
>> schon etwas konkreter erläutern.
>
>Ja, aber das bringt nichts für das Verständnis der Tonaufnahme.
In welchem Film bin ich denn nun ?
Die Überschrift dieses Artikels lautet "Lokalisation", nicht "Tonaufnahme"!
Somit kann ich nur bitten, Dinge, die nicht zum Thema "Lokalisation" gehören, hier fortzulassen. Es wäre auch nett, wenn Du in Deinen Antworten auch auf das Thema Lokalisation eingehen würdest.
Denn, dass man die Mechanismen des Gehörs (noch) nicht zu Tonaufnahmen nutzen kann, mag bedauerlich sein, gehört aber so richtig nicht zum Thema.
>> 4) Zitat:
>> Nur wenn dieses unverzögerte und um 0,5 ms verzögerte Signal mit gleichem Pegel
>> elektrisch addiert wird, erscheint durch die Phasenverschiebung der nachfolgend
>> abgebildete Kammfiltereffekt, der beim natürlichen Hören zwischen beiden Ohren zwar
>> vorhanden ist, aber gehörmäßig nicht als störend erkannt wird.
>> Problem:
>> Dieses ist leider falsch! Das Gehör addiert nirgendwo Schallsignale. Es gibt beim
>> beidohrigen Hören keinen Kammfiltereffekt.
>
> Das soll heißen, wenn ich an die Stelle des Kopfes ein Mikrofon plaziere,
> dann ist dort der Kammfiltereffekt einwandfrei zu messen.
> Dass das Gehör diesen Effekt aber nicht wahrnimmt, habe ich deutlich gesagt.
> Von durch das Gehör addierenden Schallsignalen steht dort nichts.
>...
>Dass Kammfiltereffekte irgend etwas mit der Richtungslokalisation zu tun haben sollen,
>habe ich niemals in meiner Vorstellung gehabt.
Schön, dann hat aber dieser Link, der sich gar nicht auf das Thema "Lokalisation" bezieht, sondern ganz andere Themen behandelt, wie "Probleme im Tonstudio", hier nichts zu suchen.
(Nur zur Erläuterung: Ich habe mich in dem Kommentar auf folgende Aussage bezogen:
Kammfiltereffekt, der beim natürlichen Hören zwischen beiden Ohren zwar vorhanden ist
Ein Kammfilereffekt ist beim natürlichen Hören eben nicht vorhanden.
Das Gehör funktioniert anders als ein Stereo-Mikrofon.)
>> Ebenen und Lokalisation:
> Ich vermute, dass du sagen wolltest: Über die Betonung der möglichen Ebenen
> bin ich "nicht" allzu glücklich.
> Da gehen unsere Meinungen sicher auseinander.
> Bei Hörversuchen brauchen wir ein raum- und kopfbezogenes Koordinatensystem
> mit allen drei Größen 1. Seitenwinkel, 2. Erhebungswinkel (= Absenkungswinkel) und
> 3. Entfernung.
Bis hierhin bin ich Deiner Meinung. Der Unterschiede scheint die Frage zu sein, welchen Winkelbereich man für Seiten- bzw. Erhebungswinkel benötigt, um alle möglichen Positionen im Raum beschreiben zu können.
> Wir brauchen keine einschränkenden Halb-Ebenen. Die gibt es einfach nicht,
> die hört man auch nicht. Man hört rundum, also nicht nur Stereo vorne oder
> Wellenfeldsynthese nur in der Horizontalebene. Man hört "Surround-Sound"
> mit oben und unten, und vorne und hinten und links und rechts, also mit
> allen Freiheitsgraden. Dabei spielt es keine Rolle, dass die Hörschärfe
> in den verschiedenen Richtungen unterschiedlich ausgeprägt ist.
> Das Gehör erlaubt eine Analyse der Informationen aus jedem Raumwinkel.
>Ich kann deine Beschränkungen nicht nachvollziehen. Wir können, wenn
> auch manchmal mit Fehlern, vorne und hinten unterscheiden.
In dem Tenor dieses Absatzes: Man kann Hörereignisse in allen Raumwinkeln und Entfernungen haben, stimme ich mit Dir überein.
Nur, wenn Du Dir den Artikel genau durchliest, dann steht da nicht, man kann nicht vorne und hinten unterscheiden, sondern da steht, dass interaurale Laufzeit- und Pegeldifferenzen nicht dazu geeignet sind, vorne und hinten zu unterscheiden, dass man somit mit Hilfe von interauralen Laufzeit- und Pegeldifferenzen nicht die ganze Horizontalebene erfassen kann.
Wie man trotzdem einen "Surround-Sound" wahrnehmen kann, steht weiter unten: Durch Hinzunahme eines anderen Auswertemechanismus (Außenohrresonanzen) werden die fehlenden Informationen hinzugefügt.
Weshalb ich meine, dass die Einführung der Raumebenen eher verwirrt als hilft ?
Ich musste schon mehrmals Fehler aus dem Artikel beseitigen, die auf falsch verstandene Anwendung der Raumebenen fussten.
Irgendjemand hat hereingeschrieben, dass man durch interaurale Laufzeit- und Pegeldifferenzen den Einfallswinkel in der gesamten Horizontalebene bestimmen kann, also auch vorne und hinten unterscheiden kann. Und das ist nun wirklich falsch.
Das war der Grund, weshalb ich versucht habe, Dinge wie Raumeindruck (klar kann man in jeder der Raumebenen ein Hörereignis haben) und Lokalisationsverfahren des menschlichen Gehörs zu trennen
> Wie das von Gehör/Gehirn bestimmt wird, spielt keine Rolle.
Ich finde es schade, dass Du dich für Lokalisation nicht interessiert. Aber Lokalisation (Akustik) ist nun einmal ein Wahrnehmungsprozess, der nur über die Vorgänge im Gehör und Gehirn erklärbar ist. (...Lass das bloß nicht Blauert hören...)
> Gerade die neue Abbildung kann aufklären. Es gibt auch in der Literatur
> falsche Erklärungen der Ebenen, die immer aufkommen, wenn man nicht alle
> drei Ebenen darstellt.
Genau darum sollte es in diesem Artikel eigentlich nicht gehen.
Die Überschrift heißt "Lokalisation", nicht "Raumebenen".
Mein Vorschlag: Verfass einfach neuen Artikel Wikipedia-Artikel "Raumebenen", in dem diese korrekt beschrieben sind, in dem auch jeder nachschlagen kann, der sich hier unsicher fühlt.
>> Aber ich finde, es verwirrt etwas, da es eine allgemeine Darstellung gibt,
>> welche Ebenenvorstellbar sind, aber keinen direkten Bezug zum Gehör liefert.
>
> Wieso das? Was können die Ebenen dafür? Die sind doch nicht wegzuleugnen und
> ich kann auf allen Punkten der Fontalebene: links, oben, recht und unten lokalisieren?
> Warum möchtest du auf die in der Literatur vorkommenden Begriffe Vertikalebene
> und Lateralebene nicht hinweisen, dass sie eben nicht einheitlich festgelegt sind?
Worum es mir ging, war, den Artikel auf die Dinge zu fokussieren, die für das Thema "Lokalisation" eine Rolle spielen. Das heißt, eine Erklärung liefern, "was heißt Lokalisation" und "wie funktioniert sie".
Insofern würde ich die ganze Diskussion über Ebenen, Auseinandersezung mit der Literatur, wer wie wo welche Begriffe für Ebenen verwendet, hier Fehl am Platze halten, da dieses keine weitere Erkenntnis zum eigentlichen Thema Lokalisation gibt.
Was ich aber gut fände, wenn Du einen Wikipedia-Artikel über Raumebenen schreiben würdest, wo das gesamte Wissen hierzu abgelegt ist, und bei Lokalisation einen Link auf diesen Artikel gäbe.
Was das Bild angeht: ich würde ein Bild bevorzugen, das die Mechanismen der Lokalisation darstellt, also aus welchen Teilinformationen das Gehör seine Inforationen zieht. Dass das Gehör in seinen Auswerte-Mechanismen eingeschränkt ist, dazu können natürlich die Ebenen nichts, aber es hilft zur Erklärung schon, wenn man die Beziehungen im Bild zeigt, die für die Gehörmechanismen eine Rolle spielen.
>Warum willst du bei dem Begriff "Lokalisation" keine Erwähnung der so
> wichtigen kopfbezogenen Übertragungsfunktion HRTF?
Wenn Du erklärst, was sie bedeutet, und was sie zur Lokalisation beiträgt, habe ich kein Problem damit.
> Warum magst du hier keine Kopfsignale mit den bekannten Abkürzungen ITD für
> Interaural Time >Delay und ILD Interaural Level Delay?
>
> Unvorstellbar das Hören und Lokalisieren ohne diese Begriffe.
Diese Begriffe tauchen auf, aber in der deutschen Umschreibung. Vielleicht hast Du aber recht, es könnte sicherlich sinnvoll sein, eine Liste englischer Fachausdrücke zu einem Artikel anzubieten (mit Link auf den englichen Wikipedia-Teil ?)
Skyhead 02:22, 18. Okt 2004 (CEST)
Ortung wird verwendet
Diesen sehr guten Artikel muss ich an einer Stelle etwas anmerken.
In meiner Meinung kann die Ortung sehr wohl auch als Lokalisierung herangezogen werden. Durch das akustische Modell eines Raumes (seiner Reflexionseigenschaften etc.) kann ein Hörer durch das spezifische Geräuschmuster einer Geräuschquelle (Reflexionen, Echo etc.) diese räumlich zuorten.
Insbesondere Blinde können sich dadurch sehr gut ein Bild ihrer Umgebung erschaffen.
Danke, --Abdull 00:23, 2. Nov 2004 (CET)