Wellenfeldsynthese
Bei der akustischen Wellenfeldsynthese, kurz WFS, wird versucht, die Luftschwingungen einer realen Situation, die den Schall ausmachen, über einen ganzen Raum nachzubilden. Im Gegensatz zur herkömmlichen Wiedergabe über zwei oder mehr Lautsprecher, bei der die Abbildung der Position der originären Schallquellen sich auf eine Linie zwischen den Lautsprechern beschränkt, soll die Wellenfeldsynthese das gesamte Schallfeld originalgetreu auf den Raum übertragen. Das bedeutet, dass die (virtuellen) Schallquellen exakt räumlich lokalisierbar sind, und gegebenenfalls sogar mitten im beschallten Raum zu existieren scheinen, sie werden umgehbar.
Die Theorie der Wellenfeldsynthese wurde in den späten 1980er Jahren an der Technischen Universität Delft aus der Seismik abgeleitet und dort auch das erste Mal in einem Demonstrationssystem mit 160 Lautsprechern realisiert. Deutlich erweitertes Interesse erlangt die Wellenfeldsynthese seit dem von der EU geförderten Projekt CARROUSO (2001-2003), in dem unter anderem mehrere Forschungssysteme zur Wellenfeldsynthese entstanden.
Die Wellenfeldsynthese basiert auf dem Huygensschen Prinzip, das besagt, dass jeder Punkt auf einer Wellenfront als Ausgangspunkt für eine elementare sphärische Welle angesehen werden kann. Durch Interferenz aller Elementarwellen entsteht eine neue Wellenfront, die mit der ursprünglichen Welle identisch ist. Aufgrund der Verwandtschaft zur optischen Holographie spricht man daher auch von Holophonie. Mathematische Basis ist das Kirchhoff-Helmholtz-Integral, das die Rekonstruktion eines beliebigen Schallfeldes innerhalb einer geschlossenen Hüllfläche aus unendlich vielen Monopolen und Dipolen beschreibt. Im Zuge der Entwicklung der Wellenfeldsynthese wurden diverse Vereinfachungen ermöglicht, indem nur noch eine Linie von Elementarquellen verwendet wird und nur noch eine begrenzte Anzahl von Monopolquellen, welche z.B. normale Lautsprecher näherungsweise darstellen, benötigt wird.
Ein derartiges Klangsystem wird vom Fraunhofer-Institut für Digitale Medientechnologie im Umfeld der TU Ilmenau entwickelt und wird unter dem Namen IOSONO vertrieben. Ein weiteres System existiert unter dem Namen zsonic modules der Firma sonic emotion. Dabei werden alle Schallereignisse als einzelne Spuren zusammen mit ihren Positionsangaben gespeichert. Strenggenommen müsste man also z.B. ein Symphonieorchester derart aufnehmen, dass jedes Instrument mit einem eigenen Mikrofon ausgestattet wird, möglichst ohne dabei Diffusschall, erste Reflexionen und die übrigen Instrumente aufzunehmen. In der Praxis zeigt sich, dass dies nicht notwendig und natürlich auch nicht durchführbar ist. In den vergangenen Jahren wurden verschiedene Verfahren entwickelt, die die Mikrofonzahl reduzieren und auch stereofone Techniken, z.B. sogenannte Hauptmikrofone, in die WFS-Mischung einbeziehen. Die Wiedergabe in WFS bleibt auch mit diesen Verfahren holophonisch, sofern eine entsprechende Signalverarbeitung verwendet wird. Die Mischung ist für den Toningenieur einfach zu handhaben, da die Aufnahmeverfahren den bekannten stereofonen Ansätzen ähneln.
Zur Wiedergabe speist ein Computer die Tonereignisse samt Positionsangaben in die Lautsprecherpanele ein - häufig Balken mit je acht Lautsprechern, die im Idealfall als durchgehendes Band einmal um den ganzen Raum herum montiert werden. Die Panele besitzen Prozessoren, die die Position des Lautsprechers kennen und damit selbst entscheiden, wie das Panel an der Rekonstruktion der darzustellenden Wellenfront mitwirken kann und errechnen so den abzustrahlenden Schallwellenteil. Etwas problematisch sind die tiefen Frequenzen, hierfür werden meistens Subwoofer verwendet.
Ein scheinbar ähnliches Verfahren ist das Beamforming, welches ebenfalls Lautsprechergruppen oder -arrays verwendet (prinzipiell verwandt mit Mikrofonarrays). Hierbei werden jedoch keine beliebigen Wellenfronten synthetisiert, sondern es wird eine möglichst stark gerichtete Schallabstrahlung z.B. zur Beschallung angestrebt. Auf dem Beamforming basieren auch kompakte Systeme, die meist als Klangprojektoren bezeichnet werden (z.B. von Pioneer und Yamaha erhältlich). Diese erzeugen gezielte Reflexionen an den Raumwänden, um dort stehende Lautsprecher zu simulieren, wobei Form und Eigenschaften der Wände entscheidenden Einfluss haben. Eine Gemeinsamkeit von Wellenfeldsynthese und Beamforming ist, dass die untere Grenze des korrekt wiedergegebenen Frequenzbereichs durch die Länge des Lautsprecherarrays und die obere Grenze durch den Abstand der einzelnen Lautsprecher bestimmt wird (vgl. Alias-Effekt).
Eine per Wellenfeldsynthese wiederzugebende Tonumgebung (z.B. eines Kinofilms oder Konzertes) muss mit vielen Audioereignissen, einschließlich Positionsdaten, vorgelegt werden. Dennoch profitiert auch ein "herkömmlicher" Kinofilm von dem System: So kann die einfache Surroundton-Umgebung mit fünf oder sieben Tonkanälen als "virtuelle" Lautsprecher wiedergegeben werden, die scheinbar weit außerhalb des Kinosaales stehen. Dadurch ist der Sweet Spot aufgeweitet, und kann von allen Zuschauern - und nicht nur denen im Zentrum des Kinosaals - genossen werden. In den vergangenen Jahren wurden verschiedene WFS-Systeme installiert, vor allem im industriellen Bereich, im Kino Lindenlichtspiele in Ilmenau, für die Bregenzer Festspiele sowie an verschiedenen Universitäten. Im Sommer 2006 wird ein WFS-System am Centre Pompidou in Paris im Rahmen der Ausstellung "Dada" zu hören sein.