Diskussion:High Dynamic Range Rendering

Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 12. Februar 2006 um 21:25 Uhr durch Johannes re (Diskussion | Beiträge) (Kritik am Artikel). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Ich habe mittlerweile schon öfters gelesen, dass HDRR nur 16bit floats verwendet.. Schwammerl-Bob 20:54, 6. Okt 2005 (CEST)

Einige Grafikkarten (vornehmlich ATI) unterstützen meines Wissens bezüglich HDR nur 16-bit Fliesskomma. ich wüsste allerdings nicht warum das eine echtes und das andere kein echtes HDR sein sollte. Der Grundgedanke von HDR ist doch lediglich, dass die Farbkanäle als Fliesskommazahlen dargestellt werden, und somit auch extreme Werte annehmen können, die das Anzeigegerät (Monitor) selbst nicht darstellen kann. So lässt sich mit einem Pixel intern die tatsächliche Lichtintensität an diesem Punkt darstellen, und nicht nur ein Farbwert, der dem Licht bei einer bestimmten Belichtungszeit entspricht. So macht es bei HDR für die interne Lichtberechnung einen Unterschied, ob der Pixel nun z.B. zur Sonne, oder zu einer Atomexplosion gehört. Beides wird auf dem Monitor Weiss dargestellt (maximales Licht), sofern man direkt draufschaut, letzteres hat jedoch eine höhere Lichtintesität und wird z.B. nachdem das Licht durch ein lichtabsorbierendes Objekt gelaufen ist (z.B. getöntes Glas), wesentlich heller dargestellt. Der Unterschied zwischen 16-bit und 32-bit Fliesskomma besteht hier lediglich darin, dass die Lichtintensitäten bei 16-bit eine gröbere Abstufung haben, die sich bei einigen Berechnungen durch sogenannte Quantisierungsartefakte äussern (Simples Beispiel für Quantisierungsartefakte/Colour Banding). Wenn überhaupt, dann würde ich 32-bit HDR als 'echtes' HDR bezeichnen. Das 16-bit-Format ist lediglich eine speicher- und chipleistungssparsamere Variante. --Tom Bombadil 19:43, 25. Okt 2005 (CEST)

Vielleicht sollte noch etwas dazu geschrieben werden, dass (und warum) echtes HDRR kein Anti-Aliasing zulässt, und warum es in Valves "HDRR" trotzdem geht.

Kein Anti-Aliasing? Das war mir neu. Warum sollte das nicht gehen, weisst du da näheres, oder ist das viellicht nur eine technische Einschränkung aktueller Grafikkarten? Weil aus mathematischer Sicht kann ich mir keinen Grund vorstellen, warum es nicht gehen sollte (ode irre ich mich?) --Tom Bombadil 19:43, 25. Okt 2005 (CEST)

Kritik am Artikel

Der Artikel ist in hat in meinen Augen einen zu grossen Fokus auf Computerspiele. Die HDR-Technik selbst ist jedoch schon wesentlich älter und keine neue Errungenschaft von 'DirectX'. DirectX unterstützt zwar auch HDR, gehört aber meines Erachtens nicht in diesen Artikel. Auch vermisse ich im Artikel Namen wie Gregory Ward und Paul Debevec, die eng mit der Technik verknüpft sind. Schaut Euch diesbezüglich mal den englischen Artikel zum Thema an (HDR der Englischen Wikipedia). Dieser Trifft das Thema meiner Meinung nach besser. HDR ist also eine allgemeine Technik der Computergrafik, erfordert zur Realisierung nicht unbedingt neue Grafikkarten (auch wenn diese gute Unterstützung dafür bieten), und wird neuerdings *auch schon* in Spielen verwendet (und ist dort gerade mächtig im Kommen), wobei die Spieleindustrie hierbei keine Vorreiterrolle einnimmt. --Tom Bombadil 19:43, 25. Okt 2005 (CEST)

ack, um nicht zu sagen: der Artikel bringt es in dieser Form nicht so ganz. Alpha ist kein Farbkanal, 16-bit geht auch, DTP und Rendering für's Kino fehlen, falsche Vergleiche zw. ATI und Nvidia, etc. Leider kenn' ich mich nicht gut genug aus, um's besser zu machen :-( --Johannes re 20:22, 12. Feb 2006 (CET)