https://de.wikipedia.org/w/api.php?action=feedcontributions&feedformat=atom&user=HerrHartmuthWikipedia - Benutzerbeiträge [de]2025-08-01T04:53:09ZBenutzerbeiträgeMediaWiki 1.45.0-wmf.12https://de.wikipedia.org/w/index.php?title=Echtzeitbetriebssystem&diff=203333025Echtzeitbetriebssystem2020-09-02T11:36:33Z<p>HerrHartmuth: /* Theoretische Überlegungen */ Math. Typesetting</p>
<hr />
<div>Ein '''Echtzeitbetriebssystem''' (englisch ''{{lang|en|real-time operating system}}'', kurz '''RTOS''' genannt) ist ein [[Betriebssystem]] in der [[Elektronische Datenverarbeitung|elektronischen Datenverarbeitung]], das in der Lage ist, [[Echtzeit]]-Anforderungen der Anwendungen zu erfüllen.<ref>{{Internetquelle | url=https://www.itwissen.info/RTOS-real-time-operating-system-Echtzeitbetriebssystem.html | titel=ITWissen:RTOS (real time operating system) | datum=2015-07-12 | zugriff=2018-09-14}}</ref> Das bedeutet das gesicherte Verarbeiten von Anfragen eines Anwendungsprogramms oder dem Eintreffen von Signalen über Hardware-Schnittstellen innerhalb einer im Vorhinein bestimmbaren Frist ([[Timeout (Netzwerktechnik)|Timeout]] <math>t_\text{max}</math>). Entscheidend ist hier nicht die Länge der Frist, sondern dass es überhaupt eine Frist gibt, die zugesichert werden kann. <br />
<br />
Das Erfordernis eines Echtzeitbetriebssystem ergibt sich immer dann, wenn Rechner mit der physikalischen Welt messend und/oder steuernd in Verbindung stehen. Das ist das qualitative Erfordernis eines Echtzeitbetriebssystems.<br />
<br />
Die quantitative Anforderung an dessen Echtzeitverhalten ergibt sich aus dem Anwendungsfall selbst. So sind zum Beispiel bei einer Heizungssteuerung längere <math>t_\text{max}</math>-Werte anwendbar als bei der Auslösung eines Airbags. Zusammen mit dem vorher Gesagten ergibt sich, dass nicht jedes Echtzeitbetriebssystem für jede Echtzeitanwendung geeignet ist.<br />
<br />
== Theoretische Überlegungen ==<br />
Da zur Definition keine bestimmten <math>t_\text{max}</math>-Werte für die Betriebssystemaufrufe gefordert sind, sondern diese nur bestimmbar sein und festliegen müssen, ist theoretisch jedes Betriebssystem ein Echtzeitbetriebssystem, bei dem es eine obere Schranke für die Anzahl der Prozesse gibt und dessen Systemdienste ausschließlich aus [[LOOP-Programm|LOOP-Programmen]], also aus primitiv-rekursiven Funktionen bestehen. <br />
Die anwendbaren <math>t_\text{max}</math>-Werte ließen sich dann errechnen. <br />
Allerdings sind die sich so ergebenden Werte für jede praktische Anwendung zu groß. <br />
Dies rechtfertigt den Begriff Echtzeitbetriebssystem als eigene Klasse von Betriebssystemen mit eigenen Anforderungen, bei dessen Erstellung die Echtzeit-Eigenschaft besonders berücksichtigt wird. <br />
Das sporadische und gemeinhin bekannte Verhalten von Desktop-Betriebssystemen für eine Weile "einzufrieren" ist für RTOS nicht hinnehmbar.<br />
<br />
== Anforderungen an Echtzeitbetriebssysteme ==<br />
=== Präemptives Multitasking ===<br />
Ein Echtzeitbetriebssystem, das über Multitasking verfügt, muss zwingend mit [[Multitasking#Präemptives Multitasking|präemptivem Multitasking]] arbeiten, da bei [[Multitasking#Kooperatives Multitasking|kooperativem Multitasking]] einem Prozess durch einen zweiten bis zum Erreichen des Timeouts die CPU entzogen werden könnte. Mit dieser Anforderung einher geht auch das Erfordernis einer Interrupt-Infrastruktur der CPU.<br />
<br />
=== Vorhersagbares Zeitverhalten der Systemaufrufe ===<br />
Echtzeitbetriebssysteme müssen auch im ungünstigsten Fall die Einhaltung definierter Verarbeitungszeiten von Systemaufrufen garantieren. Dies betrifft vor allem das [[Scheduling]] und die [[Speicherverwaltung]]. Falls die Bearbeitung einer Anforderung zur Zuweisung von Speicher die Durchführung einer [[Garbage Collection]] provozieren kann, weil der Freispeicher erschöpft ist, dann verschlechtert sich das zusagbare Echtzeitverhalten dramatisch und mindestens auf die maximale Laufzeit einer Garbage Collection. <br />
<br />
=== Vorhersagbare Reaktionszeiten auf Ereignisse ===<br />
Unter Ereignis ist jede von außen her rührende Zustandsänderung gemeint, die für eine Echtzeitanwendung von Bedeutung ist. Das kann das Eintreffen eines Datenpaketes, das Sichändern eines Bits an einem Port und Ähnliches sein. In einer realen Anwendung kann sich dahinter die Verfügbarkeit neuer Messdaten, der Druck auf eine Taste oder das Überschreiten eines zulässigen Bereiches durch einen Messwert bedeuten. Ein Echtzeitbetriebssystem muss dann sicherstellen können, dass die hierzu erforderliche Reaktion, die zumeist in der Aktivierung einer zum Ereignis gehörenden Dienstroutine der Anwendung besteht, innerhalb einer im Vorhinein festliegenden Frist erfolgt.<br />
<br />
== Frühe Formen der Echtzeitverarbeitung ==<br />
In frühen Echtzeitanwendungen wurde die garantierte Antwortzeit auf Ereignisse vor allem durch unmittelbare Nutzung von Hardware-Interrupts durch das Anwendungsprogramm selbst realisiert. Dazu senkt oder hebt (je nach Logik) der Anforderer das Potential auf einem IRQ genannten Pin der CPU. Die CPU stoppt dann sofort die Arbeit am aktuell ausgeführten Programm, legt den aktuellen Programmzähler auf den CPU-Stack, entnimmt einer Interrupt-Vektor-Tabelle die Adresse der zugehörigen Interrupt-Service-Routine und springt diese an. Gleichzeitig wird der Interrupt maskiert, sodass er nicht direkt wieder ausgelöst werden kann. Die Interrupt-Service-Routine behandelt dann das Ereignis, demaskiert den Interrupt und beendet sich dann über einen meistens RETI (Return from Interrupt) genannten Befehl. Die CPU springt dann zurück an die Programmstelle, an der sie die Programmabarbeitung unterbrochen hatte.<br />
<br />
Die Nutzung von Hardware-Interrupts seitens der Anwendung selbst wird durch ein Echtzeitbetriebssystem entbehrlich.<br />
<br />
== Anwendungsbereiche ==<br />
Echtzeitbetriebssysteme kommen immer dort zum Einsatz, wo das Überschreiten maximaler Antwortzeiten bei Antwort auf Ereignisse unmittelbare Schäden verursacht.<br />
Das sind insbesondere [[Maschinenbau]], [[Steuerungstechnik]] und [[Robotik]]. Dort, speziell in Anwendungsbereichen, von denen Gefahr für Leib und Leben ausgeht, wie [[Medizintechnik]] und [[Fly-by-Wire]], sind Echtzeitbetriebssysteme (beziehungsweise ein Echtzeitverhalten) unabdingbar.<br />
<br />
== Implementierungen ==<br />
<br />
<br />
* [[ChorusOS]]<br />
* [[DRYOS]]<br />
* [[eCos]]<br />
* [[embOS]] <br />
* [[FreeRTOS]]<br />
* [[iRMX]]<br />
* [[LynxOS]]<br />
* [[MicroC/OS-II]]<br />
* [[Nucleus (Betriebssystem)|Nucleus]]<br />
* [[OS-9]]<br />
* [[PEARL Operating System]]<br />
* [[PikeOS]]<br />
* [[PEARL Operating System|POS]]<br />
* [[QNX]]<br />
* [[Real-Time Executive]] (RTE)<br />
* [[Real-Time Operating System for Multiprocessor Systems|RTEMS]]<br />
* [[RIOT (Betriebssystem)]]<br />
* [[Rodos (Betriebssystem)]]<br />
* [[RSX-11]]<br />
* [[RT-11]]<br />
* [[RTAI]]<br />
* [[RTLinux]]<br />
* [[RTOS-32]]<br />
* [[RTOS-UH]]<br />
* [[RTX: Real Time eXtensions für Windows]]<br />
* [[T-Engine]]<br />
* [[Transaction Processing Facility]]<br />
* [[TRON-Projekt|TRON]]<br />
* [[TTP-OS]]<br />
* [[VxWorks]]<br />
* [[Windows CE]]<br />
* [[Zephyr (Betriebssystem)]]<br />
<br />
== Siehe auch ==<br />
* [[Echtzeitsystem]]<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
== Weblinks ==<br />
* [http://www.realtimelinuxfoundation.org/ Real Time Linux Foundation, Inc.] Sammlung von verschiedenen Linux-Echtzeitbetriebssystemen (''englisch'')<br />
* [http://www.faqs.org/faqs/realtime-computing/list/ Eine Liste von kommerziellen Echtzeitbetriebssystemen] (englisch)<br />
* [[:en:List of real-time operating systems|Englische Wikipedia Seite mit einer Tabelle von EZBSen]]<br />
* [http://www-old.betriebssysteme.org/Aktivitaeten/Treffen/2007-Karlsruhe/Programm/docs/GIFGOS07-oberthuer.pdf Selbstoptimierendes Echtzeitbetriebssystem für verteilte selbstoptimierende Systeme.] (PDF; 153&nbsp;kB)<br />
<br />
[[Kategorie:Betriebssystemtheorie]]<br />
[[Kategorie:Echtzeitbetriebssystem| ]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Echtzeitbetriebssystem&diff=203332988Echtzeitbetriebssystem2020-09-02T11:35:09Z<p>HerrHartmuth: Math. Typesetting</p>
<hr />
<div>Ein '''Echtzeitbetriebssystem''' (englisch ''{{lang|en|real-time operating system}}'', kurz '''RTOS''' genannt) ist ein [[Betriebssystem]] in der [[Elektronische Datenverarbeitung|elektronischen Datenverarbeitung]], das in der Lage ist, [[Echtzeit]]-Anforderungen der Anwendungen zu erfüllen.<ref>{{Internetquelle | url=https://www.itwissen.info/RTOS-real-time-operating-system-Echtzeitbetriebssystem.html | titel=ITWissen:RTOS (real time operating system) | datum=2015-07-12 | zugriff=2018-09-14}}</ref> Das bedeutet das gesicherte Verarbeiten von Anfragen eines Anwendungsprogramms oder dem Eintreffen von Signalen über Hardware-Schnittstellen innerhalb einer im Vorhinein bestimmbaren Frist ([[Timeout (Netzwerktechnik)|Timeout]] <math>t_\text{max}</math>). Entscheidend ist hier nicht die Länge der Frist, sondern dass es überhaupt eine Frist gibt, die zugesichert werden kann. <br />
<br />
Das Erfordernis eines Echtzeitbetriebssystem ergibt sich immer dann, wenn Rechner mit der physikalischen Welt messend und/oder steuernd in Verbindung stehen. Das ist das qualitative Erfordernis eines Echtzeitbetriebssystems.<br />
<br />
Die quantitative Anforderung an dessen Echtzeitverhalten ergibt sich aus dem Anwendungsfall selbst. So sind zum Beispiel bei einer Heizungssteuerung längere <math>t_\text{max}</math>-Werte anwendbar als bei der Auslösung eines Airbags. Zusammen mit dem vorher Gesagten ergibt sich, dass nicht jedes Echtzeitbetriebssystem für jede Echtzeitanwendung geeignet ist.<br />
<br />
== Theoretische Überlegungen ==<br />
Da zur Definition keine bestimmten <math>t_{max}</math>-Werte für die Betriebssystemaufrufe gefordert sind, sondern diese nur bestimmbar sein und festliegen müssen, ist theoretisch jedes Betriebssystem ein Echtzeitbetriebssystem, bei dem es eine obere Schranke für die Anzahl der Prozesse gibt und dessen Systemdienste ausschließlich aus [[LOOP-Programm|LOOP-Programmen]], also aus primitiv-rekursiven Funktionen bestehen. Die anwendbaren <math>t_{max}</math>-Werte ließen sich dann errechnen. Allerdings sind die sich so ergebenden Werte für jede praktische Anwendung zu groß. Dies rechtfertigt den Begriff Echtzeitbetriebssystem als eigene Klasse von Betriebssystemen mit eigenen Anforderungen, bei dessen Erstellung die Echtzeit-Eigenschaft besonders berücksichtigt wird. Das sporadische und gemeinhin bekannte Verhalten von Desktop-Betriebssystemen für eine Weile "einzufrieren" ist für RTOS nicht hinnehmbar.<br />
<br />
== Anforderungen an Echtzeitbetriebssysteme ==<br />
=== Präemptives Multitasking ===<br />
Ein Echtzeitbetriebssystem, das über Multitasking verfügt, muss zwingend mit [[Multitasking#Präemptives Multitasking|präemptivem Multitasking]] arbeiten, da bei [[Multitasking#Kooperatives Multitasking|kooperativem Multitasking]] einem Prozess durch einen zweiten bis zum Erreichen des Timeouts die CPU entzogen werden könnte. Mit dieser Anforderung einher geht auch das Erfordernis einer Interrupt-Infrastruktur der CPU.<br />
<br />
=== Vorhersagbares Zeitverhalten der Systemaufrufe ===<br />
Echtzeitbetriebssysteme müssen auch im ungünstigsten Fall die Einhaltung definierter Verarbeitungszeiten von Systemaufrufen garantieren. Dies betrifft vor allem das [[Scheduling]] und die [[Speicherverwaltung]]. Falls die Bearbeitung einer Anforderung zur Zuweisung von Speicher die Durchführung einer [[Garbage Collection]] provozieren kann, weil der Freispeicher erschöpft ist, dann verschlechtert sich das zusagbare Echtzeitverhalten dramatisch und mindestens auf die maximale Laufzeit einer Garbage Collection. <br />
<br />
=== Vorhersagbare Reaktionszeiten auf Ereignisse ===<br />
Unter Ereignis ist jede von außen her rührende Zustandsänderung gemeint, die für eine Echtzeitanwendung von Bedeutung ist. Das kann das Eintreffen eines Datenpaketes, das Sichändern eines Bits an einem Port und Ähnliches sein. In einer realen Anwendung kann sich dahinter die Verfügbarkeit neuer Messdaten, der Druck auf eine Taste oder das Überschreiten eines zulässigen Bereiches durch einen Messwert bedeuten. Ein Echtzeitbetriebssystem muss dann sicherstellen können, dass die hierzu erforderliche Reaktion, die zumeist in der Aktivierung einer zum Ereignis gehörenden Dienstroutine der Anwendung besteht, innerhalb einer im Vorhinein festliegenden Frist erfolgt.<br />
<br />
== Frühe Formen der Echtzeitverarbeitung ==<br />
In frühen Echtzeitanwendungen wurde die garantierte Antwortzeit auf Ereignisse vor allem durch unmittelbare Nutzung von Hardware-Interrupts durch das Anwendungsprogramm selbst realisiert. Dazu senkt oder hebt (je nach Logik) der Anforderer das Potential auf einem IRQ genannten Pin der CPU. Die CPU stoppt dann sofort die Arbeit am aktuell ausgeführten Programm, legt den aktuellen Programmzähler auf den CPU-Stack, entnimmt einer Interrupt-Vektor-Tabelle die Adresse der zugehörigen Interrupt-Service-Routine und springt diese an. Gleichzeitig wird der Interrupt maskiert, sodass er nicht direkt wieder ausgelöst werden kann. Die Interrupt-Service-Routine behandelt dann das Ereignis, demaskiert den Interrupt und beendet sich dann über einen meistens RETI (Return from Interrupt) genannten Befehl. Die CPU springt dann zurück an die Programmstelle, an der sie die Programmabarbeitung unterbrochen hatte.<br />
<br />
Die Nutzung von Hardware-Interrupts seitens der Anwendung selbst wird durch ein Echtzeitbetriebssystem entbehrlich.<br />
<br />
== Anwendungsbereiche ==<br />
Echtzeitbetriebssysteme kommen immer dort zum Einsatz, wo das Überschreiten maximaler Antwortzeiten bei Antwort auf Ereignisse unmittelbare Schäden verursacht.<br />
Das sind insbesondere [[Maschinenbau]], [[Steuerungstechnik]] und [[Robotik]]. Dort, speziell in Anwendungsbereichen, von denen Gefahr für Leib und Leben ausgeht, wie [[Medizintechnik]] und [[Fly-by-Wire]], sind Echtzeitbetriebssysteme (beziehungsweise ein Echtzeitverhalten) unabdingbar.<br />
<br />
== Implementierungen ==<br />
<br />
<br />
* [[ChorusOS]]<br />
* [[DRYOS]]<br />
* [[eCos]]<br />
* [[embOS]] <br />
* [[FreeRTOS]]<br />
* [[iRMX]]<br />
* [[LynxOS]]<br />
* [[MicroC/OS-II]]<br />
* [[Nucleus (Betriebssystem)|Nucleus]]<br />
* [[OS-9]]<br />
* [[PEARL Operating System]]<br />
* [[PikeOS]]<br />
* [[PEARL Operating System|POS]]<br />
* [[QNX]]<br />
* [[Real-Time Executive]] (RTE)<br />
* [[Real-Time Operating System for Multiprocessor Systems|RTEMS]]<br />
* [[RIOT (Betriebssystem)]]<br />
* [[Rodos (Betriebssystem)]]<br />
* [[RSX-11]]<br />
* [[RT-11]]<br />
* [[RTAI]]<br />
* [[RTLinux]]<br />
* [[RTOS-32]]<br />
* [[RTOS-UH]]<br />
* [[RTX: Real Time eXtensions für Windows]]<br />
* [[T-Engine]]<br />
* [[Transaction Processing Facility]]<br />
* [[TRON-Projekt|TRON]]<br />
* [[TTP-OS]]<br />
* [[VxWorks]]<br />
* [[Windows CE]]<br />
* [[Zephyr (Betriebssystem)]]<br />
<br />
== Siehe auch ==<br />
* [[Echtzeitsystem]]<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
== Weblinks ==<br />
* [http://www.realtimelinuxfoundation.org/ Real Time Linux Foundation, Inc.] Sammlung von verschiedenen Linux-Echtzeitbetriebssystemen (''englisch'')<br />
* [http://www.faqs.org/faqs/realtime-computing/list/ Eine Liste von kommerziellen Echtzeitbetriebssystemen] (englisch)<br />
* [[:en:List of real-time operating systems|Englische Wikipedia Seite mit einer Tabelle von EZBSen]]<br />
* [http://www-old.betriebssysteme.org/Aktivitaeten/Treffen/2007-Karlsruhe/Programm/docs/GIFGOS07-oberthuer.pdf Selbstoptimierendes Echtzeitbetriebssystem für verteilte selbstoptimierende Systeme.] (PDF; 153&nbsp;kB)<br />
<br />
[[Kategorie:Betriebssystemtheorie]]<br />
[[Kategorie:Echtzeitbetriebssystem| ]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Reihe_(Mathematik)&diff=203271969Reihe (Mathematik)2020-08-31T11:45:29Z<p>HerrHartmuth: /* Darstellung mathematischer Konstanten */ math typesetting und Punkt eingefuegt</p>
<hr />
<div>[[Datei:Geometric Segment.svg|mini|Die Reihe <math>\tfrac 12+\tfrac 14+\tfrac 18+\cdots</math> konvergiert gegen 1]]<br />
Eine '''Reihe''', selten '''Summenfolge'''<ref>{{Literatur |Titel=Summenfolge|Autor= |Herausgeber=Guido Walz |Sammelwerk=Lexikon der Mathematik |Auflage=1 |Verlag=Spektrum Akademischer Verlag |Ort=Mannheim/Heidelberg |Jahr=2000 |ISBN=3-8274-0439-8}}</ref> und vor allem in älteren Darstellungen auch '''unendliche Reihe''' genannt,<ref>{{Literatur |Titel=Reihe |Autor= |Herausgeber=Guido Walz |Sammelwerk=Lexikon der Mathematik |Auflage=1 |Verlag=Spektrum Akademischer Verlag |Ort=Mannheim/Heidelberg |Jahr=2000 |ISBN=3-8274-0439-8}}</ref> ist ein Objekt aus dem [[Mathematisches Teilgebiet|mathematischen Teilgebiet]] der [[Analysis]]. Anschaulich ist eine Reihe eine [[Summe]] mit [[Unendlichkeit|unendlich]] vielen [[Summand]]en. Präzise wird eine Reihe als eine [[Folge (Mathematik)|Folge]] definiert, deren Glieder die '''Partialsummen''' einer anderen Folge sind. Wenn man die Zahl 0 zur [[Indexmenge (Mathematik)|Indexmenge]] zählt, ist die <math>n</math>-te Partialsumme die Summe der ersten <math>n+1</math> (von den unendlich vielen) Summanden. Falls die Folge dieser Partialsummen einen [[Grenzwert (Folge)|Grenzwert]] besitzt, so wird dieser der Wert oder die Summe der Reihe genannt.<br />
<br />
== Definition ==<br />
<br />
Ist eine beliebige [[Folge (Mathematik)|Folge]] <math>\left(a_i\right)</math> gegeben, kann man aus ihr eine neue Folge <math>\left(s_n\right)</math> der Partialsummen bilden. Die <math>n</math>-te Partialsumme ist die Summe der ersten <math>n+1</math> Glieder von <math>\left(a_i\right)</math>, ihre Definition lautet:<br />
:<math>s_n = a_0 + a_1 + \dotsb + a_n</math><br />
Die Folge <math>\left(s_n\right)</math> der <math>n</math>-ten Partialsummen heißt ''Reihe''. Falls die Reihe (also die Folge der Partialsummen) [[Grenzwert (Folge)|konvergiert]], so nennt man ihren Grenzwert<br />
:<math>\lim_{n \to \infty} s_n = \lim_{n \to \infty} \sum_{i=0}^n a_i</math><br />
Wert der Reihe oder Summe der Reihe.<ref>[[Otto Forster]]: ''Analysis'' Band 1: ''Differential- und Integralrechnung einer Veränderlichen.'' Vieweg-Verlag, 8. Aufl. 2006, ISBN 3-528-67224-2, S. 37.</ref><br />
<br />
== Notation ==<br />
<br />
Für Reihen gibt es je nach Kontext unterschiedliche [[Mathematische Notation|Notationen]]. In diesem Artikel werden als [[Index (Mathematik)|Indizes]] für die Glieder von Folge und Reihe die [[Natürliche Zahl|natürlichen Zahlen]] einschließlich der Null verwendet.<br />
Bei manchen Anwendungen ist es zweckmäßig, die Summation erst beim Index 1, 2 oder höher zu beginnen, selten kommen auch negative Indizes vor (siehe [[Laurent-Reihe]]). Mit Hilfe des [[Summenzeichen]]s können die einzelnen Glieder der Reihe auch abgekürzt als<br />
:<math>s_n = \sum_{i=0}^n a_i</math><br />
geschrieben werden. Ebenso geht man bei der Folge der Einzelglieder vor und schreibt kurz<br />
:<math> S = \sum_{i=0}^\infty a_i.</math><br />
Häufig werden ein Teil oder alle Indizes weggelassen, wenn Missverständnisse ausgeschlossen sind. Ist etwa wie hier im Kontext von Berechnungen mit unendlichen Reihen klar, dass generell bei 0 zu nummerieren angefangen wird, so steht<br />
:<math> S = \sum a_i </math> für <math>S = \sum_{i=0}^\infty a_i.</math><br />
<br />
== Auswertung und Einteilung ==<br />
<br />
Wenn <math>(a_i)</math> und damit auch <math>(s_n)</math> für alle nichtnegativen ganzen Indizes ''i'' bzw. ''n'' definiert sind, lässt sich somit eine ''unendliche Reihe'' bilden: wenn der [[Grenzwert (Folge)|Grenzwert]] der Folge der Partialsummen<br />
:<math> S = \lim_{n\rightarrow \infty}s_n = \lim_{n\rightarrow \infty} \left( \sum_{i=0}^n a_i \right)</math><br />
existiert, sagt man, die Reihe konvergiert; den Grenzwert ''S'' nennt man die Summe der Reihe oder den Wert der Reihe. Mit Hilfe des Summenzeichens kann diese Summe auch abgekürzt als<br />
:<math> S = \sum_{i=0}^\infty a_i</math><br />
geschrieben werden.<br />
<br />
Eine Reihe <math>(s_n)</math> heißt divergent oder ihr Grenzwert nicht existent, wenn die Reihe nicht konvergiert. Sie heißt [[Bestimmte Divergenz|bestimmt divergent]] oder [[Uneigentliche Konvergenz|uneigentlich konvergent]], wenn die Teilsummen <math>(s_n)</math> gegen −∞ oder +∞ streben. Andernfalls heißt die Reihe [[Unbestimmte Divergenz|unbestimmt divergent]]; dabei kann sie [[Häufungspunkt]]e haben oder auch nicht.<br />
<br />
Mit verschiedenen [[Konvergenzkriterium|Konvergenzkriterien]] lässt sich feststellen, ob eine Reihe konvergiert.<br />
<br />
== Beispiele ==<br />
[[Datei:Geometric sequences.svg|mini|Die geometrische Reihe <math>\sum_{k=0}^\infty r^k</math> für <math>r=\tfrac 12</math>, <math>r=\tfrac 13</math> oder <math>r=\tfrac 14</math> konvergiert]]<br />
Eine klassische Reihe ist die [[geometrische Reihe]], der Name ergibt sich aus der [[Geometrische Folge|geometrischen Folge]] (<math>a_n = q^n</math> für <math>n \in \mathbb{N}</math>). Die geometrische Reihe ist also:<br />
:<math>S = \sum_{n=0}^\infty q^n.</math><br />
<br />
Eine spezielle geometrische Reihe ist<br />
:<math>S = \sum_{n=0}^\infty \frac{1}{2^n} = 1+\frac{1}{2}+\frac{1}{4}+\frac{1}{8}+\frac{1}{16}+\cdots</math><br />
Diese Schreibweise bezeichnet nach der oben gegebenen Darstellung den Grenzwert der Folge<br />
:<math>1,\ \frac{3}{2},\ \frac{7}{4},\ \frac{15}{8},\ \dotsc</math><br />
Man kann die Konvergenz dieser Reihe auf der [[Zahlengerade]]n visualisieren: Stellen wir uns eine Linie mit der Länge zwei vor, auf der aufeinanderfolgende Abschnitte mit den Längen 1, 1/2, 1/4 usw. markiert sind. Es gibt auf dieser Linie immer noch Platz für einen weiteren Abschnitt, da immer noch so viel Platz ist, wie der letzte Abschnitt lang war: Wenn wir die Strecke 1/2 markiert haben, haben wir insgesamt 3/2 verbraucht, es bleiben also noch 1/2 übrig. Wenn wir nun 1/4 wegstreichen, bleibt ein weiteres 1/4 übrig etc. Da das „Reststück“ beliebig klein wird, ist der Grenzwert gleich 2.<br />
<br />
Konvergente geometrische Reihen sind auch ein Gegenstand der [[Zenon von Elea|Paradoxa von Zenon]].<br />
<br />
Ein Beispiel für eine divergente Reihe mit mehreren Häufungspunkten ist die Summe über die Folge +1, −1, +1, −1,&nbsp;… Die Reihe wechselt zwischen den Werten 1 und 0 (die Folge hingegen wechselt zwischen 1 und −1).<br />
<br />
== Semantik ==<br />
<br />
Dem Symbol<br />
:<math> \sum_{i=0}^\infty a_i</math><br />
kommen zwei unterschiedliche Bedeutungen zu, zwischen denen aus dem Kontext heraus entschieden werden muss. Einmal steht das Symbol für den Wert der Reihe, der im Fall konvergenter Reihen existiert oder im Fall divergenter Reihen nicht existiert:<br />
:<math> \sum_{i=0}^\infty a_i = \lim_{N\to\infty} \sum_{i=0}^N a_i</math>.<br />
Andererseits repräsentiert das Symbol die Reihe als Folge der Partialsummen, unabhängig vom Konvergenzverhalten:<br />
:<math> \sum_{i=0}^\infty a_i = (a_0,a_0+a_1,a_0+a_1+a_2,a_0+a_1+a_2+a_3,...)</math>.<br />
<br />
Fast immer ist mit dem Symbol der Grenzwert gemeint. Wenn man die Folge der Partialsummen meinen möchte, benutzt man Wendungen wie „…die Reihe, betrachtet als Folge ihrer Partialsummen,…“<br />
<br />
== Rechnen mit Reihen ==<br />
<br />
Im Gegensatz zu gewöhnlichen (endlichen) Summen gelten für Reihen einige übliche Regeln der Addition nur bedingt. Man kann also nicht bzw. nur unter bestimmten Voraussetzungen mit ihnen wie mit endlichen Summenausdrücken rechnen.<br />
<br />
=== Summen und Vielfache ===<br />
<br />
Man kann ''konvergente'' Reihen gliedweise addieren, subtrahieren oder mit einem festen Faktor (aber nicht einer anderen Reihe) multiplizieren (vervielfachen). Die resultierenden Reihen sind ebenfalls konvergent, und ihr Grenzwert ist die Summe bzw. Differenz der Grenzwerte der Ausgangsreihen bzw. das Vielfache des Grenzwertes der Ausgangsreihe. D.&nbsp;h.<br />
<br />
:<math>\sum_{i=0}^\infty (a_i + b_i) = \sum_{i=0}^\infty a_i + \sum_{i=0}^\infty b_i</math><br />
<br />
:<math>\sum_{i=0}^\infty (a_i - b_i) = \sum_{i=0}^\infty a_i - \sum_{i=0}^\infty b_i</math><br />
<br />
:<math>\sum_{i=0}^\infty A\cdot a_i = A\cdot \sum_{i=0}^\infty a_i</math><br />
<br />
=== Produkte ===<br />
<br />
Man kann ''absolut konvergente'' Reihen gliedweise miteinander multiplizieren. Die Produktreihe ist ebenfalls absolut konvergent und ihr Grenzwert ist das Produkt der Grenzwerte der Ausgangsreihen. D.&nbsp;h.<br />
:<math>\sum_{i, j=0}^\infty (a_i\cdot b_j) = \left(\sum_{i=0}^\infty a_i\right) \cdot \left( \sum_{j=0}^\infty b_j \right)</math><br />
<br />
Da die Schreibweise (auf der linken Seite der Gleichung) der Produktreihe mit zwei Indizes in bestimmten Zusammenhängen „unhandlich“ ist, wird die Produktreihe auch in Form des [[Cauchyprodukt]]s geschrieben. Der Name ergibt sich daraus, dass die Glieder der Produktreihe mit Hilfe des cauchyschen Diagonalverfahrens gebildet werden, dabei werden die Glieder der Ausgangsfolgen in einem quadratischen Schema paarweise angeordnet, und die (durchnummerierten) Diagonalen dieses Schemas bilden die Produktglieder. Für die Produktreihe braucht man dann nur noch einen einzelnen Index. Die Produktreihe hat dann die folgende Form:<br />
<br />
:<math>\sum_{i, j=0}^\infty (a_i\cdot b_j) = \sum_{n=0}^\infty (a_0\cdot b_n + a_1\cdot b_{n-1} + \dotsb + a_{n-1}\cdot b_1 + a_n\cdot b_0) = \sum_{n=0}^\infty \left(\sum_{m=0}^n a_m\cdot b_{n-m}\right)</math><br />
<br />
=== Rechnen innerhalb der Reihe ===<br />
<br />
==== Klammerung (Assoziativität) ====<br />
<br />
Man kann innerhalb einer konvergenten Reihe die Glieder beliebig durch Klammern zusammenfassen. Man kann also beliebig viele Klammern in den „unendlichen Summenausdruck“ einfügen, man darf sie nur nicht innerhalb eines (aus mehreren Termen zusammengesetzten) Gliedes setzen. Der Wert der Reihe ändert sich durch die zusätzlich eingefügte Klammerung dann nicht.<br />
<br />
Dies gilt für divergente Reihen im Allgemeinen nicht, was man leicht am folgenden Beispiel erkennt.<br />
<br />
Die Reihe<br />
:<math> \sum_{i=0}^\infty (-1)^i = 1 - 1 + 1 - 1 + \dotsb </math><br />
divergiert, während die beklammerte Reihe<br />
:<math> \sum_{i=0}^\infty ((-1)^{2i} + (-1)^{2i+1}) = (1 - 1) + (1 - 1) + \dotsb = 0 + 0 + \dotsb = 0 </math><br />
gegen Null konvergiert und die anders beklammerte Reihe<br />
:<math> 1 + \sum_{i=1}^\infty ((-1)^{2i-1} + (-1)^{2i}) = 1 + (-1 + 1) + (-1 + 1) + \dotsb = 1+ 0 + 0 + \dotsb = 1 </math><br />
gegen noch eine andere Zahl konvergiert.<br />
<br />
Andererseits kann man aber keine Klammern ohne Weiteres ''weg''lassen. Man kann das aber immer dann, wenn die resultierende Reihe wieder konvergent ist. In diesem Falle bleibt auch der Reihenwert unverändert. Falls die „minderbeklammerte“ Reihe nämlich konvergent ist, kann man ihr dieselben Klammern wieder hinzufügen, die man zuvor weggenommen hat, und die Gleichheit des Grenzwertes ergibt sich nach dem oben Gesagten, wenn man darin die Rollen vertauscht und die „minderbeklammerte“ Reihe nun als Reihe betrachtet, der man Klammern hinzufügt.<br />
<br />
==== Umordnung (Kommutativität) ====<br />
{{Hauptartikel|Umordnung von Reihen}}<br />
<br />
Eine Umordnung einer Reihe wird durch eine [[Permutation]] ihrer Indexmenge dargestellt. Ist die Indexmenge zum Beispiel (wie meist) die Menge <math>\N</math> der natürlichen Zahlen und <math>\sigma\colon\N\rightarrow\N,\ i\mapsto \sigma(i)</math>, eine [[bijektive Abbildung]] der natürlichen Zahlen auf sich, so heißt<br />
<br />
:<math>\sum_{i=0}^\infty a_{\sigma(i)}</math><br />
<br />
eine Umordnung der Reihe<br />
<br />
:<math>\sum_{i=0}^\infty a_i.</math><br />
<br />
Man kann konvergente Reihen unter Beibehaltung ihres Wertes [[dann und nur dann]] ''beliebig'' umordnen, wenn sie [[Unbedingt konvergent|unbedingt]] bzw. [[Absolute Konvergenz|absolut konvergent]] sind. Es gilt für unbedingt (oder absolut) konvergente Reihen:<br />
<br />
:<math>\sum_{i=0}^\infty a_i = \sum_{i=0}^\infty a_{\sigma(i)}</math> für alle bijektiven <math>\sigma\colon \N \to \N</math>.<br />
<br />
Bedingt konvergente Reihen dürfen nur endlich umgeordnet werden, d.&nbsp;h. ab einem gewissen Index muss für die Umordnung <math>\sigma(i) = i</math> gelten.<br />
<br />
== Absolute und unbedingte Konvergenz ==<br />
<br />
Eine Reihe <math>\sum_{n=0}^\infty a_n</math> heißt [[Absolute Konvergenz|absolut konvergent]], wenn die Reihe ihrer Absolutglieder <math>\sum_{n=0}^\infty \left|a_n\right|</math> konvergiert.<br />
<br />
Eine konvergente Reihe wird formal als [[Unbedingte Konvergenz|unbedingt konvergent]] definiert, wenn jede ihrer [[#Umordnung (Kommutativität)|Umordnungen]] wieder konvergiert und denselben Grenzwert hat. Die letzte Eigenschaft braucht jedoch nicht vorausgesetzt zu werden, da jede Reihe, deren sämtliche Umordnungen konvergent sind, auch für jede Umordnung denselben Wert hat. Eine konvergente Reihe, die nicht unbedingt konvergent ist, heißt ''bedingt konvergent.''<br />
<br />
In endlich-dimensionalen Räumen gilt der Satz:<br />
:Eine Reihe ist [[Genau dann, wenn|genau dann]] unbedingt konvergent, wenn sie absolut konvergent ist.<br />
<br />
Für eine bedingt konvergente Reihe kann man eine beliebige Zahl vorgeben und dann eine Umordnung dieser Reihe finden, die gegen genau diese Zahl konvergiert ([[riemannscher Umordnungssatz]]). Insbesondere kann man als Zahl auch ''keine Zahl'' vorgeben, soll heißen, dass die Reihe divergieren solle, und findet eine geeignete Umordnung, die das tut.<br />
<br />
== Konvergenzkriterien ==<br />
[[Datei:Entscheidungsbaum zur Konvergenz und Divergenz von Reihen.svg|mini|hochkant|Entscheidungsbaum zur Bestimmung des Konvergenzverhaltens von Reihen]]<br />
{{Hauptartikel|Konvergenzkriterium}}<br />
<br />
Im Folgenden seien die Zahlen <math>a_n</math> stets reelle oder komplexe Zahlen, und die Reihe <math>S</math> definiert als<br />
:<math>S = \sum_{n=0}^\infty a_n.</math><br />
<br />
Zum Beweis der Konvergenz dieser Reihe gibt es diverse [[Konvergenzkriterium|Konvergenzkriterien]], die teils die bedingte, teils die stärkere [[absolute Konvergenz]] (Konvergenz der Reihe der Beträge der Glieder) zeigen:<br />
<br />
;[[Nullfolgenkriterium]]<br />
Wenn die Reihe <math>S</math> konvergiert, dann konvergiert die Folge (''<math>a_n</math>'') der Summanden für <math>n \rightarrow \infty</math> gegen 0. Formuliert: Ist (''<math>a_n</math>'') keine [[Nullfolge]], so divergiert die entsprechende Reihe.<br> Die Umkehrung ist nicht allgemeingültig (ein Gegenbeispiel ist die [[harmonische Reihe]]).<br />
<br />
;[[Majorantenkriterium]]<br />
Wenn alle Glieder <math>a_n</math> der Reihe <math>S</math> nichtnegative reelle Zahlen sind, <math>S</math> konvergiert und für alle <math>n</math><br />
:<math>a_n\geq |b_n|</math><br />
mit reellen oder komplexen Zahlen <math>b_n</math> gilt, dann konvergiert auch die Reihe<br />
:<math>T = \sum_{n=0}^\infty b_n</math><br />
absolut, und es ist <math>|T|\le S</math>.<br />
<br />
;[[Majorantenkriterium|Minorantenkriterium]]<br />
Wenn alle Glieder <math>a_n</math> der Reihe <math>S</math> nichtnegative reelle Zahlen sind, <math>S</math> divergiert und für alle <math>n</math><br />
:<math>a_n\leq b_n</math><br />
mit nichtnegativen reellen Zahlen <math>b_n</math> gilt, dann divergiert auch die Reihe<br />
:<math>\sum_{n=0}^\infty b_n</math>.<br />
<br />
;[[Quotientenkriterium]]<br />
Wenn eine [[Mathematische Konstante|Konstante]] <math>C<1</math> und ein Index <math>N</math> existiert, sodass für alle <math>n\ge N</math> gilt<br />
:<math> \left| \frac{a_{n+1}}{a_n} \right| \le C,</math><br />
dann konvergiert die Reihe <math>S</math> absolut.<br />
<br />
;[[Wurzelkriterium]]<br />
Wenn eine Konstante <math>C<1</math> und ein Index <math>N</math> existiert, sodass für alle <math>n\ge N</math> gilt<br />
:<math>\sqrt[n]{|a_n|} \le C,</math><br />
dann konvergiert die Reihe <math>S</math> absolut.<br />
<br />
;[[Integralkriterium]]<br />
Ist <math>f\colon [1, \infty) \to [0, \infty)</math> eine nichtnegative, [[monoton fallende Funktion]] mit<br />
:<math>f(n)=a_n</math> für alle <math>n</math>,<br />
dann konvergiert <math>S</math> genau dann, wenn das [[Integralrechnung|Integral]]<br />
:<math>\int_1^\infty f(x)\,\mathrm dx</math><br />
existiert.<br />
<br />
;[[Leibniz-Kriterium]]<br />
Eine Reihe der Form<br />
:<math>S = \sum_{n=0}^\infty (-1)^n a_n</math><br />
mit nichtnegativen <math>a_n</math> wird [[alternierende Reihe]] genannt. Eine solche Reihe konvergiert, wenn die Folge <math>a_n</math> ''monoton'' gegen 0 konvergiert. Die Umkehrung ist nicht allgemeingültig.<br />
<br />
=== Beispiele ===<br />
<br />
* Eine [[geometrische Reihe]] <math>\sum_{n=0}^\infty z^n</math> konvergiert genau dann, wenn <math>|z|<1</math>.<br />
<br />
* Die [[Dirichletreihe]] <math>\sum_{n=1}^\infty\frac1{n^r}</math> konvergiert für <math>r>1</math> und divergiert für <math>r\le1</math>, was mit dem [[Integralkriterium]] gezeigt werden kann. Als Funktion von <math>r</math> aufgefasst, ergibt diese Reihe die [[Riemannsche Zetafunktion]].<br />
<br />
* Die [[Teleskopreihe]] <math>\sum_{n=1}^\infty (b_n-b_{n+1})</math> konvergiert genau dann, wenn die Folge <math>b_n</math> für <math>n\to\infty</math> gegen eine Zahl <math>L</math> konvergiert. Der Wert der Reihe ist dann <math>b_1-L</math>.<br />
<br />
== Anwendungen ==<br />
=== Darstellung mathematischer Konstanten ===<br />
Neben der Konvergenz und dem numerischen Wert einer Reihe ist auch der ''symbolische Wert'' einer Reihe von Bedeutung. Beispielsweise lassen sich so [[mathematische Konstante]]n [[Zahldarstellung|darstellen]] und numerisch berechnen. Beispiel für <math>\ln2</math> ([[natürlicher Logarithmus]])<br />
:<math><br />
\ln2 = \sum_{k=1}^{\infty}\frac1{k2^k}<br />
\quad \text{oder} \quad<br />
\ln2 = \tfrac23\sum_{k=0}^{\infty}\frac1{(2k+1)9^k} \,.<br />
</math><br />
<br />
Für wichtige Reihendarstellungen existieren [[Tafelwerk (Buch)|Tabellierung]]en in ''Reihentafeln''.<br />
<br />
=== Reihen von Funktionen ===<br />
Anstatt Folgen von Zahlen kann man auch [[Funktionenfolge|Folgen von Funktionen]] betrachten und entsprechend Reihen definieren. Hier kommt zur Frage der Konvergenz noch die nach den Eigenschaften der Grenzfunktion hinzu. Umgekehrt kann man fragen, durch welche Reihe sich eine Funktion darstellen lässt. So eine Darstellung nennt sich [[Reihenentwicklung]].<br />
<br />
==== Potenzreihen ====<br />
<br />
Einige wichtige Funktionen können als [[Taylorreihe]]n dargestellt werden. Diese sind bestimmte unendliche Reihen, in denen Potenzen einer unabhängigen Variable vorkommen. Solche Reihen werden allgemein [[Potenzreihe]]n genannt. Werden auch negative Potenzen der Variablen zugelassen, spricht man von [[Laurentreihe]]n.<br />
<br />
==== Fourierreihen ====<br />
<br />
Als [[Fourierreihe]] einer Funktion bezeichnet man ihre Entwicklung nach trigonometrischen Funktionen <math>\sin (nx)</math> und <math>\cos (nx)</math> <math>(n = 0, 1, 2, 3, \dots)</math>. Die [[Eulersche Reihe]] ist ebenfalls von diesem Typ.<br />
<br />
==== Dirichletreihen ====<br />
<br />
Als [[Dirichletreihe]] bezeichnet man eine Entwicklung<br />
:<math>F(s)=\sum_{n=1}^{\infty} \frac{f(n)}{n^s},</math> mit <math>s=\sigma+it \in \mathbb{C}.</math><br />
Ein wichtiges Beispiel ist die Reihendarstellung der [[Riemannsche Zetafunktion|Riemannschen Zetafunktion]]<br />
:<math>\zeta(s)=\sum_{n=1}^{\infty} \frac1{n^s},</math> mit <math>\operatorname{Re}\,s>1</math>.<br />
<br />
==== Präfixsumme ====<br />
In der Informatik wird mit [[Präfixsumme]] ein Algorithmus bezeichnet, der jeden Eintrag <math>a_k</math> eines Arrays durch die Partialsumme <math>s_k</math> ersetzt.<ref>[https://vula.uct.ac.za/access/content/group/7a800d75-b55a-4e05-91da-7341b8692710/ParallelJava/Slides/ParallelJava_2012_5_More_Parallel_algorithms-1.pptx Michelle Kuttel (2012): ''Parallel Java. §5'' Vorlesungsfolien]</ref><ref>{{Webarchiv|url=http://www.tzi.de/~edelkamp/lectures/ae/slide/ParallelAlgorithms.pdf |wayback=20150511160252 |text=Stefan Edelkamp (2010): ''Algorithm Engineering.'' Vorlesungsfolien |archiv-bot=2019-05-09 16:38:06 InternetArchiveBot }}</ref> Die Präfixsumme kann [[paralleler Algorithmus|parallelisiert]] werden und ist daher ein grundlegender Algorithmus für Rechnersysteme mit mehreren [[Mehrkernprozessor|Prozessorkern]]en, [[Global Processing Unit|GPU]]s oder [[Rechnerverbund|Rechnerclustern]].<br />
<br />
== Weblinks ==<br />
{{Wikibooks|Mathe für Nicht-Freaks: Reihe}}<br />
{{Wikibooks|Mathe für Nicht-Freaks: Konvergenz und Divergenz einer Reihe beweisen: Konvergenzkriterien|Mathe für Nicht-Freaks: Konvergenz einer Reihe}}<br />
<br />
== Literatur ==<br />
<br />
* [[Konrad Knopp]]: ''Theorie und Anwendung der unendlichen Reihen''. 6. Auflage. Springer, Berlin u. a. 1996, ISBN 3-540-59111-7, ''Die Grundlehren der mathematischen Wissenschaften in Einzeldarstellungen'' 2).<br />
* Izrail Solomonovic Gradshteyn, Iosif Mojseevic Ryzhik: ''Table of Integrals, Series and Products''. Herausgegeben von Alan Jeffrey und Daniel Zwillinger. 7. edition. Elsevier Academic Press, Amsterdam u. a. 2007, ISBN 978-0-12-373637-6.<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Folgen und Reihen|!Reihe]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Funktionaldeterminante&diff=198753438Funktionaldeterminante2020-04-11T18:45:51Z<p>HerrHartmuth: /* Zylinderkoordinaten */ math typesetting</p>
<hr />
<div>Die '''Funktionaldeterminante''' oder '''Jacobi-Determinante''' ist eine mathematische Größe, die in der mehrdimensionalen [[Integralrechnung]], also der Berechnung von Oberflächen- und Volumenintegralen, eine Rolle spielt. Insbesondere findet sie in der [[Flächenformel]] und dem aus dieser hervorgehenden [[Transformationssatz]] Verwendung.<br />
<br />
== Lokales Verhalten einer Funktion ==<br />
Die Funktionaldeterminante gibt zu einem gegebenen Punkt wichtige Informationen über das Verhalten der Funktion <math>f</math> in der Nähe dieses Punktes. Wenn beispielsweise die Funktionaldeterminante einer stetig differenzierbaren Funktion in einem Punkt <math>p</math> ungleich null ist, so ist die Funktion in einer Umgebung von <math>p</math> invertierbar. Weiterhin gilt, dass bei positiver Determinante in <math>p</math> die Funktion ihre [[Orientierung (Mathematik)|Orientierung]] beibehält und bei negativer Funktionaldeterminante die Orientierung umkehrt. Der absolute Wert der Determinante im Punkt <math>p</math> gibt den Wert an, mit dem die Funktion in der Nähe von <math>p</math> expandiert oder schrumpft.<br />
<br />
== Definition ==<br />
Für eine differenzierbare Funktion <math>f\colon \R^n \to \R^n</math> ist die Funktionaldeterminante definiert als die [[Determinante]] der [[Jacobi-Matrix]] von <math>f</math>, also als<br />
:<math>\det \, Df(x)</math><br />
mit<br />
:<math>Df(x) = \left(\frac{\partial f_i}{\partial x_j}(x)\right)_{i,j = 1,\dotsc,n}</math>.<br />
<br />
Für die Transformation von Volumenelementen, einen wichtigen Anwendungsfall in der Physik, reicht diese Definition aus. Die Flächenformel der Maß- und Integrationstheorie beschreibt dagegen auch, wie sich Integrale über Funktionen, die Räume unterschiedlicher Dimension ineinander abbilden, transformieren. In diesem Anwendungsfall ist <math>Df</math> keine quadratische Matrix mehr, sodass der Ausdruck oben nicht mehr definiert ist. Man verwendet dann die folgende Definition:<br />
<br />
Die verallgemeinerte Funktionaldeterminante einer Funktion <math>f: \R^n \to \R^m</math> ist definiert als<br />
:<math>\mathcal J \! f(x) := \sqrt{\det \left( \left(Df(x)\right)^T \cdot Df(x) \right)}</math><br />
Dabei bezeichnet <math>Df(x) \in \R^{m \times n}</math> die Jacobi-Matrix und <math>(Df(x))^T</math> ihre [[Transponierte]]. Der Ausdruck <math>\det \left( \left(Df(x)\right)^T \cdot Df(x) \right)</math> wird [[gramsche Determinante]] von <math>D f</math> genannt.<br />
<br />
Solange die betrachtete Abbildung keine [[Selbstabbildung]] ist, ist es üblich, das Präfix ''verallgemeinerte'' wegzulassen. Bei Selbstabbildungen kann dies allerdings zu Missverständnissen führen, da beide Definitionen im Allgemeinen unterschiedliche Werte annehmen. Es gilt ja<br />
:<math>\mathcal J \! f(x) = \sqrt{(\det Df)^2} = |\det Df| \neq \det Df</math><br />
Im Kontext der Flächen- bzw. Transformationsformel wird allerdings ohnehin immer der Betrag verwendet.<br />
<br />
== Beispiele ==<br />
Bei der Integration über geometrische Objekte ist es oft unpraktisch, über [[Kartesisches Koordinatensystem|kartesische Koordinaten]] zu integrieren. So lässt sich in der Physik das Integral über ein [[Radiärsymmetrie|radialsymmetrisches]] [[Potentialfeld]], dessen Wert nur von einem Radius <math>r</math> abhängt, wesentlich leichter in [[Kugelkoordinaten]] berechnen.<br />
<br />
Um dies zu tun, wendet man eine [[Koordinatentransformation]] <math>\Phi</math> an. Nach dem [[Transformationssatz]] gilt dann in diesem Beispiel:<br />
:<math>\int_{\Omega} U(\vec r) dV = \int_{\Phi^{-1}(\Omega)} U(\Phi(r,\theta, \varphi)) \cdot \left|\det D \Phi(r, \theta, \varphi)\right| \,\mathrm{d}r \,\mathrm{d}\theta \,\mathrm{d}\varphi</math><br />
<br />
Im Folgenden sind Rechnungen zu drei Koordinatensystemen aufgeführt:<br />
<br />
=== Polarkoordinaten ===<br />
<br />
Die Umrechnungsformeln von [[Polarkoordinate]]n in kartesische Koordinaten lauten:<br />
: <math>x = r \cos \varphi</math><br />
: <math>y = r \sin \varphi</math><br />
<br />
Die Funktionaldeterminante lautet also:<br />
:<math>\det\frac{\partial(x,y)}{\partial(r, \varphi)} = <br />
\det\begin{pmatrix}<br />
\frac{\partial x}{\partial r} & \frac{\partial x}{\partial \varphi} \\<br />
\frac{\partial y}{\partial r} & \frac{\partial y}{\partial \varphi}<br />
<br />
\end{pmatrix}=<br />
\det\begin{pmatrix}<br />
\cos\varphi&-r\sin\varphi \\<br />
\sin\varphi&r\cos\varphi<br />
\end{pmatrix}= r \cdot (\cos \varphi)^2 + r \cdot (\sin \varphi)^2 = r</math><br />
<br />
Folglich ergibt sich für das Flächenelement <math>\mathrm{d}A</math>:<br />
<br />
:<math>\mathrm{d}A = \left|\det \frac{\partial(x,y)}{\partial(r,\varphi)} \right|\, \mathrm{d}r \,\mathrm{d}\varphi=r \,\mathrm{d}r\, \mathrm{d}\varphi. </math><br />
<br />
=== Kugelkoordinaten ===<br />
<br />
Die Umrechnungsformeln von [[Kugelkoordinaten]] (<math>r, \theta,\varphi</math>) in kartesische Koordinaten lauten:<br />
: <math>x = r \sin \theta \cos \varphi</math>,<br />
: <math>y = r \sin \theta \sin \varphi</math> und<br />
: <math>z = r \cos \theta \quad</math>.<br />
<br />
Die Funktionaldeterminante lautet also:<br />
: <math>\det\frac{\partial(x,y,z)}{\partial(r, \theta, \varphi)}= \det\begin{pmatrix}<br />
\sin\theta\cos\varphi&r\cos\theta\cos\varphi&-r\sin\theta\sin\varphi\\<br />
\sin\theta \sin\varphi&r\cos\theta\sin\varphi&r\sin\theta\cos\varphi\\<br />
\cos\theta&-r\sin\theta&0<br />
\end{pmatrix}=r^2\sin\theta.</math><br />
<br />
Folglich ergibt sich für das Volumenelement <math>\mathrm{d}V</math>:<br />
<br />
:<math>\mathrm{d}V=\left|\det \frac{\partial(x,y,z)}{\partial(r,\theta,\varphi)} \right| \,\mathrm{d}r \,\mathrm{d}\theta \,\mathrm{d}\varphi=r^2 \sin\theta \,\mathrm{d}r\, \mathrm{d}\theta\, \mathrm{d}\varphi. </math><br />
<br />
Manchmal ist es praktischer, mit folgender Konvention zu arbeiten:<br />
: <math>x = r \cos \theta \cos \varphi</math>,<br />
: <math>y = r \cos \theta \sin \varphi</math> und<br />
: <math>z = r \sin \theta \quad</math>.<br />
<br />
Die Funktionaldeterminante lautet somit:<br />
: <math>\det\frac{\partial(x,y,z)}{\partial(r, \theta, \varphi)}= \det\begin{pmatrix}<br />
\cos\theta\cos\varphi&-r\sin\theta\cos\varphi&-r\cos\theta\sin\varphi\\<br />
\cos\theta \sin\varphi&-r\sin\theta\sin\varphi&r\cos\theta\cos\varphi\\<br />
\sin\theta&r\cos\theta&0<br />
\end{pmatrix}=-r^2\cos\theta.</math><br />
<br />
Also ergibt sich für das Volumenelement <math>\mathrm{d}V</math>:<br />
<br />
:<math>\mathrm{d}V=\left|\det \frac{\partial(x,y,z)}{\partial(r,\theta,\varphi)} \right| \,\mathrm{d}r \,\mathrm{d}\theta \,\mathrm{d}\varphi=r^2 \cos\theta \,\mathrm{d}r\, \mathrm{d}\theta\, \mathrm{d}\varphi. </math><br />
<br />
=== Zylinderkoordinaten ===<br />
<br />
Die Umrechnungsformeln von [[Zylinderkoordinaten]] (<math>\rho</math>, <math>\varphi</math>, <math>z</math>) in kartesische Koordinaten lauten:<br />
:<math><br />
\begin{align}<br />
x &= \rho \cos\varphi \\<br />
y &= \rho \sin\varphi \\<br />
z &= z \,.<br />
\end{align}<br />
</math><br />
<br />
Die Funktionaldeterminante lautet also:<br />
: <math>\det\frac{\partial(x,y,z)}{\partial(\rho,\varphi,z)}=\det\begin{pmatrix}<br />
\cos\varphi & -\rho\sin\varphi & 0 \\<br />
\sin\varphi & \rho\cos\varphi & 0 \\<br />
0 & 0 & 1<br />
\end{pmatrix}=\rho.</math><br />
<br />
Folglich ergibt sich für das Volumenelement <math>\mathrm{d}V</math>:<br />
<br />
:<math>\mathrm{d}V=\left|\det \frac{\partial(x,y,z)}{\partial(\rho,\varphi,z)} \right|\, \mathrm{d}\rho \,\mathrm{d}\varphi \,\mathrm{d}z=\rho \,\mathrm{d}\rho\, \mathrm{d}\varphi \, \mathrm{d}z.</math><br />
<br />
Genauso gut hätte man eine andere Reihenfolge der Zylinderkoordinaten wählen können. Die Funktionaldeterminante lautet dann beispielsweise:<br />
: <math>\det\frac{\partial(x,y,z)}{\partial(\rho,z,\varphi)}=\det\begin{pmatrix}<br />
\cos\varphi & 0 & -\rho\sin\varphi \\<br />
\sin\varphi & 0 & \rho\cos\varphi \\<br />
0 & 1 & 0<br />
\end{pmatrix}=-\rho.</math><br />
<br />
In das Transformationsgesetz geht jedoch immer nur der [[Betragsfunktion|Betrag]] der [[Determinante (Mathematik)|Determinante]] ein, also ist das Ergebnis dann unabhängig von der gewählten Reihenfolge der Variablen, nach denen abgeleitet wird.<br />
<br />
== Literatur ==<br />
* {{bibISBN|3540606564}} (Für die Definition)<br />
* {{bibISBN|9783540348320}} (Für die Beispiele und den Spezialfall des <math>\R^3</math>)<br />
<br />
[[Kategorie:Analysis]]<br />
<br />
[[en:Jacobian determinant]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Funktionaldeterminante&diff=198753400Funktionaldeterminante2020-04-11T18:44:50Z<p>HerrHartmuth: /* Zylinderkoordinaten */ latex typesetting wurde nicht korrekt benutzt</p>
<hr />
<div>Die '''Funktionaldeterminante''' oder '''Jacobi-Determinante''' ist eine mathematische Größe, die in der mehrdimensionalen [[Integralrechnung]], also der Berechnung von Oberflächen- und Volumenintegralen, eine Rolle spielt. Insbesondere findet sie in der [[Flächenformel]] und dem aus dieser hervorgehenden [[Transformationssatz]] Verwendung.<br />
<br />
== Lokales Verhalten einer Funktion ==<br />
Die Funktionaldeterminante gibt zu einem gegebenen Punkt wichtige Informationen über das Verhalten der Funktion <math>f</math> in der Nähe dieses Punktes. Wenn beispielsweise die Funktionaldeterminante einer stetig differenzierbaren Funktion in einem Punkt <math>p</math> ungleich null ist, so ist die Funktion in einer Umgebung von <math>p</math> invertierbar. Weiterhin gilt, dass bei positiver Determinante in <math>p</math> die Funktion ihre [[Orientierung (Mathematik)|Orientierung]] beibehält und bei negativer Funktionaldeterminante die Orientierung umkehrt. Der absolute Wert der Determinante im Punkt <math>p</math> gibt den Wert an, mit dem die Funktion in der Nähe von <math>p</math> expandiert oder schrumpft.<br />
<br />
== Definition ==<br />
Für eine differenzierbare Funktion <math>f\colon \R^n \to \R^n</math> ist die Funktionaldeterminante definiert als die [[Determinante]] der [[Jacobi-Matrix]] von <math>f</math>, also als<br />
:<math>\det \, Df(x)</math><br />
mit<br />
:<math>Df(x) = \left(\frac{\partial f_i}{\partial x_j}(x)\right)_{i,j = 1,\dotsc,n}</math>.<br />
<br />
Für die Transformation von Volumenelementen, einen wichtigen Anwendungsfall in der Physik, reicht diese Definition aus. Die Flächenformel der Maß- und Integrationstheorie beschreibt dagegen auch, wie sich Integrale über Funktionen, die Räume unterschiedlicher Dimension ineinander abbilden, transformieren. In diesem Anwendungsfall ist <math>Df</math> keine quadratische Matrix mehr, sodass der Ausdruck oben nicht mehr definiert ist. Man verwendet dann die folgende Definition:<br />
<br />
Die verallgemeinerte Funktionaldeterminante einer Funktion <math>f: \R^n \to \R^m</math> ist definiert als<br />
:<math>\mathcal J \! f(x) := \sqrt{\det \left( \left(Df(x)\right)^T \cdot Df(x) \right)}</math><br />
Dabei bezeichnet <math>Df(x) \in \R^{m \times n}</math> die Jacobi-Matrix und <math>(Df(x))^T</math> ihre [[Transponierte]]. Der Ausdruck <math>\det \left( \left(Df(x)\right)^T \cdot Df(x) \right)</math> wird [[gramsche Determinante]] von <math>D f</math> genannt.<br />
<br />
Solange die betrachtete Abbildung keine [[Selbstabbildung]] ist, ist es üblich, das Präfix ''verallgemeinerte'' wegzulassen. Bei Selbstabbildungen kann dies allerdings zu Missverständnissen führen, da beide Definitionen im Allgemeinen unterschiedliche Werte annehmen. Es gilt ja<br />
:<math>\mathcal J \! f(x) = \sqrt{(\det Df)^2} = |\det Df| \neq \det Df</math><br />
Im Kontext der Flächen- bzw. Transformationsformel wird allerdings ohnehin immer der Betrag verwendet.<br />
<br />
== Beispiele ==<br />
Bei der Integration über geometrische Objekte ist es oft unpraktisch, über [[Kartesisches Koordinatensystem|kartesische Koordinaten]] zu integrieren. So lässt sich in der Physik das Integral über ein [[Radiärsymmetrie|radialsymmetrisches]] [[Potentialfeld]], dessen Wert nur von einem Radius <math>r</math> abhängt, wesentlich leichter in [[Kugelkoordinaten]] berechnen.<br />
<br />
Um dies zu tun, wendet man eine [[Koordinatentransformation]] <math>\Phi</math> an. Nach dem [[Transformationssatz]] gilt dann in diesem Beispiel:<br />
:<math>\int_{\Omega} U(\vec r) dV = \int_{\Phi^{-1}(\Omega)} U(\Phi(r,\theta, \varphi)) \cdot \left|\det D \Phi(r, \theta, \varphi)\right| \,\mathrm{d}r \,\mathrm{d}\theta \,\mathrm{d}\varphi</math><br />
<br />
Im Folgenden sind Rechnungen zu drei Koordinatensystemen aufgeführt:<br />
<br />
=== Polarkoordinaten ===<br />
<br />
Die Umrechnungsformeln von [[Polarkoordinate]]n in kartesische Koordinaten lauten:<br />
: <math>x = r \cos \varphi</math><br />
: <math>y = r \sin \varphi</math><br />
<br />
Die Funktionaldeterminante lautet also:<br />
:<math>\det\frac{\partial(x,y)}{\partial(r, \varphi)} = <br />
\det\begin{pmatrix}<br />
\frac{\partial x}{\partial r} & \frac{\partial x}{\partial \varphi} \\<br />
\frac{\partial y}{\partial r} & \frac{\partial y}{\partial \varphi}<br />
<br />
\end{pmatrix}=<br />
\det\begin{pmatrix}<br />
\cos\varphi&-r\sin\varphi \\<br />
\sin\varphi&r\cos\varphi<br />
\end{pmatrix}= r \cdot (\cos \varphi)^2 + r \cdot (\sin \varphi)^2 = r</math><br />
<br />
Folglich ergibt sich für das Flächenelement <math>\mathrm{d}A</math>:<br />
<br />
:<math>\mathrm{d}A = \left|\det \frac{\partial(x,y)}{\partial(r,\varphi)} \right|\, \mathrm{d}r \,\mathrm{d}\varphi=r \,\mathrm{d}r\, \mathrm{d}\varphi. </math><br />
<br />
=== Kugelkoordinaten ===<br />
<br />
Die Umrechnungsformeln von [[Kugelkoordinaten]] (<math>r, \theta,\varphi</math>) in kartesische Koordinaten lauten:<br />
: <math>x = r \sin \theta \cos \varphi</math>,<br />
: <math>y = r \sin \theta \sin \varphi</math> und<br />
: <math>z = r \cos \theta \quad</math>.<br />
<br />
Die Funktionaldeterminante lautet also:<br />
: <math>\det\frac{\partial(x,y,z)}{\partial(r, \theta, \varphi)}= \det\begin{pmatrix}<br />
\sin\theta\cos\varphi&r\cos\theta\cos\varphi&-r\sin\theta\sin\varphi\\<br />
\sin\theta \sin\varphi&r\cos\theta\sin\varphi&r\sin\theta\cos\varphi\\<br />
\cos\theta&-r\sin\theta&0<br />
\end{pmatrix}=r^2\sin\theta.</math><br />
<br />
Folglich ergibt sich für das Volumenelement <math>\mathrm{d}V</math>:<br />
<br />
:<math>\mathrm{d}V=\left|\det \frac{\partial(x,y,z)}{\partial(r,\theta,\varphi)} \right| \,\mathrm{d}r \,\mathrm{d}\theta \,\mathrm{d}\varphi=r^2 \sin\theta \,\mathrm{d}r\, \mathrm{d}\theta\, \mathrm{d}\varphi. </math><br />
<br />
Manchmal ist es praktischer, mit folgender Konvention zu arbeiten:<br />
: <math>x = r \cos \theta \cos \varphi</math>,<br />
: <math>y = r \cos \theta \sin \varphi</math> und<br />
: <math>z = r \sin \theta \quad</math>.<br />
<br />
Die Funktionaldeterminante lautet somit:<br />
: <math>\det\frac{\partial(x,y,z)}{\partial(r, \theta, \varphi)}= \det\begin{pmatrix}<br />
\cos\theta\cos\varphi&-r\sin\theta\cos\varphi&-r\cos\theta\sin\varphi\\<br />
\cos\theta \sin\varphi&-r\sin\theta\sin\varphi&r\cos\theta\cos\varphi\\<br />
\sin\theta&r\cos\theta&0<br />
\end{pmatrix}=-r^2\cos\theta.</math><br />
<br />
Also ergibt sich für das Volumenelement <math>\mathrm{d}V</math>:<br />
<br />
:<math>\mathrm{d}V=\left|\det \frac{\partial(x,y,z)}{\partial(r,\theta,\varphi)} \right| \,\mathrm{d}r \,\mathrm{d}\theta \,\mathrm{d}\varphi=r^2 \cos\theta \,\mathrm{d}r\, \mathrm{d}\theta\, \mathrm{d}\varphi. </math><br />
<br />
=== Zylinderkoordinaten ===<br />
<br />
Die Umrechnungsformeln von [[Zylinderkoordinaten]] (<math>\rho</math>, <math>\varphi</math>, <math>z</math>) in kartesische Koordinaten lauten:<br />
:<math><br />
\begin{align}<br />
x &= \rho \cos\varphi \\<br />
y &= \rho \sin\varphi \\<br />
z &= z<br />
\end{align}<br />
</math><br />
<br />
Die Funktionaldeterminante lautet also:<br />
: <math>\det\frac{\partial(x,y,z)}{\partial(\rho,\varphi,z)}=\det\begin{pmatrix}<br />
\cos\varphi & -\rho\sin\varphi & 0 \\<br />
\sin\varphi & \rho\cos\varphi & 0 \\<br />
0 & 0 & 1<br />
\end{pmatrix}=\rho.</math><br />
<br />
Folglich ergibt sich für das Volumenelement <math>\mathrm{d}V</math>:<br />
<br />
:<math>\mathrm{d}V=\left|\det \frac{\partial(x,y,z)}{\partial(\rho,\varphi,z)} \right|\, \mathrm{d}\rho \,\mathrm{d}\varphi \,\mathrm{d}z=\rho \,\mathrm{d}\rho\, \mathrm{d}\varphi \, \mathrm{d}z.</math><br />
<br />
Genauso gut hätte man eine andere Reihenfolge der Zylinderkoordinaten wählen können. Die Funktionaldeterminante lautet dann beispielsweise:<br />
: <math>\det\frac{\partial(x,y,z)}{\partial(\rho,z,\varphi)}=\det\begin{pmatrix}<br />
\cos\varphi & 0 & -\rho\sin\varphi \\<br />
\sin\varphi & 0 & \rho\cos\varphi \\<br />
0 & 1 & 0<br />
\end{pmatrix}=-\rho.</math><br />
<br />
In das Transformationsgesetz geht jedoch immer nur der [[Betragsfunktion|Betrag]] der [[Determinante (Mathematik)|Determinante]] ein, also ist das Ergebnis dann unabhängig von der gewählten Reihenfolge der Variablen, nach denen abgeleitet wird.<br />
<br />
== Literatur ==<br />
* {{bibISBN|3540606564}} (Für die Definition)<br />
* {{bibISBN|9783540348320}} (Für die Beispiele und den Spezialfall des <math>\R^3</math>)<br />
<br />
[[Kategorie:Analysis]]<br />
<br />
[[en:Jacobian determinant]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Infimum_und_Supremum&diff=192840171Infimum und Supremum2019-10-04T07:57:47Z<p>HerrHartmuth: /* Reelle Zahlen */ math typesetting</p>
<hr />
<div>[[Datei:Beschränktheit1.png|mini|Die Bildmenge der abgebildeten Funktion ist beschränkt, damit ist auch die Funktion beschränkt.]]<br />
<br />
In der [[Mathematik]] treten die Begriffe '''Supremum''' und '''Infimum''' sowie '''kleinste obere Schranke''' bzw. '''größte untere Schranke''' bei der Untersuchung [[Halbordnung|halbgeordneter Mengen]] auf. Anschaulich ist das Supremum eine obere [[Beschränktheit|Schranke]], die kleiner als alle anderen oberen Schranken ist. Entsprechend ist das Infimum eine untere Schranke, die größer als alle anderen unteren Schranken ist. Wenn ein Supremum oder Infimum existiert, ist es eindeutig bestimmt. Das Konzept wird in unterschiedlichen Abwandlungen in fast allen [[Teilgebiete der Mathematik|mathematischen Teilgebieten]] verwendet.<br />
<br />
== Definitionen ==<br />
=== Suprema (und Infima) von Mengen ===<br />
==== Anschauung ====<br />
[[Datei:Veranschaulichung zum Begriff Supremum.svg|mini|Das Supremum ist die kleinste obere Schranke einer Menge.]]<br />
Das Supremum (auf deutsch „Oberstes“) einer [[Menge (Mathematik)|Menge]] ist verwandt mit dem [[Größtes Element|Maximum]] einer Menge und ist –&nbsp;anschaulich gesprochen&nbsp;– ein Element, welches „über“ allen oder „jenseits“ (oberhalb) aller anderen Elemente liegt. Der Ausdruck „''über'' den anderen“ soll andeuten, dass das Supremum nicht das größte Element „''unter'' den anderen“ sein muss, sondern durchaus auch außerhalb (''„jenseits“'') der Menge liegen kann. Und weil es mehrere Elemente geben kann, die dieser Anschauung entsprechen, wird aus Eindeutigkeitsgründen das [[Kleinstes Element|kleinste Element]] gewählt, welches diese Eigenschaft hat; sozusagen das Element, das am „nächsten“ oder „unmittelbar“ über allen anderen liegt&nbsp;– das Supremum bezeichnet also ein „unmittelbar Darüberliegendes“. Elemente, die zwar über allen Elementen einer Menge liegen, aber nicht zwingend in unmittelbarer Weise, heißen ''obere [[Beschränktheit|Schranken]]''. Damit ergibt sich dann die Definition des Supremums als ''kleinste obere Schranke'' einer Menge.<br />
<br />
Das Infimum (deutsch „untere Grenze“) einer Menge ist analog definiert, als „unmittelbar Darunterliegendes“ bzw. ''größte untere Schranke''.<br />
<br />
==== Im Reellen ====<br />
Diese Anschauung lässt sich leicht auf Mengen von [[Reelle Zahlen|reellen Zahlen]] (als [[Untermenge]]n der reellen Zahlen) übertragen: Sei<br />
:<math>X := \{ x\in \mathbb R : x < 2 \} \subseteq \mathbb R</math><br />
die Menge der reellen Zahlen kleiner als 2. Dann ist 2 das Supremum von <math>X</math> (in <math>\mathbb R</math>). Denn 2 ist eine obere Schranke von <math>X</math>, da sie größer oder gleich (tatsächlich sogar echt größer) als jedes Element von <math>X</math> ist&nbsp;– also „darüberliegt“. Aber im Gegensatz etwa zu der Zahl 4, die auch eine obere Schranke ist, gibt es keine Zahl kleiner als 2, die auch obere Schranke von <math>X</math> ist. Daher ist 2 kleinste obere Schranke von <math>X</math>, mithin Supremum.<br />
<br />
Durch eine kleine Abänderung wird sodann die Verwandtschaft von Supremum und Maximum deutlich. Das Maximum ist nämlich das größte Element „''unter'' allen Elementen“ einer Menge:<br />
<br />
Offenbar hat <math>X</math> kein Maximum, da es zu jeder reellen Zahl <math>a<2</math> wieder eine reelle Zahl <math>b<2</math> gibt, die größer als <math>a</math> ist, z.&nbsp;B. mit der Wahl <math>b=\tfrac{a+2}2</math>. Die Zahl 2 ist als Supremum zwar größer als alle Elemente von <math>X</math>, liegt aber nicht in <math>X</math>, da sie nicht ''echt kleiner'' als sie selbst ist. Betrachten wir nun die Menge<br />
:<math>X' := \{ x\in \mathbb R : x \le 2 \} \subseteq \mathbb R</math>,<br />
so ist 2 Maximum von <math>X^\prime</math>, da sie ''kleiner-gleich'' als sie selbst ist und es auch keine größere Zahl als 2 gibt, die kleiner-gleich 2 ist. Gleichfalls ist 2 aber auch Supremum von <math>X^\prime</math> wie schon von <math>X</math>, da dieselben Bedingungen wie dort erfüllt sind.<br />
<br />
''Tatsächlich ist jedes Maximum immer auch Supremum.'' Daher ist es auch üblich, den Begriff Maximum gar nicht elementar zu definieren, sondern ihn als Sonderfall des Supremums zu benennen, wenn dieses selbst Element der Menge ist, dessen Supremum es darstellt. – Analog gilt das für das Minimum.<br />
<br />
==== Im Allgemeinen ====<br />
Obere und untere Schranken sowie Suprema und Infima können jedoch nicht nur auf den reellen Zahlen, sondern allgemein auf [[Ordnungsrelation #Halbordnung|halbgeordneten Mengen]] betrachtet werden. Die formalen Definitionen lauten wie folgt:<br />
<br />
Ist <math>M</math> eine halbgeordnete Menge mit Halbordnung <math>\leq</math> und <math>T</math> eine Teilmenge von <math>M</math> so gilt:<br />
<br />
;Obere Schranke<br />
:Ein Element <math>b \in M</math> heißt ''obere [[Beschränktheit|Schranke]]'' von <math>T</math>, wenn <math>x \leq b</math> für alle <math>x \in T</math> gilt.<br />
;Untere Schranke<br />
:Analog heißt <math>b</math> ''untere Schranke'' von <math>T</math>, wenn <math>b \leq x</math> für alle <math>x \in T</math> gilt.<br />
;nach oben bzw. unten beschränkte Menge<br />
:Existiert eine obere (untere) Schranke von <math>T</math>, so heißt <math>T</math> ''nach oben (unten) beschränkt''.<br />
;nach oben bzw. unten unbeschränkte Menge<br />
:Ist <math>T</math> ''nicht'' nach oben (unten) beschränkt, so heißt <math>T</math> ''nach oben (unten) unbeschränkt''.<br />
;beschränkte Menge<br />
:<math>T</math> heißt ''beschränkt'', falls <math>T</math> nach oben ''und'' unten beschränkt ist, andernfalls ''unbeschränkt'' oder ''nicht-beschränkt''. Das heißt: <math>T</math> ist ''unbeschränkt'' (oder ''nicht-beschränkt''), wenn <math>T</math> entweder nach ''oben'' oder nach ''unten'' oder nach ''oben und unten'' unbeschränkt ist. Soll ausgedrückt werden, dass eine Menge sowohl nach oben als auch nach unten unbeschränkt ist, so muss die Menge ausdrücklich als ''nach oben und unten unbeschränkt'' beschrieben werden.<br />
;Supremum<br />
:Ein Element <math>b\in M</math> heißt ''Supremum'' von <math>T</math>, wenn <math>b</math> eine kleinste obere Schranke von <math>T</math> ist.<br />
;Infimum<br />
:Es heißt ''Infimum'' von <math>T</math>, wenn es eine größte untere Schranke von <math>T</math> ist.<br />
<br />
Ist <math>M</math> die Menge der [[Reelle Zahlen|reellen Zahlen]], so gilt:<br />
<br />
* Ist <math>T</math> nach oben beschränkt und nicht leer, dann besitzt <math>T</math> eine kleinste obere Schranke (Beweisidee unten) und man nennt sie '''obere Grenze''' oder ''Supremum'' von <math>T</math>&nbsp;– in Zeichen <math>\sup(T)</math>.<br />
* Ist <math>T</math> nach unten beschränkt und nicht leer, dann besitzt <math>T</math> eine größte untere Schranke (Beweis analog) und man nennt sie '''untere Grenze''' oder ''Infimum'' von <math>T</math>&nbsp;– in Zeichen <math>\inf(T)</math>.<br />
* Falls <math>T</math> nach oben beschränkt und das Supremum von <math>T</math> in <math>T</math> enthalten ist, bezeichnet man das Supremum auch als '''[[Größtes Element|Maximum]]''' von <math>T</math>, in Zeichen <math>\max(T)</math>.<br />
* Falls <math>T</math> nach unten beschränkt und das Infimum von <math>T</math> in <math>T</math> enthalten ist, bezeichnet man das Infimum auch als '''[[Kleinstes Element|Minimum]]''' von <math>T</math>, in Zeichen <math>\min(T)</math>.<br />
* Ist <math>T</math> nach oben unbeschränkt, schreibt man: <math>\sup T = +\infty</math> (siehe [[Unendlichkeit]]). <br /> ''Das Symbol +∞ ist dabei aber keine reelle Zahl und auch nicht das Supremum von <math>T</math> im hier definierten Sinne: <math>\infty</math> als Supremumswert ist gerade die formale Schreibweise dafür, dass kein Supremum vorhanden ist, siehe auch bei [[erweiterte reelle Zahl]]en. Gelegentlich wird in diesem Zusammenhang <math>+\infty</math> auch als „uneigentliches Supremum“ bezeichnet.''<br />
* Ist <math>T</math> nach unten unbeschränkt, schreibt man analog: <math>\inf T = -\infty</math>.<br />
<br />
=== Suprema (und Infima) von Abbildungen ===<br />
==== Abbildungen allgemein ====<br />
Der Begriff des Supremums auf Mengen wird sinngemäß auch auf [[Funktion (Mathematik)|Abbildungen]] (Funktionen) angewendet. Denn das Bild einer Abbildung ist ja immer auch eine [[Menge (Mathematik)|Menge]]. Nämlich für eine Abbildung<br />
:<math>f\colon X \rightarrow Y</math><br />
die Menge<br />
:<math><br />
f(X) :<br />
= \{f(x): x \in X\}<br />
= \{y \in Y : y = f(x) \text{ für ein } x \in X\}<br />
</math><br />
der sogenannten '''Elementbilder''', d.&nbsp;h. der Bilder der einzelnen Elemente von <math>X</math> unter der Abbildung <math>f</math>.<br />
<br />
<math>f(X)</math> wird auch [[Bild (Mathematik)|Bild]] der Funktion <math>f</math> genannt.<br />
<br />
Ist nun <math>Y</math> eine halbgeordnete Menge, so definiert man<br />
:<math> \sup f := \sup_{x \in X} f(x) = \sup f(X) = \sup \{f(x): x \in X\}</math><br />
als das '''Supremum von <math>f</math> auf <math>X</math>'''&nbsp;– sofern es in <math>Y</math> existiert.<br />
<br />
Analog wird das '''Infimum von <math>f</math> auf <math>X</math>''' definiert.<br />
<br />
Die definierende Eigenschaft des Supremums kann als monotone [[Galoisverbindung]] <math>\sup\dashv \Delta</math> zwischen <math>\sup \colon Y^X \to Y</math> und <math>\Delta \colon Y \to Y^X</math> formuliert werden: für alle <math>y \in Y</math> und <math>f \in Y^X</math> gilt<br />
: <math>\sup f \leq_Y y \Longleftrightarrow f \leq_{Y^X} \Delta(y)</math>.<br />
Hierbei ist <math>Y^X</math> mit der punktweisen Ordnung ausgestattet und <math>\Delta(y)(x) := y</math>.<br />
<br />
Analog gilt <math>\Delta \dashv \inf</math>.<br />
<br />
==== Folgen als Abbildungen ====<br />
Fasst man eine [[Folge (Mathematik)|Folge]] <math>a_1, a_2, a_3, \ \ldots</math> von Elementen aus <math>Y</math> als Abbildung<br />
:<math>f\colon \mathbb N \rightarrow Y</math><br />
auf – also gemäß<br />
:<math>a_1 := f(1),\ a_2 := f(2),\ a_3 := f(3),\ \ldots </math><br />
– so ergibt sich aus der Definition des Supremums (Infimums) von Abbildungen sofort die Definition des Supremums (Infimums) einer Folge <math>(a_n)</math> – sofern es in <math>Y</math> existiert.<br />
<br />
== Eigenschaften ==<br />
=== Eindeutigkeit und Existenz ===<br />
Ist <math>b</math> eine obere Schranke von <math>T</math> und <math>c>b</math>, so ist auch <math>c</math> eine obere Schranke von <math>T</math>. Ist umgekehrt <math>c</math> keine obere Schranke von <math>T</math> und <math>b<c</math>, so ist auch <math>b</math> keine obere Schranke von <math>T</math>. Analoges gilt für untere Schranken.<br />
<br />
Das Supremum von <math>T</math> ist (im Falle seiner Existenz) eindeutig bestimmt. Dasselbe gilt für das Infimum von <math>T</math>.<br />
<br />
Es ist möglich, dass eine Teilmenge <math>T</math> einer halbgeordneten Menge <math>M</math> mehrere [[Minimales Element|''minimale'']] obere Schranken hat, d.&nbsp;h. obere Schranken, so dass jedes kleinere Element keine obere Schranke ist. Sobald <math>T</math> jedoch mehr als eine minimale obere Schranke hat, gibt es keine [[Kleinstes Element|''kleinste'']] obere Schranke, d.&nbsp;h. kein Supremum, von <math>T</math>. Ein Beispiel ist die Menge <math>M = \{a,\ b,\ c,\ d\}</math> mit der Halbordnung <math>\{a<c,\ b<c,\ a<d,\ b<d\}</math>. Hier hat <math>T = \{a,\ b\}</math> die beiden minimalen oberen Schranken <math>c</math> und <math>d</math>.<br />
<br />
=== Eigenschaften in Bezug auf eine Epsilon-Umgebung ===<br />
Sei <math>X</math> eine nichtleere Teilmenge der reellen Zahlen, dann gilt außerdem für das<br />
* Supremum von <math>X</math>:<br />
:# Wenn <math>\sup X<+\infty</math>, so existiert für alle <math>\epsilon > 0</math> ein <math>x\in X</math>, so dass <math>(\sup X)-\epsilon<x</math> ist.<br />
:# Wenn <math>\sup X= +\infty</math>, so existiert für alle <math>k>0</math> ein <math>x\in X</math>, so dass <math>k<x</math>.<br />
<br />
* Infimum von <math>X</math>:<br />
:# Wenn <math>\inf X>-\infty</math>, so existiert für alle <math>\epsilon > 0</math> ein <math>x\in X</math>, so dass <math>x<(\inf X)+\epsilon</math> ist.<br />
:# Wenn <math>\inf X= -\infty</math>, so existiert für alle <math>k>0</math> ein <math>x\in X</math>, so dass <math>x<-k</math>.<br />
<br />
=== Erstellung konvergenter Folgen ===<br />
* Sei <math>X</math> eine nichtleere Teilmenge der reellen Zahlen mit einem Supremum <math>\sup X<+\infty</math>. Dann lässt sich aus geeignet gewählten Elementen von <math>X</math> eine [[Folge (Mathematik)|Folge]] <math>(x_n)</math> erstellen, die gegen <math>\sup X</math> [[Grenzwert (Folge)|konvergiert]].<br />
<br />
: '''Beweis:''' <math>(\epsilon_n>0)</math> sei eine [[Nullfolge]], <math>(b_n=\sup X)</math> ist eine konstante Folge. Mit den [[Grenzwert (Folge)#Rechenregeln|Rechenregeln für Grenzwerte]] konvergiert die Folge <math>(a_n = (\sup X) -\epsilon_n)</math> „von unten“ gegen <math>\sup X</math>. Wegen der im vorhergehenden Abschnitt genannten „Eigenschaft des Supremums in Bezug auf eine Epsilon-Umgebung“ existieren die Glieder <math>x_n</math> einer Folge <math>(x_n),</math> die mit <math>a_n = (\sup X) -\epsilon_n< x_n \leq \sup X = b_n</math> zwischen <math>(a_n)</math> und <math>(b_n)</math> [[Einschnürungssatz#Einschließungsregel für Folgen|eingeschlossen]] ist. Also konvergiert <math>(x_n)</math> wie die einschließenden Folgen gegen <math>\sup X</math>.<br />
<br />
* Sei <math>X</math> eine nichtleere Teilmenge der reellen Zahlen mit einem Infimum <math>\inf X>-\infty</math>. Dann lässt sich aus geeignet gewählten Elementen von <math>X</math> eine [[Folge (Mathematik)|Folge]] <math>(x_n)</math> erstellen, die gegen <math>\inf X</math> [[Grenzwert (Folge)|konvergiert]].<br />
<br />
: '''Beweis:''' <math>(a_n=\inf X)</math> ist eine konstante Folge, <math>(\epsilon_n>0)</math> sei eine [[Nullfolge]]. Mit den [[Grenzwert (Folge)#Rechenregeln|Rechenregeln für Grenzwerte]] konvergiert die Folge <math>(b_n = (\inf X) +\epsilon_n)</math> „von oben“ gegen <math>\inf X</math>. Wegen der im vorhergehenden Abschnitt genannten „Eigenschaft des Infimums in Bezug auf eine Epsilon-Umgebung“ existieren die Glieder <math>x_n</math> einer Folge <math>(x_n)</math>, die mit <math>a_n =\inf X \leq x_n < (\inf X) +\epsilon_n =b_n</math> zwischen <math>(a_n)</math> und <math>(b_n)</math> [[Einschnürungssatz#Einschließungsregel für Folgen|eingeschlossen]] ist. Also konvergiert <math>(x_n)</math> wie die einschließenden Folgen gegen <math>\inf X</math>.<br />
<br />
Bemerkungen:<br />
<br />
* Weder <math>(\epsilon_n)</math> noch <math>(x_n)</math> müssen [[Monotone Zahlenfolge|monoton]] sein.<br />
<br />
* Ist <math>X</math> von endlicher [[Mächtigkeit (Mathematik)|Mächtigkeit]], so ist das Supremum ein Maximum (bzw. das Infimum ein Minimum), und [[fast alle]] <math>x_n</math> sind dem Supremum (bzw. Infimum) gleich.<br />
<br />
== Existenz des Supremums für beschränkte Teilmengen der reellen Zahlen ==<br />
Die Existenz des Supremums für eine beschränkte Teilmenge <math>M</math> der reellen Zahlen kann auf mehrere Arten gezeigt werden:<br />
<br />
A. Zum einen kann man die Existenz von Supremum und Infimum für beschränkte Teilmengen der reellen Zahlen einfach als [[Axiom]] festlegen. Diese Forderung wird oft ''Supremumsaxiom'' oder ''Vollständigkeitsaxiom'' genannt.<br />
<br />
B. Geht man von dem Axiom aus, dass jede [[Intervallschachtelung]] genau eine reelle Zahl definiert, kann zum Nachweis der Existenz des Supremums <math>\sup M</math> von <math>M</math> eine Intervallschachtelung <math>([a_k,\,b_k]),\; k \in \N</math> dienen, für die kein <math>a_k</math> obere Schranke von <math>M</math> ist, aber jedes <math>b_k</math> eine solche.<math>\mathbf{(i)}</math><br />
<br />
Eine solche Intervallschachtelung definiert eine Zahl <math>\sigma</math>, und die Folgen <math>(a_k)</math> und <math>(b_k)</math> konvergieren gegen <math>\sigma</math>.<ref>[[Intervallschachtelung#Konvergenz der Grenzfolgen einer Intervallschachtelung]]</ref> Ein beliebiges <math>b>\sigma</math> ist wegen <math>\lim_{k \to \infty}b_k = \sigma</math> größer als [[fast alle]] <math>b_k</math>. Da jedes <math>b_k</math> obere Schranke von <math>M</math> ist, ist <math>b \notin M</math>. Also ist <math>\sigma</math> eine obere Schranke von <math>M</math>. Zu überlegen bleibt, ob nicht auch ein <math>\sigma'<\sigma</math> obere Schranke von <math>M</math> sein kann. Wegen <math>\lim_{k \to \infty}a_k = \sigma</math> sind fast alle <math>a_k</math> größer als <math>\sigma'</math>. Da kein <math>a_k</math> obere Schranke von <math>M</math> ist, ist auch <math>\sigma'</math> keine solche. Also ist <math>\sigma</math> das behauptete Supremum von <math>M</math>. - Zu zeigen bleibt, dass eine Intervallschachtelung <math>([a_k,\,b_k])</math> existiert, die der Bedingung (i) genügt.<br />
<br />
Hierzu sei eine Intervallfolge <math>([a_k,\,b_k])</math> [[Rekursion#Mathematische Definition|rekursiv]] definiert. Für das erste Intervall sei <math>a_1</math> eine beliebige Zahl, die kleiner als ein beliebiges Element von <math>M</math> ist, <math>b_1</math> eine beliebige obere Schranke von <math>M</math>. <math>c_k=\frac{a_k + b_k}{2}</math> ist der [[Intervall (Mathematik)|Mittelpunkt]] des <math>k</math>-ten Intervalls der Folge. Die Grenzen des jeweils folgenden Intervalls <math>[a_{k+1},\,b_{k+1}]</math> seien,<br />
<br />
* falls <math>c_k</math> keine obere Schranke von <math>M</math> ist: <math>a_{k+1} = c_k, b_{k+1} = b_k</math>;<br />
* falls <math>c_k</math> eine obere Schranke von <math>M</math> ist: <math>a_{k+1} = a_k, b_{k+1} = c_k</math>.<br />
<br />
Für eine solche Intervallfolge gilt: <math>b_1</math> ist eine obere Schranke von <math>M</math>, <math>a_1</math> nicht. Beim Übergang von <math>[a_k,b_k]</math> zu <math>[a_{k+1},b_{k+1}]</math> ersetzt <math>c_k</math> genau dann eine Intervallgrenze, die obere Schranke von <math>M</math> ist, wenn <math>c_k</math> selbst obere Schranke von <math>M</math> ist; wenn aber <math>c_k</math> keine obere Schranke von <math>M</math> ist, ersetzt <math>c_k</math> eine Intervallgrenze, die auch keine solche ist. Also<ref>Der Gedankengang ist eine [[vollständige Induktion]].</ref> ist ''jedes'' <math>b_k</math>, aber ''kein'' <math>a_k</math> obere Schranke von <math>M</math>, und die Intervallfolge <math>([a_k,\,b_k])</math> erfüllt die Bedingung (i). - Zu zeigen bleibt, dass <math>([a_k,\,b_k])</math> eine Intervallschachtelung ist.<br />
<br />
''Behauptung'': <math>(a_k)</math> ist [[Monotone Zahlenfolge|monoton]] steigend <math>\Leftrightarrow \forall k: a_{k+1} \geq a_k. \mathbf{(1)}</math>.<br />
:''Beweis'': Für <math>a_{k+1} = a_k</math> ist nichts zu beweisen. Für <math>a_{k+1} = c_k</math> folgt aus <math>b_k>a_k</math>: <math>a_{k+1} = \frac{a_k + b_k}{2} > \frac{a_k + a_k}{2} = a_k</math>.<br />
<br />
''Behauptung'': <math>(b_k)</math> ist monoton fallend <math>\Leftrightarrow \forall k: b_{k+1} \leq b_k. \mathbf{(2)}</math>.<br />
:''Beweis'': Für <math>b_{k+1} = b_k</math> ist nichts zu beweisen. Für <math>b_{k+1} = c_k</math> folgt aus <math>a_k<b_k</math>: <math>b_{k+1} = \frac{a_k + b_k}{2} < \frac{b_k + b_k}{2} = b_k </math>.<br />
<br />
''Behauptung'': <math>(d_k)</math>, <math>d_k= b_k -a_k</math> ist eine Nullfollge. <math>\mathbf{(3)}</math>. - ''Beweis'':<br />
<br />
* Falls <math>c_k</math> keine obere Schranke von <math>M</math> ist, ist <math>d_{k+1} = b_{k+1}-a_{k+1} = b_k -c_k = \frac{2b_k}{2} -\frac{a_k +b_k}{2} = \frac{b_k -a_k}{2} = \frac{d_k}{2}</math>;<br />
* falls <math>c_k</math> eine obere Schranke von <math>M</math> ist, ist <math>d_{k+1} = b_{k+1}-a_{k+1} = c_k -a_k =\frac{a_k +b_k}{2} -\frac{2a_k}{2} = \frac{b_k -a_k}{2} = \frac{d_k}{2}</math>.<br />
Also können alle <math>d_k</math> auch <math>d_k = d_1 \cdot \,\left(\tfrac{1}{2}\right)^{k-1}</math> geschrieben werden, und <math>(d_k)</math> ist wegen <math>\left| \tfrac{1}{2} \right| < 1 </math> eine (geometrische) Nullfolge.<ref>Weiteres zur Konvergenz bestimmter geometrischer Folgen [[Geometrische Folge#Konvergenz geometrischer Folgen|hier]].</ref><br />
<br />
Mit (1), (2) und (3) ist <math>([a_k,\,b_k])</math> eine Intervallschachtelung, q.&nbsp;e.&nbsp;d.<br />
<br />
C. Eine äquivalente Formulierung zur Existenz des Supremums ist das Schnittaxiom, nachdem jeder [[Dedekindscher Schnitt|Dedekindsche Schnitt]] von einer reellen Zahl erzeugt wird.<br />
<br />
== Beispiele ==<br />
=== Reelle Zahlen ===<br />
Folgende Beispiele beziehen sich auf Teilmengen der reellen Zahlen.<br />
*<math>\sup \{1,2,3\} = 3</math><br />
*<math>\sup \{ x\in \mathbb R : 0 < x < 1 \} = \sup \{ x\in \mathbb R : 0 \leq x \leq 1 \} = 1</math><br />
*<math>\sup \{ x\in \mathbb Q : x^2 < 2 \} = \sqrt{2} \notin \mathbb Q</math><br />
*<math>\sup \{ (-1)^n - \tfrac{1}{n} : n \in \mathbb N \} = 1</math><br />
*<math>\sup \mathbb Z = +\infty</math><br />
*<math>\sup \{a\} = \inf \{a\} = \max \{a\} = \min \{a\} = a\quad \forall \, a \in \mathbb R</math><br />
*<math>\sup \{ a+b : a\in A \land b\in B\} = \sup A + \sup B</math><br />
*<math>\sup -A = -\inf A</math> bzw. <math>-\sup A = \inf -A</math>, wobei <math>-A := \{-x \in \mathbb R : x \in A\}</math><br />
<br />
=== Andere halbgeordnete Mengen ===<br />
Auf <math>\mathbb{R}</math> hat jede nicht-leere nach oben bzw. unten beschränkte Teilmenge ein Supremum bzw. Infimum.<br />
Betrachtet man andere Mengen, auf denen Ordnungsrelationen definiert sind, so ist dies nicht zwingend:<br />
* Die Menge <math>\mathbb{Q}</math> der [[Rationale Zahlen|rationalen Zahlen]] ist bezüglich der natürlichen Ordnung [[Ordnungsrelation|total geordnet]]. Die Menge <math>\{x\in\mathbb{Q}:x^2<2\}\subset\mathbb{Q}</math> ist beispielsweise durch die Zahl <math>1{,}42\in\mathbb{Q}</math> nach oben beschränkt, hat aber kein Supremum in <math>\mathbb{Q}</math>.<br />
* In beliebigen halbgeordneten Mengen <math>(A,\leq)</math> ist jedes Element sowohl untere als auch obere Schranke der leeren Menge <math>\emptyset</math>. Daher ist <math>\inf\emptyset</math> das [[größtes und kleinstes Element|größte Element]] von <math>A</math> und <math>\sup\emptyset</math> das kleinste. Größte und kleinste Elemente müssen jedoch nicht existieren: In der Menge <math>\mathbb N = \{1, 2, 3, \dots\}</math> der [[Natürliche Zahl|natürlichen Zahlen]] mit der üblichen Ordnung hat <math>\emptyset</math> kein Infimum, und es ist <math>\sup\emptyset = 1</math>.<br />
* In der bezüglich [[Teilmenge|Inklusion]] partiell geordneten Menge <math>\mathcal{X}:=\{\{1\},\{2\},\{1,2,3\},\{1,2,4\}\}</math> ist die Menge <math>M:=\{\{1\},\{2\}\}\subset\mathcal{X}</math> sowohl durch das Element <math>\{1,2,3\}\in\mathcal{X}</math> als auch durch <math>\{1,2,4\}\in\mathcal{X}</math> nach oben beschränkt. Ein Supremum, also eine kleinste obere Schranke von <math>M</math>, existiert in <math>\mathcal{X}</math> jedoch nicht.<br />
<br />
== Siehe auch ==<br />
* Aus dem Begriff Supremum wird in der [[Maßtheorie]] der Begriff des [[Wesentliches Supremum|''wesentlichen Supremums'']] abgeleitet, der zum Beispiel in der Theorie der [[Lp-Raum|<math>L^p</math>-Räume]] eine wichtige Rolle spielt.<br />
* Die Untersuchung von partiell geordneten Mengen, in denen zu jeder zweielementigen Teilmenge ein Supremum und ein Infimum existiert, ist Gegenstand der [[Verbandstheorie]].<br />
<br />
== Literatur ==<br />
* Stefan Hildebrandt: ''Analysis 1.'' Springer 2005, ISBN 3-540-25368-8.<br />
<br />
== Weblinks ==<br />
{{Wikibooks|Mathe für Nicht-Freaks: Supremum und Infimum}}<br />
{{Wikibooks|Mathe für Nicht-Freaks: Supremum und Infimum bestimmen und beweisen}}<br />
{{Commonscat|Infimum and supremum}}<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Analysis]]<br />
[[Kategorie:Ordnungstheorie]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Polylogarithmus&diff=191264720Polylogarithmus2019-08-12T07:43:58Z<p>HerrHartmuth: Formel verschoenert</p>
<hr />
<div>Der '''Polylogarithmus''' ist eine [[spezielle Funktion]], die durch die [[Reihe (Mathematik)|Reihe]]<br />
: <math><br />
\operatorname{Li}_s(z) = \sum_{k=1}^\infty \frac{z^k}{k^s}<br />
</math><br />
definiert ist. Für <math>s = 1</math> geht der Polylogarithmus in den gewöhnlichen [[Logarithmus]] über:<br />
: <math>\operatorname{Li}_1(z)=-\ln(1-z)</math><br />
Im Fall <math>s=2</math> und <math>s=3</math> spricht man entsprechend von [[Dilogarithmus]] bzw. '''Trilogarithmus'''. Die Definition gilt für [[Komplexe Zahlen|komplexe]] <math>s</math> und <math>z</math> mit <math>|z|<1</math>. Durch [[analytische Fortsetzung]] lässt sich diese Definition auf weitere <math>z</math> ausdehnen.<br />
<br />
In den wichtigsten Anwendungsfällen ist <math>s=n</math> eine [[natürliche Zahl]]. Für diese Fälle kann man den Polylogarithmus durch die Rekursion<br />
:<math>\operatorname{Li}_{0}(z) =\frac{z}{1-z}; \quad \operatorname{Li}_{n+1}(z) = \int_0^z \frac{\operatorname{Li}_n(t)}{t}\, \text{d}t<br />
\quad \mbox{für} \quad <br />
n = 0,1,2,3,\ldots</math><br />
definieren, wonach der Dilogarithmus ein Integral des Logarithmus ist, der Trilogarithmus ein Integral des Dilogarithmus und so fort. Für negative ganzzahlige Werte von <math>s</math> lässt sich der Polylogarithmus durch [[Rationale Funktion|rationale Funktionen]] ausdrücken.<br />
<br />
Der Polylogarithmus taucht beispielsweise im Zusammenhang mit der [[Fermi-Dirac-Verteilung]] und der [[Bose-Einstein-Verteilung]] auf. Zudem kann mit ihm im hexadezimalen Zahlensystem eine beliebige Stelle von [[Bailey-Borwein-Plouffe-Formel#Polylogarithmische Konstante|polylogarithmischen Konstanten]] (z.&nbsp;B. <math>\pi</math>) einzeln berechnet werden.<br />
<br />
== Funktionswerte und Rekursionen ==<br />
[[Datei:Mplwp polylogarithm m3to3.svg|mini|320px|Graphen verschiedener ganzzahliger Polylogarithmen]]<br />
Einige explizite Funktionsterme für spezielle ganzzahlige Werte von <math>s</math>:<br />
: <math>\operatorname{Li}_{1}(z) = -\ln\left(1-z\right)</math><br />
: <math>\operatorname{Li}_{0}(z) = \frac{z}{1-z}</math><br />
: <math>\operatorname{Li}_{-1}(z) = \frac{z}{(1-z)^2}</math><br />
: <math>\operatorname{Li}_{-2}(z) = \frac{z(1+z)}{(1-z)^3}</math><br />
: <math>\operatorname{Li}_{-3}(z) = \frac{z(1+4z+z^2)}{(1-z)^4}</math><br />
: <math>\operatorname{Li}_{-4}(z) = \frac{z(1+z)(1+10z+z^2)}{(1-z)^5}</math><br />
Formal kann man <math>\operatorname{Li}_{-n}(z):=\left(z\frac{\text{d}}{\text{d}z}\right)^nH(z)</math> mit der (für alle <math>z</math> divergierenden) Reihe <math>H(z)=\sum_{k=-\infty}^\infty z^k</math> definieren. Obwohl diese Reihe nicht konvergiert, kann diese Definition zum Beweis von Funktionalgleichungen (im Ring der formal definierten [[Laurent-Reihe]]n) verwendet werden.<br />
<br />
Für alle ganzzahligen ''nichtpositiven'' Werte von <math>s</math> kann der Polylogarithmus als Quotient von Polynomen geschrieben werden. In diesen Fällen ist er also eine [[rationale Funktion]]. Für die drei kleinsten positiven Werte von <math>s</math> sind im Folgenden die Funktionswerte an der Stelle <math>1/2</math> angegeben:<br />
: <math>\operatorname{Li}_{1}\left(\tfrac12 \right) = \ln 2</math><br />
: <math>\operatorname{Li}_{2}\left(\tfrac12 \right) = \tfrac1{12}\left(\pi^2-6\,\ln^2 2 \right)</math><br />
: <math>\operatorname{Li}_{3}\left(\tfrac12 \right) = \tfrac1{24}\left(4\, \ln^3 2-2\pi^2\, \ln 2+21\,\zeta(3) \right)</math><br />
<math>\zeta</math> ist dabei die [[Riemannsche Zetafunktion]]. Für größeres <math>s</math> sind keine derartigen Formeln bekannt.<br />
<br />
Es gilt<br />
: <math>\operatorname{Li}_s(1)=\zeta(s)</math><br />
und<br />
: <math>\operatorname{Li}_s(-1)=-\eta(s)</math><br />
mit der [[Dirichletsche Eta-Funktion|dirichletschen <math>\eta</math>-Funktion]].<ref>{{MathWorld|DirichletEtaFunction|Dirichlet Eta Function}}</ref><br />
<br />
{| style="text-align:center"<br />
|+ Verschiedene Polylogarithmusfunktionen in der komplexen Ebene<br />
|[[Datei:Complex polylogminus3.jpg|1000x140px|ohne]]<br />
|[[Datei:Complex polylogminus2.jpg|1000x140px|ohne]]<br />
|[[Datei:Complex polylogminus1.jpg|1000x140px|ohne]]<br />
|[[Datei:Complex polylog0.jpg|1000x140px|ohne]]<br />
|-<br />
|<math><br />
\operatorname{Li}_{-3}(z)<br />
</math><br />
|<math><br />
\operatorname{Li}_{-2}(z)<br />
</math><br />
|<math><br />
\operatorname{Li}_{-1}(z)<br />
</math><br />
|<math><br />
\operatorname{Li}_{0}(z)<br />
</math><br />
|-<br />
|[[Datei:Complex polylog1.jpg|1000x140px|ohne]]<br />
|[[Datei:Complex polylog2.jpg|1000x140px|ohne]]<br />
|[[Datei:Complex polylog3.jpg|1000x140px|ohne]]<br />
|-<br />
|<math><br />
\operatorname{Li}_{1}(z)<br />
</math><br />
|<math><br />
\operatorname{Li}_{2}(z)<br />
</math><br />
|<math><br />
\operatorname{Li}_{3}(z)<br />
</math><br />
|}<br />
<br />
== Ableitung ==<br />
Die Ableitung der Polylogarithmen sind wieder Polylogarithmen:<br />
: <math>\frac{\text{d}}{\text{d}x} \operatorname{Li}_n(x)=\frac1x \operatorname{Li}_{n-1}(x)</math><br />
<br />
== Integraldarstellung ==<br />
Der Polylogarithmus lässt sich für alle komplexen <math>z,s</math> durch<br />
: <math><br />
\operatorname{Li}_s(z)=<br />
\frac{z}{2}+\ln^{s-1}\,\frac{1}{z}\,\Gamma(1-s,-\ln\,z)+<br />
2z\int\limits_0^\infty\frac{\sin(s\arctan t-t\,\ln\,z)}{(1+t^2)^{s/2}(\mathrm{e}^{2\pi\,t}-1)}\,\text{d}t<br />
</math><br />
mit Hilfe des Integralausdrucks für die [[Lerchsche Zeta-Funktion]] darstellen. Dabei ist <math>\Gamma(s,z)=\int\limits_z^\infty t^{s-1}\mathrm{e}^{-t}\,\text{d}t</math> die [[unvollständige Gammafunktion]] der unteren Grenze.<br />
<br />
== Verallgemeinerungen ==<br />
=== Mehrdimensionale Polylogarithmen ===<br />
Die mehrdimensionalen Polylogarithmen sind folgendermaßen definiert:<ref>{{MathWorld|MultidimensionalPolylogarithm|Multidimensional Polylogarithms}}</ref><br />
: <math>\operatorname{L}_{a_1,\ldots,a_m}(z)=\sum_{n_1<\ldots<n_m<0} \frac{z^{n_1}}{n_1^{a_1}\cdots n_m^{a_m}}</math><br />
<br />
=== Lerchsche Zeta-Funktion ===<br />
Der Polylogarithmus ist ein Spezialfall der transzendenten [[Lerchsche Zeta-Funktion|Lerchschen Zeta-Funktion]]:<br />
: <math>\operatorname{Li}_s(z)=z\cdot\Phi(z,s,1)</math><br />
<br />
=== Nielsens verallgemeinerte Polylogarithmen ===<br />
Nielsen fand folgende Verallgemeinerung für den Polylogarithmus:<ref>{{MathWorld|NielsenGeneralizedPolylogarithm|Nielsen Generalized Polylogarithm}}</ref><br />
: <math>\operatorname{S}_{n,p}(z)=\frac{(-1)^{n+p-1}}{(n-1)!p!} \int\limits_0^1 \frac{\ln(t)^{-1}\left[\ln(1-zp)^t\right]}t \text{d}t</math><br />
Es gilt:<br />
: <math>\operatorname{S}_{n-1,1}(z)=\operatorname{Li}_n(z)</math><br />
<br />
== Siehe auch ==<br />
* [[Fermi-Dirac-Integral]]<br />
<br />
== Literatur ==<br />
* [[Alexander Goncharov]]: [http://users.math.yale.edu/users/ag727/icm.pdf ''Polylogarithms in arithmetic and geometry.''] (PDF) In: ''Proceedings of the International Congress of Mathematicians (Zürich, 1994)''. Birkhäuser, Basel 1995, Vol. 1, 2, S. 374–387.<br />
* [[Milton Abramowitz]], [[Irene Stegun]]: ''[[Handbook of Mathematical Functions]]''. Dover Publications, New York 1964, ISBN 978-0-486-61272-0, [http://www.math.sfu.ca/~cbm/aands/page_1004.htm Abs. 27.7.]<br />
<br />
== Weblinks ==<br />
* [[Eric W. Weisstein]]: [http://mathworld.wolfram.com/Dilogarithm.html ''Dilogarithm''], [http://mathworld.wolfram.com/Trilogarithm.html ''Trilogarithm''] und [http://mathworld.wolfram.com/Polylogarithm.html ''Polylogarithm.''] In: ''[[MathWorld]]'' (englisch).<br />
* David H. Baileyb, David J. Broadhurst: ''A seventeenth-order polylogarithm ladder''. {{arXiv|math.CA/9906134}}<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Analytische Funktion]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Diskussion:Toeplitz-Matrix&diff=191157077Diskussion:Toeplitz-Matrix2019-08-08T14:15:35Z<p>HerrHartmuth: Antwort auf Beispielmatrix</p>
<hr />
<div>== Beispiel zu speziell? ==<br />
<br />
Bei dem Matrix-Beispiel sowie dem gegebenen Bild mit fortlaufendem Farbmuster könnte man denken, die Diagonalen der Toeplitz-Matrix sind tatsächlich mit 1,2,3,... besetzt. Wie wäre es allgemeiner mit folgender <math>4\times 5</math>-Toeplitz-Matrix:<br />
<math><br />
M =<br />
\begin{bmatrix}<br />
a & b & c & d & e \\<br />
f & a & b & c & d \\<br />
g & f & a & b & c \\<br />
h & g & f & a & b \\<br />
\end{bmatrix}<br />
</math>?<br />
<br />
[[Spezial:Beiträge/130.83.20.205|130.83.20.205]] 19:48, 22. Jun. 2014 (CEST)<br />
<br />
:Vielleicht sind beide Beispiele sinnvoll, etwa wie in [[Symmetrische Matrix]]. Grüße, --[[Benutzer:Quartl|Quartl]] ([[Benutzer Diskussion:Quartl|Diskussion]]) 05:59, 23. Jun. 2014 (CEST)<br />
<br />
:Auf der englischen Seiten gibt es schon eine Beispielmatrix mit Einträgen <math>a_{-n}, \dots, a_n</math>. Kann man nicht einfach diese übernehmen? [[Benutzer:HerrHartmuth|HerrHartmuth]] ([[Benutzer Diskussion:HerrHartmuth|Diskussion]]) 16:15, 8. Aug. 2019 (CEST)</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Diskussion:Fefes_Blog&diff=190202328Diskussion:Fefes Blog2019-07-07T11:05:12Z<p>HerrHartmuth: /* CSS Tabelle */ typo</p>
<hr />
<div><br />
{{Diskussionsseite}}<br />
{{LAE|21. November 2010|Fefes Blog (LAZ)}}<br />
{{War Löschkandidat|21. Oktober 2009|Fefes Blog (erl., bleibt)|30. Oktober 2009|Fefes Blog (erl., bleibt)}}<br />
{{Autoarchiv<br />
|Alter=180<br />
|Mindestbeiträge=2<br />
|Mindestabschnitte=7<br />
|Ziel='Diskussion:Fefes Blog/Archiv'<br />
|Übersicht=[[Diskussion:Fefes Blog/Archiv]]<br />
|Frequenz=monatlich<br />
}}<br />
<br />
== Blog-Links bei Fefe immer ohne / am Ende ==<br />
<br />
Ich habe gerade mehrere Links repariert, da diese auf / endeten, was bei Fefes Blog auf die Startseite führt anstatt zum gewünschten Beitrag. Ich bitte das auch in Zukunft zu beachten. --[[Benutzer:Iromeister|IroMeister]] ([[Benutzer Diskussion:Iromeister|Diskussion]]) 12:01, 16. Dez. 2015 (CET)<br />
<br />
:Das ist übrigens immer so, wenn der Pfad nicht gerade auf ein Verzeichnis zeigt. --nennt[[User:Nenntmichruhigip|mich]]<nowiki/>ruhig[[WP:IP|ip]] ([[BD:nenntmichruhigip|Diskussion]]) 12:49, 16. Dez. 2015 (CET)<br />
<br />
== Alternativlos als Weiterleitung mit Eintrag in die Podcastkategorie ==<br />
<br />
Für den Podcast Alternativlos sollte eine Weiterleitungsseite z.B. "Alternativlos (Podcast)" angelegt werden, die dann anstatt dieser Seite in die Kategorie Podcast eingetragen wird. Leider übersteigt das die mir zugedachten Kompetenzen. --[[Spezial:Beiträge/92.214.184.72|92.214.184.72]] 19:08, 30. Mär. 2016 (CEST)<br />
<br />
: Dürfen nur Admins, bei Bedarf (kann ich nicht einschätzen) bitte auf [[WP:LP]] oder [[WP:AA]] melden. --nennt[[User:Nenntmichruhigip|mich]]<nowiki/>ruhig[[WP:IP|ip]] ([[BD:nenntmichruhigip|Diskussion]]) 14:57, 31. Mär. 2016 (CEST)<br />
<br />
::Danke, dann klicke ich mich vielleicht mal durch. --[[Spezial:Beiträge/92.214.188.151|92.214.188.151]] 20:16, 2. Apr. 2016 (CEST)<br />
<br />
== Technik ==<br />
<br />
Der Abschnitt Technik könnte als [http://www.heise.de/forum/c-t-Fotografie/News-Kommentare/Fotografin-verklagt-Getty-Images-auf-Zahlung-von-einer-Milliarde-Dollar/Re-Getty-Images-gehoert-zur-Carlyle-Group/posting-28982582/show/ weniger relevant] entfernt werden. Nix gegen Fefe's Gebastel, aber so spannend ist es nun doch nicht. [[Spezial:Beiträge/2A03:2267:0:0:9DE6:20BD:6C8E:865F|2A03:2267:0:0:9DE6:20BD:6C8E:865F]] 15:27, 30. Jul. 2016 (CEST)<br />
: Auch wenn es für den einen oder anderen nicht so wichtig erscheint ist es aber eine Besonderheit des Blogs an sich, wenn nicht sogar ein Alleinstellungsmerkmal. Kein weiteres mir bekanntes Blog verwendet einen komplett selbstgeschriebenen Software-Stack. Sofern auch noch selbst gehostet wird hat man schon fast die volle Kontrolle - und auch Verantwortung - über die Infrastruktur. Aus meiner Sicht wird damit nur gezeigt, daß der Blogger auch zu dem steht was er schreibt. Demzufolge ist dies ein sehr wichtiger Punkt. --[[Spezial:Beiträge/62.96.80.194|62.96.80.194]] 15:22, 4. Mär. 2019 (CET)<br />
<br />
==Faktenhinweis im Kritik-Kapitel ergänzen==<br />
Vorschlag: Da Seemann schwerste Vorwürfe in Form von "''mangelhafte Recherche, undifferenzierte Sichtweisen und Hetze gegen Minderheiten"'' gegen fefe erhebt erscheint die Ergänzung (ohne fett) "- '''''gleichzeitig aber blieb Seemann jeglichen konkreten Nachweis schuldig'''''" oder inhaltlich Ähnliches (meinetwegen anders formuliert) angezeigt. Ansonsten könnte das womöglich schon den Straftatbestand der üblen Nachrede und/oder Rufmord erfüllen und somit Persönlichkeitsrechte verletzen. Evtl. könnte es ohne Faktenhinweis ebenfalls als "hate speech" angesehen werden --[[Benutzer:PP Logos|PP Logos]] ([[Benutzer Diskussion:PP Logos|Diskussion]]) 18:50, 30. Mär. 2017 (CEST)<br />
:Quatsch, die Nachweise stehen doch wunderschön im [http://mspr0.de/?p=4272 Orginal] und wir bilden nur ab was woanders schon steht und zuverlässig scheint. Das ganze Rechtsgedöns kannst du ruhig stecken lassen. --[[Benutzer:Codc|<span style="color:black;font-family:Comic Sans MS">codc </span>]]<sup>[[Benutzer Diskussion:Codc|<tt>Disk </tt>]]</sup> 20:43, 30. Mär. 2017 (CEST)<br />
#Das ist jetzt aber zu blöd, dass ich auch das Original gelesen habe und eben nicht bestätigen kann, was du behauptest. Da es nichts bringt, wenn du behauptest "die Nachweise stehen da" und ich festelle "nö, die stehen da eben nicht", schlage ich vor, du zitierst die angeblichen Nachweise, die du dafür hältst, dann haben wir eine Sachgrundlage. <br />
#Davon unbenommen aber noch etwas Prinzipielles: Seemann ergießt pauschale, unifferenzierte Aussagen ohne Einschränkung. In der Wissenschaft wird so etwas "Allaussage" genannt. Selbst auf die Gefahr hin, dass für dich eine Welt zusammen bricht: Allaussagen lassen sich '''NIEMALS''' durch Einzelbeispiele belegen/beweisen! Ist dir klar, was für eine Konsequenz das für deinen Ansatz hat, Seemanns Allaussagen anhand von Einzelbeispielen "belegen" zu wollen? Gibt es nicht selbst in wikipedia eine Vorschrift die besagt, dass das Persönlichkeitsrecht lebender Personen besonders zu beachten ist? Wie kommt es, dass Faktenunterdrücker dies immer wieder einseitig ausblenden und meinen, dass könne man ruhig stecken lassen?<br />
# Was woanders steht ist automatisch auch korrekt? Wer sagt, dass die Quelle mit solchen diffamierenden und pauschalen Urteilen richtig liegt?<br />
# Was "zuverlässig scheint"? Für wen? Für mich nicht! <br />
# Ist bloßer Anschein bei solchen Vorwürfen schon ausreichend? Oder sollte bei der möglichen Verletzung von Persönlichkeitsrechten nicht härte und belastbarere Kriterien angelegt werden?<br />
::Alles in allem ziemlich schwach - argumentativ gibt dein Kommentar nicht viel her. --[[Benutzer:PP Logos|PP Logos]] ([[Benutzer Diskussion:PP Logos|Diskussion]]) 21:05, 30. Mär. 2017 (CEST)<br />
:Ich weiss: Alle doof und ungebildet außer dir - so argumentierst immer. Was hat die Qualität des Blogs nun mit WP:BIO zu tun? Wenn fefe Ken Jerbsens Thesen beispielsweise und als Diskutabel bezeichnet ist das einfach nur schlechte Arbeit. Aber du argumentierst ja auch gerne mit den Machwerken von Markus Fiedler und wo sind die veröffentlicht? KenTV und da schließt sich der Kreis. --[[Benutzer:Codc|<span style="color:black;font-family:Comic Sans MS">codc </span>]]<sup>[[Benutzer Diskussion:Codc|<tt>Disk </tt>]]</sup> 21:58, 30. Mär. 2017 (CEST)<br />
::Glatte Faktenverdrehung: dein Anwurf ist ne pure Unterstellung, die meine Worte schlicht weg nicht hergeben! Ich habe eben harte Sachargumente oder Fragen vorgebracht, denen du in der Sache offensichtlich nichts entgegenzusetzen hast. Also wirst du unsachlich. Dann wird versucht, eure Argumentationsschwäche und/oder Unfähigkeit zu kaschieren, indem mir substanzlose Unterstellungen angeworfen werden. Immer das gleiche mit Euch.<br />
# Wenn im Wikiartikel steht "''betreibe Fefe mangelhafte Recherche, undifferenzierte Sichtweisen und Hetze gegen Minderheiten''" - über wenn wird dann geschrieben? Nicht über fefe, also eine lebende Person? Also was soll diese lächerliche Frage, was das mit WP:BIO zu tun hat? Wie wärs, wenn du dich mal mit dem Sachverhalt beschäftigst, um den es hier geht? Dazu muss man nur hinreichend aufmerksam lesen. <br />
#In wiefern macht der Hinweis auf Jebsen den zutiefst diffamierenden Erguss von Seemann, um den es hier geht, irgendwie besser?<br />
#Warum beantwortest du nicht die Fragen, die sich aus deiner vorausgehenden Pseudoargumentation ergeben? Weil die Fakten nichts hergeben, was deine Sichtweise stützen würde?<br />
#Warum bringst du nicht die konkreten Belege, die deine Behauptungen untermauern? Ich hatte einen konstruktiven Vorschlag unterbreitet, dessen Umsetzung die Basis für eine Sachdiskussion geliefert hätte. Aber du leitest deinen "Kommentar" lieber mit einem persönlichen Angriff ein. Glaubst du, das wäre überzeugend? DAS? <br />
#Wer Jebsens Thesen völlig undifferenziert und somit pauschal als indiskutabel abbügelt, ohne auch nur ein einziges valides Sachargument vorzubringen, der ist entweder denkfaul oder ideologisch verblendet. Beides sind indiskutable Herangehensweisen.<br />
#Genau: aufwendige recherchierte Dokus als Machwerk abzutun - wieder ohne jegliches valides Sachargument, aber das ist man ja gewohnt von dir - das ist "unglaublich überzeugend". Funktioniert so ein Zeugnis argumentativer Schande bei deinesgleichen?<br />
#Kapierst du nicht einmal, dass der Hinweis auf die Veröffentlichung auf KenTV "argumentum ad hominem" - als ein klassisches '''PSEUDO'''-Argument in Reinform ist? Wenn ich euch argumentativ so dermaßen vorführe, dann doch nur, weil ihr mir mit eurem unglaublichen Unvermögen solche Vorlagen liefert. Beschwere dich also nicht bei mir, sondern wirf einen tiefen und langen Blick in den Spiegel!<br />
#So ganz am Rande: leite deinen "Kommentar" besser nicht mir "ich weiß" ein, wenn du dann selbst unmittelbar danach Fakten schaffst, die deine Behauptung Lügen strafen. Jedenfalls nicht, wenn du ernst genommen werden möchtest. <br> Unfassbar, mit welch hanebüchener Pseudoargumentation man hier konfrontiert wird. --[[Benutzer:PP Logos|PP Logos]] ([[Benutzer Diskussion:PP Logos|Diskussion]]) 22:58, 30. Mär. 2017 (CEST)<br />
:Mit unverschämten Besserwissern die nicht mal in der Lage sind einfachste Sachverhalte zu erfassen diskutiere ich nicht und auf dem Niveau von Textbausteinen, die du überall in diesem Zusammenhang in der WP verbreitest, erst recht nicht. Du musst mir die die Wikipedia nicht erklären denn die kenne ich selber gut genug. Ich fürchte aber, dass du wenn du so weiter machst kein langes Vergnügen mehr in der Wikipedia hast - alleine aus meiner Erfahrung heraus - Filibusterei kommt niemals gut an hier. --[[Benutzer:Codc|<span style="color:black;font-family:Comic Sans MS">codc </span>]]<sup>[[Benutzer Diskussion:Codc|<tt>Disk </tt>]]</sup> 23:10, 30. Mär. 2017 (CEST)<br />
::Wow, wie "unglaublich überzeugend": Erst ne reine Projektion deines Unvermögens, dann deine Flucht aus der Sachdiskussion mittels substanzloser Unterstellungen und der offensichtlichen Unfähigkeit, meinen Argumenten sachlich etwas entgegen zu setzen. Und mir dann "unverschämt" vorwerfen, nachdem du deinen Kommentar mit einem unsachlichen persönlichen Angriff einleitest und mich offensichtlich für so blöd hältst, dass ich deine lächerliche Pseudoargumentation, die eine intellektuelle Beleidigung darstellt, nicht ad hoc in der Luft zerreißen könnte. So viel Doppelzüngigkeit und Doppelmoral sucht schon seinesgleichen. Wenn du offensichtlich deplatzierte Fragen nach WP:BIO stellst und mich damit erneut für dumm verkaufen willst, dann beschwere dich doch nicht über das selbst verursache Echo! Du bist im Gegensatz zu mir nicht in der Lage, hier in der Sache auch nur ein einziges valides Sachargument vorzubringen, kommst aber mir mit Filibusterei? Das ist unfassbar dreist und stinkt angesichts deines argumentativen Totalversagens vor Doppelstandard zu Himmel. Mit diesem Fehlverhalten bestätigt ihr doch genau das, was ihr gern als "Machwerk" marginalisieren würdet! Schuss ins Knie! --[[Benutzer:PP Logos|PP Logos]] ([[Benutzer Diskussion:PP Logos|Diskussion]]) 23:26, 30. Mär. 2017 (CEST)<br />
:Bitte verändere keinen Diskussionsbeitrag wenn schon eine Antwort erfolgt ist. Dein konkreter Vorschlag verändert eine belegbare Kritik ins Spekulative. Daher ist das nicht akzeptabel. Du musst wohl damit leben, dass fefe nicht kritiklos ist. Und was deine kruden Verschwörungstheorien betrifft bitte einmal [[Ockhams Rasiermesser]] lesen - geht auch schneller als sich die Fiedler-Ergüsse auf YT anzuschauen und für das oberhalb siehe VM denn geht eindeutig zu weit. --[[Benutzer:Codc|<span style="color:black;font-family:Comic Sans MS">codc </span>]]<sup>[[Benutzer Diskussion:Codc|<tt>Disk </tt>]]</sup> 23:49, 30. Mär. 2017 (CEST)<br />
<br />
== Strukturierende HTML-Elemente ==<br />
<br />
{{ping|Tuxman}} Gibt es irgendeinen Grund für [[Spezial:Diff/165719570|Deine Streichung]]? &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 11:15, 22. Mai 2017 (CEST)<br />
<br />
:Inzwischen benutzt Fefe ein paar mehr HTML-Elemente, wohl damit sein Blog auch auf Mobilgeräten nicht total verkorkst angezeigt wird:<br />
<pre><br />
<!doctype html><br />
<html lang="de"><meta charset="utf-8"><br />
<meta name="viewport" content="width=device-width"><link rel="alternate" type="application/rss+xml" title="Text-Feed" href="/rss.xml"><link rel="alternate" type="application/rss+xml" title="HTML-Feed" href="/rss.xml?html"><title>Fefes Blog</title><br />
<h2><a href="/" style="text-decoration:none;color:black">Fefes Blog</a></h2><br />
…<br />
</pre><br />
--[[Benutzer:RokerHRO|RokerHRO]] ([[Benutzer Diskussion:RokerHRO|Diskussion]]) 13:11, 22. Mai 2017 (CEST)<br />
::In dem gestrichenen Satz sind zwei Elemente beispielhaft genannt: <tt>head</tt> und <tt>body</tt>. Beide werden im Quelltext nicht verwandt. Insbesondere geht es in dem gestrichenen Satz um ''strukturierende'' Tags. Weder <tt>!doctype</tt>, noch <tt>meta</tt>, <tt>link</tt> oder <tt>title</tt> gehören zu den strukturierenden Elementen. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 13:47, 22. Mai 2017 (CEST)<br />
:Der Safari ergänzt die im Artikel genannten Elemente selbstständig ([[Benutzerin_Diskussion:M-J/Archiv/2#Fefe]]), das könnte hier ebenfalls der Grund sein. Eventuell sollte man per Fußnote im Text daraufhinweisen um zukünftige Streichungen zu vermeiden. --[[User:M-J|ɱ]] 14:05, 22. Mai 2017 (CEST)<br />
<br />
<pre><br />
> curl https://blog.fefe.de<br />
<br />
<!doctype html><br />
<html lang="de"><meta charset="utf-8"><br />
<link rel="alternate" type="application/rss+xml" title="Text-Feed" href="/rss.xml"><link rel="alternate" type="application/rss+xml" title="HTML-Feed" href="/rss.xml?html"><title>Fefes Blog</title><br />
<br />
<h2><a href="/" style="text-decoration:none;color:black">Fefes Blog</a></h2><br />
<br />
<b>Wer sch├Âne Verschw├Ârungslinks f├╝r mich hat: ab an felix-bloginput (at) fefe.de!</b><br />
<br />
<p style="text-align:right">Fragen? <a href="/faq.html">Antworten!</a> Siehe auch: <a href="//alternativlos.org/">Alternativlos</a><p><h3>Mon May 22 2017</h3><br />
<br />
<ul><br />
<li><br />
<br />
<!-- ... Listeneintrag mit <p> drin ... --><br />
</pre><br />
<br />
Nach meinem Kenntnisstand sind sowohl <tt>ul</tt>/<tt>li</tt> als auch <tt>p</tt> strukturierende Elemente. Nach meinem Kenntnisstand ergänzt <tt>curl</tt> auch keinerlei Elemente. Finger weg von meiner Bearbeitung.<br />
<br />
--[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 14:37, 22. Mai 2017 (CEST)<br />
:Finger weg? Troll dich! Du löschst die Information, dass Elemente wie body und head nicht verwendet werden. Und genau das mach ich rückgängig. Im übrigen sollten wir zur Begriffsdefinition W3C heranziehen, die nicht von strukturierenden Elementen spricht: https://www.w3schools.com/tags/ref_byfunc.asp - das heißt, dass sprachlich eventuell der Text angepasst werden müsste, aber nicht valide Informationen gelöscht. --[[User:M-J|ɱ]] 14:46, 22. Mai 2017 (CEST)<br />
:{{ping|viciarg}} Optional im Wortsinn sind sie aber auch nicht, da der Standard sie vorschreibt und Validatoren ihr Fehlen bemängelt. --[[User:M-J|ɱ]] 14:51, 22. Mai 2017 (CEST)<br />
<br />
::: Dein Tonfall ist unter aller Kanone. Lösch dich! <small>(Und nächstes Mal versuchen wir es mal ohne "selber Troll", ja?)</small><br />
::: Darüber hinaus habe ich die Fehlinformation gelöscht, es werden keine ''strukturierenden Elemente'' benutzt, was eindeutig Unfug ist. Was, wenn kein strukturierendes Element, ist denn <tt>p</tt>?<br />
::: --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 15:07, 22. Mai 2017 (CEST)<br />
::::Wie es in den Wald hineinruft, so schallt es heraus. Mit „Finger weg von meiner Bearbeitung“ hast Du die Latte ausreichend tief gesetzt. Es wäre ratsam, jetzt nicht weiter zu eskalieren. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:13, 22. Mai 2017 (CEST)<br />
::::: Genau darauf wollte ich hinaus. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 15:19, 22. Mai 2017 (CEST)<br />
:::::: Du bist einfach nicht in der Position, Dich hier über den Tonfall anderer zu beschweren. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:33, 22. Mai 2017 (CEST)<br />
::::::: Ich glaube nicht, dass dies hier ein geeigneter Ort ist, um mich - aus welcher moralischen Überlegenheit auch immer heraus - über Positionen zu belehren zu versuchen. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 16:04, 22. Mai 2017 (CEST)<br />
:::::::: Dann bleib zukünftig auf der Sachebene, dann passiert Dir soetwas nicht. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 09:23, 29. Mai 2017 (CEST)<br />
<br />
::Sowohl im HTML-4.01-Standard als auch in HTML 5.1 ist <tt>head</tt> optional. HTML 4.01: [https://www.w3.org/TR/html401/struct/global.html#h-7.4.1 Start tag: optional, End tag: optional], HTML 5.1: [https://www.w3.org/TR/html51/document-metadata.html#the-head-element A head element’s start tag may be omitted if the element is empty, or if the first thing inside the head element is an element. A head element’s end tag may be omitted if the head element is not immediately followed by a space character or a comment.].<br />
::Gleichfalls verhält es sich mit <tt>body</tt>. HTML 4.01: [https://www.w3.org/TR/html401/struct/global.html#h-7.5.1 Start tag: optional, End tag: optional], HTML 5.1: [https://www.w3.org/TR/html51/sections.html#the-body-element A body element’s start tag may be omitted if the element is empty, or if the first thing inside the body element is not a space character or a comment, except if the first thing inside the body element is a meta, link, script, style, or template element. A body element’s end tag may be omitted if the body element is not immediately followed by a comment.].<br />
::Das Reaktionsverhalten von Validatoren und Browsern ist nicht Teil der Standard-Deklaration. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:06, 22. Mai 2017 (CEST)<br />
:::Oh, man lernt nie aus. Dann bin ich mit der aktuellen Formulierung mehr als einverstanden :) --[[User:M-J|ɱ]] 16:05, 22. Mai 2017 (CEST)<br />
:Deine Bearbeitung hast Du unter einer freien Lizenz, die Bearbeitungen, mithin auch Reverts, erlaubt, freigegeben. Verstehe ich Dich richtig, dass es Dir allein um die Formulierung „strukturierende Elemente“ geht? Ganz unabhängig davon, ob <tt>ul</tt>, <tt>li</tt> und <tt>p</tt> strukturierende Elemente sind, da sie letztendlich in einer Textauszeichnungssprache nur den Text strukturieren, während <tt>head</tt> und <tt>body</tt> den Quelltext strukturieren, ist ja hoffentlich unstreitig, dass im Code der Netzpräsenz auf <tt>head</tt> und <tt>body</tt> verzichtet wird. Die Streichung des Satzes mit der spärlichen Begründung „doch!“ ist, unter der Annahme, dass Du damit ausdrücken wolltest, dass die Elemente ''doch'' im Quelltext verwandt werden, mithin faktisch falsch. Hast Du noch eine weitere Begründung, die für die Streichung spricht? &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:06, 22. Mai 2017 (CEST)<br />
:: Niemand hier bezweifelt, dass Fefes Blog auf <tt>head</tt> und <tt>body</tt> verzichtet. Strukturierende Elemente werden selbstverständlich trotzdem verwendet. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 15:08, 22. Mai 2017 (CEST)<br />
:::Wie dargestellt kommt es auf die Definition von ''strukturierende Elemente'' an. Da diese Begrifflichkeit nicht Teil des Standards ist, habe ich sie bereits entfernt. Das ändert nichts daran, dass Deine Löschbegründung mangelhaft war. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:13, 22. Mai 2017 (CEST)<br />
:::: Wenn ich einen Satz mit "ist nicht ..." mit dem Grund "doch" rausstreiche, finde ich das durchaus halbwegs stringent. Aber gut, Geschmackssache. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 15:19, 22. Mai 2017 (CEST)<br />
::::: Wenn in dem Satz wahre Aussagen stehen, ist Dein „doch“ eine Falschaussage. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:34, 22. Mai 2017 (CEST)<br />
:::::: Der Satz war jedoch inhaltlich falsch. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 16:04, 22. Mai 2017 (CEST)<br />
::::::: Du musst auch unbedingt das letzte Wort haben oder? Er war inhaltlich lediglich nicht präzise genug! --[[User:M-J|ɱ]] 16:10, 22. Mai 2017 (CEST)<br />
:::::::: Er war ''in der gegebenen Formulierung'' '''falsch'''. In einer Enzyklopädie gibt es kein "ein bisschen richtig" ("nicht präzise genug"). --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 16:48, 22. Mai 2017 (CEST)<br />
::::::::: Er wäre falsch gewesen, wenn dort gestanden hätte „verzichtet auf alle strukturierenden Elemente“, die Aussage war aber „verzichtet auf einige strukturierende Elemente“. Der jetzige Satz ist so sinnvoll wie der Satz „Fefe verwendet HTML für seine HTML-Seiten“. Dass jemand auf „optionale Tags“ verzichtet ist doch keiner Rede wert. Dass jemand auf die Strukturierung seines Dokuments verzichtet (das Dokument und nicht der Quelltext wird durch diese Tags strukturiert), bloß um ein paar Bytes einzusparen, hingegen schon. Dass der Standard das erlaubt und der Browser das ''kompensiert'' ist m.M.n. hier völlig irrelevant, weil es hier ja nicht um den Standard und auch nicht um moderne Browser geht sondern um die Eigenschaften digitaler Dokumente eines bestimmten Herausgebers und seiner Attitüde dazu. Im Übrigen: Wie man es auch dreht und wendet, <code>head</code> und <code>body</code> geben ''dem Dokument'' eine Struktur. Ob das nun im Standard nicht explizit so formuliert wird, ändert doch nichts an diesem Fakt. Allerdings: Im [https://www.w3.org/TR/html401/struct/global.html#h-7.1 4.01]-Standard steht’s ganz klar drin und im [https://www.w3.org/TR/html51/dom.html#elements 5.1]-Standard steht’s „zwischen den Zeilen“ -- LG, [[Benutzer Diskussion:Messerjokke79|ℳ웃79]] 19:52, 22. Mai 2017 (CEST)<br />
:::::::::: Der Kontext zählt. Dass v.L. auf die Tags verzichtet, mag für sich stehend irrelevant sein, es ergänzt aber den Satz „Felix von Leitner ist ein Verfechter einfacher Software und erklärter Gegner von Bloatware“ um ein (weiteres) Beispiel. <br />
:::::::::: „das Dokument und nicht der Quelltext wird durch diese Tags strukturiert“ – Inwiefern ändert sich durch Nutzen oder Nichtnutzen der Tags das Format bzw. die Struktur des angezeigten Dokuments? &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 09:12, 29. Mai 2017 (CEST)<br />
:::::::::: P.S.: Ah, ich sehe, Begriffsverwirrung. Mit „Dokument“ meinte ich das ''angezeigte'' Dokument, also die Darstellung. Das, was Tuxman oben mit Paragraphs und Listen meinte. Der W3C-Standard meint das HTML-Dokument, also den Quelltext. Klar strukturieren <tt><nowiki><ul></nowiki></tt> und <tt><nowiki><p></nowiki></tt> das HTML-Dokument ebenfalls, für die Darstellung im Quelltext ist es aber egal, ob zwischen den spitzen Klammern <tt>p</tt> oder <tt>ul</tt> steht. Analog verhält es sich mit der Browserdarstellung eines HTML-Dokuments, die (sofern die Standards eingehalten werden) unabhängig davon, ob es <tt>head</tt>- oder <tt>body</tt>-Tags hat, gleich ist. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 09:18, 29. Mai 2017 (CEST)<br />
::::::::: Der Satz war so, wie er da stand, vollkommen in Ordnung. Es stand „verzichtet auf strukturierende Elemente wie zum Beispiel … und andere.“ Ohne Quantoren. Er war sachlich, logisch und sprachlich korrekt. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 09:27, 29. Mai 2017 (CEST<br />
:::::::::: Nö. "Verzichtet auf strukturierende Elemente" ist was anderes als "verzichtet auf einige strukturierende Elemente". --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 09:31, 29. Mai 2017 (CEST)<br />
<br />
== Absichtliche Falschmeldungen ==<br />
<br />
{{ping|M-J}} Ich zitiere aus Deiner Quelle: „Haha, ja Fefe genau, das ist doch Ausrede im Stil von ‚Ey ich mach keine Fehler, war nur n Test‘. Wir drücken unsere 3 Augen zu und glauben’s dir.“ – Möchtest Du jetzt den Bearbeitungskommentars Deines ersten Reverts, mit dem Du [[Benutzer:Markobr]]s Bearbeitungskommentar als Theorieetablierung disqualifizieren wolltest, revidieren, oder darf ich diese Vermutung mit der von Dir vorgeschlagenen Quelle in den Abschnitt einbauen? &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]][[BD:viciarg|<span style="color:#000000;text-decoration:none;"><sup>414</sup></span>]] 16:51, 24. Mai 2018 (CEST)<br />
:Es stellt sich natürlich die Frage, ob das überhaupt im Artikel stehen soll. Aber wenn, dann selbstverständlich mit Standpunktzuweisung. Die FAQ von Fefes Blog sind keine verwendbare Quelle; das sollte eigentlich niemand ernsthaft abstreiten. -- [[Benutzer:Relie86|Relie86]] ([[Benutzer Diskussion:Relie86|Diskussion]]) 17:14, 24. Mai 2018 (CEST)<br />
:: Ja, entweder ganz raus oder eben als Eigenaussage kennzeichnen. Was jedenfalls nicht geht, ist die Darstellung der Behauptung des Bloggers als schlichte Tatsache. --[[Benutzer:Markobr|Mark]] ([[Benutzer Diskussion:Markobr|Diskussion]]) 17:40, 24. Mai 2018 (CEST)<br />
::+1. Die FAQ kann ''höchstens'' ein Beleg sein, wenn das, was belegt werden soll, als Eigenaussage deutlich gekennzeichnet wird. Ich hab allerdings auch überhaupt kein Problem damit, diese Behauptung komplett aus dem Artikel zu entfernen, da es schlichtweg nicht möglich sein wird, herauszufinden, ob Absicht hinter den Falschmeldungen steckt, oder es sich um eine Generalausrede von Leitners handelt. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]][[BD:viciarg|<span style="color:#000000;text-decoration:none;"><sup>414</sup></span>]] 18:13, 24. Mai 2018 (CEST)<br />
:::Das Gerede von „Generalausrede“ ist reinstes [[WP:TF]]. --[[User:M-J|ɱ]] 18:31, 24. Mai 2018 (CEST)<br />
::::Das will auch keiner in den Artikel schreiben. Wir wissen nicht, ob es stimmt. Also können wir es nicht so reinschreiben, als wüssten wir, dass es stimmt. -- [[Benutzer:Relie86|Relie86]] ([[Benutzer Diskussion:Relie86|Diskussion]]) 18:57, 24. Mai 2018 (CEST)<br />
::::Es geht nicht um eine Generalausrede, es geht darum, dass eindeutig gekennzeichnet wird, dass es sich um eine Eigenaussage handelt. Bisher hast Du noch nicht dargelegt, was Dein Problem damit ist, sondern nur TF-Vorwürfe zu Aussagen gebracht, die nicht im Artikel stehen und auch nie dort stehen werden. Bleib bitte beim Thema. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]][[BD:viciarg|<span style="color:#000000;text-decoration:none;"><sup>414</sup></span>]] 09:06, 25. Mai 2018 (CEST)<br />
<br />
== Alternativlos als Ergänzung des Blogs? ==<br />
<br />
Fefe verweist zwar regelmäßig auf Alternativlos, aber ist das wirklich eine "Ergänzung" des Blogs? In der angegebenen Quelle[https://www.faz.net/aktuell/feuilleton/ein-echtzeit-experiment-der-mensch-wird-zum-datensatz-1591336-p4.html?printPagedArticle=true] steht davon jedenfalls nichts. Ich würde den Abschnitt auf [[Felix von Leitner]] verschieben (mache es aber wegen [[Wikipedia:Löschkandidaten/24._Februar_2019#Felix_von_Leitner]] jetzt nicht) --[[Benutzer:Universalamateur|Universalamateur]] ([[Benutzer Diskussion:Universalamateur|Diskussion]]) 11:11, 26. Feb. 2019 (CET)<br />
:Das dürfte sich dann nun auch erledigt haben ;) --[[Benutzer:T3rminat0r|T3rminat0r]] ([[Benutzer Diskussion:T3rminat0r|Diskussion]]) 16:59, 8. Mär. 2019 (CET)<br />
<br />
== CSS Tabelle ==<br />
<br />
Es werden einige CSS direkt beim blog gehostet. Koennte man diese nicht in einer uebersichtlichen Tabelle hier zusammen fassen?<br />
Beispielhaft: <br />
* [https://blog.fefe.de/?css=fefe.css fefe.css]<br />
* [https://blog.fefe.de/?css=blaugrauweiss.css blaugrauweiss.css]<br />
* ...<br />
[[Benutzer:HerrHartmuth|HerrHartmuth]] ([[Benutzer Diskussion:HerrHartmuth|Diskussion]]) 13:04, 7. Jul. 2019 (CEST)</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Diskussion:Fefes_Blog&diff=190202322Diskussion:Fefes Blog2019-07-07T11:04:44Z<p>HerrHartmuth: Neuer Abschnitt /* CSS Tabelle */</p>
<hr />
<div><br />
{{Diskussionsseite}}<br />
{{LAE|21. November 2010|Fefes Blog (LAZ)}}<br />
{{War Löschkandidat|21. Oktober 2009|Fefes Blog (erl., bleibt)|30. Oktober 2009|Fefes Blog (erl., bleibt)}}<br />
{{Autoarchiv<br />
|Alter=180<br />
|Mindestbeiträge=2<br />
|Mindestabschnitte=7<br />
|Ziel='Diskussion:Fefes Blog/Archiv'<br />
|Übersicht=[[Diskussion:Fefes Blog/Archiv]]<br />
|Frequenz=monatlich<br />
}}<br />
<br />
== Blog-Links bei Fefe immer ohne / am Ende ==<br />
<br />
Ich habe gerade mehrere Links repariert, da diese auf / endeten, was bei Fefes Blog auf die Startseite führt anstatt zum gewünschten Beitrag. Ich bitte das auch in Zukunft zu beachten. --[[Benutzer:Iromeister|IroMeister]] ([[Benutzer Diskussion:Iromeister|Diskussion]]) 12:01, 16. Dez. 2015 (CET)<br />
<br />
:Das ist übrigens immer so, wenn der Pfad nicht gerade auf ein Verzeichnis zeigt. --nennt[[User:Nenntmichruhigip|mich]]<nowiki/>ruhig[[WP:IP|ip]] ([[BD:nenntmichruhigip|Diskussion]]) 12:49, 16. Dez. 2015 (CET)<br />
<br />
== Alternativlos als Weiterleitung mit Eintrag in die Podcastkategorie ==<br />
<br />
Für den Podcast Alternativlos sollte eine Weiterleitungsseite z.B. "Alternativlos (Podcast)" angelegt werden, die dann anstatt dieser Seite in die Kategorie Podcast eingetragen wird. Leider übersteigt das die mir zugedachten Kompetenzen. --[[Spezial:Beiträge/92.214.184.72|92.214.184.72]] 19:08, 30. Mär. 2016 (CEST)<br />
<br />
: Dürfen nur Admins, bei Bedarf (kann ich nicht einschätzen) bitte auf [[WP:LP]] oder [[WP:AA]] melden. --nennt[[User:Nenntmichruhigip|mich]]<nowiki/>ruhig[[WP:IP|ip]] ([[BD:nenntmichruhigip|Diskussion]]) 14:57, 31. Mär. 2016 (CEST)<br />
<br />
::Danke, dann klicke ich mich vielleicht mal durch. --[[Spezial:Beiträge/92.214.188.151|92.214.188.151]] 20:16, 2. Apr. 2016 (CEST)<br />
<br />
== Technik ==<br />
<br />
Der Abschnitt Technik könnte als [http://www.heise.de/forum/c-t-Fotografie/News-Kommentare/Fotografin-verklagt-Getty-Images-auf-Zahlung-von-einer-Milliarde-Dollar/Re-Getty-Images-gehoert-zur-Carlyle-Group/posting-28982582/show/ weniger relevant] entfernt werden. Nix gegen Fefe's Gebastel, aber so spannend ist es nun doch nicht. [[Spezial:Beiträge/2A03:2267:0:0:9DE6:20BD:6C8E:865F|2A03:2267:0:0:9DE6:20BD:6C8E:865F]] 15:27, 30. Jul. 2016 (CEST)<br />
: Auch wenn es für den einen oder anderen nicht so wichtig erscheint ist es aber eine Besonderheit des Blogs an sich, wenn nicht sogar ein Alleinstellungsmerkmal. Kein weiteres mir bekanntes Blog verwendet einen komplett selbstgeschriebenen Software-Stack. Sofern auch noch selbst gehostet wird hat man schon fast die volle Kontrolle - und auch Verantwortung - über die Infrastruktur. Aus meiner Sicht wird damit nur gezeigt, daß der Blogger auch zu dem steht was er schreibt. Demzufolge ist dies ein sehr wichtiger Punkt. --[[Spezial:Beiträge/62.96.80.194|62.96.80.194]] 15:22, 4. Mär. 2019 (CET)<br />
<br />
==Faktenhinweis im Kritik-Kapitel ergänzen==<br />
Vorschlag: Da Seemann schwerste Vorwürfe in Form von "''mangelhafte Recherche, undifferenzierte Sichtweisen und Hetze gegen Minderheiten"'' gegen fefe erhebt erscheint die Ergänzung (ohne fett) "- '''''gleichzeitig aber blieb Seemann jeglichen konkreten Nachweis schuldig'''''" oder inhaltlich Ähnliches (meinetwegen anders formuliert) angezeigt. Ansonsten könnte das womöglich schon den Straftatbestand der üblen Nachrede und/oder Rufmord erfüllen und somit Persönlichkeitsrechte verletzen. Evtl. könnte es ohne Faktenhinweis ebenfalls als "hate speech" angesehen werden --[[Benutzer:PP Logos|PP Logos]] ([[Benutzer Diskussion:PP Logos|Diskussion]]) 18:50, 30. Mär. 2017 (CEST)<br />
:Quatsch, die Nachweise stehen doch wunderschön im [http://mspr0.de/?p=4272 Orginal] und wir bilden nur ab was woanders schon steht und zuverlässig scheint. Das ganze Rechtsgedöns kannst du ruhig stecken lassen. --[[Benutzer:Codc|<span style="color:black;font-family:Comic Sans MS">codc </span>]]<sup>[[Benutzer Diskussion:Codc|<tt>Disk </tt>]]</sup> 20:43, 30. Mär. 2017 (CEST)<br />
#Das ist jetzt aber zu blöd, dass ich auch das Original gelesen habe und eben nicht bestätigen kann, was du behauptest. Da es nichts bringt, wenn du behauptest "die Nachweise stehen da" und ich festelle "nö, die stehen da eben nicht", schlage ich vor, du zitierst die angeblichen Nachweise, die du dafür hältst, dann haben wir eine Sachgrundlage. <br />
#Davon unbenommen aber noch etwas Prinzipielles: Seemann ergießt pauschale, unifferenzierte Aussagen ohne Einschränkung. In der Wissenschaft wird so etwas "Allaussage" genannt. Selbst auf die Gefahr hin, dass für dich eine Welt zusammen bricht: Allaussagen lassen sich '''NIEMALS''' durch Einzelbeispiele belegen/beweisen! Ist dir klar, was für eine Konsequenz das für deinen Ansatz hat, Seemanns Allaussagen anhand von Einzelbeispielen "belegen" zu wollen? Gibt es nicht selbst in wikipedia eine Vorschrift die besagt, dass das Persönlichkeitsrecht lebender Personen besonders zu beachten ist? Wie kommt es, dass Faktenunterdrücker dies immer wieder einseitig ausblenden und meinen, dass könne man ruhig stecken lassen?<br />
# Was woanders steht ist automatisch auch korrekt? Wer sagt, dass die Quelle mit solchen diffamierenden und pauschalen Urteilen richtig liegt?<br />
# Was "zuverlässig scheint"? Für wen? Für mich nicht! <br />
# Ist bloßer Anschein bei solchen Vorwürfen schon ausreichend? Oder sollte bei der möglichen Verletzung von Persönlichkeitsrechten nicht härte und belastbarere Kriterien angelegt werden?<br />
::Alles in allem ziemlich schwach - argumentativ gibt dein Kommentar nicht viel her. --[[Benutzer:PP Logos|PP Logos]] ([[Benutzer Diskussion:PP Logos|Diskussion]]) 21:05, 30. Mär. 2017 (CEST)<br />
:Ich weiss: Alle doof und ungebildet außer dir - so argumentierst immer. Was hat die Qualität des Blogs nun mit WP:BIO zu tun? Wenn fefe Ken Jerbsens Thesen beispielsweise und als Diskutabel bezeichnet ist das einfach nur schlechte Arbeit. Aber du argumentierst ja auch gerne mit den Machwerken von Markus Fiedler und wo sind die veröffentlicht? KenTV und da schließt sich der Kreis. --[[Benutzer:Codc|<span style="color:black;font-family:Comic Sans MS">codc </span>]]<sup>[[Benutzer Diskussion:Codc|<tt>Disk </tt>]]</sup> 21:58, 30. Mär. 2017 (CEST)<br />
::Glatte Faktenverdrehung: dein Anwurf ist ne pure Unterstellung, die meine Worte schlicht weg nicht hergeben! Ich habe eben harte Sachargumente oder Fragen vorgebracht, denen du in der Sache offensichtlich nichts entgegenzusetzen hast. Also wirst du unsachlich. Dann wird versucht, eure Argumentationsschwäche und/oder Unfähigkeit zu kaschieren, indem mir substanzlose Unterstellungen angeworfen werden. Immer das gleiche mit Euch.<br />
# Wenn im Wikiartikel steht "''betreibe Fefe mangelhafte Recherche, undifferenzierte Sichtweisen und Hetze gegen Minderheiten''" - über wenn wird dann geschrieben? Nicht über fefe, also eine lebende Person? Also was soll diese lächerliche Frage, was das mit WP:BIO zu tun hat? Wie wärs, wenn du dich mal mit dem Sachverhalt beschäftigst, um den es hier geht? Dazu muss man nur hinreichend aufmerksam lesen. <br />
#In wiefern macht der Hinweis auf Jebsen den zutiefst diffamierenden Erguss von Seemann, um den es hier geht, irgendwie besser?<br />
#Warum beantwortest du nicht die Fragen, die sich aus deiner vorausgehenden Pseudoargumentation ergeben? Weil die Fakten nichts hergeben, was deine Sichtweise stützen würde?<br />
#Warum bringst du nicht die konkreten Belege, die deine Behauptungen untermauern? Ich hatte einen konstruktiven Vorschlag unterbreitet, dessen Umsetzung die Basis für eine Sachdiskussion geliefert hätte. Aber du leitest deinen "Kommentar" lieber mit einem persönlichen Angriff ein. Glaubst du, das wäre überzeugend? DAS? <br />
#Wer Jebsens Thesen völlig undifferenziert und somit pauschal als indiskutabel abbügelt, ohne auch nur ein einziges valides Sachargument vorzubringen, der ist entweder denkfaul oder ideologisch verblendet. Beides sind indiskutable Herangehensweisen.<br />
#Genau: aufwendige recherchierte Dokus als Machwerk abzutun - wieder ohne jegliches valides Sachargument, aber das ist man ja gewohnt von dir - das ist "unglaublich überzeugend". Funktioniert so ein Zeugnis argumentativer Schande bei deinesgleichen?<br />
#Kapierst du nicht einmal, dass der Hinweis auf die Veröffentlichung auf KenTV "argumentum ad hominem" - als ein klassisches '''PSEUDO'''-Argument in Reinform ist? Wenn ich euch argumentativ so dermaßen vorführe, dann doch nur, weil ihr mir mit eurem unglaublichen Unvermögen solche Vorlagen liefert. Beschwere dich also nicht bei mir, sondern wirf einen tiefen und langen Blick in den Spiegel!<br />
#So ganz am Rande: leite deinen "Kommentar" besser nicht mir "ich weiß" ein, wenn du dann selbst unmittelbar danach Fakten schaffst, die deine Behauptung Lügen strafen. Jedenfalls nicht, wenn du ernst genommen werden möchtest. <br> Unfassbar, mit welch hanebüchener Pseudoargumentation man hier konfrontiert wird. --[[Benutzer:PP Logos|PP Logos]] ([[Benutzer Diskussion:PP Logos|Diskussion]]) 22:58, 30. Mär. 2017 (CEST)<br />
:Mit unverschämten Besserwissern die nicht mal in der Lage sind einfachste Sachverhalte zu erfassen diskutiere ich nicht und auf dem Niveau von Textbausteinen, die du überall in diesem Zusammenhang in der WP verbreitest, erst recht nicht. Du musst mir die die Wikipedia nicht erklären denn die kenne ich selber gut genug. Ich fürchte aber, dass du wenn du so weiter machst kein langes Vergnügen mehr in der Wikipedia hast - alleine aus meiner Erfahrung heraus - Filibusterei kommt niemals gut an hier. --[[Benutzer:Codc|<span style="color:black;font-family:Comic Sans MS">codc </span>]]<sup>[[Benutzer Diskussion:Codc|<tt>Disk </tt>]]</sup> 23:10, 30. Mär. 2017 (CEST)<br />
::Wow, wie "unglaublich überzeugend": Erst ne reine Projektion deines Unvermögens, dann deine Flucht aus der Sachdiskussion mittels substanzloser Unterstellungen und der offensichtlichen Unfähigkeit, meinen Argumenten sachlich etwas entgegen zu setzen. Und mir dann "unverschämt" vorwerfen, nachdem du deinen Kommentar mit einem unsachlichen persönlichen Angriff einleitest und mich offensichtlich für so blöd hältst, dass ich deine lächerliche Pseudoargumentation, die eine intellektuelle Beleidigung darstellt, nicht ad hoc in der Luft zerreißen könnte. So viel Doppelzüngigkeit und Doppelmoral sucht schon seinesgleichen. Wenn du offensichtlich deplatzierte Fragen nach WP:BIO stellst und mich damit erneut für dumm verkaufen willst, dann beschwere dich doch nicht über das selbst verursache Echo! Du bist im Gegensatz zu mir nicht in der Lage, hier in der Sache auch nur ein einziges valides Sachargument vorzubringen, kommst aber mir mit Filibusterei? Das ist unfassbar dreist und stinkt angesichts deines argumentativen Totalversagens vor Doppelstandard zu Himmel. Mit diesem Fehlverhalten bestätigt ihr doch genau das, was ihr gern als "Machwerk" marginalisieren würdet! Schuss ins Knie! --[[Benutzer:PP Logos|PP Logos]] ([[Benutzer Diskussion:PP Logos|Diskussion]]) 23:26, 30. Mär. 2017 (CEST)<br />
:Bitte verändere keinen Diskussionsbeitrag wenn schon eine Antwort erfolgt ist. Dein konkreter Vorschlag verändert eine belegbare Kritik ins Spekulative. Daher ist das nicht akzeptabel. Du musst wohl damit leben, dass fefe nicht kritiklos ist. Und was deine kruden Verschwörungstheorien betrifft bitte einmal [[Ockhams Rasiermesser]] lesen - geht auch schneller als sich die Fiedler-Ergüsse auf YT anzuschauen und für das oberhalb siehe VM denn geht eindeutig zu weit. --[[Benutzer:Codc|<span style="color:black;font-family:Comic Sans MS">codc </span>]]<sup>[[Benutzer Diskussion:Codc|<tt>Disk </tt>]]</sup> 23:49, 30. Mär. 2017 (CEST)<br />
<br />
== Strukturierende HTML-Elemente ==<br />
<br />
{{ping|Tuxman}} Gibt es irgendeinen Grund für [[Spezial:Diff/165719570|Deine Streichung]]? &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 11:15, 22. Mai 2017 (CEST)<br />
<br />
:Inzwischen benutzt Fefe ein paar mehr HTML-Elemente, wohl damit sein Blog auch auf Mobilgeräten nicht total verkorkst angezeigt wird:<br />
<pre><br />
<!doctype html><br />
<html lang="de"><meta charset="utf-8"><br />
<meta name="viewport" content="width=device-width"><link rel="alternate" type="application/rss+xml" title="Text-Feed" href="/rss.xml"><link rel="alternate" type="application/rss+xml" title="HTML-Feed" href="/rss.xml?html"><title>Fefes Blog</title><br />
<h2><a href="/" style="text-decoration:none;color:black">Fefes Blog</a></h2><br />
…<br />
</pre><br />
--[[Benutzer:RokerHRO|RokerHRO]] ([[Benutzer Diskussion:RokerHRO|Diskussion]]) 13:11, 22. Mai 2017 (CEST)<br />
::In dem gestrichenen Satz sind zwei Elemente beispielhaft genannt: <tt>head</tt> und <tt>body</tt>. Beide werden im Quelltext nicht verwandt. Insbesondere geht es in dem gestrichenen Satz um ''strukturierende'' Tags. Weder <tt>!doctype</tt>, noch <tt>meta</tt>, <tt>link</tt> oder <tt>title</tt> gehören zu den strukturierenden Elementen. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 13:47, 22. Mai 2017 (CEST)<br />
:Der Safari ergänzt die im Artikel genannten Elemente selbstständig ([[Benutzerin_Diskussion:M-J/Archiv/2#Fefe]]), das könnte hier ebenfalls der Grund sein. Eventuell sollte man per Fußnote im Text daraufhinweisen um zukünftige Streichungen zu vermeiden. --[[User:M-J|ɱ]] 14:05, 22. Mai 2017 (CEST)<br />
<br />
<pre><br />
> curl https://blog.fefe.de<br />
<br />
<!doctype html><br />
<html lang="de"><meta charset="utf-8"><br />
<link rel="alternate" type="application/rss+xml" title="Text-Feed" href="/rss.xml"><link rel="alternate" type="application/rss+xml" title="HTML-Feed" href="/rss.xml?html"><title>Fefes Blog</title><br />
<br />
<h2><a href="/" style="text-decoration:none;color:black">Fefes Blog</a></h2><br />
<br />
<b>Wer sch├Âne Verschw├Ârungslinks f├╝r mich hat: ab an felix-bloginput (at) fefe.de!</b><br />
<br />
<p style="text-align:right">Fragen? <a href="/faq.html">Antworten!</a> Siehe auch: <a href="//alternativlos.org/">Alternativlos</a><p><h3>Mon May 22 2017</h3><br />
<br />
<ul><br />
<li><br />
<br />
<!-- ... Listeneintrag mit <p> drin ... --><br />
</pre><br />
<br />
Nach meinem Kenntnisstand sind sowohl <tt>ul</tt>/<tt>li</tt> als auch <tt>p</tt> strukturierende Elemente. Nach meinem Kenntnisstand ergänzt <tt>curl</tt> auch keinerlei Elemente. Finger weg von meiner Bearbeitung.<br />
<br />
--[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 14:37, 22. Mai 2017 (CEST)<br />
:Finger weg? Troll dich! Du löschst die Information, dass Elemente wie body und head nicht verwendet werden. Und genau das mach ich rückgängig. Im übrigen sollten wir zur Begriffsdefinition W3C heranziehen, die nicht von strukturierenden Elementen spricht: https://www.w3schools.com/tags/ref_byfunc.asp - das heißt, dass sprachlich eventuell der Text angepasst werden müsste, aber nicht valide Informationen gelöscht. --[[User:M-J|ɱ]] 14:46, 22. Mai 2017 (CEST)<br />
:{{ping|viciarg}} Optional im Wortsinn sind sie aber auch nicht, da der Standard sie vorschreibt und Validatoren ihr Fehlen bemängelt. --[[User:M-J|ɱ]] 14:51, 22. Mai 2017 (CEST)<br />
<br />
::: Dein Tonfall ist unter aller Kanone. Lösch dich! <small>(Und nächstes Mal versuchen wir es mal ohne "selber Troll", ja?)</small><br />
::: Darüber hinaus habe ich die Fehlinformation gelöscht, es werden keine ''strukturierenden Elemente'' benutzt, was eindeutig Unfug ist. Was, wenn kein strukturierendes Element, ist denn <tt>p</tt>?<br />
::: --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 15:07, 22. Mai 2017 (CEST)<br />
::::Wie es in den Wald hineinruft, so schallt es heraus. Mit „Finger weg von meiner Bearbeitung“ hast Du die Latte ausreichend tief gesetzt. Es wäre ratsam, jetzt nicht weiter zu eskalieren. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:13, 22. Mai 2017 (CEST)<br />
::::: Genau darauf wollte ich hinaus. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 15:19, 22. Mai 2017 (CEST)<br />
:::::: Du bist einfach nicht in der Position, Dich hier über den Tonfall anderer zu beschweren. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:33, 22. Mai 2017 (CEST)<br />
::::::: Ich glaube nicht, dass dies hier ein geeigneter Ort ist, um mich - aus welcher moralischen Überlegenheit auch immer heraus - über Positionen zu belehren zu versuchen. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 16:04, 22. Mai 2017 (CEST)<br />
:::::::: Dann bleib zukünftig auf der Sachebene, dann passiert Dir soetwas nicht. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 09:23, 29. Mai 2017 (CEST)<br />
<br />
::Sowohl im HTML-4.01-Standard als auch in HTML 5.1 ist <tt>head</tt> optional. HTML 4.01: [https://www.w3.org/TR/html401/struct/global.html#h-7.4.1 Start tag: optional, End tag: optional], HTML 5.1: [https://www.w3.org/TR/html51/document-metadata.html#the-head-element A head element’s start tag may be omitted if the element is empty, or if the first thing inside the head element is an element. A head element’s end tag may be omitted if the head element is not immediately followed by a space character or a comment.].<br />
::Gleichfalls verhält es sich mit <tt>body</tt>. HTML 4.01: [https://www.w3.org/TR/html401/struct/global.html#h-7.5.1 Start tag: optional, End tag: optional], HTML 5.1: [https://www.w3.org/TR/html51/sections.html#the-body-element A body element’s start tag may be omitted if the element is empty, or if the first thing inside the body element is not a space character or a comment, except if the first thing inside the body element is a meta, link, script, style, or template element. A body element’s end tag may be omitted if the body element is not immediately followed by a comment.].<br />
::Das Reaktionsverhalten von Validatoren und Browsern ist nicht Teil der Standard-Deklaration. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:06, 22. Mai 2017 (CEST)<br />
:::Oh, man lernt nie aus. Dann bin ich mit der aktuellen Formulierung mehr als einverstanden :) --[[User:M-J|ɱ]] 16:05, 22. Mai 2017 (CEST)<br />
:Deine Bearbeitung hast Du unter einer freien Lizenz, die Bearbeitungen, mithin auch Reverts, erlaubt, freigegeben. Verstehe ich Dich richtig, dass es Dir allein um die Formulierung „strukturierende Elemente“ geht? Ganz unabhängig davon, ob <tt>ul</tt>, <tt>li</tt> und <tt>p</tt> strukturierende Elemente sind, da sie letztendlich in einer Textauszeichnungssprache nur den Text strukturieren, während <tt>head</tt> und <tt>body</tt> den Quelltext strukturieren, ist ja hoffentlich unstreitig, dass im Code der Netzpräsenz auf <tt>head</tt> und <tt>body</tt> verzichtet wird. Die Streichung des Satzes mit der spärlichen Begründung „doch!“ ist, unter der Annahme, dass Du damit ausdrücken wolltest, dass die Elemente ''doch'' im Quelltext verwandt werden, mithin faktisch falsch. Hast Du noch eine weitere Begründung, die für die Streichung spricht? &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:06, 22. Mai 2017 (CEST)<br />
:: Niemand hier bezweifelt, dass Fefes Blog auf <tt>head</tt> und <tt>body</tt> verzichtet. Strukturierende Elemente werden selbstverständlich trotzdem verwendet. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 15:08, 22. Mai 2017 (CEST)<br />
:::Wie dargestellt kommt es auf die Definition von ''strukturierende Elemente'' an. Da diese Begrifflichkeit nicht Teil des Standards ist, habe ich sie bereits entfernt. Das ändert nichts daran, dass Deine Löschbegründung mangelhaft war. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:13, 22. Mai 2017 (CEST)<br />
:::: Wenn ich einen Satz mit "ist nicht ..." mit dem Grund "doch" rausstreiche, finde ich das durchaus halbwegs stringent. Aber gut, Geschmackssache. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 15:19, 22. Mai 2017 (CEST)<br />
::::: Wenn in dem Satz wahre Aussagen stehen, ist Dein „doch“ eine Falschaussage. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 15:34, 22. Mai 2017 (CEST)<br />
:::::: Der Satz war jedoch inhaltlich falsch. --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 16:04, 22. Mai 2017 (CEST)<br />
::::::: Du musst auch unbedingt das letzte Wort haben oder? Er war inhaltlich lediglich nicht präzise genug! --[[User:M-J|ɱ]] 16:10, 22. Mai 2017 (CEST)<br />
:::::::: Er war ''in der gegebenen Formulierung'' '''falsch'''. In einer Enzyklopädie gibt es kein "ein bisschen richtig" ("nicht präzise genug"). --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 16:48, 22. Mai 2017 (CEST)<br />
::::::::: Er wäre falsch gewesen, wenn dort gestanden hätte „verzichtet auf alle strukturierenden Elemente“, die Aussage war aber „verzichtet auf einige strukturierende Elemente“. Der jetzige Satz ist so sinnvoll wie der Satz „Fefe verwendet HTML für seine HTML-Seiten“. Dass jemand auf „optionale Tags“ verzichtet ist doch keiner Rede wert. Dass jemand auf die Strukturierung seines Dokuments verzichtet (das Dokument und nicht der Quelltext wird durch diese Tags strukturiert), bloß um ein paar Bytes einzusparen, hingegen schon. Dass der Standard das erlaubt und der Browser das ''kompensiert'' ist m.M.n. hier völlig irrelevant, weil es hier ja nicht um den Standard und auch nicht um moderne Browser geht sondern um die Eigenschaften digitaler Dokumente eines bestimmten Herausgebers und seiner Attitüde dazu. Im Übrigen: Wie man es auch dreht und wendet, <code>head</code> und <code>body</code> geben ''dem Dokument'' eine Struktur. Ob das nun im Standard nicht explizit so formuliert wird, ändert doch nichts an diesem Fakt. Allerdings: Im [https://www.w3.org/TR/html401/struct/global.html#h-7.1 4.01]-Standard steht’s ganz klar drin und im [https://www.w3.org/TR/html51/dom.html#elements 5.1]-Standard steht’s „zwischen den Zeilen“ -- LG, [[Benutzer Diskussion:Messerjokke79|ℳ웃79]] 19:52, 22. Mai 2017 (CEST)<br />
:::::::::: Der Kontext zählt. Dass v.L. auf die Tags verzichtet, mag für sich stehend irrelevant sein, es ergänzt aber den Satz „Felix von Leitner ist ein Verfechter einfacher Software und erklärter Gegner von Bloatware“ um ein (weiteres) Beispiel. <br />
:::::::::: „das Dokument und nicht der Quelltext wird durch diese Tags strukturiert“ – Inwiefern ändert sich durch Nutzen oder Nichtnutzen der Tags das Format bzw. die Struktur des angezeigten Dokuments? &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 09:12, 29. Mai 2017 (CEST)<br />
:::::::::: P.S.: Ah, ich sehe, Begriffsverwirrung. Mit „Dokument“ meinte ich das ''angezeigte'' Dokument, also die Darstellung. Das, was Tuxman oben mit Paragraphs und Listen meinte. Der W3C-Standard meint das HTML-Dokument, also den Quelltext. Klar strukturieren <tt><nowiki><ul></nowiki></tt> und <tt><nowiki><p></nowiki></tt> das HTML-Dokument ebenfalls, für die Darstellung im Quelltext ist es aber egal, ob zwischen den spitzen Klammern <tt>p</tt> oder <tt>ul</tt> steht. Analog verhält es sich mit der Browserdarstellung eines HTML-Dokuments, die (sofern die Standards eingehalten werden) unabhängig davon, ob es <tt>head</tt>- oder <tt>body</tt>-Tags hat, gleich ist. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 09:18, 29. Mai 2017 (CEST)<br />
::::::::: Der Satz war so, wie er da stand, vollkommen in Ordnung. Es stand „verzichtet auf strukturierende Elemente wie zum Beispiel … und andere.“ Ohne Quantoren. Er war sachlich, logisch und sprachlich korrekt. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]]<sup>[[user talk:viciarg|<span style="color:#000000;text-decoration:none;">414</span>]]</sup> 09:27, 29. Mai 2017 (CEST<br />
:::::::::: Nö. "Verzichtet auf strukturierende Elemente" ist was anderes als "verzichtet auf einige strukturierende Elemente". --[[Benutzer:Tuxman|Tuxman]] ([[Benutzer Diskussion:Tuxman|Diskussion]]) 09:31, 29. Mai 2017 (CEST)<br />
<br />
== Absichtliche Falschmeldungen ==<br />
<br />
{{ping|M-J}} Ich zitiere aus Deiner Quelle: „Haha, ja Fefe genau, das ist doch Ausrede im Stil von ‚Ey ich mach keine Fehler, war nur n Test‘. Wir drücken unsere 3 Augen zu und glauben’s dir.“ – Möchtest Du jetzt den Bearbeitungskommentars Deines ersten Reverts, mit dem Du [[Benutzer:Markobr]]s Bearbeitungskommentar als Theorieetablierung disqualifizieren wolltest, revidieren, oder darf ich diese Vermutung mit der von Dir vorgeschlagenen Quelle in den Abschnitt einbauen? &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]][[BD:viciarg|<span style="color:#000000;text-decoration:none;"><sup>414</sup></span>]] 16:51, 24. Mai 2018 (CEST)<br />
:Es stellt sich natürlich die Frage, ob das überhaupt im Artikel stehen soll. Aber wenn, dann selbstverständlich mit Standpunktzuweisung. Die FAQ von Fefes Blog sind keine verwendbare Quelle; das sollte eigentlich niemand ernsthaft abstreiten. -- [[Benutzer:Relie86|Relie86]] ([[Benutzer Diskussion:Relie86|Diskussion]]) 17:14, 24. Mai 2018 (CEST)<br />
:: Ja, entweder ganz raus oder eben als Eigenaussage kennzeichnen. Was jedenfalls nicht geht, ist die Darstellung der Behauptung des Bloggers als schlichte Tatsache. --[[Benutzer:Markobr|Mark]] ([[Benutzer Diskussion:Markobr|Diskussion]]) 17:40, 24. Mai 2018 (CEST)<br />
::+1. Die FAQ kann ''höchstens'' ein Beleg sein, wenn das, was belegt werden soll, als Eigenaussage deutlich gekennzeichnet wird. Ich hab allerdings auch überhaupt kein Problem damit, diese Behauptung komplett aus dem Artikel zu entfernen, da es schlichtweg nicht möglich sein wird, herauszufinden, ob Absicht hinter den Falschmeldungen steckt, oder es sich um eine Generalausrede von Leitners handelt. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]][[BD:viciarg|<span style="color:#000000;text-decoration:none;"><sup>414</sup></span>]] 18:13, 24. Mai 2018 (CEST)<br />
:::Das Gerede von „Generalausrede“ ist reinstes [[WP:TF]]. --[[User:M-J|ɱ]] 18:31, 24. Mai 2018 (CEST)<br />
::::Das will auch keiner in den Artikel schreiben. Wir wissen nicht, ob es stimmt. Also können wir es nicht so reinschreiben, als wüssten wir, dass es stimmt. -- [[Benutzer:Relie86|Relie86]] ([[Benutzer Diskussion:Relie86|Diskussion]]) 18:57, 24. Mai 2018 (CEST)<br />
::::Es geht nicht um eine Generalausrede, es geht darum, dass eindeutig gekennzeichnet wird, dass es sich um eine Eigenaussage handelt. Bisher hast Du noch nicht dargelegt, was Dein Problem damit ist, sondern nur TF-Vorwürfe zu Aussagen gebracht, die nicht im Artikel stehen und auch nie dort stehen werden. Bleib bitte beim Thema. &mdash;[[user:viciarg|<span style="color:#000000;text-decoration:none;">viciarg</span>]][[BD:viciarg|<span style="color:#000000;text-decoration:none;"><sup>414</sup></span>]] 09:06, 25. Mai 2018 (CEST)<br />
<br />
== Alternativlos als Ergänzung des Blogs? ==<br />
<br />
Fefe verweist zwar regelmäßig auf Alternativlos, aber ist das wirklich eine "Ergänzung" des Blogs? In der angegebenen Quelle[https://www.faz.net/aktuell/feuilleton/ein-echtzeit-experiment-der-mensch-wird-zum-datensatz-1591336-p4.html?printPagedArticle=true] steht davon jedenfalls nichts. Ich würde den Abschnitt auf [[Felix von Leitner]] verschieben (mache es aber wegen [[Wikipedia:Löschkandidaten/24._Februar_2019#Felix_von_Leitner]] jetzt nicht) --[[Benutzer:Universalamateur|Universalamateur]] ([[Benutzer Diskussion:Universalamateur|Diskussion]]) 11:11, 26. Feb. 2019 (CET)<br />
:Das dürfte sich dann nun auch erledigt haben ;) --[[Benutzer:T3rminat0r|T3rminat0r]] ([[Benutzer Diskussion:T3rminat0r|Diskussion]]) 16:59, 8. Mär. 2019 (CET)<br />
<br />
== CSS Tabelle ==<br />
<br />
Es werden einige CSS direkt beim blog gehostet. Koennte man diese nicht in einer uebersichtlichen Tabelle hier zusammen fassen?<br />
Beispielhaft: <br />
* [https://blog.fefe.de/?css=fefe.css fefe.css]<br />
* [https://blog.fefe.de/?css=blaugrauweiss.css blaugrauweiss.css]|}<br />
* ...<br />
[[Benutzer:HerrHartmuth|HerrHartmuth]] ([[Benutzer Diskussion:HerrHartmuth|Diskussion]]) 13:04, 7. Jul. 2019 (CEST)</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=OpenSUSE&diff=190063940OpenSUSE2019-07-02T13:25:47Z<p>HerrHartmuth: /* openSUSE Leap (ab Version 42.1) */ 42.3 hat Supportende erreicht</p>
<hr />
<div>{{SEITENTITEL:openSUSE}}<br />
{{Infobox Betriebssystem<br />
|Name = openSUSE<br />
|Logo = [[Datei:OpenSUSE Logo.svg|150px|Logo]]<br />
|Screenshot = [[Datei:OpenSUSE Leap 15.1.png|300px|Screenshot]]<br />
|Beschreibung = openSUSE 15.1 mit [[KDE Plasma 5|KDE Plasma Desktop]] 5.12.8<br />
|Entwickler = [[SUSE (Unternehmen)|SUSE LLC]] und [[Online-Community#Entwickler-Community|Entwickler-Community]]<br />
|Sprache = <br />
|Erscheinungsdatum = März 1994<br />
|Version = 15.1<br />
|Freigabedatum = 22.&nbsp;Mai 2019<br />
|Vorabversion = <br />
|Freigabedatum Vorabversion = <br />
|Quelle = <br />
|Stammbaum = [[GNU]]/[[Linux]] {{Kind|1}}[[Softlanding Linux System|SLS]] {{Kind|2}}[[Slackware]] {{Kind|3}}[[jurix]] {{Kind|4}}S.u.S.E. Linux (4.2) {{Kind|5}}openSUSE<br />
|Kernel = <br />
|Chronik = <br />
|Architekturen = [[IA-32|i586]] (bis 13.2), [[AMD64|x86-64]], [[ARM-Architektur|ARM]]<br />
|Lizenz = [[GNU General Public License|GPL]] und andere Lizenzen<br />
|Sonstiges = [[Sprache]]: mehrsprachig<br />[[Desktop-Umgebung]]en: [[Gnome]], [[KDE Software Compilation 4|KDE SC]], [[LXDE]], [[LXQt]], [[Xfce]] u.&nbsp;a.<br />
|Website = [http://www.opensuse.org/ opensuse.org]<br />
|Kompatibilität = <br />
|Installationsmedium = <br />
}}<br />
<br />
'''openSUSE''' [{{IPA|ˌoʊpənˈsuːzə}}], ehemals ''SUSE Linux'' und ''SuSE Linux Professional'',<ref>{{Internetquelle |autor=Alexandra Kleijn |url=https://www.heise.de/newsticker/meldung/Suse-Linux-wird-Opensuse-141385.html |titel=Suse Linux wird Opensuse |hrsg=[[Heise online]] |datum=2006-07-13 |zugriff=2014-01-07}}</ref><ref>{{Internetquelle |autor=Andreas Jaeger |url=http://lists.opensuse.org/opensuse-announce/2006-07/msg00001.html |titel=SUSE Linux 10.2 Alpha2 Release – and distribution rename |hrsg=opensuse.org |datum=2006-07-13 |zugriff=2014-01-07 |sprache=en}}</ref> ist eine [[Linux-Distribution]] des Unternehmens [[SUSE (Unternehmen)|SUSE LLC]]. Sie wird insbesondere in [[Deutschland]] (knapp 26 Prozent Anteil an der weltweiten Nutzerbasis) und den [[Vereinigte Staaten|USA]] (knapp 14 Prozent der weltweiten Nutzerbasis) verbreitet eingesetzt.<ref>{{cite web|url=http://en.opensuse.org/Statistics|title=openSUSE:Statistics – openSUSE|publisher=}}</ref> Der Fokus der Entwickler liegt darauf, ein stabiles und [[Benutzerfreundlichkeit|benutzerfreundliches]] [[Betriebssystem]] mit großer [[Zielgruppe]] für [[Arbeitsplatzrechner]] und [[Hostrechner|Server]] zu erschaffen.<ref>{{cite web|url=http://en.opensuse.org/Portal:Distribution|title=Portal:Distribution – openSUSE|publisher=}}</ref><br />
<br />
== Geschichte der Distribution ==<br />
=== SuSE Linux ===<br />
{{Hauptartikel|SUSE (Unternehmen)}}<br />
<br />
Die SUSE Linux GmbH (heute eine Tochter der SUSE LLC) vertrieb in den frühen 1990er Jahren unter der [[Firmierung]] ''S.u.S.E. GmbH'' (Gesellschaft für Software- und Systementwicklung mbH) die [[Linux]]-[[Distribution (Software)|Distribution]] [[Slackware]], in der bereits die Eigenentwicklung [[YaST]] als Konfigurationsprogramm angeboten wurde. Im Mai 1996 wurde erstmals die eigenständige auf Basis von [[jurix]]<ref>[http://www.ibiblio.org/pub/historic-linux/distributions/jurix-19960501/README.txt ''jurix – Linux distribution''] (englisch) – Textdokument von ''Florian La Roche'', vom 24. April 1996. Abgerufen am 28. Februar 2012.</ref> entwickelte Distribution ''S.u.S.E. Linux'' mit der Versionsnummer 4.2 veröffentlicht. Die Nummerierung bezieht sich auf die Zahl [[42 (Antwort)|42]] aus dem Roman [[Per Anhalter durch die Galaxis]], die darin als Antwort auf die Frage „nach dem Leben, dem Universum und dem ganzen Rest“ gewertet wird.<br />
<br />
Mit der Version 5 erschien im Juni 1997 eine für Großkunden optimierte Version von S.u.S.E. Linux als sogenanntes ''Business-Linux-Produkt'', das längere Releasezyklen und einen erweiterten Support anbot, und dessen Konzept durch [[SUSE Linux Enterprise Server]] (SLES) weitergeführt wird. S.u.S.E. Linux wurde neben der [[Intel]]-[[Intel 80386|80386]]-Plattform ab der Version 6.1 auch auf die [[Digital Equipment Corporation|DEC]]-[[Alpha-Prozessor|Alpha-AXP]]-Plattform, ab Version 6.3 auf die [[PowerPC]]-Plattform portiert. Im weiteren Verlauf kamen Versionen für [[AMD Athlon 64|AMD-Athlon-64]]-, [[Intel Itanium|Intel-Itanium]]- und [[IBM]]-S390-(Z-Series)-Systeme hinzu.<br />
<br />
Für [[Endbenutzer]] wurden in den Versionen 7.0 bis einschließlich 9.1 drei Produktlinien angeboten:<br />
* ''Personal'': kostengünstig mit eingeschränktem Programmumfang<br />
* ''Professional'': mit zusätzlicher [[Server]]- und [[Entwicklungssoftware]]<br />
* ''Campus'': kostengünstigere Professional-Version ohne Handbuch<br />
<br />
[[Datei:Opensuse11.4.png|mini|openSUSE 11.4 mit KDE-Desktop]]<br />
Im November 2003 übernahm das [[Vereinigte Staaten|amerikanische]] [[Software]]unternehmen [[Novell]] die SUSE Linux GmbH, womit die Bezeichnung der Distribution ab der Version 9.1 von ''S.u.S.E.'' zu ''SUSE'' abgewandelt wurde. Mit der Übernahme gingen weitere Innovationen wie die Installationsmöglichkeit des Betriebssystems über das Internet via [[File Transfer Protocol|FTP]], Softwareangebote für 64-Bit-Systeme ([[AMD64]]- und [[Intel 64|Intel-64]]-CPUs) und die Freigabe von [[YaST]] für die [[GNU General Public License]], einher. Zu denen von Novell eingeführten Neuerungen gehörte außerdem die stärkere Gewichtung des [[Gnome]]-Desktops gegenüber dem [[K Desktop Environment]], die gleichberechtigt als Vorauswahl für die [[Desktop-Umgebung]] angeboten wurden.<br />
<br />
Für SUSE 9.2 wurden erstmals umfassende [[ISO-Abbild]]er der Distribution zum [[Download]] angeboten und die Personal-Version wurde eingestellt. Die ermäßigte Campusversion und das preiswertere Update-Paket wurden noch bis einschließlich Version 9.3 vertrieben. Ab Version 10.0 wurden die verschiedenen Produktlinien gänzlich eingestellt. Ab Version 11.2 ist [[KDE Plasma Desktop]] wieder die Vorauswahl für die Desktop-Umgebung.<ref>{{Internetquelle |autor=Jörg Thoma |url=http://www.golem.de/0911/71160.html |titel=Test: Mit Opensuse 11.2 macht KDE Spaß |hrsg=[[Golem.de]] |datum=2009-11-12 |zugriff=2014-01-07}}</ref> Gnome wird aber weiterhin angeboten.<br />
<br />
=== openSUSE ===<br />
[[Datei:OpenSUSE Geeko button bling3.svg|mini|links|openSUSE Logo mit [[Chamäleons|Chamäleon]]]]<br />
Mit der Schaffung des openSUSE-Projekts wurde die Entwicklung von SUSE Linux öffentlich gemacht, wodurch Nutzer auch die [[Version (Software)|Alpha-]] und [[Version (Software)|Beta-Versionen]] von SUSE Linux testen und gefundene Fehler in einem öffentlichen [[Bugtracker]] melden können. Weiterhin kann man sich im Rahmen des Projekts auch aktiv an der Entwicklung beteiligen, indem man [[Patch (Software)#Patch für Quellcode|Patches]] zu bestehenden Paketen beisteuert oder am Schreiben der openSUSE-Dokumentation mitwirkt.<br />
<br />
Die erste unter Mitwirkung dieses Projekts entstandene finale Version konnte entweder ohne jegliche [[proprietäre Software]] als vollständige Open-Source-Distribution heruntergeladen werden (''SUSE Linux OSS&nbsp;10.0'') oder aber im Bündel mit proprietärer Software wie dem [[Adobe Reader]] und [[Adobe Flash|Flash Player]] sowie [[MP3]]-Spielern heruntergeladen oder gekauft werden (''SUSE Linux&nbsp;10.0&nbsp;Eval'').<br />
<br />
Seit dem 11. Mai 2006 wurde das „OSS“ im Namen entfernt. Ferner werden inzwischen nur noch Versionen veröffentlicht, die ausschließlich [[freie Software]] und Treiber enthalten. Proprietäre Software wurde jedoch bis einschließlich Version 11.0 weiterhin in einem separaten Verzeichnis mitgeführt.<br />
<br />
Mit der Veröffentlichung der Version 10.2 am 7. Dezember 2006 wurde der Name der Distribution von ''SUSE Linux'' in ''openSUSE'' geändert, um den Einfluss des Projekts widerzuspiegeln und Verwechslungen mit den kommerziellen Ablegern zu vermeiden.<br />
<br />
[[Datei:OpenSUSE12.1.png|mini|openSUSE 12.1 mit KDE-Desktop|226x226px]]<br />
Am 27. April 2011 wurde Novell von dem [[Vereinigte Staaten|amerikanischen]] Softwareunternehmen [[Attachmate]] übernommen,<ref>{{Webarchiv|wayback=20140919060846|url=http://www.attachmategroup.com/de-de/news/the-attachmate-group-completes-acquisition-of-novell.html|text= ''Erfolgreicher Abschluss der Übernahme von Novell durch The Attachmate Group.''}} The Attachmate Group. Abgerufen am 28. April 2011.</ref> wobei einige [[Patent]]e von Novell an ein von [[Microsoft]] geführtes Konsortium mit dem Namen CPTN Holdings veräußert wurden.<ref>http://www.attachmate.com/Press/PressReleases/nov-22-2010.htm ''Attachmate Corporation to Acquire Novell, Inc.'' attachmate.com. Abgerufen am 7. Dezember 2010 (englisch).</ref><ref>{{Internetquelle |autor=Andre von Raison |url=https://www.heise.de/ix/meldung/Attachmate-und-Microsoft-Das-Ende-der-Verkaufsgeruechte-um-Novell-1140113.html |titel=Attachmate und Microsoft: Das Ende der Verkaufsgerüchte um Novell |hrsg=Heise online |datum=2010-11-22 |zugriff=2014-01-07}}</ref><br />
<br />
Ende Januar 2014 gab SUSE-Mitarbeiter Michal Hrušecký bekannt, dass sich die von SUSE zur Entwicklung der openSUSE-Distribution angestellten Mitarbeiter zeitweilig anderen Aufgaben innerhalb des openSUSE-Projektes zuwenden werden,<ref>{{Internetquelle |autor=Michal Hrušecký |url=http://lists.opensuse.org/opensuse-factory/2014-01/msg00350.html |titel=<nowiki>[opensuse-factory]</nowiki> Timeline and roadmap V2 |hrsg=lists.opensuse.org |datum=2014-01-30 |zugriff=2014-02-02 |sprache=en}}</ref> wodurch die Veröffentlichung der Version 13.2 von Juli auf November 2014 verschoben wurde. Signifikante Innovationen sind das in [[SUSE Linux Enterprise Server#SUSE Linux Enterprise Desktop|SUSE Linux Enterprise]] etablierte [[Dateisystem]] [[Btrfs]]/[[XFS (Dateisystem)|XFS]] sowie die aktuelle Version von [[KDE Plasma 5]], welches jedoch aus den Repositories nachinstalliert werden muss.<ref>{{cite web|url=https://www.heise.de/ct/artikel/Im-Test-OpenSuse-13-2-2441505.html|title=Im Test: OpenSuse 13.2|first=Liane M.|last=Dubowy|publisher=}}</ref><br />
<br />
Zeitgleich gab das Projekt seine bislang ''Tumbleweed'' genannte Distributions-Variante auf. Der Name blieb aber für das ''Rolling Release'' erhalten, welches aus dem Entwicklungszweig (''Factory'') durch Snapshots erzeugt wird, die mit [[openQA]] getestet worden sind. Anders als bei anderen Distributionen ist ''Tumbleweed'' somit ein getestetes [[Rolling Release]], was der Stabilität sehr entgegen kommt.<ref>{{cite web|url=https://www.heise.de/newsticker/meldung/OpenSuse-verschmilzt-seine-beiden-Rolling-Release-Distributionen-2431877.html|title=OpenSuse verschmilzt seine beiden Rolling-Release-Distributionen|first=heise|last=online|publisher=}}</ref>[[Datei:OpenSUSE 12.3 s KDE 4.10.jpg|mini|openSUSE 12.3 mit KDE-Desktop]]<br />
[[Datei:OpenSuse15.0 .png|mini|openSUSE Leap 15.0 mit Xfce-Desktop ]]<br />
<br />
=== openSUSE Leap ===<br />
Für die im Herbst 2015 erschienene Version hat sich das Entwicklerteam auf den Namen ''openSUSE Leap'' mit der abweichenden Versionsnummer 42.1 geeinigt. Wie bereits in der openSUSE Version 4.2 vom Mai 1996, die damals als S.u.S.E. Linux bezeichnet wurde, bezieht sich die Zahl [[42 (Antwort)|42]] auf die Frage nach „nach dem Leben, dem Universum und dem ganzen Rest“ der Buchreihe [[Per Anhalter durch die Galaxis]]. Zukünftig soll der Unterbau aus Software-Komponenten bestehen, die das jeweils neueste [[SUSE Linux Enterprise Server#SUSE Linux Enterprise Desktop|SUSE Linux Enterprise]] verwendet; Desktop-Oberflächen und Anwendungen will das Projekt indes aus ''Tumbleweed'', der [[Rolling Release]] Ausgabe von openSUSE, übernehmen.<ref>{{cite web|url=https://www.heise.de/newsticker/meldung/OpenSuse-setzt-mit-42-auf-Unterbau-von-Suse-Linux-Enterprise-2731743.html|title=OpenSuse setzt mit „42“ auf Unterbau von Suse Linux Enterprise|first=heise|last=online|publisher=}}</ref><br />
<br />
Auf der im Jahr 2016 in Nürnberg abgehaltenen openSUSE-Konferenz wurden Statistiken bekannt gegeben, dass seit der konzeptionellen Neuorientierung mit openSUSE Leap 42.1 steigende Benutzerzahlen zu verzeichnen seien.<ref name="pro-linux.de">{{cite web|url=http://www.pro-linux.de/news/1/23694/opensuse-mit-steigenden-nutzerzahlen.html|title=Opensuse mit steigenden Nutzerzahlen – Pro-Linux|publisher=}}</ref> Demnach liegt die Anzahl der Downloads bei 400.000 [[ISO-Abbild|DVD-Images]] pro Monat mit steigender Tendenz. Jeden Monat kämen 1.600 Installationen hinzu, und 500.000 [[Programmpaket|Pakete]] werden installiert. Die Anzahl der ''Tumbleweed''-Benutzer liegt bei 60.000, von denen die Hälfte häufig [[Softwareaktualisierung|Updates]] vornehmen. Damit habe sich die Anzahl der ''Tumbleweed''-Installationen im letzten Jahr verdoppelt.<br />
<br />
Andere Erkenntnisse aus den Statistiken sind, dass die meisten Installationen über DVD-Images vorgenommen werden. Die dominierende Architektur ist [[x64]]. Die geografische Verteilung der Nutzer hat sich nach diesen Zahlen kaum geändert. Ein Drittel der Benutzer kommt aus Deutschland, 12 % sind in den USA zu finden, 5 % in Russland und 3 % in Brasilien.<ref name="pro-linux.de" /><br />
<br />
== Besonderheiten der Distribution ==<br />
[[Datei:Yast KDE 13.1.png|mini|YaST in openSUSE 13.1]]<br />
<br />
Eine signifikante Eigenschaft der Distribution ist das hauseigene Installations- und Konfigurationswerkzeug [[YaST]] („Yet another Setup Tool“, zu deutsch: „Noch ein weiteres Einrichtungswerkzeug“), das ein zentrales Werkzeug zur Installation, Konfiguration und Administration des Systems darstellt. Das Programm stellt auch eine komfortable Suche nach Paketen zur Verfügung.<br />
<br />
Das seit openSUSE 10.2 als [[Front-End und Back-End|Backend]] für die Paketverwaltung eingesetzte Werkzeug ''[[Libzypp|zypper]]'' ermöglicht das Auflösen von Abhängigkeiten, das Installieren und Entfernen von Paketen und die Aktualisierungsverwaltung. Des Weiteren bietet zypper Lösungen von [[Erfüllbarkeitsproblem]]en und [[SAT-Problem]]en an. Die installierten Repositories in zypper sind synchron mit denen in YaST, da YaST selbst auch auf die libzypp als Paketverwaltungsengine setzt.<ref>{{Internetquelle |url=http://news.opensuse.org/2008/06/06/sneak-peeks-at-opensuse-110-package-management-with-duncan-mac-vicar |titel=Sneak Peeks at openSUSE 11.0: Package Management, with Duncan Mac-Vicar |hrsg=opensuse.org |datum=2008-06-06 |zugriff=2014-01-07 |sprache=en}}</ref><br />
<br />
Im Vergleich mit anderen Heimnutzer-Distributionen nutzt openSUSE die [[Linux Standard Base|LSB-Zertifizierung]].<ref>[http://www.linuxfoundation.org/lsb-cert/productdir.php?info&pcid=196 ''Eintrag im „LSB Certification Register“'']. linuxfoundation.org. Abgerufen am 19. Oktober 2010 (englisch).</ref><br />
<br />
Der [[Open Build Service|Build-Service]] ermöglicht Entwicklern und Benutzern Software für openSUSE zu packen und so fest und automatisiert in openSUSE zu integrieren. Dadurch kann openSUSE eine große Menge an Software und verschiedenen Versionen bereitstellen.<br />
<br />
Traditionell ist openSUSE eine [[KDE]]-zentrierte Distribution. Dessen auf der [[Qt (Bibliothek)|Qt-Bibliothek]] basierende Desktop-Umgebung wurde seit den späten 1990er Jahren standardmäßig als Desktop-Umgebung installiert. Die SUSE Linux GmbH fördert das KDE-Projekt finanziell. Nach der Übernahme SUSEs durch den Softwarekonzern Novell, der zuvor das Unternehmen Ximian (heutiger Name: [[Xamarin]]) des [[Gnome]]-Gründers [[Miguel de Icaza]] aufgekauft hatte, verschob sich die Gewichtung der Entwicklungsarbeit stärker in Richtung Gnome. Ab openSUSE 10.3 standen nun auf jenen Installationsmedien, die beide Plattformen enthalten, Gnome und [[KDE Plasma Workspaces]] als gleichwertige Optionen zur Verfügung. Ab Version 11.2 ist KDE wieder die Standardoberfläche. Zudem werden [[Live-System|Live-DVDs]] als Installationsmedium bereitgestellt, die jeweils nur eine dieser beiden Desktop-Umgebungen enthalten. Auf Installationsmedien werden zusätzlich weitere Desktop-Umgebungen wie [[Blackbox (Fenstermanager)|Blackbox]], [[IceWM]], [[LXDE]], [[LXQt]], [[Openbox]], [[WindowMaker]] und [[Xfce]] mitgeliefert.<br />
<br />
Eine weitere Besonderheit stellten die SUSE-Support-Datenbank und die SUSE-Component-Database dar. Beide stellten umfangreiche Informationen und Hilfestellungen für die Installation und Konfiguration des Systems und der entsprechenden Hardware zur Verfügung. Dabei ist vor allen Dingen die Hardware-Datenbank auch von Nutzern anderer Distributionen rege genutzt worden. Beide Mechanismen waren ebenfalls auf den Medien der Distribution enthalten und ergänzten so die Produkt-Dokumentation. Die Supportdatenbank (SDB) wurde in das openSUSE-[[Wiki]] integriert.<br />
<br />
Seit openSUSE 10.3 bietet die Distribution durch die [[Migration (Informationstechnik)|Migrationshilfe]] ''instlux'' die Möglichkeit, openSUSE aus einer bestehenden [[Microsoft Windows|Microsoft-Windows]]-Installation heraus zu installieren.<ref>[http://en.opensuse.org/SDB:Instlux en.opensuse.org SDB:Instlux], mit Datenträger</ref><br />
<br />
Zur [[Qualitätssicherung]] des kontinuierlich bearbeiteten Entwicklungszweiges wurde seit openSUSE 12.1 ein Test-[[Framework]] namens [[openQA]] etabliert. Grundlegende Funktionalität, z.&nbsp;B. ob Bootloader, Kernel und Fensterverwaltung starten sowie ob die Standardprogramme wie Browser und Textverarbeitung ordnungsgemäß funktionieren, kann kontinuierlich geprüft werden. Sowohl die automatische Installations- und Testkomponente als auch das [[Webinterface]] wurden als freie Software unter der [[GNU GPL]] veröffentlicht.<ref>[[Heise.de]]: [https://www.heise.de/newsticker/meldung/Automatisierte-Software-Tests-mit-OpenQA-1359645.html Automatisierte Software-Tests mit OpenQA], 12. Oktober 2011</ref><br />
<br />
== SUSE-Linux-Produkte ==<br />
=== openSUSE (ehem. SuSE Linux) ===<br />
* Wird von der openSUSE-[[Online-Community#Entwickler-Community|Community]] mitentwickelt und im Abstand von 12 Monaten<ref name="news opensuse 2011-04-04">{{Internetquelle |autor=opensuse |url=https://en.opensuse.org/openSUSE:Roadmap |titel=openSUSE:Roadmap |werk=https://en.opensuse.org/openSUSE:Roadmap |hrsg=opensuse.org |datum=2018-08-06 |zugriff=2018-11-01 |sprache=en}}</ref> veröffentlicht.<br />
* Die Distribution ist in mehreren Varianten (KDE Live, Gnome Live, Full DVD, Netinstall) per Download verfügbar.<br />
* Sicherheits- und Bugfix-Updates werden für 18 Monate angeboten und sind kostenlos.<ref>{{Internetquelle |autor=Michael Loeffler |url=http://lists.opensuse.org/opensuse-announce/2009-08/msg00009.html |titel=Change in maintenance for openSUSE 11.2 and future versions |hrsg=opensuse.org |datum=2009-08-14 |zugriff=2014-01-07 |sprache=en}}</ref><br />
* Zielgruppe: Privatpersonen<br />
* Boxversionen werden von Drittanbietern wie der Open Source Press<ref>{{cite web|url=http://www.opensourcepress.de/de/produkte/software/|title=Software / Video-Training – Open Source Press|publisher=|accessdate=2015-11-05|archiveurl=https://web.archive.org/web/20151016000558/http://www.opensourcepress.de/de/produkte/software/|archivedate=2015-10-16|offline=yes|archivebot=2018-12-01 07:49:58 InternetArchiveBot}}</ref> angeboten.<br />
* Unter der Bezeichnung „Evergreen“ werden ausgewählte Versionen als [[Long Term Support|LTS]] für einen längeren Zeitraum von der Community weiter gepflegt, um auch einen längeren Einsatz zu ermöglichen.<ref>{{cite web|url=http://en.opensuse.org/openSUSE:Evergreen|title=openSUSE:Evergreen – openSUSE|publisher=}}</ref><br />
<br />
=== SUSE Linux Enterprise Desktop (SLED) ===<br />
{{Hauptartikel|SUSE Linux Enterprise Server#SUSE Linux Enterprise Desktop}}<br />
* Namen der vorherigen Versionen waren ''SUSE Linux Desktop 1'' und ''Novell Linux Desktop 9'' (''NLD'').<br />
* Wartungs- und Sicherheitsupdates sowie Support werden für fünf bzw. sieben Jahre angeboten, benötigen aber einen aktiven Wartungsvertrag.<br />
* Zielgruppe: Unternehmen, die Support und einen langen [[Produktlebenszyklus]] für Desktopsysteme brauchen<br />
<br />
=== SUSE Linux Enterprise Server (SLES) ===<br />
{{Hauptartikel|SUSE Linux Enterprise Server}}<br />
* Für Server geeignet.<br />
* Wartungs- und Sicherheitsupdates sowie Support werden für fünf bzw. sieben Jahre angeboten, benötigen aber einen aktiven Wartungsvertrag.<br />
* Zielgruppe: Unternehmen<br />
<br />
=== Entwicklungszweige ===<br />
* ''openSUSE Factory'' ist der Hauptentwicklungszweig von openSUSE. Dieser Zweig mündet in die jeweilige kommende Veröffentlichung der Distribution.<br />
<br />
* ''openSUSE [[Chamaechorie|Tumbleweed]]''<ref>{{Internetquelle |url=http://de.opensuse.org/Portal:Tumbleweed |titel=Portal:Tumbleweed |hrsg=opensuse.org |zugriff=2017-10-25}}</ref> ist ein [[Rolling Release]], aber nur mit stabilen Veröffentlichungen. Jeder kann neue Versionen, die von den Anwendungsentwicklern als stabil bezeichnet werden, vorschlagen. Die Verwalter prüfen dies und sorgen dafür, dass es beim Aktualisieren keine unangenehmen Überraschungen beim Nutzer gibt. Dieser Zweig richtet sich vor allem an fortgeschrittene Nutzer. Tumbleweed wurde parallel zum Release von openSUSE 13.2 mit dem vormals separat betreuten „Factory“-Zweig vereint.<ref>{{Internetquelle |autor=Ferdinand Thommes |url=http://www.pro-linux.de/news/1/21661/opensuse-legt-tumbleweed-und-factory-zusammen.html |titel=OpenSUSE legt »Tumbleweed« und »Factory« zusammen |hrsg=pro-linux.de |datum=2014-10-27 |zugriff=2015-03-20}}</ref><br />
<br />
== Versionen ==<br />
=== SUSE Linux (bis Version 10.1) ===<br />
{| class="wikitable"<br />
|- class="hintergrundfarbe5"<br />
! Version<br />
! style="min-width:11em;"|Veröffentlichung<br />
! [[Linux (Kernel)#Zusammenfassung|Kernel]]<br />
! [[Linux Standard Base|LSB]]<br />
! Anmerkung<br />
|-<br />
| {{Version |o |1.0}}<br />
| style="text-align:right" | März 1994<br />
| 1.0.0<br />
| –<br />
|<br />
|-<br />
| {{Version |o |1.0.9}}<br />
| style="text-align:right" | Juli 1994<br />
| 1.0.9<br />
| –<br />
|<br />
|-<br />
| {{Version |o |11/94}}<br />
| style="text-align:right" | November 1994<br />
|<br />
| –<br />
| Auf ''[[Slackware]]''-Basis<br />
|-<br />
| {{Version |o |4/95}}<br />
| style="text-align:right" | April 1995<br />
| 1.2.9<br />
| –<br />
|<br />
|-<br />
| {{Version |o |8/95}}<br />
| style="text-align:right" | August 1995<br />
|<br />
| –<br />
|<br />
|-<br />
| {{Version |o |9/95}}<br />
| style="text-align:right" | September 1995<br />
|<br />
| –<br />
| ''Linux aktuell'', erschien alle 2 Monate, deutsche Slackware-Distribution der S.u.S.E. GmbH<br />
|-<br />
| {{Version |o |11/95}}<br />
| style="text-align:right" | November 1995<br />
| 1.2.13<br />
| –<br />
| Erstes ''S.u.S.E. Linux''<br />
|-<br />
| {{Version |o |4.2}}<br />
| style="text-align:right" | Mai 1996<br />
| 1.2.13, 1.3.93<br />
| –<br />
| Erstes offizielles ''S.u.S.E. Linux''<br />
|-<br />
| {{Version |o |4.3}}<br />
| style="text-align:right" | September 1996<br />
| 2.0.18<br />
| –<br />
|<br />
|-<br />
| {{Version |o |4.4}}<br />
| style="text-align:right" | November 1996<br />
| 2.0.25<br />
| –<br />
|<br />
|-<br />
| {{Version |o |4.4.1}}<br />
| style="text-align:right" | Februar 1997<br />
|<br />
| –<br />
|<br />
|-<br />
| {{Version |o |5.0}}<br />
| style="text-align:right" | Juni 1997<br />
| 2.0.30<br />
| –<br />
| Basiert auf ''[[RPM Package Manager|RPM]]''<br />
|-<br />
| {{Version |o |5.1}}<br />
| style="text-align:right" | November 1997<br />
| 2.0.32<br />
| –<br />
|<br />
|-<br />
| {{Version |o |5.2}}<br />
| style="text-align:right" | 23. März 1998<br />
| 2.0.33<br />
| –<br />
|<br />
|-<br />
| {{Version |o |5.3}}<br />
| style="text-align:right" | 9. Oktober 1998<br />
| 2.0.35<br />
| –<br />
|<br />
|-<br />
| {{Version |o |6.0}}<br />
| style="text-align:right" | 21. Dezember 1998<br />
| 2.0.36<br />
| –<br />
| ''ALICE''-Autoinstallation<br />
|-<br />
| {{Version |o |6.1}}<br />
| style="text-align:right" | 7. April 1999<br />
| 2.2.5<br />
| –<br />
| Unterstützung für ''[[Alpha-Prozessor|AXP]]''-Plattform<br />
|-<br />
| {{Version |o |6.2}}<br />
| style="text-align:right" | 12. August 1999<br />
| 2.2.10<br />
| –<br />
|<br />
|-<br />
| {{Version |o |6.3}}<br />
| style="text-align:right" | 25. November 1999<br />
| 2.2.13<br />
| –<br />
| Unterstützung für ''[[PowerPC]]''<br />
|-<br />
| {{Version |o |6.4}}<br />
| style="text-align:right" | 27. März 2000<br />
| 2.2.14<br />
| –<br />
|<br />
|-<br />
| {{Version |o |7.0}}<br />
| style="text-align:right" | 27. September 2000<br />
| 2.2.16<br />
| –<br />
|<br />
|-<br />
| {{Version |o |7.1}}<br />
| style="text-align:right" | 24. Januar 2001<br />
| 2.2.18, 2.4.0<br />
| –<br />
|Erste Version auf DVD.<br />
|-<br />
| {{Version |o |7.2}}<br />
| style="text-align:right" | 15. Juni 2001<br />
| 2.2.19, 2.4.4<br />
| –<br />
|<br />
|-<br />
| {{Version |o |7.3}}<br />
| style="text-align:right" | 13. Oktober 2001<br />
| 2.4.10<br />
| –<br />
|<br />
|-<br />
| {{Version |o |8.0}}<br />
| style="text-align:right" | 22. April 2002<br />
| 2.4.18<br />
| –<br />
| Erste Version von AutoYaST für automatische Installation<ref>{{Internetquelle |url=http://www.suse.de/~ug/autoyast_doc/introduction.html#avail |titel=Dokumentation von AutoYaST |hrsg=users.suse.com |zugriff=2010-10-19 |sprache=en |archiv-url=https://web.archive.org/web/20100430053541/http://www.suse.de/~ug/autoyast_doc/introduction.html#avail#avail |archiv-datum=2010-04-30 |offline=ja |archiv-bot=2018-12-01 07:49:58 InternetArchiveBot }}</ref><br />
|-<br />
| {{Version |o |8.1}}<br />
| style="text-align:right" | 30. September 2002<br />
| 2.4.19<br />
| –<br />
|<br />
|-<br />
| {{Version |o |8.2}}<br />
| style="text-align:right" | 7. April 2003<br />
| 2.4.20<br />
| –<br />
|<br />
|-<br />
| {{Version |o |9.0}}<br />
| style="text-align:right" | 15. Oktober 2003<br />
| 2.4.21<br />
| –<br />
| Unterstützung für ''[[AMD64]]''<br />
|-<br />
| {{Version |o |9.1}}<br />
| style="text-align:right" | 23. April 2004<br />
| 2.6.4<br />
| 1.3<br />
| Unicode ([[UTF-8]]) vollständig implementiert<br />
|-<br />
| {{Version |o |9.2}}<br />
| style="text-align:right" | 25. Oktober 2004<br />
| 2.6.8<br />
| 2.0<br />
|<br />
|-<br />
| {{Version |o |9.3}}<br />
| style="text-align:right" | 16. April 2005<br />
| 2.6.11.4<br />
| –<br />
|<br />
|-<br />
| {{Version |o |10.0}}<br />
| style="text-align:right" | 6. Oktober 2005<br />
| 2.6.13<br />
| 3.0<br />
| Unterstützung durch das ''openSUSE''-Projekt<br />
|-<br />
| {{Version |o |10.1}}<br />
| style="text-align:right" | 11. Mai 2006<br />
| 2.6.16.13<br />
| –<br />
| Am 13. Oktober 2006 wurde SUSE Linux 10.1 erneut als „Remastered-Edition“ veröffentlicht, welche alle bis dahin freigegebenen Updates enthielt.<ref>{{Internetquelle |autor=Andreas Jaeger |url=http://lists.opensuse.org/opensuse-announce/2006-10/msg00001.html |titel=SUSE Linux 10.1 „Remastered“ available |hrsg=opensuse.org |datum=2006-10-13 |zugriff=2014-01-07 |sprache=en}}</ref><br />
|-<br />
|colspan="5" | {{Version|l|zeige=110000}}<br />
|}<br />
<br />
=== openSUSE (bis Version 13.2) ===<br />
{| class="wikitable" style="text-align:right;"<br />
|- class="hintergrundfarbe5"<br />
! [[Version (Software)|Version]]<br />
! [[Deckname#Computerindustrie|Codename]]<br />
! [[Long Term Support#Long Term Support|LTS]]<br />
! style="min-width:11em;"|[[Entwicklungsstadium (Software)#Release|Veröffentlichung]]<br />
! style="min-width:11em;"|[[End of life|Supportende]]<br />
! [[Linux (Kernel)#Zusammenfassung|Kernel]]<br />
! [[Linux Standard Base|LSB]]<br />
! Anmerkung<br />
|-<br />
| {{Version |o |10.2}}<br />
|<br />
| style="text-align:center;"|<span style="color:red">✘</span><br />
| {{Datum|7|12|2006}}<ref>{{Internetquelle |autor=Michael Löffler |url=http://lists.opensuse.org/opensuse-announce/2006-12/msg00004.html |titel=Release of openSUSE 10.2 |hrsg=lists.opensuse.org |datum=2006-12-07 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| {{Datum|30|11|2008}}<ref>{{Internetquelle |autor=Marcus Meissner |url=http://lists.opensuse.org/opensuse-announce/2008-12/msg00009.html |titel=openSUSE 10.2 has reached End of Life |hrsg=lists.opensuse.org |datum=2008-12-16 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| style="text-align:left;"|2.6.18<br />
| style="text-align:center;" rowspan="3"|3.1<br />
| style="text-align:left;"|[[ext3]] ersetzt [[Reiser File System|ReiserFS]], bessere Unterstützung interner Kartenleser, Vorstellung des suse-updater und [[Libzypp|zypper]], [[K Desktop Environment|KDE]]&nbsp;3.5, [[Gnome]]&nbsp;2.16, [[Xfce]]&nbsp;4.2, [[Mesa 3D|Mesa]]&nbsp;6.5, [[X.Org-Server|X.Org]]&nbsp;1.2, [[OpenOffice.org|OpenOffice]]&nbsp;2.0<br />
|-<br />
| {{Version |o |10.3}}<br />
|<br />
| style="text-align:center;"|<span style="color:red">✘</span><br />
| {{Datum|4|10|2007}}<ref>{{Internetquelle |autor=Michael Löffler |url=http://lists.opensuse.org/opensuse-announce/2007-10/msg00002.html |titel=openSUSE 10.3 available |hrsg=lists.opensuse.org |datum=2007-10-04 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| {{Datum|31|10|2009}}<ref>{{Internetquelle |autor=Marcus Meissner |url=http://lists.opensuse.org/opensuse-announce/2009-08/msg00008.html |titel=Advance notice of discontinuation of openSUSE 10.3 |hrsg=lists.opensuse.org |datum=2009-08-11 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| style="text-align:left;"|2.6.22<br />
| style="text-align:left;"|Vorstellung des ''1-click install''-Features, [[K Desktop Environment|KDE]]&nbsp;3.5, [[Gnome]]&nbsp;2.20, [[Xfce]]&nbsp;4.4, [[Mesa 3D|Mesa]]&nbsp;7.0, [[X.Org-Server|X.Org]]&nbsp;1.3, [[OpenOffice.org|OpenOffice]]&nbsp;2.3<br />
|-<br />
| {{Version |o |11.0}}<br />
|<br />
| style="text-align:center;"|<span style="color:red">✘</span><br />
| {{Datum|19|6|2008}}<ref>{{Internetquelle |autor=Joe Brockmeier |url=http://lists.opensuse.org/opensuse-announce/2008-06/msg00016.html |titel=Announcing openSUSE 11.0 GM |hrsg=lists.opensuse.org |datum=2008-06-19 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| {{Datum|26|7|2010}}<ref>{{Internetquelle |autor=Marcus Meissner |url=http://lists.opensuse.org/opensuse-announce/2010-07/msg00013.html |titel=openSUSE 11.0 has reached End Of Life |hrsg=lists.opensuse.org |datum=2010-07-26 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| style="text-align:left;"|2.6.25<br />
| style="text-align:left;"|Überarbeitung des Installer-Design, [[KDE Software Compilation 4|KDE&nbsp;SC]]&nbsp;4.0, [[Gnome]]&nbsp;2.22, [[Xfce]]&nbsp;4.4, [[Mesa 3D|Mesa]]&nbsp;7.0, [[X.Org-Server|X.Org]]&nbsp;1.4, [[OpenOffice.org|OpenOffice]]&nbsp;2.4<ref>{{Internetquelle |autor=News Team |url=https://news.opensuse.org/2008/06/19/announcing-opensuse-110-gm/ |titel=Announcing openSUSE 11.0 GM |hrsg=news.opensuse.org |datum=2008-06-19 |zugriff=2015-12-07 |sprache=en}}</ref><br />
|-<br />
| {{Version |o |11.1}}<br />
|<br />
| style="text-align:center;"|<span style="color:green">✔</span><br />
| {{Datum|18|12|2008}}<ref>{{Internetquelle |autor=Michael Löffler |url=http://lists.opensuse.org/opensuse-announce/2008-12/msg00012.html |titel=Announcing openSUSE 11.1 Final |hrsg=lists.opensuse.org |datum=2008-12-18 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| {{Datum|13|4|2012}}<ref>{{Internetquelle |autor=Wolfgang Rosenauer |url=http://www.rosenauer.org/blog/2011/11/18/evergreen-project-status-update/ |titel=Evergreen project status update |hrsg=Wolfgang Rosenauer |datum=2011-11-18 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| style="text-align:left;"|2.6.27<br />
| style="text-align:center;"|3.2<br />
| style="text-align:left;"|Überarbeitung diverser [[YaST]]-Module, Einführung eines [[YaST]]-Sicherheitsmoduls, [[KDE Software Compilation 4|KDE&nbsp;SC]]&nbsp;4.1, [[Gnome]]&nbsp;2.24, [[Xfce]]&nbsp;4.4, [[Mesa 3D|Mesa]]&nbsp;7.2, [[X.Org-Server|X.Org]]&nbsp;1.5, [[OpenOffice.org|OpenOffice]]&nbsp;3.0<ref>{{Internetquelle |autor=News Team |url=https://news.opensuse.org/2008/12/18/opensuse-111-released/ |titel=openSUSE 11.1 Released! |hrsg=news.opensuse.org |datum=2008-12-18 |zugriff=2015-12-07 |sprache=en}}</ref><ref>{{Internetquelle |url=https://en.opensuse.org/Portal:11.1 |titel=Portal:11.1 |hrsg=opensuse.org |zugriff=2015-12-07 |sprache=en}}</ref><br />
|-<br />
| {{Version |o |11.2}}<br />
| [[Smaragd|Emerald]]<br />
| style="text-align:center;"|<span style="color:green">✔</span><br />
| {{Datum|12|11|2009}}<ref>{{Internetquelle |autor=Joe Brockmeier |url=http://lists.opensuse.org/opensuse-announce/2009-11/msg00004.html |titel=openSUSE 11.2 is out! |hrsg=lists.opensuse.org |datum=2008-11-12 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| {{Datum|1|11|2013}}<ref>{{Internetquelle |url=https://en.opensuse.org/openSUSE:Evergreen#Supported_distributions |titel=Supported distributions |hrsg=opensuse.org |zugriff=2015-12-07 |sprache=en}}</ref><br />
| style="text-align:left;"|2.6.31<br />
| style="text-align:center;" rowspan="8"|4.0<br />
| style="text-align:left;"|[[ext4]] ersetzt [[ext3]], Vorstellung des Konfigurationstools Web[[YaST#Benutzerschnittstellen|YaST]], Unterstützung von Inplace-Upgrades mittels [[Libzypp|zypper]], [[KDE Software Compilation 4|KDE&nbsp;SC]]&nbsp;4.3, [[Gnome]]&nbsp;2.28, [[Xfce]]&nbsp;4.6, [[Mesa 3D|Mesa]]&nbsp;7.6, [[X.Org-Server|X.Org]]&nbsp;1.6, [[OpenOffice.org|OpenOffice]]&nbsp;3.1<ref>{{Internetquelle |autor=News Team |url=https://news.opensuse.org/2009/11/12/opensuse-11-2-released/ |titel=openSUSE 11.2 Released! |hrsg=news.opensuse.org |datum=2009-11-12 |zugriff=2015-12-07 |sprache=en}}</ref><ref>{{Internetquelle |url=https://en.opensuse.org/Portal:11.2 |titel=Portal:11.2 |hrsg=opensuse.org |zugriff=2015-12-07 |sprache=en}}</ref><br />
|-<br />
| {{Version |o |11.3}}<br />
| [[Teal]]<br />
| style="text-align:center;"|<span style="color:red">✘</span><br />
| {{Datum|15|7|2010}}<ref>{{Internetquelle |autor=Michael Löffler |url=http://lists.opensuse.org/opensuse-announce/2009-11/msg00004.html |titel=Please welcome openSUSE 11.3 |hrsg=lists.opensuse.org |datum=2010-07-15 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| {{Datum|20|1|2012}}<ref>{{Internetquelle |autor=Benjamin Brunner |url=http://lists.opensuse.org/opensuse-announce/2012-01/msg00001.html |titel=openSUSE 11.3 has reached end of SUSE support |hrsg=lists.opensuse.org |datum=2012-01-20 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| style="text-align:left;"|2.6.34<br />
| style="text-align:left;"|Offizielle Unterstützung des [[btrfs]]-Dateisystems, [[LXDE]] wird erstmals als zusätzliche [[Desktop-Umgebung]] angeboten, [[KDE Software Compilation 4|KDE&nbsp;SC]]&nbsp;4.4, [[Gnome]]&nbsp;2.30, [[Xfce]]&nbsp;4.6, [[Mesa 3D|Mesa]]&nbsp;7.8, [[X.Org-Server|X.Org]]&nbsp;1.8, [[OpenOffice.org|OpenOffice]]&nbsp;3.2<ref>{{Internetquelle |autor=News Team |url=https://news.opensuse.org/2010/07/15/opensuse-11-3-is-here/ |titel=openSUSE 11.3 is here! |hrsg=news.opensuse.org |datum=2010-07-15 |zugriff=2015-12-07 |sprache=en}}</ref><ref>{{Internetquelle |url=https://en.opensuse.org/Portal:11.3 |titel=Portal:11.3 |hrsg=opensuse.org |zugriff=2015-12-07 |sprache=en}}</ref><br />
|-<br />
| {{Version |o |11.4}}<br />
| [[Seladon|Celadon]]<br />
| style="text-align:center;"|<span style="color:green">✔</span><br />
| {{Datum|10|3|2011}}<ref>{{Internetquelle |autor=Henne Vogelsang |url=http://lists.opensuse.org/opensuse-announce/2011-03/msg00001.html |titel=openSUSE 11.4 – A New Hallmark For The openSUSE Project |hrsg=lists.opensuse.org |datum=2011-03-10 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| {{Datum|1|7|2014}}<ref>{{Internetquelle |autor=Wolfgang Rosenauer |url=http://lists.opensuse.org/opensuse-security-announce/2014-09/msg00035.html |titel=openSUSE 11.4 has reached end of Evergreen support |hrsg=lists.opensuse.org |datum=2014-09-27 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| style="text-align:left;"|2.6.37<br />
| style="text-align:left;"|Optimierung des Boot-Prozesses, Implementierung des MultiCurl-Backend für [[Libzypp|ZYpp]], [[KDE Software Compilation 4|KDE&nbsp;SC]]&nbsp;4.5, [[Gnome]]&nbsp;2.32, [[Xfce]]&nbsp;4.8, [[Mesa 3D|Mesa]]&nbsp;7.10, [[X.Org-Server|X.Org]]&nbsp;1.9, [[OpenOffice.org|OpenOffice]]&nbsp;3.3<ref>{{Internetquelle |autor=News Team |url=https://news.opensuse.org/2011/03/10/opensuse-11-4/ |titel=openSUSE 11.4 – A New Hallmark For The openSUSE Project |hrsg=news.opensuse.org |datum=2011-03-10 |zugriff=2015-12-07 |sprache=en}}</ref><ref>{{Internetquelle |url=https://en.opensuse.org/Portal:11.4 |titel=Portal:11.4 |hrsg=opensuse.org |zugriff=2015-12-07 |sprache=en}}</ref><br />
|-<br />
| {{Version |o |12.1}}<br />
| [[Spargel|Asparagus]]<br />
| style="text-align:center;"|<span style="color:red">✘</span><br />
| {{Datum|16|11|2011}}<ref>{{Internetquelle |autor=Jos Poortvliet |url=http://news.opensuse.org/2011/11/16/opensuse-12-1-all-green/ |titel=openSUSE 12.1: All Green! |hrsg=opensuse.org |datum=2011-11-16 |zugriff=2014-01-05 |sprache=en}}</ref><br />
| {{Datum|15|5|2013}}<ref>{{Internetquelle |autor=Benjamin Brunner |url=http://lists.opensuse.org/opensuse-announce/2013-06/msg00000.html |titel=openSUSE 12.1 has reached end of SUSE support |hrsg=lists.opensuse.org |datum=2013-06-13 |zugriff=2015-12-07 |sprache=en}}</ref><br />
| style="text-align:left;"|3.1<br />
| style="text-align:left;"| [[OpenOffice.org]] wird durch [[LibreOffice]]&nbsp;3.4 ersetzt, Einführung von snapper für [[btrfs]], [[systemd]] ersetzt [[init]], [[KDE Software Compilation 4|KDE&nbsp;SC]]&nbsp;4.7, [[Gnome]]&nbsp;3.2, [[Xfce]]&nbsp;4.8, [[Mesa 3D|Mesa]]&nbsp;7.11, [[X.Org-Server|X.Org]]&nbsp;1.10<ref>{{Internetquelle |autor=Jos Poortvliet |url=http://lists.opensuse.org/opensuse-announce/2011-11/msg00002.html |titel=openSUSE Project Releases openSUSE 12.1 |hrsg=lists.opensuse.org |datum=2011-11-16 |zugriff=2015-12-07 |sprache=en}}</ref><ref>{{Internetquelle |autor=Jos Poortvliet |url=https://news.opensuse.org/2011/11/16/opensuse-12-1-all-green/ |titel=openSUSE 12.1: All Green! |hrsg=news.opensuse.org |datum=2011-11-16 |zugriff=2015-12-07 |sprache=en}}</ref><ref>{{Internetquelle |url=https://en.opensuse.org/Portal:12.1 |titel=Portal:12.1 |hrsg=opensuse.org |zugriff=2015-12-07 |sprache=en}}</ref><br />
|-<br />
| {{Version |o |12.2}}<br />
| [[Fangschrecken|Mantis]]<br />
| style="text-align:center;"|<span style="color:red">✘</span><br />
| {{Datum|5|9|2012}}<ref>{{Internetquelle |autor=Christopher Hofmann |url=http://lists.opensuse.org/opensuse-announce/2012-09/msg00000.html |titel=openSUSE Project Releases openSUSE 12.2 |hrsg=lists.opensuse.org |datum=2012-09-05 |zugriff=2015-12-08 |sprache=en}}</ref><br />
| {{Datum|15|1|2014}}<ref>{{Internetquelle |autor=Benjamin Brunner |url=http://lists.opensuse.org/opensuse-security-announce/2014-01/msg00008.html |titel=openSUSE 12.2 has reached end of SUSE support |hrsg=lists.opensuse.org |datum=2014-01-27 |zugriff=2015-12-08 |sprache=en}}</ref><br />
| style="text-align:left;"|3.4<br />
| style="text-align:left;"|Umstellung auf [[Grand Unified Bootloader|GRUB 2]], Einführung von [[Plymouth (Software)|Plymouth]]<ref>{{Internetquelle |autor=Andreas Proschofsky |url=http://derstandard.at/1345165807279/openSUSE-122-Das-Chamaeleon-unter-den-Linux-Distributionen |titel=openSUSE 12.2: Das Chamäleon unter den Linux-Distributionen |hrsg=derStandard.at |datum=2012-09-05 |zugriff=2012-10-01}}</ref><br />
|-<br />
| {{Version |o |12.3}}<br />
| [[Dartmouth (Devon)|Dartmouth]]<br />
| style="text-align:center;"|<span style="color:red">✘</span><br />
| {{Datum|13|3|2013}}<ref>{{Internetquelle |autor=Jos Poortvliet |url=http://lists.opensuse.org/opensuse-announce/2013-03/msg00001.html |titel=openSUSE Project Releases openSUSE 12.3 |hrsg=lists.opensuse.org |datum=2013-03-13 |zugriff=2015-12-08 |sprache=en}}</ref><br />
| {{Datum|19|1|2015}}<ref>{{Internetquelle |autor=Benjamin Brunner |url=http://lists.opensuse.org/opensuse-security-announce/2015-02/msg00003.html |titel=openSUSE 12.3 has reached end of SUSE support |hrsg=lists.opensuse.org |datum=2015-02-02 |zugriff=2015-12-08 |sprache=en}}</ref><br />
| style="text-align:left;"|3.7<br />
| style="text-align:left;"|Unter anderem wurde die Datenbank ''[[MySQL]]'' durch ''[[MariaDB]]'' ersetzt und die Unterstützung für ''[[Unified Extensible Firmware Interface|UEFI]] [[Secure Boot]]'' eingearbeitet;<ref>{{Internetquelle |autor=Jörg Thoma |url=http://www.golem.de/news/linux-distributionen-opensuse-12-3-freigegeben-1303-98166.html |titel=Linux-Distributionen: Opensuse 12.3 freigegeben |hrsg=[[Golem.de]] |datum=2013-03-13 |zugriff=2014-01-07}}</ref> da die beiden [[Direktstartsystem]]e mit ''[[KDE Software Compilation]]'' <small>(Ausgabe 4.10)</small> und ''[[Gnome]]'' <small>(Ausgabe 3.6)</small> nun jeweils zu groß für normale [[Compact Disc|CDs]] sind, wird nun ein ''{{lang|en|Rescue}}'' genanntes Rettungssystem –&nbsp;mit rund 570 Megabyte<ref>Größe der ISO-Abbilddatei: 566.231.040 Byte</ref> und der Desktop-Umgebung ''[[Xfce]]'' <small>(Ausgabe 4.10)</small>&nbsp;– angeboten<ref>{{Internetquelle |autor=Dr. Oliver Diedrich |url=https://www.heise.de/ct/artikel/Die-Neuerungen-in-Opensuse-12-3-1821658.html |titel=Die Neuerungen in Opensuse 12.3 |hrsg=Heise online |datum=2013-03-13 |zugriff=2014-01-05}}</ref><br />
|-<br />
| {{Version |o |13.1}}<br />
| Bottle<br />
| style="text-align:center;"|<span style="color:green">✔</span><br />
| {{Datum|19|11|2013}}<ref>{{Internetquelle |autor=Agustin Benito Bethencourt |url=http://lists.opensuse.org/opensuse-announce/2013-11/msg00000.html |titel=openSUSE 13.1, ready for action |hrsg=lists.opensuse.org |datum=2013-11-19 |zugriff=2015-12-08 |sprache=en}}</ref><br />
| {{Datum|30|11|2016}}<ref name="auto">{{Internetquelle |url=https://en.opensuse.org/Lifetime#Supported_Regular_distributions |titel=Supported Regular distributions |hrsg=opensuse.org |zugriff=2015-12-08 |sprache=en}}</ref><br />
| style="text-align:left;"|3.11<br />
| style="text-align:left;"|YaST-Portierung von YCP auf [[Ruby (Programmiersprache)|Ruby]]<ref>{{Internetquelle |autor=Andy Anditosan |url=https://news.opensuse.org/2013/08/12/opensuse-milestone-4/ |titel=openSUSE Milestone 4 |hrsg=opensuse.org |datum=2013-08-12 |zugriff=2014-01-10 |sprache=en}}</ref><ref>{{Internetquelle |autor=Jos Poortvliet |url=https://news.opensuse.org/2013/10/10/coming-soon-opensuse-13-1-with-yast-in-ruby/ |titel=Coming soon: openSUSE 13.1 with YaST in Ruby |hrsg=opensuse.org |datum=2013-10-10 |zugriff=2014-01-11 |sprache=en}}</ref> Langzeitunterstützung durch das Evergreen-Projekt<ref>{{Internetquelle |autor=Jos Poortvliet |url=https://news.opensuse.org/2013/08/26/upcoming-opensuse-13-1-will-be-kept-evergreen |titel=Upcoming openSUSE 13.1 will be kept Evergreen |hrsg=pro-linux.de |datum=2014-10-09 |zugriff=2014-10-27}}</ref><ref name="evergreen">{{Internetquelle |url=http://en.opensuse.org/openSUSE:Evergreen#Supported_distributions |titel=openSUSE:Evergreen supported distributions |hrsg=opensuse.org |zugriff=2014-10-29 |sprache=en}}</ref><br />
|-<br />
| {{Version |o |13.2}}<br />
| [[Harlekin|Harlequin]]<br />
| style="text-align:center;"|<span style="color:red">✘</span><br />
| {{Datum|4|11|2014}}<ref>{{Internetquelle |autor=Henne Vogelsang |url=http://lists.opensuse.org/opensuse-announce/2014-11/msg00000.html |titel=openSUSE 13.2: green light to freedom! |hrsg=lists.opensuse.org |datum=2014-11-04 |zugriff=2015-12-08 |sprache=en}}</ref><br />
| {{Datum|18|1|2017}}<ref>Benjamin Brunner: [https://lists.opensuse.org/opensuse-security-announce/2017-01/msg00033.html openSUSE 13.2 has reached end of SUSE support], 18. Januar 2017</ref><br />
| style="text-align:left;"|3.16<br />
| style="text-align:left;"|Überarbeiteter YaST-Installer<ref>{{Internetquelle |autor=Ladislav Slezak |url=http://lists.opensuse.org/yast-devel/2013-09/msg00072.html |titel=YaST installer – the future development (for 13.2/SLE12, aka „the new installer“) |hrsg=opensuse.org |datum=2013-09-26 |zugriff=2014-01-07 |sprache=en}}</ref> und [[btrfs]] wird als neues Standard-Dateisystem verwendet. Gnome ist auf Version 3.14 aktualisiert worden und enthält unter anderem neue Animationen, eine bessere Handhabung von WiFi-Hotspots und Verbesserung bei den Anwendungen. [[KDE Software Compilation 4|KDE-Anwendungen]] kommen in Version 4.14.2 und [[Xfce]] in Version 4.10. Wicked ist nun das Verwaltungsprogramm für das Netzwerk und initiale Ramdisks werden über [[dracut (initramfs)|dracut]] erstellt.<ref>{{Internetquelle |autor=Mirko Lindner |url=http://www.pro-linux.de/news/1/21601/opensuse-132-geht-in-die-zielgerade.html |titel=OpenSuse 13.2 geht in die Zielgerade |hrsg=pro-linux.de |datum=2014-10-09 |zugriff=2014-10-27}}</ref><br />
|-<br />
|colspan="8" | {{Version|l|zeige=110000}}<br />
|}<br />
<br />
=== openSUSE Leap (ab Version 42.1) ===<br />
{| class="wikitable" style="text-align:right;"<br />
|- class="hintergrundfarbe5"<br />
! [[Version (Software)|Version]]<br />
! [[Deckname#Computerindustrie|Codename]]<br />
! style="min-width:11em;"|[[Entwicklungsstadium (Software)#Release|Veröffentlichung]]<br />
! style="min-width:11em;"|[[End of life|Supportende]]<br />
! [[Linux (Kernel)#Zusammenfassung|Kernel]]<br />
! [[Linux Standard Base|LSB]]<br />
! Anmerkung<br />
|-<br />
| {{Version |o |42.1}}<br />
| rowspan="3"|[[Malachit]]e<br />
| {{Datum|4|11|2015}}<ref>{{Internetquelle |autor=Richard Brown |url=http://lists.opensuse.org/opensuse-announce/2015-11/msg00000.html |titel=openSUSE Leap 42.1 is RELEASED |hrsg=lists.opensuse.org |datum=2015-11-04 |zugriff=2015-12-08 |sprache=en}}</ref><br />
| {{Datum|16|5|2017}}<ref>Tabelle Produktlebensdauer: {{Internetquelle |url=https://lists.opensuse.org/opensuse-security-announce/2017-05/msg00053.html |titel=[security-announce] openSUSE Leap 42.1 has reached end of SUSE support |zugriff=2017-05-17}}</ref><br />
| style="text-align:left;"|4.1<br />
| style="text-align:center;" rowspan="3"|5.0<br />
| style="text-align:left;"|Baut im Gegensatz zu vorherigen Versionen nicht auf openSUSE Tumbleweed, sondern auf [[SUSE Linux Enterprise Server|SUSE Linux Enterprise]] 12.1 auf. Aufgrund der veränderten Distributionsbasis erfolgte auch eine Anpassung der Versions-Nomenklatur<ref>{{Internetquelle |autor=Thorsten Leemhuis |url=https://www.heise.de/newsticker/meldung/OpenSuse-Leap-42-1-Namens-und-Versions-Sprung-beim-OpenSuse-Linux-2739499.html |titel=OpenSuse Leap 42.1: Namens- und Versions-„Sprung“ beim OpenSuse-Linux |hrsg=heise.de |datum=2015-07-07 |zugriff=2015-07-07}}</ref> und der Supportdauer der Distribution. Die Veröffentlichung neuer Versionen orientiert sich am Produktzyklus von [[SUSE Linux Enterprise Server|SLES]]. Grundsätzlich soll eine Version für mindestens 36 Monate unterstützt werden. Jährliche Produktpflegen führen zur Anhebung der Unterversion, wobei diese ab Veröffentlichung für jeweils 18 Monate unterstützt werden.<br /><br />
Als eine der wenigen Linux-Distributionen empfiehlt openSUSE Leap 42.1 das Dateisystem [[btrfs]] für die System-Partition und [[XFS (Dateisystem)|XFS]] für Daten-Partitionen. [[KDE Plasma Workspaces]] 4 wird durch [[KDE Plasma 5]] in der Version 5.4 ersetzt. Die [[Gnome]] Desktop-Umgebung wurde auf die Version 3.16 aktualisiert. Weiterhin können [[Xfce]] 4.12 und [[MATE Desktop Environment|MATE]] 1.10 als Desktop-Umgebung genutzt werden. Zusätzlich enthält die Distribution die freie Grafikbibliothek [[Mesa 3D]] in der Version 11.0, die Compiler-Suite [[GNU Compiler Collection|GCC]] 4.8 sowie [[LibreOffice]] 5.0<br />
|-<br />
| {{Version |o |42.2}}<br />
| {{Datum|16|11|2016}}<ref>{{Internetquelle |autor=Richard Brown |url=http://lists.opensuse.org/opensuse-factory/2015-10/msg00565.html |titel=Will we have additional repositories for Leap as we have currently? |hrsg=lists.opensuse.org |datum=2015-10-19 |zugriff=2015-12-08 |sprache=en}}</ref><ref name="BoardMeetingMarch2016">{{Internetquelle |autor=Richard Brown |url=http://rootco.de/2016-03-20-board-meeting-f2f-2016-p1/ |titel=openSUSE Face-to-Face Board Meeting 2016 Minutes – Part 1/3 |hrsg=http://rootco.deg/ |datum=2016-03-20 |zugriff=2016-04-01 |sprache=en}}</ref><br />
| {{Datum|26|1|2018}}<ref name="OpenSUSELifetime">{{Internetquelle |autor=RBrownSUSE |url=https://en.opensuse.org/Lifetime |titel=openSUSE lifetime |hrsg=opensuse.org |datum=2017-07-26 |zugriff=2017-07-26 |sprache=en}}</ref><br />
| style="text-align:left;" rowspan="2"|4.4<br />
|style="text-align:left;"|Aktualisierungen gegenüber Leap 42.1: [[systemd]] 228, [[Gnome]] 3.20, [[Qt (Bibliothek)|Qt]], [[Linux (Kernel)|Kernel]] 4.4, [[KDE Plasma 5|KDE Plasma]] 5.8<br />
Keine Änderung gegenüber Leap 42.1: [[X Window System]]<ref name="BoardMeetingMarch2016" /><br />
|-<br />
| {{Version |o |42.3}}<br />
| {{Datum|26|7|2017}}<ref>{{Internetquelle |autor=Douglas DeMaio |url=https://news.opensuse.org/2017/07/26/refresh-of-linux-distribution-continues-leveraging-community-enterprise-benefits/ |titel=Refresh of Linux Distribution Continues Leveraging Community, Enterprise Benefits |hrsg=opensuse.org |datum=2017-07-26 |zugriff=2017-07-26 |sprache=en}}</ref><ref>{{Internetquelle |url=https://www.golem.de/news/linux-distribution-opensuse-leap-42-3-baut-langzeitpflege-aus-1707-129131.html |titel=Opensuse Leap 42.3 baut Langzeitpflege aus |hrsg=Golem.de |datum=2017-07-26 |zugriff=2017-07-26 |sprache=de}}</ref><br />
| {{Datum|30|6|2019}}<ref>{{Internetquelle |autor=Douglas DeMaio |url=https://news.opensuse.org/2018/08/08/opensuse-leap-42-3-end-of-life-is-extended/ |titel=openSUSE Leap 42.3 End of Life is Extended |hrsg=opensuse.org |datum=2018-08-08 |zugriff=2018-08-09 |sprache=en}}</ref><br />
|style="text-align:left;"|<br />
|-<br />
| {{Version |co |15.0<ref>{{Internetquelle |autor=Richard Brown |url=https://lists.opensuse.org/opensuse-project/2017-04/msg00014.html |titel=openSUSE Leap's Next Major Version Number |hrsg=lists.opensuse.org |datum=2017-04-22 |zugriff=2017-07-28 |sprache=en}}</ref>}}<br />
|<br />
| {{Datum|25|5|2018}}<ref>{{Internetquelle |url=https://en.opensuse.org/openSUSE:Roadmap |titel=openSUSE:Roadmap |hrsg=en.opensuse.org |datum=2018-01-15 |zugriff=2018-02-07 |sprache=en}}</ref><ref>{{Internetquelle |url=https://www.pro-linux.de/news/1/25816/opensuse-leap-15-erscheint-am-25mai.html |titel=OpenSUSE Leap 15 erscheint am 25. Mai |hrsg=pro-linux.de |datum=2018-04-19 |zugriff=2018-04-23 |sprache=de}}</ref><br />
| {{Datum|Ende|11|2019}}<ref name="OpenSUSELifetime" /><br />
| style="text-align:left;"|4.12<br />
| style="text-align:center;"|<br />
|style="text-align:left;"|Aktualisierungen gegenüber Leap 42.3: [[RPM Package Manager]] 4.14, [[KDE Plasma 5|KDE Plasma]] 5.12, [[Gnome]] 3.26, [[Xfce]] 4.12, [[MATE]] 1.20, Budgie 10.4,<br />
* die traditionelle SUSE-Firewall wird durch firewalld, welche aus dem Umfeld von [[Red Hat]] kommt, ersetzt<br />
* chrony ist nun der Zeitserver von openSUSE<br />
* Nutzer haben nun durch Anbietung zusätzlicher Kernel-Module seitens [[Dynamic Kernel Module Support|DKMS]] mehr Möglichkeiten bei der Verwendung proprietärer Treiber<br />
|-<br />
| {{Version |c |15.1<ref>{{Internetquelle |autor=Ludwig Nussel |url=https://lists.opensuse.org/opensuse-factory/2018-11/msg00221.html |titel=openSUSE Leap 15.1 in the works |hrsg=lists.opensuse.org |datum=2018-11-20 |zugriff=2019-02-09 |sprache=en}}</ref>}}<br />
|<br />
| {{Datum|22|5|2019}}<ref>{{Internetquelle |url=https://en.opensuse.org/openSUSE:Roadmap |titel=openSUSE:Roadmap |hrsg=en.opensuse.org |datum=2018-11-22 |zugriff=2019-02-09 |sprache=en}}</ref><ref>{{Internetquelle |url=https://curius.de/blog/13-betriebssysteme/open-source/442-opensuse-leap-15-1-ein-ausblick |titel=openSUSE Leap 15.1 - Ein Ausblick |hrsg=curius.de |datum=2019-04-06 |zugriff=2019-04-17 |sprache=de}}</ref><br />
| {{Datum|Ende|11|2020}}<ref name="OpenSUSELifetime" /><br />
| style="text-align:left;"|4.12<br />
| style="text-align:center;"|<br />
|style="text-align:left;"|Aktualisierungen gegenüber Leap 15.0<br />
|-<br />
|colspan="8" | {{Version|l|zeige=111101}}<br />
|}<br />
{{#tag:timeline|<br />
Define $width = 850<br />
Define $warning = 750 # $width – 130<br />
Define $height = 500<br />
<br />
Define $start = 01/06/2005<br />
Define $end = 31/12/2021<br />
Define $now = {{CURRENTDAY2}}/{{CURRENTMONTH}}/{{CURRENTYEAR}}<br />
<br />
ImageSize = width:$width height:$height #Size of image: height, width<br />
PlotArea = right:20 left:30 bottom:100 top:50<br />
DateFormat = dd/mm/yyyy #Format of date= y-stands for year, m-stands for month, d-stands for day.<br />
Period = from:$start till:$end<br />
TimeAxis = orientation:hor # horizontal<br />
Legend = orientation:hor position:bottom<br />
<br />
Colors =<br />
id:bg value:white<br />
id:lightline value:rgb(0.9,0.9,0.9)<br />
id:lighttext value:rgb(0.5,0.5,0.5)<br />
id:openSUSE_project value:rgb(0.4,0.8,0.1) Legend:openSUSE<br />
id:Development value:rgb(0.6,0.6,0.6) Legend:Entwicklungs-_und_Testphase<br />
id:future value:rgb(0.53,0.80,0.92) Legend:Zukünftige_Veröffentlichung<br />
id:evergreen value:rgb(0.2,0.6,0.1) Legend:Evergreen,_Langzeitunterstützung_durch_Updates<br />
id:today value:rgb(0.8,0,0)<br />
<br />
BackgroundColors = canvas:bg<br />
ScaleMinor = gridcolor:lightline unit:month increment:1 start:01/06/2005<br />
ScaleMajor = gridcolor:lighttext unit:year increment:1 start:01/01/2006<br />
<br />
LineData=<br />
at:$now color:today width:0.1<br />
<br />
PlotData=<br />
bar:15.2 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:20/11/2019 till:25/05/2020<br />
<br />
color:future mark:(line,white) align:center fontsize:M<br />
from:25/05/2020 till:25/11/2021 shift:(0,-5) text:Leap 15.2<br />
<br />
bar:15.1 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:20/11/2018 till:22/05/2019<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:22/05/2019 till:25/11/2020 shift:(0,-5) text:Leap 15.1<br />
<br />
bar:15.0 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:31/01/2018 till: 25/05/2018<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:25/05/2018 till:25/11/2019 shift:(0,-5) text:Leap 15.0<br />
<br />
bar:42.3 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:14/12/2016 till:26/07/2017<br />
<br />
color:openSUSE_project:(line,white) align:center fontsize:M<br />
from:25/07/2017 till:30/06/2019 shift:(0,-5) text:openSUSE 42.3<br />
<br />
bar:42.2 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:24/05/2016 till:16/11/2016<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:16/11/2016 till:31/01/2018 shift:(0,-5) text:openSUSE 42.2<br />
<br />
bar:42.1 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:24/07/2015 till:04/11/2015<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:04/11/2015 till:16/05/2017 shift:(0,-5) text:openSUSE 42.1 #EOL vorläufig geändert auf GA + 18 Monate (Supportdauer Point Release)<br />
<br />
bar:13.2 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:19/03/2014 till:04/11/2014<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:04/11/2014 till:18/01/2017 shift:(0,-5) text:openSUSE 13.2<br />
<br />
bar:13.1 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:17/05/2013 till:19/11/2013<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:19/11/2013 till:15/01/2016 shift:(0,-5) text:openSUSE 13.1 #geändert gemäß https://en.opensuse.org/Lifetime<br />
<br />
color:evergreen mark:(line,white) align:center fontsize:M<br />
from:16/01/2016 till:30/11/2016 shift:(0,-5) #text:Evergreen:13.1 #Balkentext aus Gründen der Übersicht auskommentiert, zudem redundant mit Legendentext<br />
<br />
bar:12.3 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:03/10/2012 till:13/03/2013<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:13/03/2013 till:29/01/2015 shift:(0,-5) text:openSUSE 12.3<br />
<br />
bar:12.2 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:15/01/2012 till:04/09/2012<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:05/09/2012 till:15/01/2014 shift:(0,-5) text:openSUSE 12.2<br />
<br />
bar:12.1 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:31/05/2011 till:14/11/2011<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:15/11/2011 till:15/05/2013 shift:(0,-5) text:openSUSE 12.1<br />
<br />
bar:11.4 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:02/09/2010 till:09/03/2011<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:10/03/2011 till:05/11/2012 shift:(0,-5) text:openSUSE 11.4<br />
<br />
color:evergreen mark:(line,white) align:center fontsize:M<br />
from:05/11/2012 till:01/07/2014 shift:(0,-5) #text:Evergreen:11.4 #Balkentext aus Gründen der Übersicht auskommentiert, zudem redundant mit Legendentext<br />
<br />
bar:11.3 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:01/02/2010 till:15/07/2010<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:15/07/2010 till:20/01/2012 shift:(0,-5) text:openSUSE 11.3<br />
# http://en.opensuse.org/openSUSE:Evergreen#Supported_distributions<br />
<br />
bar:11.2 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:24/04/2009 till:12/11/2009<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:12/11/2009 till:12/05/2011 shift:(0,-5) text:openSUSE 11.2<br />
<br />
color:evergreen mark:(line,white) align:center fontsize:M<br />
from:12/05/2011 till:01/11/2013 shift:(0,-5) #text:Evergreen:11.2 #Balkentext aus Gründen der Übersicht auskommentiert, zudem redundant mit Legendentext<br />
<br />
bar:11.1 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:24/07/2008 till:18/12/2008<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:18/12/2008 till:31/12/2010 shift:(0,-5) text:openSUSE 11.1<br />
<br />
color:evergreen mark:(line,white) align:center fontsize:M<br />
from:01/01/2011 till:13/04/2012 shift:(0,-5) #text:Evergreen:11.1 #Balkentext aus Gründen der Übersicht auskommentiert, zudem redundant mit Legendentext<br />
# http://lists.rosenauer.org/pipermail/evergreen/2012-April/000712.html<br />
# „I’ve just updated the Evergreen wiki page […] (EOL of 11.1)“<br />
# http://en.opensuse.org/index.php?title=openSUSE:Evergreen&oldid=50895<br />
<br />
bar:11.0 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:17/01/2008 till:19/06/2008<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:19/06/2008 till:26/07/2010 shift:(0,-5) text:openSUSE 11.0<br />
<br />
bar:10.3 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:15/02/2007 till:04/10/2007 # http://lists.opensuse.org/opensuse-announce/2007-02/msg00004.html<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:04/10/2007 till:31/10/2009 shift:(0,-5) text:openSUSE 10.3<br />
<br />
bar:10.2 width:20<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:07/09/2006 till:07/12/2006<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:07/12/2006 till:30/11/2008 shift:(0,-5) text:openSUSE 10.2<br />
<br />
bar:10.1 width:20<br />
<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:29/09/2005 till:11/05/2006<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:11/05/2006 till:13/10/2006 shift:(0,-5) text:10.1<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:13/10/2006 till:31/05/2008 shift:(0,-5) text:10.1 Remastered<br />
<br />
bar:10.0 width:20<br />
<br />
color:Development mark:(line,white) align:center fontsize:M<br />
from:09/08/2005 till:06/10/2005<br />
<br />
color:openSUSE_project mark:(line,white) align:center fontsize:M<br />
from:06/10/2005 till:30/11/2007 shift:(0,-5) text:SUSE Linux 10.0<br />
<br />
TextData =<br />
fontsize:S# Small<br />
textcolor:lighttext<br />
pos:($warning,30)#position<br />
text:Updated {{CURRENTYEAR}}/{{CURRENTMONTH}}/{{CURRENTDAY2}} # yyyy-mm-dd (Internationalized date format)<br />
}}<br />
<br />
== Derivate ==<br />
Bekannte Abkömmlinge (''[[Abspaltung (Softwareentwicklung)|Derivate]]''):<br />
; GeckoLinux<br />
: verfügbar in den Versionen Static (basierend auf openSUSE Leap) und Rolling (basierend auf openSUSE Tumbleweed).<ref>Ferdinand Thommes: [http://www.pro-linux.de/news/1/24305/geckolinux-verpackt-opensuse-leap-und-tumbleweed-neu.html GeckoLinux verpackt Opensuse Leap und Tumbleweed neu], [[Pro-Linux]], 21. Dezember 2016</ref><br />
; JackLab<br />
: mit [[Enlightenment]]-Desktop, [[Echtzeitbetriebssystem|Echtzeit-Kernel]] und Software für Musiker, Medienkünstler, Produzenten von Musik (das Projekt wurde eingestellt).<ref>{{Internetquelle |url=http://www.jacklab.org/ |titel=JackLab has closed |hrsg=jacklab.org |zugriff=2014-01-07 |sprache=en}}</ref><br />
; kmLinux: für den Einsatz als Arbeitsplatzrechner in Schulen optimierte Distribution.<ref>[http://www.lernnetz-sh.de/kmLinux/ kmLinux-Dokumentation]</ref><br />
; Linkat: Distribution des Bildungsministeriums des Generalitat de Catalunya, speziell für den Einsatz in Bildungseinrichtungen.<br />
; [[Linux-Musterlösung]]: vom Landesmedienzentrum Baden-Württemberg für den Schuleinsatz vertriebene Serverversion (bis Version 2.3, 2007).<br />
; NetSecL:auf Sicherheit ausgerichtete Live-DVD.<br />
; openSUSE Education: eine Zusatz-DVD für openSUSE, die über 100 Anwendungen für Schulen und Universitäten enthält.<ref>{{cite web|url=http://www.opensuse-education.org/|title=openSUSE Education|first=Lars|last=Vogdt|publisher=}}</ref><br />
; openSUSE Medical: eine auf SUSE Studio basierende Distribution für Ärzte, Kliniken und Medizinstudenten.<ref>{{cite web|url=http://en.opensuse.org/Portal:Medical|title=Portal:Medical – openSUSE|publisher=}}</ref><br />
<br />
== Siehe auch ==<br />
* [[Liste von Linux-Distributionen]]<br />
* [[SUSE Linux GmbH]]<br />
<br />
== Weblinks ==<br />
{{Commonscat}}<br />
* [http://www.opensuse.org/ openSUSE.org Projekt-Website] mit [https://forums.opensuse.org/forum.php Forum] und deutschsprachigem [http://dewiki.opensuse.org/Hauptseite Wiki]<br />
* {{DNB-Portal|7629374-9|TEXT=Literatur über|NAME=openSUSE 11}}<br />
* {{dmoz|World/Deutsch/Computer/Software/Betriebssysteme/Linux/Distributionen/SuSE/|SuSE Linux}}<br />
* [http://www.linupedia.org/opensuse/Hauptseite Linupedia Wiki] vom Linux Club (verantwortlich Thomas Mönkemeier)<br />
<!-- bitte nur spezielle und bedeutende Links hinzufügen – kleine Foren und so gibt es hunderte, Anleitungen und ähnliches ebenfalls --><br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{Normdaten|TYP=s|GND=4559082-5}}<br />
<br />
[[Kategorie:Linux-Distribution]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Kontinuit%C3%A4tsgleichung&diff=183368812Kontinuitätsgleichung2018-12-03T15:01:36Z<p>HerrHartmuth: /* Zusammenhang mit einer Erhaltungsgröße */ Vereinheitlichung der Schreibweise von Differenzialen</p>
<hr />
<div>Eine '''Kontinuitätsgleichung''' ist eine bestimmte [[partielle Differentialgleichung]], die zu einer [[Erhaltungsgröße]] (s.&nbsp;u.) gehört. Sie verknüpft die zeitliche Änderung der zu dieser Erhaltungsgröße gehörigen ''Dichte''&nbsp;<math>\rho</math> mit der räumlichen Änderung ihrer ''Stromdichte''&nbsp;<math>\vec{j}</math>:<br />
<br />
:<math> \frac{\partial \rho}{\partial t} + \vec \nabla \cdot \vec j = 0</math><br />
<br />
Zur mathematischen Definition von <math>\vec \nabla \cdot</math> siehe [[Divergenz eines Vektorfeldes]].<br />
<br />
Die Kontinuitätsgleichung tritt in allen [[Feldtheorie (Physik)|Feldtheorien der Physik]] auf. Die erhaltenen Größen können sein:<br />
* die [[Masse (Physik)|Masse]],<br />
* die [[elektrische Ladung]],<br />
* die [[Energie]],<br />
* die [[Wahrscheinlichkeit]] und<br />
* einige Teilchenzahlen ([[Leptonenzahl]], [[Baryonenzahl]]).<br />
<br />
== Zusammenhang mit einer Erhaltungsgröße ==<br />
Die in einem Volumen ''V'' enthaltene „Ladung“ (das Volumenintegral über die Dichte) kann sich aufgrund der Kontinuitätsgleichung nur dadurch ändern, dass ''unausgeglichene Ströme'' aus der Oberfläche des Volumens hinausfließen. Demnach ändert sich die Gesamtladung für <math>V\to\infty</math> zeitlich ''nicht'' und ist eine Erhaltungsgröße, wenn keine (Netto-)Ströme durch die Oberfläche des betrachteten Volumens fließen.<br />
<br />
Denn die zeitliche Änderung der Ladung <math>Q_V</math>, gegeben durch<br />
:<math>Q_V=\iiint_V \mathrm{d}^3x\, \rho(t,\vec{x})</math><br />
in einem zeitlich unveränderlichen Volumen <math>V</math>,<br />
ist wegen der Kontinuitätsgleichung nach dem [[Gaußscher Integralsatz|Integralsatz von Gauß]]<br />
:<math>\frac{\mathrm{d}Q_V}{\mathrm{d}t}=\iiint_V \mathrm{d}^3x \,\frac{\partial\rho}{\partial t}=-\iiint_V\! \mathrm{d}^3x\,\vec \nabla \cdot \vec{j}=-\oint_{\partial V} \, \vec j\;\cdot\vec n\,\mathrm{d}S\,,</math><br />
<br />
gleich dem Flächenintegral über die Randfläche <math>\partial V</math> des Volumens<br />
über den Anteil der Stromdichte <math>\vec{j}</math>, der in Richtung der Flächennormalen <math>\vec {n}</math> nach außen fließt. Die Ladung im Volumen ändert sich nur, sofern<br />
unausgeglichene Ströme in der angegebenen Weise durch die Randfläche fließen.<br />
<br />
== Spezielle Kontinuitätsgleichungen ==<br />
=== Hydrodynamik ===<br />
Verändert sich in der [[Hydrodynamik]] die [[Massendichte]] <math>\rho(t,\vec{x})</math>, weil die Flüssigkeit mit der Geschwindigkeit <math>\vec{u} = \tfrac{\mathrm d \vec x}{\mathrm d t}</math> längs der [[Bahnkurve]]n <math>\vec x(t)</math> strömt, so ist die zugehörige Stromdichte<br />
<br />
::<math>\vec{j} = \rho \, \vec{u}</math><br />
<br />
und die Kontinuitätsgleichung lautet<br />
<br />
:<math>\begin{alignat}{2}<br />
& \frac{\partial \rho}{\partial t} + \vec \nabla \cdot (\rho \vec{u}) && = 0\\<br />
\Leftrightarrow & \frac{\partial \rho}{\partial t} + \vec \nabla \rho \cdot \vec{u} + \rho \vec \nabla \cdot \vec{u} && = 0<br />
\end{alignat}</math> (Begründung: [[Produktregel]])<br />
<br />
Für die zeitliche Änderung der Dichte bei einem Teilchen, das die Bahn <math>\vec x(t)</math> durchläuft, besagt dies:<br />
<br />
:<math>\begin{alignat}{2}<br />
& \frac{\partial \rho}{\partial t} + \vec \nabla \rho \cdot \frac{\mathrm d \vec x}{\mathrm d t} && = - \rho \cdot \vec \nabla \cdot \vec{u}\\<br />
\Leftrightarrow & \frac{\mathrm d}{\mathrm d t} \rho(t,\vec x(t)) && = - \rho \cdot \vec \nabla \cdot \, \vec{u}<br />
\end{alignat}</math> (Begründung: [[totales Differential]]).<br />
<br />
Entlang einer Trajektorie ändert sich also die Dichte mit der Divergenz der Strömung <math>\vec u.</math><br />
<br />
Die Strömung ist [[Inkompressibles Fluid|inkompressibel]], wenn die Dichte entlang einer Trajektorie konstant bleibt:<br />
<br />
:<math>\frac{\mathrm d}{\mathrm d t} \rho(t,\vec x(t)) = 0</math><br />
<br />
Daraus folgt, dass in diesem Fall die Divergenz der Strömung Null ist:<br />
<br />
:<math>\Rightarrow \vec \nabla \cdot \vec{u} = \frac{\partial u}{\partial x} + \frac{\partial v}{\partial y} + \frac{\partial w}{\partial z} = 0</math><br />
<br />
=== Elektrodynamik ===<br />
In der [[Elektrodynamik]] ergibt sich die Kontinuitätsgleichung für die elektrische [[Ladungsdichte]] <math>\rho</math> und die [[elektrische Stromdichte]] <math>\vec{j}</math> mithilfe der Identität <math>\vec \nabla \cdot \vec \nabla \times \dots =0</math> und den beiden inhomogenen [[Maxwellgleichungen#Makroskopische Maxwellgleichungen|Maxwellgleichungen]]<br />
:<math>0\ \ \stackrel{\operatorname{div}\ \operatorname{rot}\ =\ 0}{=}\ \ <br />
\vec \nabla \cdot \left(\vec \nabla \times \vec H\right)\ \ \stackrel{\text{Maxwell}}{=}\ \ <br />
\vec \nabla \cdot \left( \frac{\part}{\part t} \vec D + \vec j \right) = <br />
\frac{\part}{\part t} \vec \nabla \cdot \vec D + \vec \nabla \cdot \vec j = <br />
\frac{\part\rho}{\part t}+ \vec \nabla \cdot \vec j\ ,<br />
</math><br />
d.&nbsp;h. es folgt mit der anderen inhomogenen Maxwell-Gleichung<ref>Bei der Herleitung wird u.&nbsp;a. die Divergenz der sog. Maxwellschen Ergänzung <math>\frac{\partial\vec D}{\partial t}</math> gebildet und die Vertauschbarkeit der partiellen Ableitung <math>\frac{\partial}{\partial t}</math> mit dem Divergenzoperator benutzt.</ref><br />
:<math> \frac{\partial\rho}{\partial t} + \vec \nabla \cdot \vec j = 0\ .</math><br />
<br />
In Halbleitern beschreibt die Verletzung der Kontinuitätsgleichung<br />
:<math> \frac{\partial \rho}{\partial t} + \vec \nabla \cdot \vec{j} = -r + g </math><br />
die Änderung der [[Raumladung]]sdichte <math>\rho</math> durch die [[Rekombination (Physik)|Rekombinationsrate]] pro Volumen, <math>r</math>, und die [[Ionisation|Generationsrate]] <math>g</math>.<br />
<br />
Aus den Maxwellgleichungen der [[Elektrodynamik]] folgt<br />
(in [[CGS-Einheitensystem|CGS]]-Einheiten) für die [[Energiedichte]]<br />
:<math>u = \frac{1}{8 \pi} \left( \vec{E}^2 + \vec{B}^2 \right)</math><br />
und die Energiestromdichte (auch [[Poynting-Vektor]])<br />
:<math>\vec{S} = \frac{c}{4 \pi} \left( \vec{E} \times \vec{H} \right)</math><br />
nahezu eine Kontinuitätsgleichung:<br />
:<math>\frac{\partial u}{\partial t} +\vec \nabla \cdot \vec{S}= -\vec{j} \cdot \vec{E}\,.</math><br />
<br />
Die Kontinuitätsgleichung für die Energie im elektromagnetischen Feld ist dort erfüllt, wo die elektrische Stromdichte <math>\vec{j}</math> verschwindet, beispielsweise im Vakuum. Dort kann sich Energiedichte nur durch Energieströme ändern. Wo die elektrische Stromdichte <math>\vec{j}</math> nicht verschwindet, leistet das elektrische Feld <math>\vec{E}</math> Arbeit und tauscht Energie mit den Ladungsträgern aus.<br />
<br />
Die Kontinuitätsgleichung für die elektromagnetische Feldenergie ist der [[Satz von Poynting]].<br />
<br />
In der relativistischen Formulierung der Elektrodynamik mit [[Vierervektor|Minkowski-Vektoren]] fasst man ''cρ'' und '' '''j''' '' zu einem Vierervektor zusammen <math>(j^{\alpha}) =(c\rho ,j_x, j_y, j_z)\,,</math>. Wie oben, folgt aus den Maxwellgleichungen, dass dessen Viererdivergenz verschwindet <math>\partial_{\alpha} j^{\alpha}=\frac{c \partial \rho}{c \partial t}+\frac{\partial j_x}{\partial x}+\frac{\partial j_y}{\partial y}+\frac{\partial j_z}{\partial z} = 0\, .</math><ref>[[Torsten Fließbach]]: ''Elektrodynamik'' Spektrum Akademischer Verlag, 3. Auflage, S. 159</ref> Diese Formulierung ist unabhängig von der gewählten Minkowski-Signatur, äquivalent zur Kontinuitätsgleichung und kann auf relativistische Feldtheorien verallgemeinert werden.<br />
<br />
=== Quantenmechanik ===<br />
In der nichtrelativistischen Quantenmechanik wird der Zustand eines Teilchens, etwa eines einzelnen [[Elektron]]s, durch eine [[Wellenfunktion]] <math>\Psi(\vec x,t)</math> beschrieben.<br />
<br />
Das [[Betragsquadrat]]<br />
:<math>\rho(\vec x,t)=|\Psi(\vec x,t)|^2</math><br />
gibt die [[Wahrscheinlichkeitsdichte]] dafür an, ein Teilchen zur Zeit <math>t</math> am Ort <math>\vec x</math> vorzufinden. Mit der zugehörigen [[Wahrscheinlichkeitsstromdichte]]<br />
:<math>\vec j = -\frac{i \hbar}{2m}(\Psi^*\vec \nabla \Psi - \Psi\vec \nabla \Psi^*)</math><br />
gilt ohne äußeres Magnetfeld als Folge der [[Schrödingergleichung]] die Kontinuitätsgleichung<br />
:<math>\frac{\partial}{\partial t}\rho + \vec \nabla \cdot \vec j = 0\,</math>.<br />
Ist ein äußeres Magnetfeld vorhanden, muss auf die [[Pauli-Gleichung]] zurückgegriffen werden und es ergibt sich<br />
:<math> \vec j = -\frac{i \hbar}{2m}(\Psi^\dagger \vec \nabla \Psi - (\vec \nabla \Psi^\dagger)\Psi) - \frac{q}{m} \vec A \Psi^\dagger \Psi + \frac{\hbar}{2m} \vec \nabla \times (\Psi^\dagger \vec \sigma \Psi) </math><br />
wobei <math> \sigma </math> für die [[Pauli-Matrizen]] stehen. Der letzte Term verschwindet zwar bei der Divergenzbildung und ist nicht direkt aus der Pauli-Gleichung ableitbar, ergibt sich aber aus dem nichtrelativistischen Grenzfall der Dirac-Gleichung.<br />
<br />
Im Rahmen der relativistischen Quantenmechanik gehorchen Teilchen der [[Klein-Gordon-Gleichung]] (für [[Skalarboson]]en) beziehungsweise der [[Dirac-Gleichung]] (für [[Fermion]]en). Da die Gleichungen der Speziellen Relativitätstheorie gehorchen, können die Kontinuitätsgleichungen für diese Fälle in manifest kovarianter Form<br />
:<math> \partial_\mu j^\mu =\partial_t \rho + \vec \nabla \cdot \vec j = 0 </math><br />
geschrieben werden und es ergibt sich<br />
:<math> j^\mu_\text{KG} = \mathrm i \left(\phi^* \partial^\mu \phi - \phi \partial^\mu \phi^* \right) </math><br />
:<math> j^\mu_\text{Dirac} = \psi^\dagger \gamma^0 \gamma^\mu \psi </math><br />
wobei <math>\phi</math> beziehungsweise <math>\psi</math> für die skalare bosonische/vektorwertige fermionische Wellenfunktion stehen und <math>\gamma</math> die [[Dirac-Matrizen]] sind.<br />
<br />
Im Rahmen der Klein-Gordon-Kontinuitätsgleichung kann – im Gegensatz zum nichtrelativistischen oder fermionen Fall – die Größe <math> j^0 = \frac{1}{c} \mathrm i \left(\phi^* \partial_t \phi - \phi \partial_t \phi^* \right)</math> nicht als Wahrscheinlichkeitsdichte gedeutet werden, da diese Größe nicht positiv semidefinit ist.<br />
<br />
== Weitere Anwendungen: Allgemeine Erhaltungsgrößen ==<br />
Man erkennt an der Analogie zum „elektrischen“ Fall, dass Kontinuitätsgleichungen immer dann gelten müssen, wenn eine ladungsartige Größe und eine stromartige Größe wie oben angegeben zusammenhängen. Als weiteres konkretes Beispiel könnte man etwa den in der<br />
[[Thermodynamik]] wichtigen [[Wärmestrom]] angeben. Die „Ladungsdichte“ muss bei Integration über den Gesamtraum eine Erhaltungsgröße ergeben, z.&nbsp;B. die elektrische Gesamtladung, bzw. – im Falle der Quantenmechanik – die Gesamtwahrscheinlichkeit, ''1'', oder im dritten Fall, die gesamte zugeführte Wärme, bei Systemen, deren Wärmeinhalt als „erhalten“ angesehen werden kann (z.&nbsp;B. [[Wärmediffusion]]).<br />
<br />
In der Strömungsmechanik folgt aus der Kontinuitätsgleichung das [[Kontinuitätsgesetz]] für (inkompressible) Fluide.<br />
<br />
== Literatur ==<br />
* Batchelor, G.K.: ''An introduction to fluid dynamics,'' Cambridge university press, 2000, ISBN 0-521-66396-2<br />
<br />
== Weblinks ==<br />
* {{TIBAV |10863 |Linktext=Kontinuitätsgleichung |Herausgeber=IWF |Jahr=2004 |DOI=10.3203/IWF/C-14818 }}<br />
<br />
== Einzelnachweise und Fußnoten ==<br />
<references /><br />
<br />
{{SORTIERUNG:Kontinuitatsgleichung}}<br />
[[Kategorie:Feldtheorie]]<br />
[[Kategorie:Strömungsmechanik]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Heaviside-Funktion&diff=181193662Heaviside-Funktion2018-09-24T14:52:56Z<p>HerrHartmuth: /* Integration */ typesetting der Gleichung und interwiki Links hinzugefuegt</p>
<hr />
<div>Die '''Heaviside-Funktion''', auch ''Theta-'', ''Treppen-'', ''Schwellenwert-'', ''Stufen-'', ''Sprung-'' oder ''Einheitssprungfunktion'' genannt, ist eine in der [[Mathematik]] und [[Physik]] oft verwendete [[Funktion (Mathematik)|Funktion]]. Sie ist nach dem britischen Mathematiker und Physiker [[Oliver Heaviside]] (1850–1925) benannt.<br />
<br />
== Allgemeines ==<br />
Die Heaviside-Funktion hat für jede beliebige negative Zahl den Wert [[null]], andernfalls den Wert [[eins]]. Die Heaviside-Funktion ist mit Ausnahme der Stelle <math>x=0</math> überall [[Stetigkeit|stetig]]. In Formeln geschrieben heißt das:<br />
<br />
[[Datei:Heaviside.svg|miniatur|hochkant=1.5|Heaviside-Funktion]]<br />
:<math>\begin{align}<br />
\Theta \colon \; & \R \to \{0,1\} \\<br />
\ & x \mapsto \begin{cases}<br />
0 : & x < 0\\<br />
1 : & x \ge 0<br />
\end{cases}<br />
\end{align}</math><br />
<br />
Sie ist also die [[Indikatorfunktion|charakteristische Funktion]] des [[Intervall (Mathematik)|Intervalls]] <math>[0,+\infty)</math> der [[Positive und negative Zahlen|nichtnegativen reellen Zahlen]].<br />
<br />
In der Fachliteratur ist statt <math>\Theta(x)</math> auch eine davon abweichende [[Nomenklatur]] geläufig:<br />
* <math>H(x)</math>, welche sich am Namen von Oliver '''H'''eaviside orientiert.<br />
* <math>s(x)</math> und <math>\sigma(x)</math> nach der Bezeichnung '''S'''prungfunktion.<br />
* <math>u(x)</math> nach der Bezeichnung {{EnS|'''''u'''nit step function''}}.<br />
* Auch <math>\epsilon(x)</math> wird häufig verwendet.<br />
* In der [[Systemtheorie (Ingenieurwissenschaften)|Systemtheorie]] verwendet man auch das Symbol <math>1(x)</math>.<br />
<br />
Die Funktion findet zahlreiche Anwendungen, etwa in der [[Nachrichtentechnik]] oder als mathematisches Filter: [[Multiplikation|Multipliziert]] man punktweise jeden Wert einer beliebigen stetigen Funktion mit dem entsprechenden Wert der Heaviside-Funktion, ergibt sich eine Funktion, die links von <math>x=0</math> den Wert Null hat ([[deterministisch]]e Funktion), rechts davon aber mit der ursprünglichen Funktion übereinstimmt.<br />
<br />
== Alternative Darstellungen ==<br />
Den Wert der Heaviside-Funktion an der Stelle <math>x=0</math> kann man auch folgendermaßen festlegen. Zur Kennzeichnung der Definition schreibt man<br />
<br />
:<math>\begin{align}<br />
\Theta_c\colon \; & \R \to \mathbb{K} \\<br />
\,& x \mapsto \begin{cases}<br />
0 : & x < 0\\<br />
c : & x = 0\\<br />
1 : & x > 0<br />
\end{cases}<br />
\end{align}</math><br />
mit <math>0,1,c\in\mathbb{K}</math>. Es kann <math>\mathbb{K}</math> also eine beliebige Menge darstellen, solange sie 0 und 1 enthält. Üblicherweise wird jedoch <math>\mathbb{K} = [0,1] \subset \R</math> verwendet.<br />
<br />
Diese Definition ist charakterisiert durch die Eigenschaft, dass dann <math>\Theta_c(0) = c</math> ist.<br />
<br />
Durch die Wahl <math>c := \tfrac{1}{2}</math> und folglich <math>\Theta_\frac{1}{2}(0) = \textstyle\frac{1}{2}</math> erreicht man, dass die Gleichungen<br />
<br />
:<math>\Theta_\frac{1}{2}(x) = \tfrac{1}{2}(\sgn{(x)} + 1)</math> und damit auch<br />
:<math>\Theta_\frac{1}{2}( -x ) = 1 - \Theta_\frac{1}{2}(x)</math><br />
<br />
für alle reellen <math>x</math> gültig sind.<br />
<br />
Eine [[Integralrepräsentation]] der Heaviside-Sprungfunktion lautet wie folgt:<br />
<br />
:<math>\Theta(x)=-\lim_{ \varepsilon \to 0} {1\over 2\pi i}\int_{-\infty}^\infty {1 \over \tau+i\varepsilon} e^{-i x \tau} \, \mathrm d \tau </math><br />
<br />
Eine weitere Repräsentation ist gegeben durch<br />
<br />
:<math>\Theta(x)=\lim_{\varepsilon\to 0}{1\over\pi}\left[ \arctan \left( {x\over\varepsilon} \right)+{\pi\over 2} \right]</math><br />
<br />
== Eigenschaften ==<br />
=== Differenzierbarkeit ===<br />
Die Heaviside-Funktion ist weder im klassischen Sinne differenzierbar noch ist sie [[Schwache Ableitung|schwach differenzierbar]]. Dennoch kann man über die Theorie der [[Distribution (Mathematik)|Distributionen]] eine Ableitung definieren. Die [[Differentialrechnung|Ableitung]] der Heaviside-Funktion in diesem Sinne ist die diracsche [[Delta-Distribution]], die in der Physik zur Beschreibung von [[Punktquelle|punktförmigen Quellen]] von Feldern Verwendung findet.<br />
:<math>\frac{\mathrm d}{\mathrm dx}\Theta(x) = \delta(x)</math><br />
<br />
Eine heuristische Begründung für diese Formel erhält man, wenn man <math>\Theta (x)</math> und <math> \delta (x) </math> geeignet approximiert, z. B. durch<br />
: <math><br />
\Theta_\epsilon (x) := <br />
\begin{cases}<br />
0 & x< (-\epsilon)<br />
\\<br />
\left(\frac{1}{2} + \frac{x}{2\epsilon}\right)<br />
& |x|\le\epsilon<br />
\\<br />
1<br />
& x>\epsilon<br />
\,,<br />
\end{cases}<br />
</math><br />
sowie<br />
: <math><br />
\delta_\epsilon (x):=<br />
\begin{cases}<br />
0<br />
& |x| >\epsilon<br />
\\<br />
\frac{1}{2\epsilon}<br />
& |x|\le\epsilon \,,<br />
\end{cases}<br />
</math><br />
wobei jeweils der Grenzwert <math> \lim_{\epsilon \searrow 0} </math> betrachtet wird.<br />
<br />
=== Integration ===<br />
Die [[Stammfunktion]] der Heaviside-Sprungfunktion erhält man durch [[Partielle_Integration|partielle Integration]] und Anwendung der Faltungseigenschaft der [[Delta-Distribution]]<br />
<br />
:<math><br />
\int^x\Theta(x') \, \mathrm d x' = \Theta(x)x + C = \max \{x,0\} + C<br />
\quad \text{mit} \quad C \in \R \,.<br />
</math><br />
<br />
== Siehe auch ==<br />
* [[Sprungantwort]]<br />
* [[Schwellenwert (Elektronik)]], [[Schwellenwertverfahren]]<br />
* [[Dirac-Funktion]]<br />
* [[Rechteckfunktion]]<br />
* [[Föppl-Klammer]]<br />
* [[Vorzeichenfunktion]]<br />
* [[Fermi-Dirac-Statistik|Fermifunktion]]<br />
<br />
== Weblinks ==<br />
* {{MathWorld|title=Heaviside Step Function|urlname=HeavisideStepFunction}}<br />
<br />
[[Kategorie:Mathematische Funktion]]<br />
[[Kategorie:Distributionentheorie]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Heaviside-Funktion&diff=181193443Heaviside-Funktion2018-09-24T14:44:38Z<p>HerrHartmuth: /* Differenzierbarkeit */ besserers typesetting der Gleichungen</p>
<hr />
<div>Die '''Heaviside-Funktion''', auch ''Theta-'', ''Treppen-'', ''Schwellenwert-'', ''Stufen-'', ''Sprung-'' oder ''Einheitssprungfunktion'' genannt, ist eine in der [[Mathematik]] und [[Physik]] oft verwendete [[Funktion (Mathematik)|Funktion]]. Sie ist nach dem britischen Mathematiker und Physiker [[Oliver Heaviside]] (1850–1925) benannt.<br />
<br />
== Allgemeines ==<br />
Die Heaviside-Funktion hat für jede beliebige negative Zahl den Wert [[null]], andernfalls den Wert [[eins]]. Die Heaviside-Funktion ist mit Ausnahme der Stelle <math>x=0</math> überall [[Stetigkeit|stetig]]. In Formeln geschrieben heißt das:<br />
<br />
[[Datei:Heaviside.svg|miniatur|hochkant=1.5|Heaviside-Funktion]]<br />
:<math>\begin{align}<br />
\Theta \colon \; & \R \to \{0,1\} \\<br />
\ & x \mapsto \begin{cases}<br />
0 : & x < 0\\<br />
1 : & x \ge 0<br />
\end{cases}<br />
\end{align}</math><br />
<br />
Sie ist also die [[Indikatorfunktion|charakteristische Funktion]] des [[Intervall (Mathematik)|Intervalls]] <math>[0,+\infty)</math> der [[Positive und negative Zahlen|nichtnegativen reellen Zahlen]].<br />
<br />
In der Fachliteratur ist statt <math>\Theta(x)</math> auch eine davon abweichende [[Nomenklatur]] geläufig:<br />
* <math>H(x)</math>, welche sich am Namen von Oliver '''H'''eaviside orientiert.<br />
* <math>s(x)</math> und <math>\sigma(x)</math> nach der Bezeichnung '''S'''prungfunktion.<br />
* <math>u(x)</math> nach der Bezeichnung {{EnS|'''''u'''nit step function''}}.<br />
* Auch <math>\epsilon(x)</math> wird häufig verwendet.<br />
* In der [[Systemtheorie (Ingenieurwissenschaften)|Systemtheorie]] verwendet man auch das Symbol <math>1(x)</math>.<br />
<br />
Die Funktion findet zahlreiche Anwendungen, etwa in der [[Nachrichtentechnik]] oder als mathematisches Filter: [[Multiplikation|Multipliziert]] man punktweise jeden Wert einer beliebigen stetigen Funktion mit dem entsprechenden Wert der Heaviside-Funktion, ergibt sich eine Funktion, die links von <math>x=0</math> den Wert Null hat ([[deterministisch]]e Funktion), rechts davon aber mit der ursprünglichen Funktion übereinstimmt.<br />
<br />
== Alternative Darstellungen ==<br />
Den Wert der Heaviside-Funktion an der Stelle <math>x=0</math> kann man auch folgendermaßen festlegen. Zur Kennzeichnung der Definition schreibt man<br />
<br />
:<math>\begin{align}<br />
\Theta_c\colon \; & \R \to \mathbb{K} \\<br />
\,& x \mapsto \begin{cases}<br />
0 : & x < 0\\<br />
c : & x = 0\\<br />
1 : & x > 0<br />
\end{cases}<br />
\end{align}</math><br />
mit <math>0,1,c\in\mathbb{K}</math>. Es kann <math>\mathbb{K}</math> also eine beliebige Menge darstellen, solange sie 0 und 1 enthält. Üblicherweise wird jedoch <math>\mathbb{K} = [0,1] \subset \R</math> verwendet.<br />
<br />
Diese Definition ist charakterisiert durch die Eigenschaft, dass dann <math>\Theta_c(0) = c</math> ist.<br />
<br />
Durch die Wahl <math>c := \tfrac{1}{2}</math> und folglich <math>\Theta_\frac{1}{2}(0) = \textstyle\frac{1}{2}</math> erreicht man, dass die Gleichungen<br />
<br />
:<math>\Theta_\frac{1}{2}(x) = \tfrac{1}{2}(\sgn{(x)} + 1)</math> und damit auch<br />
:<math>\Theta_\frac{1}{2}( -x ) = 1 - \Theta_\frac{1}{2}(x)</math><br />
<br />
für alle reellen <math>x</math> gültig sind.<br />
<br />
Eine [[Integralrepräsentation]] der Heaviside-Sprungfunktion lautet wie folgt:<br />
<br />
:<math>\Theta(x)=-\lim_{ \varepsilon \to 0} {1\over 2\pi i}\int_{-\infty}^\infty {1 \over \tau+i\varepsilon} e^{-i x \tau} \, \mathrm d \tau </math><br />
<br />
Eine weitere Repräsentation ist gegeben durch<br />
<br />
:<math>\Theta(x)=\lim_{\varepsilon\to 0}{1\over\pi}\left[ \arctan \left( {x\over\varepsilon} \right)+{\pi\over 2} \right]</math><br />
<br />
== Eigenschaften ==<br />
=== Differenzierbarkeit ===<br />
Die Heaviside-Funktion ist weder im klassischen Sinne differenzierbar noch ist sie [[Schwache Ableitung|schwach differenzierbar]]. Dennoch kann man über die Theorie der [[Distribution (Mathematik)|Distributionen]] eine Ableitung definieren. Die [[Differentialrechnung|Ableitung]] der Heaviside-Funktion in diesem Sinne ist die diracsche [[Delta-Distribution]], die in der Physik zur Beschreibung von [[Punktquelle|punktförmigen Quellen]] von Feldern Verwendung findet.<br />
:<math>\frac{\mathrm d}{\mathrm dx}\Theta(x) = \delta(x)</math><br />
<br />
Eine heuristische Begründung für diese Formel erhält man, wenn man <math>\Theta (x)</math> und <math> \delta (x) </math> geeignet approximiert, z. B. durch<br />
: <math><br />
\Theta_\epsilon (x) := <br />
\begin{cases}<br />
0 & x< (-\epsilon)<br />
\\<br />
\left(\frac{1}{2} + \frac{x}{2\epsilon}\right)<br />
& |x|\le\epsilon<br />
\\<br />
1<br />
& x>\epsilon<br />
\,,<br />
\end{cases}<br />
</math><br />
sowie<br />
: <math><br />
\delta_\epsilon (x):=<br />
\begin{cases}<br />
0<br />
& |x| >\epsilon<br />
\\<br />
\frac{1}{2\epsilon}<br />
& |x|\le\epsilon \,,<br />
\end{cases}<br />
</math><br />
wobei jeweils der Grenzwert <math> \lim_{\epsilon \searrow 0} </math> betrachtet wird.<br />
<br />
=== Integration ===<br />
Die [[Stammfunktion]] der Heaviside-Sprungfunktion erhält man durch partielle Integration und Anwendung der Faltungseigenschaft der Delta-Distribution:<br />
<br />
:<math>\int\Theta(x) \, \mathrm dx = \Theta(x)x + C = max \{x,0\} + C</math><br />
<br />
== Siehe auch ==<br />
* [[Sprungantwort]]<br />
* [[Schwellenwert (Elektronik)]], [[Schwellenwertverfahren]]<br />
* [[Dirac-Funktion]]<br />
* [[Rechteckfunktion]]<br />
* [[Föppl-Klammer]]<br />
* [[Vorzeichenfunktion]]<br />
* [[Fermi-Dirac-Statistik|Fermifunktion]]<br />
<br />
== Weblinks ==<br />
* {{MathWorld|title=Heaviside Step Function|urlname=HeavisideStepFunction}}<br />
<br />
[[Kategorie:Mathematische Funktion]]<br />
[[Kategorie:Distributionentheorie]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Heaviside-Funktion&diff=181193218Heaviside-Funktion2018-09-24T14:36:28Z<p>HerrHartmuth: /* Alternative Darstellungen */ Funktionsdarstellung verschoenert</p>
<hr />
<div>Die '''Heaviside-Funktion''', auch ''Theta-'', ''Treppen-'', ''Schwellenwert-'', ''Stufen-'', ''Sprung-'' oder ''Einheitssprungfunktion'' genannt, ist eine in der [[Mathematik]] und [[Physik]] oft verwendete [[Funktion (Mathematik)|Funktion]]. Sie ist nach dem britischen Mathematiker und Physiker [[Oliver Heaviside]] (1850–1925) benannt.<br />
<br />
== Allgemeines ==<br />
Die Heaviside-Funktion hat für jede beliebige negative Zahl den Wert [[null]], andernfalls den Wert [[eins]]. Die Heaviside-Funktion ist mit Ausnahme der Stelle <math>x=0</math> überall [[Stetigkeit|stetig]]. In Formeln geschrieben heißt das:<br />
<br />
[[Datei:Heaviside.svg|miniatur|hochkant=1.5|Heaviside-Funktion]]<br />
:<math>\begin{align}<br />
\Theta \colon \; & \R \to \{0,1\} \\<br />
\ & x \mapsto \begin{cases}<br />
0 : & x < 0\\<br />
1 : & x \ge 0<br />
\end{cases}<br />
\end{align}</math><br />
<br />
Sie ist also die [[Indikatorfunktion|charakteristische Funktion]] des [[Intervall (Mathematik)|Intervalls]] <math>[0,+\infty)</math> der [[Positive und negative Zahlen|nichtnegativen reellen Zahlen]].<br />
<br />
In der Fachliteratur ist statt <math>\Theta(x)</math> auch eine davon abweichende [[Nomenklatur]] geläufig:<br />
* <math>H(x)</math>, welche sich am Namen von Oliver '''H'''eaviside orientiert.<br />
* <math>s(x)</math> und <math>\sigma(x)</math> nach der Bezeichnung '''S'''prungfunktion.<br />
* <math>u(x)</math> nach der Bezeichnung {{EnS|'''''u'''nit step function''}}.<br />
* Auch <math>\epsilon(x)</math> wird häufig verwendet.<br />
* In der [[Systemtheorie (Ingenieurwissenschaften)|Systemtheorie]] verwendet man auch das Symbol <math>1(x)</math>.<br />
<br />
Die Funktion findet zahlreiche Anwendungen, etwa in der [[Nachrichtentechnik]] oder als mathematisches Filter: [[Multiplikation|Multipliziert]] man punktweise jeden Wert einer beliebigen stetigen Funktion mit dem entsprechenden Wert der Heaviside-Funktion, ergibt sich eine Funktion, die links von <math>x=0</math> den Wert Null hat ([[deterministisch]]e Funktion), rechts davon aber mit der ursprünglichen Funktion übereinstimmt.<br />
<br />
== Alternative Darstellungen ==<br />
Den Wert der Heaviside-Funktion an der Stelle <math>x=0</math> kann man auch folgendermaßen festlegen. Zur Kennzeichnung der Definition schreibt man<br />
<br />
:<math>\begin{align}<br />
\Theta_c\colon \; & \R \to \mathbb{K} \\<br />
\,& x \mapsto \begin{cases}<br />
0 : & x < 0\\<br />
c : & x = 0\\<br />
1 : & x > 0<br />
\end{cases}<br />
\end{align}</math><br />
mit <math>0,1,c\in\mathbb{K}</math>. Es kann <math>\mathbb{K}</math> also eine beliebige Menge darstellen, solange sie 0 und 1 enthält. Üblicherweise wird jedoch <math>\mathbb{K} = [0,1] \subset \R</math> verwendet.<br />
<br />
Diese Definition ist charakterisiert durch die Eigenschaft, dass dann <math>\Theta_c(0) = c</math> ist.<br />
<br />
Durch die Wahl <math>c := \tfrac{1}{2}</math> und folglich <math>\Theta_\frac{1}{2}(0) = \textstyle\frac{1}{2}</math> erreicht man, dass die Gleichungen<br />
<br />
:<math>\Theta_\frac{1}{2}(x) = \tfrac{1}{2}(\sgn{(x)} + 1)</math> und damit auch<br />
:<math>\Theta_\frac{1}{2}( -x ) = 1 - \Theta_\frac{1}{2}(x)</math><br />
<br />
für alle reellen <math>x</math> gültig sind.<br />
<br />
Eine [[Integralrepräsentation]] der Heaviside-Sprungfunktion lautet wie folgt:<br />
<br />
:<math>\Theta(x)=-\lim_{ \varepsilon \to 0} {1\over 2\pi i}\int_{-\infty}^\infty {1 \over \tau+i\varepsilon} e^{-i x \tau} \, \mathrm d \tau </math><br />
<br />
Eine weitere Repräsentation ist gegeben durch<br />
<br />
:<math>\Theta(x)=\lim_{\varepsilon\to 0}{1\over\pi}\left[ \arctan \left( {x\over\varepsilon} \right)+{\pi\over 2} \right]</math><br />
<br />
== Eigenschaften ==<br />
=== Differenzierbarkeit ===<br />
Die Heaviside-Funktion ist weder im klassischen Sinne differenzierbar noch ist sie [[Schwache Ableitung|schwach differenzierbar]]. Dennoch kann man über die Theorie der [[Distribution (Mathematik)|Distributionen]] eine Ableitung definieren. Die [[Differentialrechnung|Ableitung]] der Heaviside-Funktion in diesem Sinne ist die diracsche [[Delta-Distribution]], die in der Physik zur Beschreibung von [[Punktquelle|punktförmigen Quellen]] von Feldern Verwendung findet.<br />
:<math>\frac{\mathrm d}{\mathrm dx}\Theta(x) = \delta(x)</math><br />
<br />
Eine heuristische Begründung für diese Formel erhält man, wenn man <math>\Theta (x)</math> und <math> \delta (x) </math> geeignet approximiert, z. B. durch<br />
: <math>\Theta_\epsilon (x) := 0</math> für <math> x< (-\epsilon)</math>,<br />
<br />
: <math>\Theta_\epsilon (x) := \left(\frac{1}{2} + \frac{x}{2\epsilon}\right)</math> für <math>|x|\le\epsilon</math>,<br />
<br />
: <math>\Theta_\epsilon (x) := 1</math> für <math>x>\epsilon\,,</math><br />
sowie<br />
: <math>\delta_\epsilon (x):= 0</math> für <math>|x| >\epsilon</math><br />
und<br />
: <math>\delta_\epsilon (x) := \frac{1}{2\epsilon}</math> für <math>|x|\le\epsilon\,.</math><br />
<br />
=== Integration ===<br />
Die [[Stammfunktion]] der Heaviside-Sprungfunktion erhält man durch partielle Integration und Anwendung der Faltungseigenschaft der Delta-Distribution:<br />
<br />
:<math>\int\Theta(x) \, \mathrm dx = \Theta(x)x + C = max \{x,0\} + C</math><br />
<br />
== Siehe auch ==<br />
* [[Sprungantwort]]<br />
* [[Schwellenwert (Elektronik)]], [[Schwellenwertverfahren]]<br />
* [[Dirac-Funktion]]<br />
* [[Rechteckfunktion]]<br />
* [[Föppl-Klammer]]<br />
* [[Vorzeichenfunktion]]<br />
* [[Fermi-Dirac-Statistik|Fermifunktion]]<br />
<br />
== Weblinks ==<br />
* {{MathWorld|title=Heaviside Step Function|urlname=HeavisideStepFunction}}<br />
<br />
[[Kategorie:Mathematische Funktion]]<br />
[[Kategorie:Distributionentheorie]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Heaviside-Funktion&diff=181193189Heaviside-Funktion2018-09-24T14:35:41Z<p>HerrHartmuth: /* Allgemeines */ Funktionsdarstellung verschoenert</p>
<hr />
<div>Die '''Heaviside-Funktion''', auch ''Theta-'', ''Treppen-'', ''Schwellenwert-'', ''Stufen-'', ''Sprung-'' oder ''Einheitssprungfunktion'' genannt, ist eine in der [[Mathematik]] und [[Physik]] oft verwendete [[Funktion (Mathematik)|Funktion]]. Sie ist nach dem britischen Mathematiker und Physiker [[Oliver Heaviside]] (1850–1925) benannt.<br />
<br />
== Allgemeines ==<br />
Die Heaviside-Funktion hat für jede beliebige negative Zahl den Wert [[null]], andernfalls den Wert [[eins]]. Die Heaviside-Funktion ist mit Ausnahme der Stelle <math>x=0</math> überall [[Stetigkeit|stetig]]. In Formeln geschrieben heißt das:<br />
<br />
[[Datei:Heaviside.svg|miniatur|hochkant=1.5|Heaviside-Funktion]]<br />
:<math>\begin{align}<br />
\Theta \colon \; & \R \to \{0,1\} \\<br />
\ & x \mapsto \begin{cases}<br />
0 : & x < 0\\<br />
1 : & x \ge 0<br />
\end{cases}<br />
\end{align}</math><br />
<br />
Sie ist also die [[Indikatorfunktion|charakteristische Funktion]] des [[Intervall (Mathematik)|Intervalls]] <math>[0,+\infty)</math> der [[Positive und negative Zahlen|nichtnegativen reellen Zahlen]].<br />
<br />
In der Fachliteratur ist statt <math>\Theta(x)</math> auch eine davon abweichende [[Nomenklatur]] geläufig:<br />
* <math>H(x)</math>, welche sich am Namen von Oliver '''H'''eaviside orientiert.<br />
* <math>s(x)</math> und <math>\sigma(x)</math> nach der Bezeichnung '''S'''prungfunktion.<br />
* <math>u(x)</math> nach der Bezeichnung {{EnS|'''''u'''nit step function''}}.<br />
* Auch <math>\epsilon(x)</math> wird häufig verwendet.<br />
* In der [[Systemtheorie (Ingenieurwissenschaften)|Systemtheorie]] verwendet man auch das Symbol <math>1(x)</math>.<br />
<br />
Die Funktion findet zahlreiche Anwendungen, etwa in der [[Nachrichtentechnik]] oder als mathematisches Filter: [[Multiplikation|Multipliziert]] man punktweise jeden Wert einer beliebigen stetigen Funktion mit dem entsprechenden Wert der Heaviside-Funktion, ergibt sich eine Funktion, die links von <math>x=0</math> den Wert Null hat ([[deterministisch]]e Funktion), rechts davon aber mit der ursprünglichen Funktion übereinstimmt.<br />
<br />
== Alternative Darstellungen ==<br />
Den Wert der Heaviside-Funktion an der Stelle <math>x=0</math> kann man auch folgendermaßen festlegen. Zur Kennzeichnung der Definition schreibt man<br />
<br />
:<math>\begin{align}<br />
\Theta_c\colon& \R \to \mathbb{K} \\<br />
\,& x \mapsto \begin{cases}<br />
0 : & x < 0\\<br />
c : & x = 0\\<br />
1 : & x > 0<br />
\end{cases}<br />
\end{align}</math><br />
mit <math>0,1,c\in\mathbb{K}</math>. Es kann <math>\mathbb{K}</math> also eine beliebige Menge darstellen, solange sie 0 und 1 enthält. Üblicherweise wird jedoch <math>\mathbb{K} = [0,1] \subset \R</math> verwendet.<br />
<br />
Diese Definition ist charakterisiert durch die Eigenschaft, dass dann <math>\Theta_c(0) = c</math> ist.<br />
<br />
Durch die Wahl <math>c := \tfrac{1}{2}</math> und folglich <math>\Theta_\frac{1}{2}(0) = \textstyle\frac{1}{2}</math> erreicht man, dass die Gleichungen<br />
<br />
:<math>\Theta_\frac{1}{2}(x) = \tfrac{1}{2}(\sgn{(x)} + 1)</math> und damit auch<br />
:<math>\Theta_\frac{1}{2}( -x ) = 1 - \Theta_\frac{1}{2}(x)</math><br />
<br />
für alle reellen <math>x</math> gültig sind.<br />
<br />
Eine [[Integralrepräsentation]] der Heaviside-Sprungfunktion lautet wie folgt:<br />
<br />
:<math>\Theta(x)=-\lim_{ \varepsilon \to 0} {1\over 2\pi i}\int_{-\infty}^\infty {1 \over \tau+i\varepsilon} e^{-i x \tau} \, \mathrm d \tau </math><br />
<br />
Eine weitere Repräsentation ist gegeben durch<br />
<br />
:<math>\Theta(x)=\lim_{\varepsilon\to 0}{1\over\pi}\left[ \arctan \left( {x\over\varepsilon} \right)+{\pi\over 2} \right]</math><br />
<br />
== Eigenschaften ==<br />
=== Differenzierbarkeit ===<br />
Die Heaviside-Funktion ist weder im klassischen Sinne differenzierbar noch ist sie [[Schwache Ableitung|schwach differenzierbar]]. Dennoch kann man über die Theorie der [[Distribution (Mathematik)|Distributionen]] eine Ableitung definieren. Die [[Differentialrechnung|Ableitung]] der Heaviside-Funktion in diesem Sinne ist die diracsche [[Delta-Distribution]], die in der Physik zur Beschreibung von [[Punktquelle|punktförmigen Quellen]] von Feldern Verwendung findet.<br />
:<math>\frac{\mathrm d}{\mathrm dx}\Theta(x) = \delta(x)</math><br />
<br />
Eine heuristische Begründung für diese Formel erhält man, wenn man <math>\Theta (x)</math> und <math> \delta (x) </math> geeignet approximiert, z. B. durch<br />
: <math>\Theta_\epsilon (x) := 0</math> für <math> x< (-\epsilon)</math>,<br />
<br />
: <math>\Theta_\epsilon (x) := \left(\frac{1}{2} + \frac{x}{2\epsilon}\right)</math> für <math>|x|\le\epsilon</math>,<br />
<br />
: <math>\Theta_\epsilon (x) := 1</math> für <math>x>\epsilon\,,</math><br />
sowie<br />
: <math>\delta_\epsilon (x):= 0</math> für <math>|x| >\epsilon</math><br />
und<br />
: <math>\delta_\epsilon (x) := \frac{1}{2\epsilon}</math> für <math>|x|\le\epsilon\,.</math><br />
<br />
=== Integration ===<br />
Die [[Stammfunktion]] der Heaviside-Sprungfunktion erhält man durch partielle Integration und Anwendung der Faltungseigenschaft der Delta-Distribution:<br />
<br />
:<math>\int\Theta(x) \, \mathrm dx = \Theta(x)x + C = max \{x,0\} + C</math><br />
<br />
== Siehe auch ==<br />
* [[Sprungantwort]]<br />
* [[Schwellenwert (Elektronik)]], [[Schwellenwertverfahren]]<br />
* [[Dirac-Funktion]]<br />
* [[Rechteckfunktion]]<br />
* [[Föppl-Klammer]]<br />
* [[Vorzeichenfunktion]]<br />
* [[Fermi-Dirac-Statistik|Fermifunktion]]<br />
<br />
== Weblinks ==<br />
* {{MathWorld|title=Heaviside Step Function|urlname=HeavisideStepFunction}}<br />
<br />
[[Kategorie:Mathematische Funktion]]<br />
[[Kategorie:Distributionentheorie]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Integration_durch_Substitution&diff=171925066Integration durch Substitution2017-12-12T19:28:11Z<p>HerrHartmuth: /* Siehe auch */ Interwiki Link zu Transformationssatz hinzugefügt</p>
<hr />
<div>Die '''Integration durch Substitution''' oder '''Substitutionsregel''' ist eine wichtige Methode in der [[Integralrechnung]], um [[Stammfunktion]]en und [[Bestimmtes Integral|bestimmte Integrale]] zu berechnen. Durch Einführung einer neuen Integrationsvariablen wird ein Teil des [[Integralrechnung#Bezeichnungen|Integranden]] ersetzt, um das Integral zu vereinfachen und so letztlich auf ein bekanntes oder einfacher handhabbares Integral zurückzuführen.<br />
<br />
Die [[Kettenregel]] aus der [[Differentialrechnung]] ist die Grundlage der Substitutionsregel. Ihr Äquivalent für Integrale über mehrdimensionale Funktionen ist der [[Transformationssatz]], der allerdings eine [[Bijektivität|bijektive]] Substitutionsfunktion voraussetzt.<br />
<br />
== Aussage der Substitutionsregel ==<br />
Sei <math>I</math> ein reelles [[Intervall (Mathematik)|Intervall]], <math>f \colon I \to \mathbb{R}</math> eine [[Stetigkeit|stetige]] Funktion und <math>\varphi \colon [a,b] \to I</math> [[Differenzierbarkeit|stetig differenzierbar]]. Dann ist<br />
:<math>\int_{a}^{b} f(\varphi(t)) \cdot \varphi'(t)\,\mathrm{d}t = \int_{\varphi(a)}^{\varphi(b)} f(x)\,\mathrm{d}x .</math><br />
<br />
== Beweis ==<br />
Sei <math>F</math> eine [[Stammfunktion]] von <math>f</math>. Nach der [[Kettenregel]] gilt für die Ableitung der zusammengesetzten Funktion <math>F \circ \varphi</math><br />
<br />
:<math>(F \circ \varphi)'(t) = F'(\varphi(t))\varphi'(t) = f(\varphi(t))\varphi'(t).</math><br />
<br />
Durch zweimalige Anwendung des [[Hauptsatz der Differential- und Integralrechnung|Hauptsatzes der Differential- und Integralrechnung]] erhält man damit die Substitutionsregel:<br />
:<math>\begin{align}<br />
\int_a^b f(\varphi(t))\varphi'(t)\,\mathrm dt & {} = (F \circ \varphi)(b) - (F \circ \varphi)(a) \\<br />
& {} = F(\varphi(b)) - F(\varphi(a)) \\<br />
& {} = \int_{\varphi(a)}^{\varphi(b)} f(x)\,\mathrm dx<br />
\end{align}</math><br />
<br />
== Anwendung ==<br />
Bei der Anwendung der Substitutionsregel von links nach rechts soll im ursprünglichen [[Term]] des Integranden ein Teilterm, nämlich der frei zu bestimmende Term von <math display="inline">\varphi</math>, zur Integrationsvariablen vereinfacht werden. Dazu multipliziert man den Term des Integranden mit dem Term von <math display="inline">{1 \over \varphi'}</math> und ersetzt anschließend die Integrationsvariable ''überall'' mit dem Term von <math display="inline">\varphi^{-1}</math>. Die Integrationsgrenzen <math display="inline">a</math> und <math display="inline">b</math> ersetzt man schließlich durch <math display="inline">\varphi(a)</math> bzw. <math display="inline">\varphi(b)</math>.<br />
<br />
Man bildet also<br />
<br />
<math>\begin{align}<br />
\int_{\varphi(a)}^{\varphi(b)} f(\varphi(\varphi^{-1}(t)))\frac{\varphi'(\varphi^{-1}(t))}{\varphi'(\varphi^{-1}(t))}\,\mathrm dt =<br />
\int_{\varphi(a)}^{\varphi(b)} f(t)\,\mathrm dt<br />
\end{align}</math><br />
<br />
Ob man dabei zu einer neuen Integrationsvariablen übergeht (z. B. von <math display="inline">x</math> zu <math display="inline">t</math>) oder die ursprüngliche beibehält, ist formal gleichgültig. Ebenso ist es nicht zwingend erforderlich, die Umformungen und Ersetzungen unter Einbeziehung der Differentiale (z. B. <math display="inline">dx</math> und <math display="inline">dt</math>) vorzunehmen.<br />
<br />
Hat man die Stammfunktion <math display="inline">F</math> gefunden, kann man sie direkt mit den Grenzen <math display="inline">\varphi(a)</math> und <math display="inline">\varphi(b)</math> auswerten oder die Stammfunktion zum ursprünglichen Integranden als <math display="inline">F \circ \varphi</math> bilden.<br />
<br />
Wendet man die Substitutionsregel dagegen von rechts nach links an, so soll die Integrationsvariable durch den Term von <math display="inline">\varphi</math> ersetzt werden. Man ersetzt also die Integrationsvariable entsprechend ''überall'' und multipliziert anschließend mit dem Term von <math display="inline">\varphi'</math>. Zuletzt wendet man <math display="inline">\varphi^{-1}</math> auf die Integrationsgrenzen an.<br />
<br />
== Substitution eines bestimmten Integrals ==<br />
<br />
=== Beispiel 1 ===<br />
Berechnung des Integrals<br />
:<math>\int_{0}^a \sin(2x) \,\mathrm{d}x</math><br />
für eine beliebige reelle Zahl <math>a > 0</math>:<br />
Durch die Substitution <math>t = \varphi(x) = 2x</math> erhält man <math>\varphi'(x)\mathrm{d}x = \mathrm{d}t \Leftrightarrow 2\,\mathrm{d}x = \mathrm{d}t \Leftrightarrow \mathrm{d}x = \tfrac12 {\mathrm{d}t}</math> und: <br />
:<math><br />
\int_{0}^a \sin(2x) \,\mathrm{d}x = \int_{\varphi(0)}^{\varphi(a)} \sin(t)\,\frac12 {\mathrm{d}t} = \int_{0}^{2a} \sin(t) \,\frac12 {\mathrm{d}t} = \frac{1}{2} \int_{0}^{2a} \sin(t) \,\mathrm{d}t</math><br />
:<math>= \frac{1}{2} [ -\cos(t) ]_0^{2a} = \frac{1}{2} (-\cos(2a)+\cos(0)) = \frac{1}{2}(1 - \cos(2a))</math>.<br />
<br />
=== Beispiel 2 ===<br />
Berechnung des Integrals<br />
:<math>\int_{0}^2 x \cos\left(x^2+1\right) \,\mathrm{d}x</math>:<br />
Durch die Substitution <math>t = \varphi(x) = x^2 + 1</math> erhält man <math>\mathrm{d}t = 2x\,\mathrm{d}x</math> bzw. <math>x\,\mathrm{d}x = \tfrac 12 \mathrm dt</math> und damit<br />
:<math>\int_{0}^2 x \cos\left(x^2+1\right) \,\mathrm{d}x = \frac{1}{2} \int_{1}^{5}\cos(t)\,\mathrm{d}t = \frac{1}{2}\left(\sin(5)-\sin(1)\right).</math><br />
Es wird also <math>x^2 + 1</math> durch <math>t</math> ersetzt und <math>x \mathrm dx</math> durch <math>\tfrac 12 \mathrm dt</math>. <br />
Die untere Grenze des Integrals <math>x = 0</math> wird dabei in <math>t = 0^2 + 1 = 1</math> umgewandelt und die obere Grenze <math>x = 2</math> in <math>t = 2^2 + 1 = 5</math>.<br />
<br />
=== Beispiel 3 ===<br />
Berechnung des Integrals<br />
:<math>\int_0^1 \sqrt{1-x^2}\, \mathrm{d}x</math><br />
Man substituiert <math>x = \sin(t) \Leftrightarrow t = \arcsin(x)</math>. Daraus ergibt sich <math>\mathrm{d}x = \cos(t)\, \mathrm{d}t</math>. Mit <math> \sqrt{1-\sin^2(t)} = |\cos(t)|</math> erhält man<br />
:<math>\int_0^1 \sqrt{1-x^2}\, \mathrm{d}x = \int_0^\frac{\pi}{2} \sqrt{1-\sin^2(t)} \cos(t)\, \mathrm{d}t = \int_0^\frac{\pi}{2} \cos^2(t)\, \mathrm{d}t\,.</math><br />
Das Ergebnis kann mit [[Partielle Integration|Partieller Integration]] oder mit der [[Formelsammlung_Trigonometrie#Kosinus|trigonometrischen Formel]]<br />
:<math>\cos^2(t) = \left(\cos t\right)^2 = \frac{1+\cos(2t)}{2}</math><br />
und einer weiteren Substitution berechnet werden.<br />
<br />
== Substitution eines unbestimmten Integrals ==<br />
===Voraussetzungen und Vorgehen===<br />
Unter den obigen Voraussetzungen gilt<br />
<br />
:<math>\int f(x)\,\mathrm{d}x = \int f(\varphi(t)) \varphi'(t)\,\mathrm{d}t .</math><br />
<br />
Nachdem man eine Stammfunktion der substituierten Funktion bestimmt hat, macht man die Substitution rückgängig und erhält eine Stammfunktion der ursprünglichen Funktion.<br />
<br />
=== Beispiel 1 ===<br />
Mit der Substitution <math>x = t-1, t=x+1, \mathrm{d}x=\mathrm{d}t</math> erhält man<br />
:<math>\int \frac{1}{x^2+2x+2}\,\mathrm{d}x = \int \frac{1}{1+t^2}\,\mathrm{d}t = \arctan(t) + C = \arctan(x+1) + C</math><br />
<br />
=== Beispiel 2 ===<br />
Mit der Substitution <math>t=x^2 , \mathrm{d}t = 2x\,\mathrm{d}x</math> erhält man<br />
:<math>\int x\, \cos\left(x^2\right)\,\mathrm{d}x = \frac{1}{2} \int 2x \cos\left(x^2\right) \, \mathrm{d}x = \frac{1}{2} \int \cos(t)\,\mathrm{d}t = \frac{1}{2} \left(\sin(t) + C'\right) = \frac{1}{2}\sin\left(x^2\right) + C</math><br />
Man beachte, dass die Substitution nur für <math>x\geq 0</math> bzw. nur für <math>x\leq 0</math> streng monoton ist.<br />
<br />
== Spezialfälle der Substitution ==<br />
=== Lineare Substitution ===<br />
Integrale mit linearen Verkettungen können wie folgt berechnet werden: <br />
<br />
:<math>\int f(mx + n) \,\mathrm{d}x = \frac{1}{m}F(mx + n) + C \qquad \left( \forall~m \neq 0 \right)</math><br />
<br />
Für das bestimmte Integral gilt entsprechend:<br />
<br />
:<math>\int_a^b f(mx + n) \,\mathrm{d}x = \frac{1}{m}\lbrack F(mx+n) \rbrack_{a}^{b} \qquad \left( \forall~m \neq 0 \right)</math><br />
<br />
=== Logarithmische Integration ===<br />
Integrale mit der speziellen Form ''Zähler des Integranden ist Ableitung des Nenners'' können sehr einfach mit Hilfe der logarithmischen Integration gelöst werden, was einen Spezialfall der Substitutionsmethode darstellt:<br />
<br />
:<math> \int \frac{f'(x)}{f(x)} \mathrm{d}x = \ln|f(x)| + C \quad \left (f(x) \neq 0 \right)</math><br />
<br />
=== Eulersche Substitution ===<br />
<br />
Nach einem Satz von Bernoulli lassen sich alle Integrale des Typs <math>\int\sqrt{ax^2+bx+c}\;\mathrm{d}x</math> und<br />
<math>\int\frac{\mathrm{d}x}{\sqrt{ax^2+bx+c}}</math> elementar integrieren.<br />
<br />
Beispiel:<br />
<math>\int\frac{\mathrm{d}x}{\sqrt{x^2+1}}</math><br />
<br />
Durch die Substitution <math>t-x = \sqrt{x^2+1} </math> &nbsp; also &nbsp; <math>t^2-2tx=1</math>&nbsp;, &nbsp;<br />
<math>x=\frac{t}2 - \frac1{2t}</math>, &nbsp;<br />
<math>t-x=\frac{t}2 + \frac1{2t}</math> &nbsp; und &nbsp;<br />
<math>\mathrm{d}x=\left(\frac12 + \frac1{2t^2}\right)\mathrm{d}t</math><br />
ergibt sich:<br />
<br />
:<math>\int\frac{\mathrm{d}x}{\sqrt{x^2+1}} = \int\frac{\frac12 + \frac1{2t^2}}{\frac{t}2 + \frac1{2t}}\mathrm{d}t<br />
= \int\frac{\mathrm{d}t}{t} = \ln t = \ln\left(x+\sqrt{x^2+1}\right)</math><br />
<br />
== Siehe auch ==<br />
* [[Partielle Integration]] für eine weitere wichtige Regel zur Berechnung von Integralen,<br />
* [[Weierstraß-Substitution]] für bestimmte Funktionen, die [[trigonometrische Funktionen]] enthalten.<br />
* Der [[Transformationssatz]] ist die Verallgemeinerung für mehrdimensionale Funktionen.<br />
<br />
== Literatur ==<br />
* Harro Heuser: ''Lehrbuch der Analysis. Teil 1'', 5. Auflage, B. G. Teubner, Stuttgart 1988, ISBN 3-519-42221-2, S. 464<br />
* Konrad Königsberger: ''Analysis 1'', Springer, Berlin 1992, ISBN 3-540-55116-6, S. 200–201<br />
<br />
== Weblinks ==<br />
* [http://brinkmann-du.de/mathe/gost/diff_int_01_04.htm Einfache Erklärung/Beispiele für die Substitutionsregel]<br />
* [http://www.schule-bw.de/unterricht/faecher/mathematik/3material/sek2/analysis/int ''Landesbildungsserver BW:'' Verfahren der linearen Substitution mit ausführlichem Beispiel und Übungen/Lösungen]<br />
* {{TIBAV |9911 |Linktext=Substitutionsregel |Herausgeber=Loviscach |Jahr=2011 |DOI=10.5446/9911}}<br />
* {{TIBAV |10142 |Linktext=Integration durch Substitution, Fingerübung |Herausgeber=Loviscach |Jahr=2013 |DOI=10.5446/10142}}<br />
* {{TIBAV |10144 |Linktext=drei Wege für Integration durch Substitution |Herausgeber=Loviscach |Jahr=2013 |DOI=10.5446/10144}}<br />
* {{TIBAV |9987 |Linktext=Partielle Integration, Substitutionsregel, Integration durch Partialbruchzerlegung |Herausgeber=Loviscach |Jahr=2012 |DOI=10.5446/9987}}<br />
* {{TIBAV |9988 |Linktext=Beispiele partielle Integration, Substitutionsregel, Integration durch Partialbruchzerlegung |Herausgeber=Loviscach |Jahr=2012 |DOI=10.5446/9988}}<br />
<br />
[[Kategorie:Integralrechnung]]<br />
<br />
[[es:Métodos de integración#Método de integración por sustitución]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Strahlungstransport&diff=169683422Strahlungstransport2017-10-04T18:00:33Z<p>HerrHartmuth: /* Grenzfälle */ Math. Typesetting</p>
<hr />
<div>Unter '''Strahlungstransport''' (auch '''Strahlungstransfer''') versteht man die Beschreibung der Ausbreitung von [[Strahlung]] (i.A. [[Licht]] als Beispiel [[Elektromagnetische Welle|Elektromagnetische Strahlung]]) durch ein Medium. Strahlungstransport spielt vor allem in Bereichen der [[Astrophysik]] eine wesentliche Rolle. So basiert die Theorie der [[Sternatmosphäre]]n, die Bildung der [[Sternspektrum|Sternspektren]] oder die Bildung [[Interstellares Medium|interstellarer]] [[Linienspektrum|Linienspektren]] auf Strahlungstransport.<br />
Weiterhin wird Strahlungstransport auch zum Verständnis von [[Spektroskopie]] in vielen weiteren [[physik]]alischen (z.&nbsp;B. für Analysen in der [[Plasmaphysik]]) und [[Technik|technischen]] (z.&nbsp;B. bei verschiedenen [[Lichtquelle|nichtthermischen Lichtquellen]]) Bereichen benötigt. Eine große Rolle spielt der Strahlungstransport auch für den [[Treibhauseffekt]] der Erdatmosphäre.<br />
<br />
== Der Prozess ==<br />
Wenn sich elektromagnetische Strahlung in einem Medium ausbreitet (ganz gleich ob in der [[Photon]]en-Betrachtung oder Feldbetrachtung), wird sie von dem Medium (insbesondere von dessen [[Atom]]en und [[Ion]]en) [[Absorption (Physik)|absorbiert]], [[Streuung (Physik)|gestreut]] oder kann das Medium verlassen. Diese Prozesse bzw. die Beschreibung dieser Prozesse nennt man ''Strahlungstransport''. Bei diesem Prozess wird die Strahlung verschiedener [[Wellenlänge]] je nach den Eigenschaften des Mediums (insbesondere dessen Atomen und Ionen) verschieden beeinflusst. Ziel einer Strahlungstransportrechnung ist es, das austretende Licht (entweder als ganzes [[Lichtspektrum|Spektrum]] oder einzelne [[Spektrallinie]]n) bzw. das Strahlungsfeld im Inneren des Mediums zu berechnen; entweder um ein Spektrum vorherzusagen, oder um Rückschlüsse auf die Zusammensetzung des Mediums zu gewinnen.<br />
<br />
Strahlungstransport-Rechnungen im eigentlichen Sinne berücksichtigen die Wirkung der Strahlung auf das Medium nur eingeschränkt. So wird z.&nbsp;B. die [[Energie]]deposition im Medium (das heißt dessen Erwärmung) durch Absorption im Strahlungstransport explizit genau so wenig behandelt wie die Kühlung bei vorherrschender Emission aus dem Medium. Nutzt man nicht andere physikalische Gesetze, um diese Effekte mit einzubeschließen, geht man davon aus, dass andere Prozesse (z.&nbsp;B. [[Konvektion]] oder [[Wärmeleitung]]) die Temperaturstruktur im Medium trotzdem konstant halten. Eine physikalisch vollständigere [[Simulation]] beinhaltet daher neben [[Energieerhaltung]] und anderen physikalischen Gesetzen den Strahlungstransport als einen Teil des umfassenderen Modells.<br />
<br />
== Die Strahlungstransportgleichung ==<br />
Das Fundament des Strahlungstransports bildet die Strahlungstransportgleichung. Sie verknüpft die [[Strahlungsdichte]] ''L'' mit dem Absorptionskoeffizienten ''<math>\kappa</math>'', dem Streukoeffizienten ''<math>\sigma</math>'' und der Emissionsleistung ''j'' des zu passierenden Materials. Dabei hängen die Absorptions- und Streukoeffizienten, sowie die Emissionsleistung u.&nbsp;a. von der [[Dichte]] und der [[Temperatur]] des Materials ab. In der Astrophysik, wie in den folgenden Gleichungen, wird jedoch die Strahlungsdichte ''L'' normalerweise als ''spezifische Intensität'' ''I'' bezeichnet.<br />
<br />
In einer einfachen eindimensionalen, zeitunabhängigen Form lautet sie :<br />
:<math> \frac{{\rm d}I}{{\rm d}z} = -(\kappa + \sigma) I + j </math><br />
In einer sehr allgemeinen Form lautet sie entlang der Richtung <math>\vec{n}</math><br />
:<math> \left[\frac{1}{c}\frac{\partial}{\partial t} + (\vec{n}\cdot\nabla)\right]I = -(\kappa + \sigma) I + j </math><br />
<br />
; Eigenschaften :<br />
Da die Emissionsleistung des Materials teilweise von Streuung hervorgerufen wird, und da die Streuung ihrerseits ein Integral über die zu berechnende spezifische Intensität ist, ist die Strahlungstransportgleichung eine [[Integralgleichung|Integro-Differentialgleichung]].<br />
; Herleitung :<br />
Üblich ist es, die Strahlungstransportgleichung entweder zu postulieren oder aus einem [[Boltzmann-Gleichung|Boltzmann-Transport]]-Formalismus für [[Photon]]en herzuleiten<ref>Joachim Oxenius: ''Kinetic Theory of Particles and Photons''. Springer-Verlag, 1986 ISBN 038715809X</ref>. Letztendlich muss aber dann postuliert werden, dass Photonen Transport durch die Boltzmann-Gleichung beschrieben werden kann.<br />
Alternativ kann man die zeitunabhängige Strahlungstransportgleichung aus den [[Maxwell-Gleichungen]] herleiten, wenn man die mikrophysikalischen Eigenschaften von beliebig geformten und beliebig orientierten, sowie unabhängig streuenden Teilchen ausnutzt <ref>Mishchenko, Applied Optics, 41, 2002, p. 7114-34</ref>.<br />
<br />
== Lösung der Strahlungstransportgleichung ==<br />
Analytisch lässt sich zwar eine sog. formale Lösung der Strahlungstransportgleichung angeben. Diese ist aber nur<br />
für Spezialfälle in eine echte, brauchbare Lösung ausformulierbar.<br />
<br />
Die [[Numerik|numerische]] Lösung der Strahlungstransportgleichung ist i.A. sehr aufwendig. Das modernste und stabilste Verfahren ist die sog. „Accelerated Lambda Iteration“. [[Mathematik|Mathematisch]] entspricht dies einem [[Gauß-Seidel-Verfahren]]. Für [[3D|dreidimensionale]] Systeme und einfache Absorptionseigenschaften lässt sich das Strahlungstransportproblem auch mit [[Monte-Carlo-Simulation]]en lösen. Ein speziell in den Ingenieurwissenschaften bewährtes Verfahren für dreidimensionale Systeme mit beliebigen Eigenschaften ist die ursprünglich zur Lösung der [[Boltzmann-Gleichung]] entwickelte Diskrete Ordinaten-Methode<ref>B. G. Carlson, K. D. Lathrop: "Transport Theory: The Method of Discrete Ordinates", Computing Methods in Reactor Physics, Argonne National Laboratory, 1968</ref>.<br />
<br />
=== Grenzfälle ===<br />
*Für monochromatisches Licht und im Vergleich zu dessen Intensität vernachlässigbarer Wärmestrahlung geht die Lösung der eindimensionalen Strahlungstransportgleichung in das [[Lambert-beersches Gesetz]] über.<br />
*Im Inneren von [[Stern]]en gilt die sogenannte ''Diffusionsnäherung'' für den Strahlungstransport. Mit ihrer Hilfe lässt sich dann die zur [[Leuchtkraft]] integrierte Strahlungsdichte als <math> L(r) = - \frac{4\pi a c r^2}{3\kappa} \frac{\mathrm dT^4}{\mathrm dr}</math> ausdrücken.<br />
*Für [[3D|dreidimensionale]] Anordnungen stellen auch bestimmte [[Raytracing]]-Algorithmen (siehe [[Volumengrafik]] oder [[Volumenstreuung]]) eine angenäherte Lösung des Strahlungstransportproblems dar.<br />
<br />
== Probleme des Strahlungstransports heute ==<br />
; [[3D]]-Strahlungstransport : Dreidimensionale, numerische Simulationen sind sehr speicher- und rechenintensiv; insbesondere, wenn detaillierte Spektren berechnet werden sollen.<br />
; [[Neutrino]]-Strahlungstransport : Der Durchgang von Neutrinos durch ein Medium kann analog zum Durchgang von Photonen ebenfalls als Strahlungstransportproblem behandelt werden. Neutrino-Strahlungstransport spielt bei [[Supernova]]-Explosionen eine zentrale Rolle.<br />
; Strahlungs[[hydrodynamik]] : In Fällen, in denen die Energie der Strahlung vergleichbar, oder größer als die interne Energie des Mediums ist, wird die Hydrodynamik entscheidend durch die Strahlung beeinflusst. Numerische Simulationen solcher Situationen müssen daher auch den Strahlungstransport angemessen berücksichtigen.<br />
<br />
== Siehe auch ==<br />
* [[Optische Dicke]]<br />
<br />
== Literatur ==<br />
* Dimitri Mihalas, Barbara Weibel Mihalas: ''Foundations of Radiation Hydrodynamics''. Dover Publications, 2000 ISBN 0486409252<br />
* [[Subrahmanyan Chandrasekhar]]: ''Radiative Transfer''. Dover Publications, 1960 ISBN 0486605906<br />
* Dimitri Mihalas: ''Stellar Atmospheres''. W H Freeman & Co. 1978 ISBN 0716703599 (Standardwerk, nicht mehr im Druck)<br />
* [[Albrecht Unsöld]]: ''Physik der Sternatmosphären mit besonderer Berücksichtigung der Sonne''. Springer-Verlag, 1955 (Standardwerk, nicht mehr im Druck)<br />
* Rob Rutten: ''Radiative Transfer in Stellar Atmospheres''. Online verfügbares Lehrbuch ([http://www.nhn.ou.edu/~baron/sa/afy.pdf PDF])<br />
* H. Scheffler, H. Elsässer: ''Physik der Sterne und der Sonne''. Wissenschaftsverlag, 1990 ISBN 3-411-14172-7<br />
<br />
== Weblinks ==<br />
* [http://www.techniklexikon.net/d/strahlungstransportgleichung/strahlungstransportgleichung.htm Techniklexikon: Strahlungstransportgleichung]<br />
<br />
=== Detailliteratur und Quellen ===<br />
<references /><br />
<br />
[[Kategorie:Strahlung]]<br />
[[Kategorie:Wellenlehre]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Cholesky-Zerlegung&diff=169279957Cholesky-Zerlegung2017-09-20T14:46:09Z<p>HerrHartmuth: /* Pseudocode */ Mathematisches Typesetting und kleine Umformulierung</p>
<hr />
<div>Die '''Cholesky-Zerlegung''' (auch '''Cholesky-Faktorisierung''') (nach [[André-Louis Cholesky]], 1875–1918) bezeichnet in der [[Numerische Mathematik|numerischen Mathematik]] eine Zerlegung einer [[Symmetrische Matrix|symmetrischen]] [[Definitheit|positiv definiten]] [[Matrix (Mathematik)|Matrix]] in ein [[Matrizenprodukt|Produkt]] aus einer unteren [[Dreiecksmatrix]] und deren [[Transponierte Matrix|Transponierter]]. Sie wurde von Cholesky vor 1914 im Zuge der [[Triangulation (Geodäsie)|Triangulation]] Kretas durch den ''[[Dépôt de la Guerre|Service géographique de l’armée]]'' entwickelt. Das Konzept kann auch allgemeiner für [[Hermitesche Matrix|hermitesche Matrizen]] definiert werden.<br />
<br />
== Einsatzbereiche ==<br />
<br />
Bei der Anwendung der [[Methode der kleinsten Quadrate]] ist eine Möglichkeit, die auftauchenden Minimierungsprobleme über die Normalgleichungen zu lösen, die eine symmetrische positiv definite Systemmatrix haben. Dies ist mit Hilfe der Cholesky-Zerlegung möglich und dies war die Motivation von Cholesky, die Zerlegung zu entwickeln. Beim [[Gauß-Newton-Verfahren]] ist damit bei jedem Iterationsschritt ein Gleichungssystem zu lösen, das sich mit dem Cholesky-Verfahren bestimmen lässt.<br />
<br />
Die Cholesky-Zerlegung kann auch zur Gewinnung eines [[Vorkonditionierung]]sverfahrens für lineare Gleichungssysteme mit positiv definiter Matrix benutzt werden; zu diesem Zweck gibt es speziell die Varianten der ''[[Unvollständige Cholesky-Zerlegung|unvollständigen Cholesky-Zerlegung]]'' und der ''modifizierten unvollständigen Cholesky-Zerlegung''.<br />
<br />
Gleichzeitig stellt die Zerlegung einen Test dar, ob eine gegebene symmetrische Matrix positiv definit ist. Andernfalls ist einer der Einträge auf der [[Hauptdiagonale]]n negativ, sodass die Wurzel nicht gezogen werden kann, oder gleich <math>0</math>, sodass durch den Eintrag nicht dividiert werden kann. In beiden Fällen bricht der Algorithmus ab. Die Cholesky-Zerlegung lässt sich auch zur Bestimmung der [[Determinante (Mathematik)|Determinante]] der Matrix&nbsp;<math>A</math> verwenden, denn es gilt <math>\det A = \prod_{i=1}^n G_{ii}^2</math>.<br />
<br />
Außerhalb der Mathematik findet die Cholesky-Zerlegung auch Anwendung in der ökonometrischen Erforschung makroökonomischer Zusammenhänge. Hierbei wird bei sogenannten vektorautoregressiven Modellen (VAR) die Reihenfolge der Beeinflussung der endogenen Variablen untereinander festgelegt.<br />
<br />
Darüber hinaus wird sie auch bei der [[Monte-Carlo-Simulation]] eingesetzt, um vorgegebene Korrelationen in unabhängig generierte Zufallszahlenfolgen (als Diskretisierung stochastischer Prozesse) zu bringen.<br />
<br />
== Formulierung und Anwendung ==<br />
<br />
Jede [[Symmetrische_Matrix#Definition|symmetrische]], [[Definitheit#Definitionen|positiv definite]] Matrix <math>A \in \mathbb{R}^{n\times n}</math> kann eindeutig in der Form<br />
: <math>A=L D L^{T}</math><br />
<br />
geschrieben werden. Dabei ist <math>L</math> eine [[Dreiecksmatrix#Normierung|untere, normierte Dreiecksmatrix]] und <math>D</math> eine [[Diagonalmatrix]] mit positiven Einträgen.<br />
Mit der [[Quadratwurzel einer Matrix|Quadratwurzel]] von <math>D</math> und dem Matrix-Faktor&nbsp;<math>G</math>, definiert durch<br />
<br />
: <math>D = D^{1/2}D^{1/2}</math><br />
<br />
und<br />
<br />
: <math>G := LD^{1/2}</math>,<br />
<br />
wird die Cholesky-Zerlegung –&nbsp;äquivalent&nbsp;– auch formuliert als<br />
<br />
: <math>A=G G^{T}</math>.<br />
<br />
Liegt eine Berechnung der Cholesky-Zerlegung vor, so lässt sich das Gleichungssystem <math> Ax=b</math> effizient durch [[Gaußsches Eliminationsverfahren|Vorwärts- und Rückwärtseinsetzen]] lösen:<br />
<br />
* Durch Vorwärtseinsetzen: Lösen des linearen Gleichungssystems <math>G y = b</math><br />
<br />
* Durch anschließendes Rückwärtseinsetzen: Lösen des linearen Gleichungssystems <math>G^{T} x = y.</math><br />
<br />
== Berechnung ==<br />
<br />
Setzt man <math>A=GG^T \in \R^{n \times n}</math>, so erhält man für die Elemente von <math>A=\left(a_{ij}\right)_{ij}</math>:<br />
:<math><br />
a_{ij}=\sum\limits_{k=1}^jg_{ik} g_{jk} \,,\quad i\ge j.<br />
</math><br />
<br />
Dieser Zusammenhang führt direkt auf die folgenden Formeln für <math>G=\left(g_{ij}\right)_{ij}</math>:<br />
: <math><br />
g_{ij} = \begin{cases}0 & \mathrm{f\ddot{u}r}\ i < j\\<br />
\sqrt{a_{ii} - \sum\limits_{k=1}^{i-1}g_{ik}^2 } & \mathrm{f\ddot{u}r}\ i = j\\<br />
\frac{1}{g_{jj}} \left( a_{ij}-\sum\limits_{k=1}^{j-1}g_{ik} g_{jk} \right) & \mathrm{f\ddot{u}r}\ i > j.<br />
\end{cases}<br />
</math><br />
Bei diesem Algorithmus ist es wichtig die Reihenfolge der berechneten Matrixeinträge richtig durchzuführen.<br />
Die Einträge werden spaltenweise berechnet und angefangen mit dem niedrigsten Zeilenindex.<br />
<br />
Die Berechnung der Zerlegung <math>A=LDL^T</math> erfolgt in analoger Art und Weise für <math>L=\left(l_{ij}\right)_{ij}</math> und <math> D=\left(d_{ij}\right)_{ij}</math>:<br />
:<math><br />
\begin{align}<br />
d_{ij} &= <br />
\begin{cases}<br />
0 & \mathrm{f\ddot{u}r}\ i \neq j\\<br />
a_{ii} - \sum_{k=1}^{i-1}l_{ik}^2 d_{kk} & \mathrm{f\ddot{u}r}\ i = j<br />
\end{cases} \\<br />
l_{ij} &=<br />
\begin{cases}<br />
0 & \mathrm{f\ddot{u}r}\ i < j\\<br />
1 & \mathrm{f\ddot{u}r}\ i = j\\<br />
\frac{1}{d_{jj}} \left( a_{ij}-\sum_{k=1}^{j-1} l_{ik} l_{jk} d_{kk} \right) & \mathrm{f\ddot{u}r} \; i > j.<br />
\end{cases}<br />
\end{align}<br />
</math><br />
Auch bei diesen Algorithmen ist es wichtig die Reihenfolge der berechneten Matrixeinträge richtig zu wählen. Zuerst muss man zum Index <math>j=1,\dotsc,n</math> den Eintrag <math>d_{jj}</math> berechnen und anschließend die <math>j</math>-te Spalte der Matrix <math>L</math>, also: <math>l_{ij}</math> für <math>i=j+1,\dotsc,n</math>.<br />
<br />
=== Aufwand und Stabilität ===<br />
<br />
Die Cholesky-Zerlegung ist [[Stabilität (Numerik)|numerisch stabil]]. Im Vergleich erfordert das [[Gaußsches Eliminationsverfahren|Eliminationsverfahren nach Gauß]] mit seiner algorithmischen Umsetzung, der [[LR-Zerlegung]], etwa doppelt so viele Operationen, da nicht nur eine Matrix&nbsp;<math>G</math>, sondern zwei Faktoren&nbsp;<math>L</math> und <math>R</math> berechnet werden müssen. Bei der Cholesky-Zerlegung treten ungefähr <math>\tfrac{1}{6}n^3</math>&nbsp;Multiplikationen, <math>\tfrac{1}{2}n^2</math>&nbsp;Divisionen und <math>n</math>&nbsp;Wurzeloperationen auf.<ref>Andreas Meister: ''Numerik linearer Gleichungssysteme.'' 5. Auflage. Vieweg, Wiesbaden 2015, ISBN 3-528-13135-7, S. 49.</ref><br />
<br />
=== Pseudocode ===<br />
<br />
Die Berechnungen in obigen Formeln können in verschiedener Weise durchgeführt werden. Die nach [[Tadeusz Banachiewicz]] benannte Variante berechnet die untere Dreiecksmatrix zeilenweise. In [[Pseudocode]] sieht das Verfahren zur Zerlegung der Matrix <math>A</math> in die Form <math>GG^T</math> so aus:<br />
[[Datei:Chol.gif|mini|Zugriffe (weiß) und Schreibvorgänge (gelb).]]<br />
<syntaxhighlight lang="pascal"><br />
For i = 1 To n<br />
For j = 1 To i<br />
Summe = a(i, j)<br />
For k = 1 To j-1<br />
Summe = Summe - a(i, k) * a(j, k)<br />
If i > j Then<br />
a(i, j) = Summe / a(j, j) // Untere Dreiecksmatrix<br />
Else If Summe > 0 Then // Diagonalelement<br />
a(i, i) = Sqrt(Summe) // ... ist immer groesser Null<br />
Else<br />
ERROR // Die Matrix ist (wenigstens numerisch) nicht symmetrisch positiv definit<br />
</syntaxhighlight><br />
Die Laufindizes <math>i,j=1,\,,\ldots\,,n</math> im Code entsprechen der mathematischen Notierung von Elementen der Matrix <math> A=\left(a_{ij}\right)_{ij} </math>.<br />
Dabei ist <math>n</math> die Anzahl der Zeilen und gleichzeitig die Anzahl der Spalten der Matrix <math>A</math>, Hilfsvariablen sind <math> k </math> und ''Summe''. <br />
Der Algorithmus arbeitet [[in-place]]; das heißt, er modifiziert die Matrix <math>A</math> so, dass sie die untere Dreiecksmatrix <math> G </math> enthält.<br />
Es muss somit kein ''neuer'' Speicherplatz alloziert werden.<br />
<br />
Der Algorithmus bearbeitet nur die linke untere Dreiecksmatrix von <math> A=\left(a_{ij}\right)_{ij} </math>, die Elemente <math> a_{ij} </math> für <math> i<j </math> brauchen nicht mit Werten belegt zu werden (da die Matrix <math>A</math> nach Voraussetzung symmetrisch ist), und wenn sie Werte enthalten, werden diese nicht verändert. Sucht man also nach der Cholesky-Zerlegung <math> G </math> gemäß <math> A=GG^T </math>, so sind die Matrixelemente von <math>A</math> oberhalb der Diagonalen (<math> i<j </math>) gleich 0 zu setzen.<br />
<br />
== Weblinks ==<br />
* ''[http://taramath.de/tools/cholesky taramath Online-Tool]'' zur Berechnung der Cholesky-Zerlegung symmetrischer und positiv definiter Matrizen.<br />
<br />
== Literatur ==<br />
<br />
* Hans Rudolf Schwarz, Norbert Köckler: ''Numerische Mathematik.'' 5. Auflage. Teubner, Stuttgart 2004, ISBN 3-519-42960-8.<br />
* Gene H. Golub, Charles F. Van Loan: ''Matrix computations.'' 3rd edition. Johns Hopkins University Press, 1996, ISBN 0-8018-5414-8.<br />
* Michael Saunders: ''Commentary – Major Cholesky Would Feel Proud.'' In: ''ORSA Journal on Computing'', 6, 1994, S.&nbsp;23–27.<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Numerische lineare Algebra]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Cholesky-Zerlegung&diff=169279663Cholesky-Zerlegung2017-09-20T14:35:28Z<p>HerrHartmuth: /* Berechnung */ Mathematisches Typesetting</p>
<hr />
<div>Die '''Cholesky-Zerlegung''' (auch '''Cholesky-Faktorisierung''') (nach [[André-Louis Cholesky]], 1875–1918) bezeichnet in der [[Numerische Mathematik|numerischen Mathematik]] eine Zerlegung einer [[Symmetrische Matrix|symmetrischen]] [[Definitheit|positiv definiten]] [[Matrix (Mathematik)|Matrix]] in ein [[Matrizenprodukt|Produkt]] aus einer unteren [[Dreiecksmatrix]] und deren [[Transponierte Matrix|Transponierter]]. Sie wurde von Cholesky vor 1914 im Zuge der [[Triangulation (Geodäsie)|Triangulation]] Kretas durch den ''[[Dépôt de la Guerre|Service géographique de l’armée]]'' entwickelt. Das Konzept kann auch allgemeiner für [[Hermitesche Matrix|hermitesche Matrizen]] definiert werden.<br />
<br />
== Einsatzbereiche ==<br />
<br />
Bei der Anwendung der [[Methode der kleinsten Quadrate]] ist eine Möglichkeit, die auftauchenden Minimierungsprobleme über die Normalgleichungen zu lösen, die eine symmetrische positiv definite Systemmatrix haben. Dies ist mit Hilfe der Cholesky-Zerlegung möglich und dies war die Motivation von Cholesky, die Zerlegung zu entwickeln. Beim [[Gauß-Newton-Verfahren]] ist damit bei jedem Iterationsschritt ein Gleichungssystem zu lösen, das sich mit dem Cholesky-Verfahren bestimmen lässt.<br />
<br />
Die Cholesky-Zerlegung kann auch zur Gewinnung eines [[Vorkonditionierung]]sverfahrens für lineare Gleichungssysteme mit positiv definiter Matrix benutzt werden; zu diesem Zweck gibt es speziell die Varianten der ''[[Unvollständige Cholesky-Zerlegung|unvollständigen Cholesky-Zerlegung]]'' und der ''modifizierten unvollständigen Cholesky-Zerlegung''.<br />
<br />
Gleichzeitig stellt die Zerlegung einen Test dar, ob eine gegebene symmetrische Matrix positiv definit ist. Andernfalls ist einer der Einträge auf der [[Hauptdiagonale]]n negativ, sodass die Wurzel nicht gezogen werden kann, oder gleich <math>0</math>, sodass durch den Eintrag nicht dividiert werden kann. In beiden Fällen bricht der Algorithmus ab. Die Cholesky-Zerlegung lässt sich auch zur Bestimmung der [[Determinante (Mathematik)|Determinante]] der Matrix&nbsp;<math>A</math> verwenden, denn es gilt <math>\det A = \prod_{i=1}^n G_{ii}^2</math>.<br />
<br />
Außerhalb der Mathematik findet die Cholesky-Zerlegung auch Anwendung in der ökonometrischen Erforschung makroökonomischer Zusammenhänge. Hierbei wird bei sogenannten vektorautoregressiven Modellen (VAR) die Reihenfolge der Beeinflussung der endogenen Variablen untereinander festgelegt.<br />
<br />
Darüber hinaus wird sie auch bei der [[Monte-Carlo-Simulation]] eingesetzt, um vorgegebene Korrelationen in unabhängig generierte Zufallszahlenfolgen (als Diskretisierung stochastischer Prozesse) zu bringen.<br />
<br />
== Formulierung und Anwendung ==<br />
<br />
Jede [[Symmetrische_Matrix#Definition|symmetrische]], [[Definitheit#Definitionen|positiv definite]] Matrix <math>A \in \mathbb{R}^{n\times n}</math> kann eindeutig in der Form<br />
: <math>A=L D L^{T}</math><br />
<br />
geschrieben werden. Dabei ist <math>L</math> eine [[Dreiecksmatrix#Normierung|untere, normierte Dreiecksmatrix]] und <math>D</math> eine [[Diagonalmatrix]] mit positiven Einträgen.<br />
Mit der [[Quadratwurzel einer Matrix|Quadratwurzel]] von <math>D</math> und dem Matrix-Faktor&nbsp;<math>G</math>, definiert durch<br />
<br />
: <math>D = D^{1/2}D^{1/2}</math><br />
<br />
und<br />
<br />
: <math>G := LD^{1/2}</math>,<br />
<br />
wird die Cholesky-Zerlegung –&nbsp;äquivalent&nbsp;– auch formuliert als<br />
<br />
: <math>A=G G^{T}</math>.<br />
<br />
Liegt eine Berechnung der Cholesky-Zerlegung vor, so lässt sich das Gleichungssystem <math> Ax=b</math> effizient durch [[Gaußsches Eliminationsverfahren|Vorwärts- und Rückwärtseinsetzen]] lösen:<br />
<br />
* Durch Vorwärtseinsetzen: Lösen des linearen Gleichungssystems <math>G y = b</math><br />
<br />
* Durch anschließendes Rückwärtseinsetzen: Lösen des linearen Gleichungssystems <math>G^{T} x = y.</math><br />
<br />
== Berechnung ==<br />
<br />
Setzt man <math>A=GG^T \in \R^{n \times n}</math>, so erhält man für die Elemente von <math>A=\left(a_{ij}\right)_{ij}</math>:<br />
:<math><br />
a_{ij}=\sum\limits_{k=1}^jg_{ik} g_{jk} \,,\quad i\ge j.<br />
</math><br />
<br />
Dieser Zusammenhang führt direkt auf die folgenden Formeln für <math>G=\left(g_{ij}\right)_{ij}</math>:<br />
: <math><br />
g_{ij} = \begin{cases}0 & \mathrm{f\ddot{u}r}\ i < j\\<br />
\sqrt{a_{ii} - \sum\limits_{k=1}^{i-1}g_{ik}^2 } & \mathrm{f\ddot{u}r}\ i = j\\<br />
\frac{1}{g_{jj}} \left( a_{ij}-\sum\limits_{k=1}^{j-1}g_{ik} g_{jk} \right) & \mathrm{f\ddot{u}r}\ i > j.<br />
\end{cases}<br />
</math><br />
Bei diesem Algorithmus ist es wichtig die Reihenfolge der berechneten Matrixeinträge richtig durchzuführen.<br />
Die Einträge werden spaltenweise berechnet und angefangen mit dem niedrigsten Zeilenindex.<br />
<br />
Die Berechnung der Zerlegung <math>A=LDL^T</math> erfolgt in analoger Art und Weise für <math>L=\left(l_{ij}\right)_{ij}</math> und <math> D=\left(d_{ij}\right)_{ij}</math>:<br />
:<math><br />
\begin{align}<br />
d_{ij} &= <br />
\begin{cases}<br />
0 & \mathrm{f\ddot{u}r}\ i \neq j\\<br />
a_{ii} - \sum_{k=1}^{i-1}l_{ik}^2 d_{kk} & \mathrm{f\ddot{u}r}\ i = j<br />
\end{cases} \\<br />
l_{ij} &=<br />
\begin{cases}<br />
0 & \mathrm{f\ddot{u}r}\ i < j\\<br />
1 & \mathrm{f\ddot{u}r}\ i = j\\<br />
\frac{1}{d_{jj}} \left( a_{ij}-\sum_{k=1}^{j-1} l_{ik} l_{jk} d_{kk} \right) & \mathrm{f\ddot{u}r} \; i > j.<br />
\end{cases}<br />
\end{align}<br />
</math><br />
Auch bei diesen Algorithmen ist es wichtig die Reihenfolge der berechneten Matrixeinträge richtig zu wählen. Zuerst muss man zum Index <math>j=1,\dotsc,n</math> den Eintrag <math>d_{jj}</math> berechnen und anschließend die <math>j</math>-te Spalte der Matrix <math>L</math>, also: <math>l_{ij}</math> für <math>i=j+1,\dotsc,n</math>.<br />
<br />
=== Aufwand und Stabilität ===<br />
<br />
Die Cholesky-Zerlegung ist [[Stabilität (Numerik)|numerisch stabil]]. Im Vergleich erfordert das [[Gaußsches Eliminationsverfahren|Eliminationsverfahren nach Gauß]] mit seiner algorithmischen Umsetzung, der [[LR-Zerlegung]], etwa doppelt so viele Operationen, da nicht nur eine Matrix&nbsp;<math>G</math>, sondern zwei Faktoren&nbsp;<math>L</math> und <math>R</math> berechnet werden müssen. Bei der Cholesky-Zerlegung treten ungefähr <math>\tfrac{1}{6}n^3</math>&nbsp;Multiplikationen, <math>\tfrac{1}{2}n^2</math>&nbsp;Divisionen und <math>n</math>&nbsp;Wurzeloperationen auf.<ref>Andreas Meister: ''Numerik linearer Gleichungssysteme.'' 5. Auflage. Vieweg, Wiesbaden 2015, ISBN 3-528-13135-7, S. 49.</ref><br />
<br />
=== Pseudocode ===<br />
<br />
Die Berechnungen in obigen Formeln können in verschiedener Weise durchgeführt werden. Die nach [[Tadeusz Banachiewicz]] benannte Variante berechnet die untere Dreiecksmatrix zeilenweise. In [[Pseudocode]] sieht das Verfahren zur Zerlegung der Matrix&nbsp;''A'' in die Form ''GG<sup>T</sup>'' so aus:<br />
[[Datei:Chol.gif|mini|Zugriffe (weiß) und Schreibvorgänge (gelb).]]<br />
<syntaxhighlight lang="pascal"><br />
For i = 1 To n<br />
For j = 1 To i<br />
Summe = a(i, j)<br />
For k = 1 To j-1<br />
Summe = Summe - a(i, k) * a(j, k)<br />
If i > j Then<br />
a(i, j) = Summe / a(j, j) // Untere Dreiecksmatrix<br />
Else If Summe > 0 Then // Diagonalelement<br />
a(i, i) = Sqrt(Summe) // ... ist immer groesser Null<br />
Else<br />
ERROR // Die Matrix ist (wenigstens numerisch) nicht symmetrisch positiv definit<br />
</syntaxhighlight><br />
Die Indizes der Matrix&nbsp;''A'' entsprechen der mathematischen Notierung ''i&nbsp;=&nbsp;1…n und j&nbsp;=&nbsp;1…n.'' Dabei ist ''n'' die Anzahl der Zeilen und gleichzeitig die Anzahl der Spalten der Matrix&nbsp;''A'', Hilfsvariablen sind ''i, j, k'' und ''Summe''. Der Algorithmus arbeitet [[in-place]]; das heißt, er modifiziert die Matrix&nbsp;''A'' so, dass sie die untere Dreiecksmatrix&nbsp;''G'' enthält.<br />
<br />
Der Algorithmus bearbeitet nur die linke untere Dreiecksmatrix von&nbsp;''A'', die Werte ''a<sub>i,&nbsp;j</sub>'' für ''i&nbsp;<&nbsp;j'' brauchen nicht mit Werten belegt zu werden (da die Matrix&nbsp;''A'' nach Voraussetzung symmetrisch ist), und wenn sie Werte enthalten, werden diese nicht verändert. Sucht man also nach der Cholesky-Zerlegung ''G'' gemäß ''A&nbsp;=&nbsp;GG<sup>T</sup>'', so sind die Matrixelemente von&nbsp;''A'' oberhalb der Diagonalen (''i&nbsp;<&nbsp;j'') gleich ''0'' zu setzen.<br />
<br />
== Weblinks ==<br />
* ''[http://taramath.de/tools/cholesky taramath Online-Tool]'' zur Berechnung der Cholesky-Zerlegung symmetrischer und positiv definiter Matrizen.<br />
<br />
== Literatur ==<br />
<br />
* Hans Rudolf Schwarz, Norbert Köckler: ''Numerische Mathematik.'' 5. Auflage. Teubner, Stuttgart 2004, ISBN 3-519-42960-8.<br />
* Gene H. Golub, Charles F. Van Loan: ''Matrix computations.'' 3rd edition. Johns Hopkins University Press, 1996, ISBN 0-8018-5414-8.<br />
* Michael Saunders: ''Commentary – Major Cholesky Would Feel Proud.'' In: ''ORSA Journal on Computing'', 6, 1994, S.&nbsp;23–27.<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Numerische lineare Algebra]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Regul%C3%A4re_Matrix&diff=169225818Reguläre Matrix2017-09-18T19:31:39Z<p>HerrHartmuth: /* Definition */</p>
<hr />
<div>Eine '''reguläre''', '''invertierbare''' oder '''nichtsinguläre Matrix''' ist in der [[Mathematik]] eine [[quadratische Matrix]], die eine [[Inverse Matrix|Inverse]] besitzt. Reguläre Matrizen können auf mehrere äquivalente Weisen charakterisiert werden. Zum Beispiel zeichnen sich reguläre Matrizen dadurch aus, dass die durch sie beschriebene [[lineare Abbildung]] [[bijektiv]] ist. Daher ist ein [[lineares Gleichungssystem]] mit einer regulären [[Koeffizientenmatrix]] stets eindeutig lösbar. Die Menge der regulären Matrizen fester Größe mit Einträgen aus einem [[Ring (Mathematik)|Ring]] oder [[Körper (Algebra)|Körper]] bildet mit der [[Matrizenmultiplikation]] als [[Verknüpfung (Mathematik)|Verknüpfung]] die [[allgemeine lineare Gruppe]].<br />
<br />
Nicht zu jeder quadratischen Matrix existiert eine Inverse. Eine quadratische Matrix, die keine Inverse besitzt, wird '''singuläre Matrix''' genannt.<br />
<br />
== Definition ==<br />
<br />
Eine [[quadratische Matrix]] <math>A \in R^{n \times n}</math> mit Einträgen aus einem [[Unitärer Ring|unitären Ring]] <math>R</math> (in der Praxis meist dem [[Körper (Algebra)|Körper]] der [[Reelle Zahl|reellen Zahlen]]) heißt '''regulär''', wenn eine weitere Matrix <math>B \in R^{n \times n}</math> existiert, sodass<br />
<br />
: <math>A \cdot B = B \cdot A = I</math><br />
<br />
gilt, wobei <math>I</math> die [[Einheitsmatrix]] bezeichnet. Die Matrix <math>B</math> ist hierbei eindeutig bestimmt und heißt [[inverse Matrix]] zu <math>A</math>. Die Inverse einer Matrix <math>A</math> wird üblicherweise mit <math>A^{-1}</math> bezeichnet. Ist <math>R</math> ein [[kommutativer Ring]], Körper oder [[Schiefkörper]], so sind die beiden Bedingungen äquivalent, das heißt, eine linksinverse Matrix ist dann auch rechtsinvers und umgekehrt, sprich, die obige Bedingung lässt sich durch <math>B \cdot A = I</math> beziehungsweise <math>A \cdot B = I</math> abschwächen.<br />
<br />
== Beispiele ==<br />
<br />
Die reelle Matrix<br />
<br />
: <math>A = \begin{pmatrix} 2 & 3 \\ 1 & 2 \end{pmatrix}</math><br />
<br />
ist regulär, denn sie besitzt die Inverse<br />
<br />
: <math>B = \begin{pmatrix} 2 & -3 \\ -1 & 2 \end{pmatrix}</math>,<br />
<br />
mit<br />
<br />
: <math>A \cdot B = \begin{pmatrix} 2 & 3 \\ 1 & 2 \end{pmatrix} \cdot \begin{pmatrix} 2 & -3 \\ -1 & 2 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I</math>.<br />
<br />
Die reelle Matrix<br />
<br />
: <math>A = \begin{pmatrix} 2 & 3 \\ 0 & 0 \end{pmatrix}</math><br />
<br />
ist singulär, denn für eine beliebige Matrix<br />
<br />
: <math>B = \begin{pmatrix} a & b \\ c & d \end{pmatrix}</math><br />
<br />
gilt<br />
<br />
: <math>A \cdot B = \begin{pmatrix} 2 & 3 \\ 0 & 0 \end{pmatrix} \cdot \begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} 2a+3c & 2b+3d \\ 0 & 0 \end{pmatrix} \neq I</math>.<br />
<br />
== Äquivalente Charakterisierungen ==<br />
=== Reguläre Matrizen über einem Körper ===<br />
Eine <math>(n\times n)</math>-Matrix <math>A</math> mit Einträgen aus einem Körper <math>K</math>, zum Beispiel die [[Reelle Zahl|reellen]] oder [[Komplexe Zahl|komplexen Zahlen]], ist genau dann invertierbar, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist:<br />
<br />
* Es gibt eine Matrix <math>B</math> mit <math>AB=I=BA </math>.<br />
* Die [[Determinante (Mathematik)|Determinante]] von <math>A</math> ist ungleich null.<br />
* Die [[Eigenwert]]e von <math>A</math> sind alle ungleich null.<br />
* Für alle <math>b\in K^n</math> existiert mindestens eine Lösung <math>x\in K^n</math> des linearen Gleichungssystems <math>Ax=b</math>.<br />
* Für alle <math>b\in K^n</math> existiert höchstens eine Lösung <math>x\in K^n</math> des linearen Gleichungssystems <math>Ax=b</math>.<br />
* Das lineare Gleichungssystem <math>Ax=0</math> besitzt nur die triviale Lösung <math>x=0</math>.<br />
* Die Zeilenvektoren sind [[Lineare Unabhängigkeit|linear unabhängig]].<br />
* Die Zeilenvektoren [[Erzeugendensystem|erzeugen]] <math>K^n</math>.<br />
* Die Spaltenvektoren sind linear unabhängig.<br />
* Die Spaltenvektoren erzeugen <math>K^n</math>.<br />
* Die durch <math>A</math> beschriebene lineare Abbildung <math>K^n\to K^n</math>, <math>x\mapsto Ax</math>, ist [[Injektivität|injektiv]].<br />
* Die durch <math>A</math> beschriebene lineare Abbildung <math>K^n\to K^n</math>, <math>x\mapsto Ax</math>, ist [[Surjektivität|surjektiv]].<br />
* Die [[transponierte Matrix]] <math>A^T</math> ist invertierbar.<br />
* Der [[Rang (Mathematik)|Rang]] der Matrix <math>A</math> ist gleich <math>n</math>.<br />
<br />
=== Reguläre Matrizen über einem unitären kommutativen Ring ===<br />
Allgemeiner ist eine <math>(n\times n)</math>-Matrix <math>A</math> mit Einträgen aus einem [[Kommutativer Ring|kommutativen Ring]] mit Eins <math>R</math> genau dann invertierbar, wenn eine der folgenden äquivalenten Bedingungen erfüllt ist:<br />
<br />
* Es gibt eine Matrix <math>B</math> mit <math>AB=I=BA </math>.<br />
* Die [[Determinante (Mathematik)|Determinante]] von <math>A</math> ist eine [[Einheit (Mathematik)|Einheit]] in <math>R</math> (man spricht auch von einer [[Spezielle lineare Gruppe|unimodularen Matrix]]).<br />
* Für alle <math>b\in R^n</math> existiert genau eine Lösung <math>x\in R^n</math> des [[Lineares Gleichungssystem|linearen Gleichungssystems]] <math>Ax=b</math>.<br />
* Für alle <math>b\in R^n</math> existiert mindestens eine Lösung <math>x\in R^n</math> des linearen Gleichungssystems <math>Ax=b</math>.<br />
* Die Zeilenvektoren bilden eine [[Basis (Modul)|Basis]] von <math>R^n</math>.<br />
* Die Zeilenvektoren erzeugen <math>R^n</math>.<br />
* Die Spaltenvektoren bilden eine Basis von <math>R^n</math>.<br />
* Die Spaltenvektoren erzeugen <math>R^n</math>.<br />
* Die durch <math>A</math> beschriebene lineare Abbildung <math>R^n\to R^n</math>, <math>x\mapsto Ax</math>, ist [[surjektiv]] (oder gar [[bijektiv]]).<br />
* Die [[transponierte Matrix]] <math>A^T</math> ist invertierbar.<br />
<br />
Der wesentliche Unterschied zum Fall eines Körpers ist hier also, dass im Allgemeinen aus der Injektivität einer linearen Abbildung nicht mehr ihre Surjektivität (und damit ihre Bijektivität) folgt, wie bereits das einfache Beispiel <math>\Z \to \Z</math>, <math>x \mapsto 2x</math> zeigt.<br />
<br />
== Weitere Beispiele ==<br />
<br />
Die Matrix<br />
<br />
: <math>A = \begin{pmatrix}3x^3 & x^2 - 1 \\ 3x^2 + 3 & x \end{pmatrix}</math><br />
<br />
mit Einträgen aus dem [[Polynomring]] <math>R = \R[x]</math> hat die Determinante <math>\det A = 3</math> und <math>3</math> ist invertierbar in <math>R</math>. Somit ist <math>A</math> regulär in <math>R^{2 \times 2}</math>; die Inverse ist<br />
<br />
: <math>B = \frac{1}{3}\begin{pmatrix}x & 1-x^2 \\ -3x^2 -3 & 3x^3 \end{pmatrix}</math>.<br />
<br />
Die Matrix<br />
<br />
: <math>A = \begin{pmatrix} [3] & [7] \\ \left[1\right] & [9] \end{pmatrix}</math><br />
<br />
mit Einträgen aus dem [[Restklassenring]] <math>\Z/12\Z</math> hat die Determinante <math>\det A = [20] = [8]</math>. Da <math>8</math> und <math>12</math> nicht [[teilerfremd]] sind, ist <math>\det A</math> in <math>\Z/12\Z</math> nicht invertierbar. Daher ist <math>A</math> nicht regulär.<br />
<br />
== Eigenschaften ==<br />
<br />
Ist die Matrix <math>A</math> regulär, so ist auch <math>A^{-1}</math> regulär mit der Inversen<br />
<br />
: <math>\left( A^{-1} \right)^{-1} = A</math>.<br />
<br />
Sind die beiden Matrizen <math>A</math> und <math>B</math> regulär, so ist auch ihr Produkt <math>A \cdot B</math> regulär mit der Inversen<br />
<br />
: <math>\left( A \cdot B \right)^{-1} = B^{-1} \cdot A^{-1}</math>.<br />
<br />
Die Menge der regulären Matrizen fester Größe bildet demnach mit der [[Matrizenmultiplikation]] als Verknüpfung eine (im Allgemeinen [[Kommutativgesetz|nichtkommutative]]) [[Gruppe (Mathematik)|Gruppe]], die [[allgemeine lineare Gruppe]] <math>\operatorname{GL}(n,R)</math>. In dieser Gruppe ist die Einheitsmatrix das [[Neutrales Element|neutrale Element]] und die inverse Matrix das [[Inverses Element|inverse Element]]. Für eine reguläre Matrix <math>A</math> gelten damit auch die Kürzungsregeln<br />
<br />
: <math>A \cdot B = A \cdot C \Rightarrow B = C</math><br />
<br />
und<br />
<br />
: <math>B \cdot A = C \cdot A \Rightarrow B = C</math>,<br />
<br />
wobei <math>B</math> und <math>C</math> beliebige Matrizen passender Größe sind.<br />
<br />
== Literatur ==<br />
* [[Peter Knabner]], [[Wolf Barth]]: ''Lineare Algebra. Grundlagen und Anwendungen''. Springer Spektrum, Berlin/Heidelberg 2013, ISBN 978-3-642-32185-6.<br />
<br />
== Weblinks ==<br />
* {{EoM|Autor=|Titel=Non-singular matrix|Url=http://www.encyclopediaofmath.org/index.php/Non-singular_matrix}}<br />
* {{MathWorld|id=NonsingularMatrix|title=Nonsingular Matrix}}<br />
* {{PlanetMath|id=invertiblematrix|author=CWoo|title=Invertible matrix}}<br />
<br />
{{SORTIERUNG:Regulare Matrix}}<br />
[[Kategorie:Matrix]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Einschrittverfahren&diff=169195843Einschrittverfahren2017-09-17T20:20:47Z<p>HerrHartmuth: /* Einfache Verfahren der Ordnung 1 und 2 */ Interwiki-Links hinzugefügt</p>
<hr />
<div>[[Datei:Euler method.svg|miniatur|Einschrittverfahren nähern die Lösung (blau) eines Anfangswertproblems an, indem vom gegebenen Startpunkt ''A''<sup>0</sup> aus nacheinander Punkte ''A''<sup>1</sup>, ''A''<sup>2</sup> usw. bestimmt werden]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] ist ein '''Einschrittverfahren''' eine Methode zur näherungsweisen Lösung von [[Anfangswertproblem]]en. Im Gegensatz zu [[Mehrschrittverfahren]] werden hier zur Berechnung der Näherung an die Lösung keine Daten von vorhergehenden Zeitpunkten benutzt. Die wichtigste Klasse von Einschrittverfahren sind die [[Runge-Kutta-Verfahren]].<br />
<br />
== Einführung ==<br />
=== Gewöhnliche Differentialgleichungen ===<br />
Die Entwicklung der Differential- und Integralrechnung durch den englischen Physiker und Mathematiker [[Isaac Newton]] und unabhängig davon durch den deutschen Universalgelehrten [[Gottfried Wilhelm Leibniz]] im letzten Drittel des 17.&nbsp;Jahrhunderts war ein wesentlicher Impuls für die Mathematisierung der Wissenschaft in der [[Frühe Neuzeit|frühen Neuzeit]]. Diese Methoden bildeten den Startpunkt des mathematischen Teilgebiets der [[Analysis]] und sind in allen Natur- und Ingenieurwissenschaften von zentraler Bedeutung. Während Leibniz von dem geometrischen Problem, Tangenten an gegebene Kurven zu bestimmen, zur Differentialrechnung geführt wurde, ging Newton von der physikalischen Fragestellung aus, wie sich Änderungen einer Größe zu einem bestimmten Zeitpunkt bestimmen lassen. So ergibt sich zum Beispiel bei der Bewegung eines Körpers dessen Durchschnittsgeschwindigkeit einfach als die zurückgelegte Strecke dividiert durch die dafür benötigte Zeit. Um jedoch die [[Momentangeschwindigkeit]] <math>v(t)</math> des Körpers zu einem bestimmten Zeitpunkt <math>t</math> mathematisch zu formulieren, ist ein Grenzübergang notwendig: Man betrachtet kurze Zeitspannen der Länge <math>\Delta t</math>, die dabei zurückgelegten Wegstrecken <math>\Delta x</math> und die zugehörigen Durchschnittsgeschwindigkeiten <math>\tfrac{\Delta x}{\Delta t}</math>. Lässt man nun die Zeitspanne <math>\Delta t</math> gegen null konvergieren und nähern sich dabei die Durchschnittsgeschwindigkeiten ebenfalls einem festen Wert an, dann wird dieser Wert die (Momentan-)Geschwindigkeit <math>v(t)</math> zu dem gegebenen Zeitpunkt <math>t</math> genannt. Bezeichnet <math>x(t)</math> die Position des Körpers zur Zeit <math>t</math>, dann schreibt man <math>v(t) = x'(t)</math> und nennt <math>v</math> die Ableitung von <math>x</math>.<br />
<br />
Der entscheidende Schritt in die Richtung der Differentialgleichungsmodelle ist nun die umgekehrte Fragestellung: Im Beispiel des bewegten Körpers sei also zu jeden Zeitpunkt <math>t</math> die Geschwindigkeit <math>v(t)</math> bekannt und daraus soll seine Position <math>x(t)</math> bestimmt werden. Es ist anschaulich klar, dass zusätzlich die Anfangsposition des Körpers zu einem Zeitpunkt <math>t_0</math> bekannt sein muss, um dieses Problem eindeutig lösen zu können. Es ist also eine Funktion <math>x(t)</math> mit <math>x'(t) = v(t)</math> gesucht, die die Anfangsbedingung <math>x(t_0) = x_0</math> mit gegebenen Werten <math>t_0</math> und <math>x_0</math> erfüllt. In diesem einfachsten Fall eines Anfangswertproblems ist die Ableitung der gesuchten Funktion explizit gegeben. Meist liegt jedoch der wichtige allgemeine Fall gewöhnlicher Differentialgleichungen vor: Für eine gesuchte Funktion <math>y</math> ist aufgrund der Naturgesetze oder der Modellannahmen ein Funktionszusammenhang bekannt, der angibt, wie die Ableitung <math>y'(t)</math> aus <math>t</math> und aus dem (unbekannten) Wert <math>y(t)</math> berechnet werden kann. Zusammen mit der Anfangsbedingung liegt also der folgende allgemeine Aufgabentyp vor: Man finde die Funktion <math>y</math>, die die Gleichungen<br />
<br />
: <math>y'(t) = f(t, y(t)), \quad y(t_0) = y_0</math><br />
<br />
erfüllt, wobei <math>f</math> eine gegebene Funktion ist. Ein einfaches Beispiel ist eine Größe <math>y</math>, die [[Exponentielles Wachstum|exponentiell wächst]]. Das bedeutet, dass die momentane Änderung, also die Ableitung <math>y'(t)</math> [[Proportionalität|proportional]] zu <math>y(t)</math> selbst ist. Es gilt also <math>y'(t) = \lambda \cdot y(t)</math> mit einer Wachstumsrate <math>\lambda</math> und beispielsweise einer Anfangsbedingung <math>y(0) = y_0</math>. Die gesuchte Lösung <math>y</math> lässt sich in diesem Fall leicht mit elementarer Differentialrechnung finden und mithilfe der [[Exponentialfunktion]] angeben: Es gilt <math>y(t) = y_0 \cdot e^{\lambda \cdot t}</math>.<br />
<br />
[[Datei:Binary system orbit q=10 e=0.5.gif|miniatur|Das [[Zweikörperproblem]] wird in der Ebene durch ein System von vier Differentialgleichungen zweiter Ordnung beschrieben.]]<br />
Die gesuchte Funktion <math>y</math> in einer Differentialgleichung kann auch [[Vektorwertige Funktion|vektorwertig]] sein, das heißt, für jedes <math>t</math> kann <math>y(t) = (y_1(t), \dotsc, y_d(t))</math> ein [[Vektor]] mit <math>d</math> Komponenten sein. Man spricht dann auch von einem <math>d</math>-dimensionalen Differentialgleichungssystem. Im Anschauungsfall eines bewegten Körpers ist dann <math>y(t)</math> seine Position im <math>d</math>-dimensionalen [[Euklidischer Raum|euklidischen Raum]] und <math>y'(t)</math> seine [[Geschwindigkeit]] zur Zeit <math>t</math>. Durch die Differentialgleichung ist also in jedem Zeit- und Raumpunkt die Geschwindigkeit der gesuchten [[Trajektorie (Physik)|Bahnkurve]] mit Richtung und Betrag vorgegeben. Daraus soll die Bahn selbst berechnet werden.<br />
<br />
=== Grundidee der Einschrittverfahren ===<br />
Bei der oben als Beispiel betrachteten einfachen Differentialgleichung des exponentiellen Wachstums ließ sich die Lösungsfunktion direkt angeben. Das ist bei komplizierteren Problemen im Allgemeinen nicht mehr möglich. Man kann dann zwar unter gewissen Zusatzvoraussetzungen an die Funktion <math>f</math> zeigen, dass eine eindeutig bestimmte Lösung des Anfangswertproblems existiert; diese kann aber dann nicht mehr durch Lösungsverfahren der Analysis (wie beispielsweise [[Trennung der Variablen]], einen [[Exponentialansatz]] oder [[Variation der Konstanten]]) explizit berechnet werden. In diesem Fall können numerische Verfahren verwendet werden, um Näherungen für die gesuchte Lösung zu bestimmen.<br />
<br />
Die Verfahren zur numerischen Lösung von Anfangswertproblemen gewöhnlicher Differentialgleichung lassen sich grob in zwei große Gruppen einteilen: die Einschritt- und die Mehrschrittverfahren. Beiden Gruppen ist gemeinsam, dass sie schrittweise Näherungen <math>y_0, y_1, y_2 \dotsc</math> für die gesuchten Funktionswerte <math>y(t_0), y(t_1), y(t_2)<br />
\dotsc</math> an Stellen <math>t_0 < t_1 < t_2 < \ldots</math> berechnen. Die definierende Eigenschaft der Einschrittverfahren ist dabei, dass zur Bestimmung der folgenden Näherung <math>y_{j+1}</math> nur die „aktuelle“ Näherung <math>y_j</math> verwendet wird. Bei Mehrschrittverfahren gehen im Gegensatz dazu zusätzlich bereits zuvor berechnete Näherungen mit ein; ein 3-Schrittverfahren würde also beispielsweise außer <math>y_j</math> auch noch <math>y_{j-1}</math> und <math>y_{j-2}</math> zur Bestimmung der neuen Näherung <math>y_{j+1}</math> verwenden.<br />
<br />
Das einfachste und grundlegendste Einschrittverfahren ist das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]], das der Schweizer Mathematiker und Physiker [[Leonhard Euler]] 1768 in seinem Lehrbuch ''Institutiones Calculi Integralis'' vorstellte. Die Idee dieser Methode ist es, die gesuchte Lösung durch eine stückweise lineare Funktion anzunähern, bei der in jedem Schritt von der Stelle <math>t_j</math> zur Stelle <math>t_{j+1}</math> die Steigung des Geradenstücks durch <math>f(t_j, y_j)</math> gegeben ist. Genauer betrachtet: Durch die Problemstellung ist bereits ein Wert der gesuchten Funktion gegeben, nämlich <math>y(t_0) = y_0</math>. Aber auch die Ableitung an dieser Stelle ist bekannt, denn es gilt <math>y'(t_0) = f(t_0, y_0)</math>. Damit kann die Tangente an den Graphen der Lösungsfunktion bestimmt und als Näherung verwendet werden. An der Stelle <math>t_1 > t_0</math> ergibt sich mit der Schrittweite <math>h_0 := t_1 - t_0</math><br />
: <math>y(t_1) \approx y_0 + h_0 \cdot f(t_0, y_0) =: y_1</math>.<br />
Dieses Vorgehen kann nun in den folgenden Schritten fortgesetzt werden. Insgesamt ergibt sich damit für das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]] die Rechenvorschrift<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_j, y_j), \quad j = 0,1,2\dotsc</math><br />
mit den Schrittweiten <math>h_j = t_{j+1} - t_j</math>.<ref>{{Literatur |Autor=[[Wolfgang Dahmen (Mathematiker)|Wolfgang Dahmen]], Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Seiten=386 f.}}</ref><br />
<br />
Das explizite Euler-Verfahren ist der Ausgangspunkt für zahlreiche Verallgemeinerungen, bei denen die Steigung <math>f(t_j, y_j)</math>, durch Steigungen ersetzt wird, die das Verhalten der Lösung zwischen den Stellen <math>t_j</math> und <math>t_{j+1}</math> genauer annähern. Eine zusätzliche Idee für Einschrittverfahren bringt das ''implizite'' Eulerverfahren, das <math>f(t_{j+1}, y_{j+1})</math> als Steigung verwendet. Diese Wahl erscheint auf den ersten Blick wenig geeignet, da ja <math>y_{j+1}</math> unbekannt ist. Als Verfahrensschritt erhält man aber nun die Gleichung<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_{j+1}, y_{j+1})</math> <br />
aus der <math>y_{j+1}</math> (gegebenenfalls durch ein numerisches Verfahren) berechnet werden kann. Wählt man beispielsweise als Steigung das [[Arithmetisches Mittel|arithmetische Mittel]] aus den Steigungen des expliziten und des impliziten Euler-Verfahrens, so erhält man das implizite [[Trapez-Methode|Trapez-Verfahren]]. Aus diesen lässt sich wiederum ein explizites Verfahren gewinnen, wenn man zum Beispiel das unbekannte <math>y_{j+1}</math> auf der rechten Seite der Gleichung durch die Näherung des expliziten Euler-Verfahren nähert, das sogenannte [[Heun-Verfahren]]. All diesen Verfahren und allen weiteren Verallgemeinerungen ist die Grundidee der Einschrittverfahren gemeinsam: der Schritt<br />
: <math>y_{j+1} = y_j + h_j \cdot \Phi_f</math><br />
mit einer Steigung, die von <math>t_j</math>, <math>y_j</math> und <math>h_j</math> sowie (bei impliziten Verfahren) von <math>y_{j+1}</math> abhängen kann.<br />
<br />
== Definition ==<br />
Gesucht sei die Lösung <math>y</math> des Anfangswertproblems<br />
: <math>y'(t) = f(t, y(t))</math>, <math>\quad y(t_0) = y_0</math>.<br />
Dabei werde vorausgesetzt, dass die Lösung<br />
: <math>y \colon I \to \R^d</math><br />
auf einem gegebenen Intervall <math>I = [t_0, T]</math> existiert und eindeutig bestimmt ist.<br />
Sind<br />
: <math>t_0 < t_1 < t_2 < \ldots < t_n = T</math><br />
Zwischenstellen im Intervall <math>I</math> und <math>h_j = t_{j+1} - t_j</math> die zugehörigen Schrittweiten, dann heißt<br />
das durch<br />
: <math>y_{j+1} = y_j + h_j \Phi_f(t_j, y_j, y_{j+1}, h_j)</math>, <math>\quad j=0,\dotsc,n-1</math><br />
gegebene Verfahren ''Einschrittverfahren'' mit ''Verfahrensfunktion'' <math>\Phi_f</math>. Wenn <math>\Phi_f</math> nicht von <math>y_{j+1}</math> abhängt, dann nennt man es ''explizites Einschrittverfahren''. Anderenfalls muss in jedem Schritt <math>j</math> eine Gleichung für <math>y_{j+1}</math> gelöst werden, und das Verfahren wird ''implizit'' genannt.<br />
<br />
== Konsistenz und Konvergenz ==<br />
Für ein praxistaugliches Einschrittverfahren sollen die berechneten <math>y_j</math> gute Näherungen für Werte <math>y(t_j)</math> der exakten Lösung <math>y</math> an der Stelle <math>t_j</math> sein. Da im Allgemeinen die Größen <math>d</math>-dimensionale Vektoren sind, misst man die Güte dieser Näherung mit einer [[Vektornorm]] als Fehler <math>\|y_j -y(t_j)\|</math>. Es ist wünschenswert, dass diese Fehler für alle <math>j</math> schnell gegen null konvergieren, falls man die Schrittweiten gegen null konvergieren lässt. Um auch den Fall nicht konstanter Schrittweiten zu erfassen, definiert man dazu genauer <math>h</math> als das Maximum der verwendeten Schrittweiten und betrachtet das Verhalten des maximalen Fehlers an allen Stellen <math>t_j</math> im Vergleich zu Potenzen von <math>h</math>. Man sagt, das Einschrittverfahren zur Lösung des gegebenen Anfangswertproblems habe die ''Konvergenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\max_{j=0,\dotsc,n} \|y_j - y(t_j)\| \leq C h^p</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
<br />
Die Konvergenzordnung ist die wichtigste Kenngröße für den Vergleich verschiedener Einschrittverfahren.ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=156}}</ref> Ein Verfahren mit höherer Konvergenzordnung <math>p</math> liefert im Allgemeinen bei vorgegebener Schrittweite einen kleineren Gesamtfehler bzw. umgekehrt sind weniger Schritte nötig, um eine vorgegebene Genauigkeit zu erreichen. Bei einem Verfahren mit <math>p = 1</math> ist zu erwarten, dass sich bei einer Halbierung der Schrittweite auch der Fehler nur ungefähr halbiert. Bei einem Verfahren der Konvergenzordnung <math>p=4</math> kann man hingegen davon ausgehen, dass sich dabei der Fehler ungefähr um den Faktor <math>\left(\tfrac{1}{2}\right)^4 = \tfrac{1}{16}</math> verringert.<br />
<br />
Die in der Definition der Konvergenzordnung betrachteten Fehler <math>\|y_j - y(t_j)\|</math> setzen sich auf eine zunächst kompliziert erscheinende Weise aus zwei Einzelkomponenten zusammen: Natürlich hängen sie zum einen von dem Fehler ab, den das Verfahren in einem einzelnen Schritt macht, indem es die unbekannte Steigung der gesuchten Funktion durch die Verfahrensfunktion annähert. Zum anderen ist aber zusätzlich zu berücksichtigen, dass bereits der Startpunkt <math>(t_j, y_j)</math> eines Schrittes nicht von der exakten Stelle <math>(t_j, y(t_j))</math> aus erfolgt; der Fehler nach diesem Schritt hängt also auch von ''allen'' Fehlern ab, die bereits in der vorangegangenen Schritten gemacht wurden. Aufgrund der einheitlichen Definition der Einschrittverfahren, die sich nur in der Wahl der Verfahrensfunktion <math>\Phi_f</math> unterscheiden, lässt sich aber beweisen, dass man (unter gewissen technischen Voraussetzungen an <math>\Phi_f</math>) direkt von der Fehlerordnung in einem einzelnen Schritt, der sogenannten ''Konsistenzordnung'', auf die Konvergenzordnung schließen kann.<br />
<br />
Das Begriff der [[Konsistenz (Numerik)|Konsistenz]] ist ein allgemeines und zentrales Konzept der modernen numerischen Mathematik. Während man bei der Konvergenz eines Verfahrens untersucht, wie gut die numerischen Näherungen zur exakten Lösung passen, stellt man sich bei der Konsistenz vereinfacht gesprochen die „umgekehrte“ Frage: Wie gut erfüllt die exakte Lösung die Verfahrensvorschrift? In dieser allgemeinen Theorie gilt, dass ein Verfahren genau dann konvergent ist, wenn es konsistent und [[Stabilität (Numerik)|stabil]] ist. Um die Notation zu vereinfachen, soll in der folgenden Überlegung angenommen werden, dass ein explizites Einschrittverfahren<br />
: <math>y_{j+1} = y_j + h \Phi_f(t_j, y_j, h)</math><br />
mit konstanter Schrittweite <math>h</math> vorliegt. Mit der wahren Lösung <math>t \mapsto y(t)</math> definiert man den ''lokalen Abschneidefehler'' (auch ''lokaler Verfahrensfehler'' genannt) <math>\eta</math> als<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
: <math>\eta(t,h) = y(t) + h \Phi_f(t, y(t), h) - y(t+h)</math>.<br />
Man nimmt also an, dass die exakte Lösung bekannt ist, startet einen Verfahrensschritt an der Stelle <math>(t,y(t))</math> und bildet die Differenz zu exakten Lösung an der Stelle <math>t + h</math>. Damit definiert man: Ein Einschrittverfahren hat die ''Konsistenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\|\eta(t,h)\| \leq C h^{p+1}</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<br />
<br />
Der auffällige Unterschied zwischen den Definitionen der Konsistenzordnung und der Konvergenzordnung ist die Potenz <math>h^{p+1}</math> anstelle von <math>h^p</math>. Das lässt sich anschaulich so deuten, dass beim Übergang vom lokalen zum globalen Fehler eine Potenz der Schrittweite „verlorengeht“. Es gilt nämlich der folgende, für die Theorie der Einschrittverfahren zentrale Satz:<br />
: ''Ist die Verfahrensfunktion <math>\Phi_f</math> [[Lipschitz-Stetigkeit|Lipschitz-stetig]] und hat das zugehörige Einschrittverfahren die Konsistenzordnung <math>p</math>, dann hat es die auch die Konvergenzordnung <math>p</math>.''<br />
Die Lipschitz-Stetigkeit als Zusatzvoraussetzung für die Stabilität ist normalerweise leicht einzusehen, wenn die Funktion <math>f</math> aus der Differentialgleichung Lipschitz-stetig ist. Diese Forderung ist im Allgemeinen sowieso vorausgesetzt, um die eindeutige Lösbarkeit des Anfangswertproblems zu garantieren. Nach dem Satz genügt es also, die Konsistenzordnung eines Einschrittverfahrens zu bestimmen. Das lässt sich prinzipiell durch [[Taylor-Formel|Taylor-Entwicklung]] von <math>\eta(t,h)</math> nach Potenzen von <math>h</math> erreichen. In der Praxis werden die entstehenden Formeln für höhere Ordnungen sehr kompliziert und unübersichtlich, sodass zusätzliche Konzepte und Notationen benötigt werden.<br />
<br />
== Spezielle Verfahren und Verfahrensklassen ==<br />
[[Datei:Runge-kutta.svg|miniatur|Einige Einschrittverfahren im Vergleich]]<br />
=== Einfache Verfahren der Ordnung 1 und 2 ===<br />
Wenn man die Steigungen <math>f(t_j, y_j)</math> des [[Explizites_Euler-Verfahren|expliziten Euler-Verfahrens]] und <math>f(t_{j+1},y_{j+1})</math> des [[Implizites_Euler-Verfahren|impliziten Euler-Verfahrens]], wie sie an den beiden Endpunkten eines Schritts vorliegen, mittelt, kann man hoffen, eine bessere Näherung über das ganze Intervall zu erhalten. Tatsächlich lässt sich beweisen, dass das so erhaltene [[Trapez-Methode|''implizite Trapez-Verfahren'']]<br />
: <math>y_{j+1} = y_j + \frac{h}{2} \Big( f(t_j, y_j) + f(t_{j+1},y_{j+1}) \Big)</math> <br />
die [[Konvergenzgeschwindigkeit|Konvergenzordnung]] 2 hat. Dieses Verfahren weist sehr gute Stabilitätseigenschaften auf, ist allerdings implizit, sodass in jedem Schritt eine Gleichung für <math>y_{j+1}</math> gelöst werden muss. Nähert man diese Größe auf der rechten Seite der Gleichung durch das explizite Euler-Verfahren an, so entsteht das explizite [[Heun-Verfahren|''Verfahren von Heun'']]<br />
: <math>y_{j+1} = y_j + \frac{h}{2}\Big[f(t_j, y_j) + f\big(t_{j+1},y_j + hf(t_j,y_j)\big) \Big]</math>,<br />
das ebenfalls die Konvergenzordnung 2 besitzt. Ein weiteres einfaches explizites Verfahren der Ordnung 2, das [[Explizites_Euler-Verfahren#Verbessertes_explizites_Euler-Verfahren|''verbesserte Euler-Verfahren'']], erhält man durch folgende Überlegung: Eine „mittlere“ Steigung im Verfahrensschritt wäre die Steigung der Lösung <math>y</math> in der Mitte des Schritts, also an der Stelle <math>t_j + \tfrac{h}{2}</math>. Da die Lösung aber unbekannt ist, nähert man sie durch einen expliziten Euler-Schritt mit halber Schrittweite an. Es ergibt sich die Verfahrensvorschrift<br />
: <math>y_{j+1} = y_j + h f\big(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}f(t_j,y_j)\big)</math>.<br />
<br />
=== Runge-Kutta-Verfahren ===<br />
Die erwähnten Ideen für einfache Einschrittverfahren führen bei weiterer Verallgemeinerung zur wichtigen Klasse der Runge-Kutta-Verfahren. Zum Beispiel lässt sich das Verfahren von Heun übersichtlicher so präsentieren: Zuerst wird eine Hilfssteigung <math>k_1 = f(t_j, y_j)</math> berechnet, nämlich die Steigung des expliziten Euler-Verfahrens. Damit wird eine weitere Hilfssteigung bestimmt, hier <math>k_2 = f(t_j + h, y_h + h k_1)</math>. Die tatsächlich verwendete Steigung, also <math>\Phi_f</math> ergibt sich anschließend als ein gewichtetes Mittel der Hilfssteigungen, im Verfahren von Heun also <math>\tfrac{1}{2} k_1 + \tfrac{1}{2} k_2</math>. Dieses Vorgehen lässt sich auf mehr als zwei Hilfssteigungen verallgemeinern. Ein <math>s</math>-stufiges Runge-Kunge-Kutta-Verfahren berechnet zunächst Hilfssteigungen <math>k_1, \dotsc, k_s</math> durch Auswertung von <math>f</math> an geeigneten Stellen und anschließend <math>\Phi_f</math> als gewichtetes Mittel. Bei einem expliziten Runge-Kutta-Verfahren werden die Hilfssteigungen <math>k_1, k_2, k_3, \dotsc</math> der Reihe nach direkt berechnet, bei einem impliziten ergeben sie sich als Lösungen eines Gleichungsystems. Als typisches Beispiel sei das explizite [[Klassisches Runge-Kutta-Verfahren|klassische Runge-Kutta-Verfahren]] der Ordnung 4 angeführt, dass mitunter einfach als ''das'' Runge-Kutta-Verfahren bezeichnet wird: Dabei werden zunächst die vier Hilfssteigungungen <math>k_1 = f(t_j, y_j)</math>, <math>k_2 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_1)</math>, <math>k_3 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_2)</math> und <math>k_4 = f(t_j+h, y_j + hk_3)</math> berechnet und dann als Verfahrenssteigung das gewichtete Mittel <math>\tfrac{1}{6} k_1 + \tfrac{1}{3} k_2 + \tfrac{1}{3} k_3 + \tfrac{1}{6} k_4</math> verwendet.<br />
<br />
== Literatur ==<br />
* {{Literatur |Autor=Wolfgang Dahmen, Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Kapitel=Kap. 11: ''Gewöhnliche Differentialgleichungen''}}<br />
* {{Literatur |Autor=[[Peter Deuflhard]], [[Folkmar Bornemann]] |Titel=Numerische Mathematik 2 – Gewöhnliche Differentialgleichungen |Auflage=3. |Verlag=Walter de Gruyter |Ort=Berlin |Jahr=2008 |ISBN=978-3-11-020356-1}}<br />
* {{Literatur |Autor=David F. Griffiths, Desmond J. Higham |Titel=Numerical Methods for Ordinary Differential Equations – Initial Value Problems |Verlag=Springer |Ort=London |Jahr=2010 |ISBN=978-0-85729-147-9}}<br />
* {{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 | Kapitel=Kap. 7: ''Einschrittverfahren für Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Hans Rudolf Schwarz, Norbert Köckler |Titel=Numerische Mathematik |Auflage=8. |Verlag=Vieweg+Teubner |Ort=Wiesbaden |Jahr=2011 |ISBN=978-3-8348-1551-4 |Kapitel=Kap. 8: ''Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Karl Strehmel, Rüdiger Weiner, Helmut Podhaisky |Titel=Numerik gewöhnlicher Differentialgleichungen |Auflage=2. |Verlag=Springer Spektrum |Ort=Wiesbaden |Jahr=2012 |ISBN=978-3-8348-1847-8}}<br />
<br />
== Weblinks ==<br />
<br />
* {{Internetquelle |url=http://num.math.uni-bayreuth.de/de/team/Gruene_Lars/lecture_notes/num2/num2_3.pdf |autor=Lars Grüne |titel=Numerische Methoden für gewöhnliche Differentialgleichungen (Numerische Mathematik II) |datum=2008 |format=PDF |kommentar=Vorlesungsskript der [[Universität Bayreuth]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=http://www.mathematik.tu-darmstadt.de/fbereiche/numerik/staff/spellucci/docs/odess07.pdf |autor=Peter Spellucci |titel=Numerik gewöhnlicher Differentialgleichungen |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[TU Darmstadt]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=https://home.zhaw.ch/~fuh/MUDS/FILES/MUDS_Chapter_05.pdf |autor=Hans U. Fuchs |titel=Numerical Methods for Differential Equations |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[Zürcher Hochschule für Angewandte Wissenschaften]] |zugriff=2017-09-08 |sprache=en}}<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{Schreibwettbewerb}}<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie gewöhnlicher Differentialgleichungen]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Trapez-Methode&diff=169195592Trapez-Methode2017-09-17T20:10:47Z<p>HerrHartmuth: Kapitel hinzugefügt: Herleitung</p>
<hr />
<div>Das implizite '''Trapez-Verfahren''' ist ein Verfahren zur [[Numerische Mathematik|numerischen]] Lösung eines [[Anfangswertproblem|Anfangswert-Problem]]s<br />
:<math>y'(t) = f\left(t, y(t)\right), \quad<br />
y(t_0) = y_0<br />
</math><br />
<br />
Es lässt sich sowohl den [[Runge-Kutta-Verfahren]] als auch den [[Mehrschrittverfahren#Implizite_Verfahren|Adams-Moulton-Verfahren]] zuordnen. Das Trapezverfahren ist [[A-Stabilität|A-stabil]] mit der Besonderheit, dass für die Schwingungsgleichung <math>y'= \mathrm{i}\alpha y</math> kein Amplitudenfehler auftritt<ref>M. Kloker: [https://www.iag.uni-stuttgart.de/lehre/lehrveranstaltungen/lehrveranst_master/einz_vorl_master/pdf_transition_kloker/vnum_katalog_1.pdf ''Numerische Löser (Zeitintegrationsverfahren) für die Gewöhnliche Modelldifferentialgleichung y'=αy''] (PDF; 2,2&nbsp;MB), Universität Stuttgart, 1996</ref>. Das Verfahren lässt sich aus der [[Trapezregel]] herleiten:<br />
<br />
:<math>y_{n+1}=y_n + \frac{h}{2}(f_{n+1}+f_n)</math><br />
mit<br />
:<math>f_n \ := f(t_n,y_n).</math><br />
<br />
== Herleitung ==<br />
Für die Herleitung von [[Einschrittverfahren]] wird das [[Anfangswertproblem]] meist in der zu ihr äquivalenten [[Integralgleichung]] umgeformt<br />
<ref>{{Literatur|Autor=Reusken, Arnold.|Titel=Numerik für Ingenieure und Naturwissenschaftler|Hrsg=|Sammelwerk=|Band=|Nummer=|Auflage=|Verlag=Springer|Ort=Berlin|Datum=2006|Seiten=378|ISBN=3540255443|Online=https://www.worldcat.org/oclc/181518213}}</ref><br />
: <math><br />
\begin{align}<br />
\dot{y}&=f(t,y) \,, \qquad y(t_0)=y_0 \\<br />
\Longleftrightarrow \quad y(t) &= y_0 + \int_{t_0}^t f(s,y(s)) \, \mathrm ds \,.<br />
\end{align}<br />
</math><br />
Nun besteht die Idee bei der ''impliziten Trapez-Methode'' eine simple [[Numerische Integration|Quadraturformel]] für das Integral zu benutzen: die [[Trapezregel#Sehnentrapezformel|Trapezregel]]. Man approximiert in jedem <math> k </math>-ten Schritt den Integranden wie folgt<br />
: <math><br />
\int_{t_k}^{t_{k+1}} f(s,y(s)) \, \mathrm ds<br />
\approx \frac{h}{2} \Big( f(t_k,y_k) + f(t_{k+1},y_{k+1}) \Big) \,.<br />
</math><br />
Zusammen ergibt dies die '''Trapez-Methode'''<br />
<ref>{{Literatur|Autor=Reusken, Arnold.|Titel=Numerik für Ingenieure und Naturwissenschaftler|Hrsg=|Sammelwerk=|Band=|Nummer=|Auflage=|Verlag=Springer|Ort=Berlin|Datum=2006|Seiten=383|ISBN=3540255443|Online=https://www.worldcat.org/oclc/181518213}}</ref><br />
:<math><br />
y(t_{k+1}) <br />
= y(t_k) + \int_{t_k}^{t_{k+1}} f(s,y(s)) \, \mathrm ds<br />
\approx y_k + \frac{h}{2} \Big( f(t_k,y_k) + f(t_{k+1},y_{k+1}) \Big)<br />
=: y_{k+1} \,.<br />
</math><br />
<br />
== Lösungsmethode ==<br />
<br />
Zur Lösung dieses, in der Regel nichtlinearen, Gleichungssystems können verschiedene numerische Verfahren genutzt werden. Für das quadratisch konvergente [[Newton-Verfahren]] ergibt sich konkret:<br />
<br />
:<math>y^{(k + 1)}_{n+1} =<br />
y^{(k)}_{n+1} - \left(I - \frac{h}{2}\frac{\partial f^{(k)}_{n+1}}{\partial y^{(k)}_{n+1}}\right)^{-1}\left( y^{(k)}_{n+1} - y_n - \frac{h}{2}(f^{(k)}_{n+1} + f_n) \right).<br />
</math><br />
<br />
Man erhält also ein [[lineares Gleichungssystem]]<br />
<br />
:<math>(I-\frac{h}{2} J^{(k)})y^{(k + 1)}_{n+1} =<br />
-\frac{h}{2} J^{(k)} y^{(k)}_{n+1} +y_n + \frac{h}{2}(f^{(k)}_{n+1} + f_n),</math><br />
<br />
wobei ''J'' die [[Jacobi-Matrix]]<br />
<br />
:<math>J^{(k)} := \left(\frac{\partial f}{\partial y}\right)^{(k)}_{n+1}</math>,<br />
<br />
<math>I</math> die [[Einheitsmatrix]] und <math>k</math> der Iterationsschritt ist.<br />
<br />
== Stabilität ==<br />
Mit der Testgleichung <math>y'(t)=\lambda y(t)</math> bekommt man die [[Stabilitätsfunktion]]<br />
:<math> R(z)=\frac{2+z}{2-z},\quad z=h\lambda\in\C.</math><br />
Auf der imaginären Achse <math>z=i\eta</math> gilt <math>|R(i\eta)|=1</math>, daher ist die Trapezmethode [[A-Stabilität|A-stabil]].<br />
<br />
== Schrittweite <math>h</math> ==<br />
<br />
Die (variable) Schrittweite kann aus folgender Beziehung berechnet werden:<br />
<br />
:<math>\left\vert\frac{R(h\lambda)}{e^{h\lambda}} - 1\right\vert = \delta</math>;<br />
<br />
<math>\delta</math> bezeichnet den zugelassenen [[Lokaler Diskretisierungsfehler|lokalen Diskretisierungsfehler]]. Der Ansatz <math>y_{n+1}=y_n+\frac{h}{2}(f_{n+1} + f_n)=:R(h\lambda)y_n</math> liefert für die implizite Trapez-Methode<br />
<br />
:<math>R(h\lambda)=\frac{2+h\lambda}{2-h\lambda}</math>.<br />
<br />
Dabei ist <math>\lambda \, := \max_j{|\lambda_j|}</math> der Betrag des betragsmäßig größten Eigenwerts der Jacobi-Matrix ([[Spektralradius]]). Die numerische Bestimmung der Eigenwerte ist sehr zeitaufwendig; für den Zweck der Schrittweitenberechnung ist es im Allgemeinen ausreichend die [[Gesamtnorm]] <math>\lambda = N \cdot \max_{i,j} |a_{i j}|</math> heranzuziehen, die immer größer oder gleich der [[Spektralnorm]] ist. ''N'' ist der Rang der Jacobi-Matrix und <math>a_{i j}</math> deren Elemente.<br />
<br />
== Literatur ==<br />
* Hans R. Schwarz, Norbert Köckler: ''Numerische Mathematik.'' 5. Auflage, Teubner, Stuttgart 2004, ISBN 3-519-42960-8, S. 343.<br />
<br />
==Einzelnachweise==<br />
<references/><br />
<br />
[[Kategorie:Numerische Mathematik]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Einschrittverfahren&diff=169195156Einschrittverfahren2017-09-17T19:54:43Z<p>HerrHartmuth: /* Einfache Verfahren der Ordnung 1 und 2 */ Interwiki-Links hinzugefügt</p>
<hr />
<div>[[Datei:Euler method.svg|miniatur|Einschrittverfahren nähern die Lösung (blau) eines Anfangswertproblems an, indem vom gegebenen Startpunkt ''A''<sup>0</sup> aus nacheinander Punkte ''A''<sup>1</sup>, ''A''<sup>2</sup> usw. bestimmt werden]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] ist ein '''Einschrittverfahren''' eine Methode zur näherungsweisen Lösung von [[Anfangswertproblem]]en. Im Gegensatz zu [[Mehrschrittverfahren]] werden hier zur Berechnung der Näherung an die Lösung keine Daten von vorhergehenden Zeitpunkten benutzt. Die wichtigste Klasse von Einschrittverfahren sind die [[Runge-Kutta-Verfahren]].<br />
<br />
== Einführung ==<br />
=== Gewöhnliche Differentialgleichungen ===<br />
Die Entwicklung der Differential- und Integralrechnung durch den englischen Physiker und Mathematiker [[Isaac Newton]] und unabhängig davon durch den deutschen Universalgelehrten [[Gottfried Wilhelm Leibniz]] im letzten Drittel des 17.&nbsp;Jahrhunderts war ein wesentlicher Impuls für die Mathematisierung der Wissenschaft in der [[Frühe Neuzeit|frühen Neuzeit]]. Diese Methoden bildeten den Startpunkt des mathematischen Teilgebiets der [[Analysis]] und sind in allen Natur- und Ingenieurwissenschaften von zentraler Bedeutung. Während Leibniz von dem geometrischen Problem, Tangenten an gegebene Kurven zu bestimmen, zur Differentialrechnung geführt wurde, ging Newton von der physikalischen Fragestellung aus, wie sich Änderungen einer Größe zu einem bestimmten Zeitpunkt bestimmen lassen. So ergibt sich zum Beispiel bei der Bewegung eines Körpers dessen Durchschnittsgeschwindigkeit einfach als die zurückgelegte Strecke dividiert durch die dafür benötigte Zeit. Um jedoch die [[Momentangeschwindigkeit]] <math>v(t)</math> des Körpers zu einem bestimmten Zeitpunkt <math>t</math> mathematisch zu formulieren, ist ein Grenzübergang notwendig: Man betrachtet kurze Zeitspannen der Länge <math>\Delta t</math>, die dabei zurückgelegten Wegstrecken <math>\Delta x</math> und die zugehörigen Durchschnittsgeschwindigkeiten <math>\tfrac{\Delta x}{\Delta t}</math>. Lässt man nun die Zeitspanne <math>\Delta t</math> gegen null konvergieren und nähern sich dabei die Durchschnittsgeschwindigkeiten ebenfalls einem festen Wert an, dann wird dieser Wert die (Momentan-)Geschwindigkeit <math>v(t)</math> zu dem gegebenen Zeitpunkt <math>t</math> genannt. Bezeichnet <math>x(t)</math> die Position des Körpers zur Zeit <math>t</math>, dann schreibt man <math>v(t) = x'(t)</math> und nennt <math>v</math> die Ableitung von <math>x</math>.<br />
<br />
Der entscheidende Schritt in die Richtung der Differentialgleichungsmodelle ist nun die umgekehrte Fragestellung: Im Beispiel des bewegten Körpers sei also zu jeden Zeitpunkt <math>t</math> die Geschwindigkeit <math>v(t)</math> bekannt und daraus soll seine Position <math>x(t)</math> bestimmt werden. Es ist anschaulich klar, dass zusätzlich die Anfangsposition des Körpers zu einem Zeitpunkt <math>t_0</math> bekannt sein muss, um dieses Problem eindeutig lösen zu können. Es ist also eine Funktion <math>x(t)</math> mit <math>x'(t) = v(t)</math> gesucht, die die Anfangsbedingung <math>x(t_0) = x_0</math> mit gegebenen Werten <math>t_0</math> und <math>x_0</math> erfüllt. In diesem einfachsten Fall eines Anfangswertproblems ist die Ableitung der gesuchten Funktion explizit gegeben. Meist liegt jedoch der wichtige allgemeine Fall gewöhnlicher Differentialgleichungen vor: Für eine gesuchte Funktion <math>y</math> ist aufgrund der Naturgesetze oder der Modellannahmen ein Funktionszusammenhang bekannt, der angibt, wie die Ableitung <math>y'(t)</math> aus <math>t</math> und aus dem (unbekannten) Wert <math>y(t)</math> berechnet werden kann. Zusammen mit der Anfangsbedingung liegt also der folgende allgemeine Aufgabentyp vor: Man finde die Funktion <math>y</math>, die die Gleichungen<br />
<br />
: <math>y'(t) = f(t, y(t)), \quad y(t_0) = y_0</math><br />
<br />
erfüllt, wobei <math>f</math> eine gegebene Funktion ist. Ein einfaches Beispiel ist eine Größe <math>y</math>, die [[Exponentielles Wachstum|exponentiell wächst]]. Das bedeutet, dass die momentane Änderung, also die Ableitung <math>y'(t)</math> [[Proportionalität|proportional]] zu <math>y(t)</math> selbst ist. Es gilt also <math>y'(t) = \lambda \cdot y(t)</math> mit einer Wachstumsrate <math>\lambda</math> und beispielsweise einer Anfangsbedingung <math>y(0) = y_0</math>. Die gesuchte Lösung <math>y</math> lässt sich in diesem Fall leicht mit elementarer Differentialrechnung finden und mithilfe der [[Exponentialfunktion]] angeben: Es gilt <math>y(t) = y_0 \cdot e^{\lambda \cdot t}</math>.<br />
<br />
[[Datei:Binary system orbit q=10 e=0.5.gif|miniatur|Das [[Zweikörperproblem]] wird in der Ebene durch ein System von vier Differentialgleichungen zweiter Ordnung beschrieben.]]<br />
Die gesuchte Funktion <math>y</math> in einer Differentialgleichung kann auch [[Vektorwertige Funktion|vektorwertig]] sein, das heißt, für jedes <math>t</math> kann <math>y(t) = (y_1(t), \dotsc, y_d(t))</math> ein [[Vektor]] mit <math>d</math> Komponenten sein. Man spricht dann auch von einem <math>d</math>-dimensionalen Differentialgleichungssystem. Im Anschauungsfall eines bewegten Körpers ist dann <math>y(t)</math> seine Position im <math>d</math>-dimensionalen [[Euklidischer Raum|euklidischen Raum]] und <math>y'(t)</math> seine [[Geschwindigkeit]] zur Zeit <math>t</math>. Durch die Differentialgleichung ist also in jedem Zeit- und Raumpunkt die Geschwindigkeit der gesuchten [[Trajektorie (Physik)|Bahnkurve]] mit Richtung und Betrag vorgegeben. Daraus soll die Bahn selbst berechnet werden.<br />
<br />
=== Grundidee der Einschrittverfahren ===<br />
Bei der oben als Beispiel betrachteten einfachen Differentialgleichung des exponentiellen Wachstums ließ sich die Lösungsfunktion direkt angeben. Das ist bei komplizierteren Problemen im Allgemeinen nicht mehr möglich. Man kann dann zwar unter gewissen Zusatzvoraussetzungen an die Funktion <math>f</math> zeigen, dass eine eindeutig bestimmte Lösung des Anfangswertproblems existiert; diese kann aber dann nicht mehr durch Lösungsverfahren der Analysis (wie beispielsweise [[Trennung der Variablen]], einen [[Exponentialansatz]] oder [[Variation der Konstanten]]) explizit berechnet werden. In diesem Fall können numerische Verfahren verwendet werden, um Näherungen für die gesuchte Lösung zu bestimmen.<br />
<br />
Die Verfahren zur numerischen Lösung von Anfangswertproblemen gewöhnlicher Differentialgleichung lassen sich grob in zwei große Gruppen einteilen: die Einschritt- und die Mehrschrittverfahren. Beiden Gruppen ist gemeinsam, dass sie schrittweise Näherungen <math>y_0, y_1, y_2 \dotsc</math> für die gesuchten Funktionswerte <math>y(t_0), y(t_1), y(t_2)<br />
\dotsc</math> an Stellen <math>t_0 < t_1 < t_2 < \ldots</math> berechnen. Die definierende Eigenschaft der Einschrittverfahren ist dabei, dass zur Bestimmung der folgenden Näherung <math>y_{j+1}</math> nur die „aktuelle“ Näherung <math>y_j</math> verwendet wird. Bei Mehrschrittverfahren gehen im Gegensatz dazu zusätzlich bereits zuvor berechnete Näherungen mit ein; ein 3-Schrittverfahren würde also beispielsweise außer <math>y_j</math> auch noch <math>y_{j-1}</math> und <math>y_{j-2}</math> zur Bestimmung der neuen Näherung <math>y_{j+1}</math> verwenden.<br />
<br />
Das einfachste und grundlegendste Einschrittverfahren ist das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]], das der Schweizer Mathematiker und Physiker [[Leonhard Euler]] 1768 in seinem Lehrbuch ''Institutiones Calculi Integralis'' vorstellte. Die Idee dieser Methode ist es, die gesuchte Lösung durch eine stückweise lineare Funktion anzunähern, bei der in jedem Schritt von der Stelle <math>t_j</math> zur Stelle <math>t_{j+1}</math> die Steigung des Geradenstücks durch <math>f(t_j, y_j)</math> gegeben ist. Genauer betrachtet: Durch die Problemstellung ist bereits ein Wert der gesuchten Funktion gegeben, nämlich <math>y(t_0) = y_0</math>. Aber auch die Ableitung an dieser Stelle ist bekannt, denn es gilt <math>y'(t_0) = f(t_0, y_0)</math>. Damit kann die Tangente an den Graphen der Lösungsfunktion bestimmt und als Näherung verwendet werden. An der Stelle <math>t_1 > t_0</math> ergibt sich mit der Schrittweite <math>h_0 := t_1 - t_0</math><br />
: <math>y(t_1) \approx y_0 + h_0 \cdot f(t_0, y_0) =: y_1</math>.<br />
Dieses Vorgehen kann nun in den folgenden Schritten fortgesetzt werden. Insgesamt ergibt sich damit für das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]] die Rechenvorschrift<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_j, y_j), \quad j = 0,1,2\dotsc</math><br />
mit den Schrittweiten <math>h_j = t_{j+1} - t_j</math>.<ref>{{Literatur |Autor=[[Wolfgang Dahmen (Mathematiker)|Wolfgang Dahmen]], Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Seiten=386 f.}}</ref><br />
<br />
Das explizite Euler-Verfahren ist der Ausgangspunkt für zahlreiche Verallgemeinerungen, bei denen die Steigung <math>f(t_j, y_j)</math>, durch Steigungen ersetzt wird, die das Verhalten der Lösung zwischen den Stellen <math>t_j</math> und <math>t_{j+1}</math> genauer annähern. Eine zusätzliche Idee für Einschrittverfahren bringt das ''implizite'' Eulerverfahren, das <math>f(t_{j+1}, y_{j+1})</math> als Steigung verwendet. Diese Wahl erscheint auf den ersten Blick wenig geeignet, da ja <math>y_{j+1}</math> unbekannt ist. Als Verfahrensschritt erhält man aber nun die Gleichung<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_{j+1}, y_{j+1})</math> <br />
aus der <math>y_{j+1}</math> (gegebenenfalls durch ein numerisches Verfahren) berechnet werden kann. Wählt man beispielsweise als Steigung das [[Arithmetisches Mittel|arithmetische Mittel]] aus den Steigungen des expliziten und des impliziten Euler-Verfahrens, so erhält man das implizite [[Trapez-Methode|Trapez-Verfahren]]. Aus diesen lässt sich wiederum ein explizites Verfahren gewinnen, wenn man zum Beispiel das unbekannte <math>y_{j+1}</math> auf der rechten Seite der Gleichung durch die Näherung des expliziten Euler-Verfahren nähert, das sogenannte [[Heun-Verfahren]]. All diesen Verfahren und allen weiteren Verallgemeinerungen ist die Grundidee der Einschrittverfahren gemeinsam: der Schritt<br />
: <math>y_{j+1} = y_j + h_j \cdot \Phi_f</math><br />
mit einer Steigung, die von <math>t_j</math>, <math>y_j</math> und <math>h_j</math> sowie (bei impliziten Verfahren) von <math>y_{j+1}</math> abhängen kann.<br />
<br />
== Definition ==<br />
Gesucht sei die Lösung <math>y</math> des Anfangswertproblems<br />
: <math>y'(t) = f(t, y(t))</math>, <math>\quad y(t_0) = y_0</math>.<br />
Dabei werde vorausgesetzt, dass die Lösung<br />
: <math>y \colon I \to \R^d</math><br />
auf einem gegebenen Intervall <math>I = [t_0, T]</math> existiert und eindeutig bestimmt ist.<br />
Sind<br />
: <math>t_0 < t_1 < t_2 < \ldots < t_n = T</math><br />
Zwischenstellen im Intervall <math>I</math> und <math>h_j = t_{j+1} - t_j</math> die zugehörigen Schrittweiten, dann heißt<br />
das durch<br />
: <math>y_{j+1} = y_j + h_j \Phi_f(t_j, y_j, y_{j+1}, h_j)</math>, <math>\quad j=0,\dotsc,n-1</math><br />
gegebene Verfahren ''Einschrittverfahren'' mit ''Verfahrensfunktion'' <math>\Phi_f</math>. Wenn <math>\Phi_f</math> nicht von <math>y_{j+1}</math> abhängt, dann nennt man es ''explizites Einschrittverfahren''. Anderenfalls muss in jedem Schritt <math>j</math> eine Gleichung für <math>y_{j+1}</math> gelöst werden, und das Verfahren wird ''implizit'' genannt.<br />
<br />
== Konsistenz und Konvergenz ==<br />
Für ein praxistaugliches Einschrittverfahren sollen die berechneten <math>y_j</math> gute Näherungen für Werte <math>y(t_j)</math> der exakten Lösung <math>y</math> an der Stelle <math>t_j</math> sein. Da im Allgemeinen die Größen <math>d</math>-dimensionale Vektoren sind, misst man die Güte dieser Näherung mit einer [[Vektornorm]] als Fehler <math>\|y_j -y(t_j)\|</math>. Es ist wünschenswert, dass diese Fehler für alle <math>j</math> schnell gegen null konvergieren, falls man die Schrittweiten gegen null konvergieren lässt. Um auch den Fall nicht konstanter Schrittweiten zu erfassen, definiert man dazu genauer <math>h</math> als das Maximum der verwendeten Schrittweiten und betrachtet das Verhalten des maximalen Fehlers an allen Stellen <math>t_j</math> im Vergleich zu Potenzen von <math>h</math>. Man sagt, das Einschrittverfahren zur Lösung des gegebenen Anfangswertproblems habe die ''Konvergenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\max_{j=0,\dotsc,n} \|y_j - y(t_j)\| \leq C h^p</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
<br />
Die Konvergenzordnung ist die wichtigste Kenngröße für den Vergleich verschiedener Einschrittverfahren.ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=156}}</ref> Ein Verfahren mit höherer Konvergenzordnung <math>p</math> liefert im Allgemeinen bei vorgegebener Schrittweite einen kleineren Gesamtfehler bzw. umgekehrt sind weniger Schritte nötig, um eine vorgegebene Genauigkeit zu erreichen. Bei einem Verfahren mit <math>p = 1</math> ist zu erwarten, dass sich bei einer Halbierung der Schrittweite auch der Fehler nur ungefähr halbiert. Bei einem Verfahren der Konvergenzordnung <math>p=4</math> kann man hingegen davon ausgehen, dass sich dabei der Fehler ungefähr um den Faktor <math>\left(\tfrac{1}{2}\right)^4 = \tfrac{1}{16}</math> verringert.<br />
<br />
Die in der Definition der Konvergenzordnung betrachteten Fehler <math>\|y_j - y(t_j)\|</math> setzen sich auf eine zunächst kompliziert erscheinende Weise aus zwei Einzelkomponenten zusammen: Natürlich hängen sie zum einen von dem Fehler ab, den das Verfahren in einem einzelnen Schritt macht, indem es die unbekannte Steigung der gesuchten Funktion durch die Verfahrensfunktion annähert. Zum anderen ist aber zusätzlich zu berücksichtigen, dass bereits der Startpunkt <math>(t_j, y_j)</math> eines Schrittes nicht von der exakten Stelle <math>(t_j, y(t_j))</math> aus erfolgt; der Fehler nach diesem Schritt hängt also auch von ''allen'' Fehlern ab, die bereits in der vorangegangenen Schritten gemacht wurden. Aufgrund der einheitlichen Definition der Einschrittverfahren, die sich nur in der Wahl der Verfahrensfunktion <math>\Phi_f</math> unterscheiden, lässt sich aber beweisen, dass man (unter gewissen technischen Voraussetzungen an <math>\Phi_f</math>) direkt von der Fehlerordnung in einem einzelnen Schritt, der sogenannten ''Konsistenzordnung'', auf die Konvergenzordnung schließen kann.<br />
<br />
Das Begriff der [[Konsistenz (Numerik)|Konsistenz]] ist ein allgemeines und zentrales Konzept der modernen numerischen Mathematik. Während man bei der Konvergenz eines Verfahrens untersucht, wie gut die numerischen Näherungen zur exakten Lösung passen, stellt man sich bei der Konsistenz vereinfacht gesprochen die „umgekehrte“ Frage: Wie gut erfüllt die exakte Lösung die Verfahrensvorschrift? In dieser allgemeinen Theorie gilt, dass ein Verfahren genau dann konvergent ist, wenn es konsistent und [[Stabilität (Numerik)|stabil]] ist. Um die Notation zu vereinfachen, soll in der folgenden Überlegung angenommen werden, dass ein explizites Einschrittverfahren<br />
: <math>y_{j+1} = y_j + h \Phi_f(t_j, y_j, h)</math><br />
mit konstanter Schrittweite <math>h</math> vorliegt. Mit der wahren Lösung <math>t \mapsto y(t)</math> definiert man den ''lokalen Abschneidefehler'' (auch ''lokaler Verfahrensfehler'' genannt) <math>\eta</math> als<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
: <math>\eta(t,h) = y(t) + h \Phi_f(t, y(t), h) - y(t+h)</math>.<br />
Man nimmt also an, dass die exakte Lösung bekannt ist, startet einen Verfahrensschritt an der Stelle <math>(t,y(t))</math> und bildet die Differenz zu exakten Lösung an der Stelle <math>t + h</math>. Damit definiert man: Ein Einschrittverfahren hat die ''Konsistenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\|\eta(t,h)\| \leq C h^{p+1}</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<br />
<br />
Der auffällige Unterschied zwischen den Definitionen der Konsistenzordnung und der Konvergenzordnung ist die Potenz <math>h^{p+1}</math> anstelle von <math>h^p</math>. Das lässt sich anschaulich so deuten, dass beim Übergang vom lokalen zum globalen Fehler eine Potenz der Schrittweite „verlorengeht“. Es gilt nämlich der folgende, für die Theorie der Einschrittverfahren zentrale Satz:<br />
: ''Ist die Verfahrensfunktion <math>\Phi_f</math> [[Lipschitz-Stetigkeit|Lipschitz-stetig]] und hat das zugehörige Einschrittverfahren die Konsistenzordnung <math>p</math>, dann hat es die auch die Konvergenzordnung <math>p</math>.''<br />
Die Lipschitz-Stetigkeit als Zusatzvoraussetzung für die Stabilität ist normalerweise leicht einzusehen, wenn die Funktion <math>f</math> aus der Differentialgleichung Lipschitz-stetig ist. Diese Forderung ist im Allgemeinen sowieso vorausgesetzt, um die eindeutige Lösbarkeit des Anfangswertproblems zu garantieren. Nach dem Satz genügt es also, die Konsistenzordnung eines Einschrittverfahrens zu bestimmen. Das lässt sich prinzipiell durch [[Taylor-Formel|Taylor-Entwicklung]] von <math>\eta(t,h)</math> nach Potenzen von <math>h</math> erreichen. In der Praxis werden die entstehenden Formeln für höhere Ordnungen sehr kompliziert und unübersichtlich, sodass zusätzliche Konzepte und Notationen benötigt werden.<br />
<br />
== Spezielle Verfahren und Verfahrensklassen ==<br />
[[Datei:Runge-kutta.svg|miniatur|Einige Einschrittverfahren im Vergleich]]<br />
=== Einfache Verfahren der Ordnung 1 und 2 ===<br />
Wenn man die Steigungen <math>f(t_j, y_j)</math> des [[Explizites_Euler-Verfahren|expliziten Euler-Verfahrens]] und <math>f(t_{j+1},y_{j+1})</math> des [[Implizites_Euler-Verfahren|impliziten Euler-Verfahrens]], wie sie an den beiden Endpunkten eines Schritts vorliegen, mittelt, kann man hoffen, eine bessere Näherung über das ganze Intervall zu erhalten. Tatsächlich lässt sich beweisen, dass das so erhaltene [[Trapez-Methode|''implizite Trapez-Verfahren'']]<br />
: <math>y_{j+1} = y_j + \frac{h}{2} \Big( f(t_j, y_j) + f(t_{j+1},y_{j+1}) \Big)</math> <br />
die [[Konvergenzgeschwindigkeit|Konvergenzordnung]] 2 hat. Dieses Verfahren weist sehr gute Stabilitätseigenschaften auf, ist allerdings implizit, sodass in jedem Schritt eine Gleichung für <math>y_{j+1}</math> gelöst werden muss. Nähert man diese Größe auf der rechten Seite der Gleichung durch das explizite Euler-Verfahren an, so entsteht das explizite ''Verfahren von Heun''<br />
: <math>y_{j+1} = y_j + \frac{h}{2}\Big[f(t_j, y_j) + f\big(t_{j+1},y_j + hf(t_j,y_j)\big) \Big]</math>,<br />
das ebenfalls die Konvergenzordnung 2 besitzt. Ein weiteres einfaches explizites Verfahren der Ordnung 2, das [[Explizites_Euler-Verfahren#Verbessertes_explizites_Euler-Verfahren|''verbesserte Euler-Verfahren'']], erhält man durch folgende Überlegung: Eine „mittlere“ Steigung im Verfahrensschritt wäre die Steigung der Lösung <math>y</math> in der Mitte des Schritts, also an der Stelle <math>t_j + \tfrac{h}{2}</math>. Da die Lösung aber unbekannt ist, nähert man sie durch einen expliziten Euler-Schritt mit halber Schrittweite an. Es ergibt sich die Verfahrensvorschrift<br />
: <math>y_{j+1} = y_j + h f\big(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}f(t_j,y_j)\big)</math>.<br />
<br />
=== Runge-Kutta-Verfahren ===<br />
Die erwähnten Ideen für einfache Einschrittverfahren führen bei weiterer Verallgemeinerung zur wichtigen Klasse der Runge-Kutta-Verfahren. Zum Beispiel lässt sich das Verfahren von Heun übersichtlicher so präsentieren: Zuerst wird eine Hilfssteigung <math>k_1 = f(t_j, y_j)</math> berechnet, nämlich die Steigung des expliziten Euler-Verfahrens. Damit wird eine weitere Hilfssteigung bestimmt, hier <math>k_2 = f(t_j + h, y_h + h k_1)</math>. Die tatsächlich verwendete Steigung, also <math>\Phi_f</math> ergibt sich anschließend als ein gewichtetes Mittel der Hilfssteigungen, im Verfahren von Heun also <math>\tfrac{1}{2} k_1 + \tfrac{1}{2} k_2</math>. Dieses Vorgehen lässt sich auf mehr als zwei Hilfssteigungen verallgemeinern. Ein <math>s</math>-stufiges Runge-Kunge-Kutta-Verfahren berechnet zunächst Hilfssteigungen <math>k_1, \dotsc, k_s</math> durch Auswertung von <math>f</math> an geeigneten Stellen und anschließend <math>\Phi_f</math> als gewichtetes Mittel. Bei einem expliziten Runge-Kutta-Verfahren werden die Hilfssteigungen <math>k_1, k_2, k_3, \dotsc</math> der Reihe nach direkt berechnet, bei einem impliziten ergeben sie sich als Lösungen eines Gleichungsystems. Als typisches Beispiel sei das explizite [[Klassisches Runge-Kutta-Verfahren|klassische Runge-Kutta-Verfahren]] der Ordnung 4 angeführt, dass mitunter einfach als ''das'' Runge-Kutta-Verfahren bezeichnet wird: Dabei werden zunächst die vier Hilfssteigungungen <math>k_1 = f(t_j, y_j)</math>, <math>k_2 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_1)</math>, <math>k_3 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_2)</math> und <math>k_4 = f(t_j+h, y_j + hk_3)</math> berechnet und dann als Verfahrenssteigung das gewichtete Mittel <math>\tfrac{1}{6} k_1 + \tfrac{1}{3} k_2 + \tfrac{1}{3} k_3 + \tfrac{1}{6} k_4</math> verwendet.<br />
<br />
== Literatur ==<br />
* {{Literatur |Autor=Wolfgang Dahmen, Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Kapitel=Kap. 11: ''Gewöhnliche Differentialgleichungen''}}<br />
* {{Literatur |Autor=[[Peter Deuflhard]], [[Folkmar Bornemann]] |Titel=Numerische Mathematik 2 – Gewöhnliche Differentialgleichungen |Auflage=3. |Verlag=Walter de Gruyter |Ort=Berlin |Jahr=2008 |ISBN=978-3-11-020356-1}}<br />
* {{Literatur |Autor=David F. Griffiths, Desmond J. Higham |Titel=Numerical Methods for Ordinary Differential Equations – Initial Value Problems |Verlag=Springer |Ort=London |Jahr=2010 |ISBN=978-0-85729-147-9}}<br />
* {{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 | Kapitel=Kap. 7: ''Einschrittverfahren für Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Hans Rudolf Schwarz, Norbert Köckler |Titel=Numerische Mathematik |Auflage=8. |Verlag=Vieweg+Teubner |Ort=Wiesbaden |Jahr=2011 |ISBN=978-3-8348-1551-4 |Kapitel=Kap. 8: ''Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Karl Strehmel, Rüdiger Weiner, Helmut Podhaisky |Titel=Numerik gewöhnlicher Differentialgleichungen |Auflage=2. |Verlag=Springer Spektrum |Ort=Wiesbaden |Jahr=2012 |ISBN=978-3-8348-1847-8}}<br />
<br />
== Weblinks ==<br />
<br />
* {{Internetquelle |url=http://num.math.uni-bayreuth.de/de/team/Gruene_Lars/lecture_notes/num2/num2_3.pdf |autor=Lars Grüne |titel=Numerische Methoden für gewöhnliche Differentialgleichungen (Numerische Mathematik II) |datum=2008 |format=PDF |kommentar=Vorlesungsskript der [[Universität Bayreuth]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=http://www.mathematik.tu-darmstadt.de/fbereiche/numerik/staff/spellucci/docs/odess07.pdf |autor=Peter Spellucci |titel=Numerik gewöhnlicher Differentialgleichungen |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[TU Darmstadt]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=https://home.zhaw.ch/~fuh/MUDS/FILES/MUDS_Chapter_05.pdf |autor=Hans U. Fuchs |titel=Numerical Methods for Differential Equations |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[Zürcher Hochschule für Angewandte Wissenschaften]] |zugriff=2017-09-08 |sprache=en}}<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{Schreibwettbewerb}}<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie gewöhnlicher Differentialgleichungen]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Explizites_Euler-Verfahren&diff=169195120Explizites Euler-Verfahren2017-09-17T19:52:57Z<p>HerrHartmuth: Neues Kapitel: verbessertes explizites Euler-Verfahren</p>
<hr />
<div>Das '''eulersche Polygonzugverfahren''' oder '''explizite Euler-Verfahren''' (auch Euler-Cauchy-Verfahren oder Euler-vorwärts-Verfahren) ist das einfachste Verfahren zur [[Numerische Mathematik|numerischen]] Lösung eines [[Anfangswertproblem]]s. <br />
<br />
Es wurde von [[Leonhard Euler]] 1768 in seinem Buch ''Institutiones Calculi Integralis'' vorgestellt. [[Augustin Louis Cauchy|Cauchy]] benutzte es, um einige Eindeutigkeitsresultate für [[gewöhnliche Differentialgleichung]]en zu beweisen. <br />
<br />
Das Verfahren wird manchmal in der Physik als [[Methode der kleinen Schritte]] bezeichnet.<br />
<br />
== Das Verfahren ==<br />
<br />
Zur numerischen Lösung des Anfangswert-Problems:<br />
<br />
:<math> \dot{y}=f(t,y), \quad \quad y(t_0)=y_0 </math><br />
<br />
für eine gewöhnliche Differentialgleichung wähle man eine Diskretisierungs-Schrittweite<br />
<math> h>0 </math>, betrachte die diskreten Zeitpunkte<br />
<br />
:<math> t_k=t_0+kh, \quad \quad k=0,1,2,\dots </math><br />
<br />
und berechne die Werte<br />
<br />
:<math> y_{k+1}=y_k+hf(t_k,y_k),\quad k=0,1,2,\dots </math><br />
<br />
Die berechneten Werte <math> y_k</math> stellen Approximationen an die tatsächlichen Werte <math> y(t_k)</math> der exakten Lösung des Anfangswert-Problems dar. Je kleiner die Schrittweite <math>h</math> gewählt ist, desto mehr Rechenarbeit ist nötig, aber desto genauer werden auch die approximierten Werte.<br />
<br />
Eine Modifikation des Verfahrens besteht hier darin, dass man die Schrittweite variabel wählt. Eine sinnvolle Veränderung der Schrittweite setzt einen Algorithmus zur [[Schrittweitensteuerung]] voraus, der den Fehler im aktuellen Schritt abschätzt und dann die Schrittweite für den nächsten Schritt dementsprechend wählt.<br />
<br />
Wird ein Verfahren über <math> y_{k+1}=y_k+hf(t_{k+1},y_{k+1})</math> definiert, erhält man das [[Implizites Euler-Verfahren|implizite Euler-Verfahren]].<br />
Dieses ist [[A-Stabilität|A-stabil]] und daher für [[Steifes Anfangswertproblem|steife Anfangswertprobleme]] besser geeignet.<br />
<br />
== Herleitung ==<br />
Für die Herleitung von [[Einschrittverfahren]] wird das [[Anfangswertproblem]] meist in der zu ihr äquivalenten [[Integralgleichung]] umgeformt<br />
<ref>{{Literatur|Autor=Reusken, Arnold.|Titel=Numerik für Ingenieure und Naturwissenschaftler|Hrsg=|Sammelwerk=|Band=|Nummer=|Auflage=|Verlag=Springer|Ort=Berlin|Datum=2006|Seiten=378|ISBN=3540255443|Online=https://www.worldcat.org/oclc/181518213}}</ref><br />
: <math><br />
\begin{align}<br />
\dot{y}&=f(t,y) \,, \qquad y(t_0)=y_0 \\<br />
\Longleftrightarrow \quad y(t) &= y_0 + \int_{t_0}^t f(s,y(s)) \, \mathrm ds \,.<br />
\end{align}<br />
</math><br />
Nun besteht die Idee beim ''expliziten Euler-Verfahren'' eine simple [[Numerische Integration|Quadraturformel]] für das Integral zu benutzen: die [[Mittelpunktsregel#Boxregel|linksseitige Boxregel]]. Man wählt in jedem <math> k </math>-ten Schritt den Integranden als konstanen Wert an der linken Intervallgrenze<br />
<ref>{{Literatur|Autor=Reusken, Arnold.|Titel=Numerik für Ingenieure und Naturwissenschaftler|Hrsg=|Sammelwerk=|Band=|Nummer=|Auflage=|Verlag=Springer|Ort=Berlin|Datum=2006|Seiten=381|ISBN=3540255443|Online=https://www.worldcat.org/oclc/181518213}}</ref><br />
: <math><br />
y(t_{k+1}) <br />
= y(t_k) + \int_{t_k}^{t_{k+1}} f(s,y(s)) \, \mathrm ds<br />
\approx y_k + \int_{t_k}^{t_{k+1}} f(t_k,y_k) \, \mathrm ds<br />
= y_k + h f(t_k,y_k) <br />
=: y_{k+1} \,.<br />
</math><br />
<br />
== Eigenschaften ==<br />
[[Datei:Stability_region_for_Euler_method.svg|thumb|right|Stabilitätsgebiet des expliziten Euler-Verfahrens]]<br />
Das explizite Euler-Verfahren hat [[Konsistenzordnung|Konsistenz-]] und [[Konvergenzordnung]] 1. Die [[Stabilitätsfunktion]] ist <math>R(z)=1+z</math> und sein [[Stabilitätsgebiet]] daher das Innere des Kreises um −1 mit Radius 1 in der [[Komplexe Zahlen|komplexen Zahlenebene]].<br />
<br />
== Verbessertes explizites Euler-Verfahren ==<br />
Anstatt die [[Mittelpunktsregel#Boxregel|Boxregel]] für die numerische Integration zu verwenden kann man auch die [[Mittelpunktsregel]] anwenden.<br />
:<math><br />
\int_{t_k}^{t_{k+1}} f(s,y(s)) \, \mathrm ds<br />
\approx h f\left(t_k +\frac{h}{2},y\left(t_k +\frac{h}{2}\right) \right) \,.<br />
</math><br />
Nun wendet man wieder das explizite Euler-Verfahren zur Approximation von <math>y\left(t_k +\frac{h}{2}\right)</math> an<br />
:<math><br />
y\left(t_k +\frac{h}{2}\right)<br />
\approx y_k + \frac{h}{2} f(t_k,y_k)<br />
=: y_{k+\frac{1}{2}} \,.<br />
</math><br />
Zusammen führt dies auf das ''verbesserte explizite Euler-Verfahren'' (oder ''Euler-Verfahren mit kleinerer Schrittweite'')<br />
<ref>{{Literatur|Autor=Reusken, Arnold.|Titel=Numerik für Ingenieure und Naturwissenschaftler|Hrsg=|Sammelwerk=|Band=|Nummer=|Auflage=|Verlag=Springer|Ort=Berlin|Datum=2006|Seiten=382|ISBN=3540255443|Online=https://www.worldcat.org/oclc/181518213}}</ref><br />
:<math><br />
y_{k+1} = y_k + h f\left(t_k +\frac{h}{2},y_{k+\frac{1}{2}} \right) <br />
\quad \text{mit} \quad<br />
y_{k+\frac{1}{2}} = y_k + \frac{h}{2} f(t_k,y_k)<br />
\,.<br />
</math><br />
<br />
== Verallgemeinerungen ==<br />
<br />
Es lässt sich im Wesentlichen durch zwei verschiedene Ideen auf effizientere Verfahren verallgemeinern.<br />
<br />
* Die erste Idee ist, bei der Berechnung des nächsten Schrittes mehr als nur einen der zuvor berechneten Werte mit einzubeziehen. Auf diese Weise erhält man Verfahren höherer Ordnung in der Klasse der linearen [[Mehrschrittverfahren]].<br />
<br />
* Die zweite Idee ist, bei der Berechnung des nächsten Schrittes die Funktion <math> f(t,y)</math> auf dem Intervall <math> [t_k,t_{k+1}]</math> an mehreren Stellen auszuwerten. Auf diese Weise erhält man die Klasse der [[Runge-Kutta-Verfahren]].<br />
<br />
Die Klasse der allgemeinen linearen Verfahren bezieht beide Ideen der<br />
Verallgemeinerung mit ein und enthält die Klasse der linearen Mehrschrittverfahren sowie die Klasse der Runge-Kutta-Verfahren als<br />
Spezialfall.<br />
<br />
* Darüber hinaus gibt es auch eine Erweiterung des Euler-Verfahrens für [[stochastische Differentialgleichung]]en: das [[Euler-Maruyama-Verfahren]].<br />
<br />
== Literatur ==<br />
* E. Hairer, S.P. Norsett, G. Wanner: ''Solving Ordinary Differential Equations I'', Springer Verlag<br />
* M. Hermann: ''Numerik gewöhnlicher Differentialgleichungen, Anfangs- und Randwertprobleme'', Oldenbourg Verlag, München und Wien, 2004, ISBN 3-486-27606-9<br />
<br />
[[Kategorie:Theorie gewöhnlicher Differentialgleichungen]]<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Leonhard Euler als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Explizites_Euler-Verfahren&diff=169192289Explizites Euler-Verfahren2017-09-17T18:34:37Z<p>HerrHartmuth: Kapitel hinzugefügt: Herleitung</p>
<hr />
<div>Das '''eulersche Polygonzugverfahren''' oder '''explizite Euler-Verfahren''' (auch Euler-Cauchy-Verfahren oder Euler-vorwärts-Verfahren) ist das einfachste Verfahren zur [[Numerische Mathematik|numerischen]] Lösung eines [[Anfangswertproblem]]s. <br />
<br />
Es wurde von [[Leonhard Euler]] 1768 in seinem Buch ''Institutiones Calculi Integralis'' vorgestellt. [[Augustin Louis Cauchy|Cauchy]] benutzte es, um einige Eindeutigkeitsresultate für [[gewöhnliche Differentialgleichung]]en zu beweisen. <br />
<br />
Das Verfahren wird manchmal in der Physik als [[Methode der kleinen Schritte]] bezeichnet.<br />
<br />
== Das Verfahren ==<br />
<br />
Zur numerischen Lösung des Anfangswert-Problems:<br />
<br />
:<math> \dot{y}=f(t,y), \quad \quad y(t_0)=y_0 </math><br />
<br />
für eine gewöhnliche Differentialgleichung wähle man eine Diskretisierungs-Schrittweite<br />
<math> h>0 </math>, betrachte die diskreten Zeitpunkte<br />
<br />
:<math> t_k=t_0+kh, \quad \quad k=0,1,2,\dots </math><br />
<br />
und berechne die Werte<br />
<br />
:<math> y_{k+1}=y_k+hf(t_k,y_k),\quad k=0,1,2,\dots </math><br />
<br />
Die berechneten Werte <math> y_k</math> stellen Approximationen an die tatsächlichen Werte <math> y(t_k)</math> der exakten Lösung des Anfangswert-Problems dar. Je kleiner die Schrittweite <math>h</math> gewählt ist, desto mehr Rechenarbeit ist nötig, aber desto genauer werden auch die approximierten Werte.<br />
<br />
Eine Modifikation des Verfahrens besteht hier darin, dass man die Schrittweite variabel wählt. Eine sinnvolle Veränderung der Schrittweite setzt einen Algorithmus zur [[Schrittweitensteuerung]] voraus, der den Fehler im aktuellen Schritt abschätzt und dann die Schrittweite für den nächsten Schritt dementsprechend wählt.<br />
<br />
Wird ein Verfahren über <math> y_{k+1}=y_k+hf(t_{k+1},y_{k+1})</math> definiert, erhält man das [[Implizites Euler-Verfahren|implizite Euler-Verfahren]].<br />
Dieses ist [[A-Stabilität|A-stabil]] und daher für [[Steifes Anfangswertproblem|steife Anfangswertprobleme]] besser geeignet.<br />
<br />
== Herleitung ==<br />
Für die Herleitung von [[Einschrittverfahren]] wird das [[Anfangswertproblem]] meist in der zu ihr äquivalenten [[Integralgleichung]] umgeformt<br />
<ref>{{Literatur|Autor=Reusken, Arnold.|Titel=Numerik für Ingenieure und Naturwissenschaftler|Hrsg=|Sammelwerk=|Band=|Nummer=|Auflage=|Verlag=Springer|Ort=Berlin|Datum=2006|Seiten=378|ISBN=3540255443|Online=https://www.worldcat.org/oclc/181518213}}</ref><br />
: <math><br />
\begin{align}<br />
\dot{y}&=f(t,y) \,, \qquad y(t_0)=y_0 \\<br />
\Longleftrightarrow \quad y(t) &= y_0 + \int_{t_0}^t f(s,y(s)) \, \mathrm ds \,.<br />
\end{align}<br />
</math><br />
Nun besteht die Idee beim ''expliziten Euler-Verfahren'' eine simple [[Numerische Integration|Quadraturformel]] für das Integral zu benutzen: die [[Mittelpunktsregel#Boxregel|linksseitige Boxregel]]. Man wählt in jedem <math> k </math>-ten Schritt den Integranden als konstanen Wert an der linken Intervallgrenze<br />
<ref>{{Literatur|Autor=Reusken, Arnold.|Titel=Numerik für Ingenieure und Naturwissenschaftler|Hrsg=|Sammelwerk=|Band=|Nummer=|Auflage=|Verlag=Springer|Ort=Berlin|Datum=2006|Seiten=381|ISBN=3540255443|Online=https://www.worldcat.org/oclc/181518213}}</ref><br />
: <math><br />
y(t_{k+1}) <br />
= y(t_k) + \int_{t_k}^{t_{k+1}} f(s,y(s)) \, \mathrm ds<br />
\approx y_k + \int_{t_k}^{t_{k+1}} f(t_k,y_k) \, \mathrm ds<br />
= y_k + h f(t_k,y_k) <br />
=: y_{k+1} \,.<br />
</math><br />
<br />
== Eigenschaften ==<br />
[[Datei:Stability_region_for_Euler_method.svg|thumb|right|Stabilitätsgebiet des expliziten Euler-Verfahrens]]<br />
Das explizite Euler-Verfahren hat [[Konsistenzordnung|Konsistenz-]] und [[Konvergenzordnung]] 1. Die [[Stabilitätsfunktion]] ist <math>R(z)=1+z</math> und sein [[Stabilitätsgebiet]] daher das Innere des Kreises um −1 mit Radius 1 in der [[Komplexe Zahlen|komplexen Zahlenebene]].<br />
<br />
== Verallgemeinerungen ==<br />
<br />
Es lässt sich im Wesentlichen durch zwei verschiedene Ideen auf effizientere Verfahren verallgemeinern.<br />
<br />
* Die erste Idee ist, bei der Berechnung des nächsten Schrittes mehr als nur einen der zuvor berechneten Werte mit einzubeziehen. Auf diese Weise erhält man Verfahren höherer Ordnung in der Klasse der linearen [[Mehrschrittverfahren]].<br />
<br />
* Die zweite Idee ist, bei der Berechnung des nächsten Schrittes die Funktion <math> f(t,y)</math> auf dem Intervall <math> [t_k,t_{k+1}]</math> an mehreren Stellen auszuwerten. Auf diese Weise erhält man die Klasse der [[Runge-Kutta-Verfahren]].<br />
<br />
Die Klasse der allgemeinen linearen Verfahren bezieht beide Ideen der<br />
Verallgemeinerung mit ein und enthält die Klasse der linearen Mehrschrittverfahren sowie die Klasse der Runge-Kutta-Verfahren als<br />
Spezialfall.<br />
<br />
* Darüber hinaus gibt es auch eine Erweiterung des Euler-Verfahrens für [[stochastische Differentialgleichung]]en: das [[Euler-Maruyama-Verfahren]].<br />
<br />
== Literatur ==<br />
* E. Hairer, S.P. Norsett, G. Wanner: ''Solving Ordinary Differential Equations I'', Springer Verlag<br />
* M. Hermann: ''Numerik gewöhnlicher Differentialgleichungen, Anfangs- und Randwertprobleme'', Oldenbourg Verlag, München und Wien, 2004, ISBN 3-486-27606-9<br />
<br />
[[Kategorie:Theorie gewöhnlicher Differentialgleichungen]]<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Leonhard Euler als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Einschrittverfahren&diff=169190888Einschrittverfahren2017-09-17T17:59:38Z<p>HerrHartmuth: /* Einfache Verfahren der Ordnung 1 und 2 */ Interwiki-Links hinzugefügt, Klammergrößen in Gleichungen angepasst</p>
<hr />
<div>[[Datei:Euler method.svg|miniatur|Einschrittverfahren nähern die Lösung (blau) eines Anfangswertproblems an, indem vom gegebenen Startpunkt ''A''<sup>0</sup> aus nacheinander Punkte ''A''<sup>1</sup>, ''A''<sup>2</sup> usw. bestimmt werden]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] ist ein '''Einschrittverfahren''' eine Methode zur näherungsweisen Lösung von [[Anfangswertproblem]]en. Im Gegensatz zu [[Mehrschrittverfahren]] werden hier zur Berechnung der Näherung an die Lösung keine Daten von vorhergehenden Zeitpunkten benutzt. Die wichtigste Klasse von Einschrittverfahren sind die [[Runge-Kutta-Verfahren]].<br />
<br />
== Einführung ==<br />
=== Gewöhnliche Differentialgleichungen ===<br />
Die Entwicklung der Differential- und Integralrechnung durch den englischen Physiker und Mathematiker [[Isaac Newton]] und unabhängig davon durch den deutschen Universalgelehrten [[Gottfried Wilhelm Leibniz]] im letzten Drittel des 17.&nbsp;Jahrhunderts war ein wesentlicher Impuls für die Mathematisierung der Wissenschaft in der [[Frühe Neuzeit|frühen Neuzeit]]. Diese Methoden bildeten den Startpunkt des mathematischen Teilgebiets der [[Analysis]] und sind in allen Natur- und Ingenieurwissenschaften von zentraler Bedeutung. Während Leibniz von dem geometrischen Problem, Tangenten an gegebene Kurven zu bestimmen, zur Differentialrechnung geführt wurde, ging Newton von der physikalischen Fragestellung aus, wie sich Änderungen einer Größe zu einem bestimmten Zeitpunkt bestimmen lassen. So ergibt sich zum Beispiel bei der Bewegung eines Körpers dessen Durchschnittsgeschwindigkeit einfach als die zurückgelegte Strecke dividiert durch die dafür benötigte Zeit. Um jedoch die [[Momentangeschwindigkeit]] <math>v(t)</math> des Körpers zu einem bestimmten Zeitpunkt <math>t</math> mathematisch zu formulieren, ist ein Grenzübergang notwendig: Man betrachtet kurze Zeitspannen der Länge <math>\Delta t</math>, die dabei zurückgelegten Wegstrecken <math>\Delta x</math> und die zugehörigen Durchschnittsgeschwindigkeiten <math>\tfrac{\Delta x}{\Delta t}</math>. Lässt man nun die Zeitspanne <math>\Delta t</math> gegen null konvergieren und nähern sich dabei die Durchschnittsgeschwindigkeiten ebenfalls einem festen Wert an, dann wird dieser Wert die (Momentan-)Geschwindigkeit <math>v(t)</math> zu dem gegebenen Zeitpunkt <math>t</math> genannt. Bezeichnet <math>x(t)</math> die Position des Körpers zur Zeit <math>t</math>, dann schreibt man <math>v(t) = x'(t)</math> und nennt <math>v</math> die Ableitung von <math>x</math>.<br />
<br />
Der entscheidende Schritt in die Richtung der Differentialgleichungsmodelle ist nun die umgekehrte Fragestellung: Im Beispiel des bewegten Körpers sei also zu jeden Zeitpunkt <math>t</math> die Geschwindigkeit <math>v(t)</math> bekannt und daraus soll seine Position <math>x(t)</math> bestimmt werden. Es ist anschaulich klar, dass zusätzlich die Anfangsposition des Körpers zu einem Zeitpunkt <math>t_0</math> bekannt sein muss, um dieses Problem eindeutig lösen zu können. Es ist also eine Funktion <math>x(t)</math> mit <math>x'(t) = v(t)</math> gesucht, die die Anfangsbedingung <math>x(t_0) = x_0</math> mit gegebenen Werten <math>t_0</math> und <math>x_0</math> erfüllt. In diesem einfachsten Fall eines Anfangswertproblems ist die Ableitung der gesuchten Funktion explizit gegeben. Meist liegt jedoch der wichtige allgemeine Fall gewöhnlicher Differentialgleichungen vor: Für eine gesuchte Funktion <math>y</math> ist aufgrund der Naturgesetze oder der Modellannahmen ein Funktionszusammenhang bekannt, der angibt, wie die Ableitung <math>y'(t)</math> aus <math>t</math> und aus dem (unbekannten) Wert <math>y(t)</math> berechnet werden kann. Zusammen mit der Anfangsbedingung liegt also der folgende allgemeine Aufgabentyp vor: Man finde die Funktion <math>y</math>, die die Gleichungen<br />
<br />
: <math>y'(t) = f(t, y(t)), \quad y(t_0) = y_0</math><br />
<br />
erfüllt, wobei <math>f</math> eine gegebene Funktion ist. Ein einfaches Beispiel ist eine Größe <math>y</math>, die [[Exponentielles Wachstum|exponentiell wächst]]. Das bedeutet, dass die momentane Änderung, also die Ableitung <math>y'(t)</math> [[Proportionalität|proportional]] zu <math>y(t)</math> selbst ist. Es gilt also <math>y'(t) = \lambda \cdot y(t)</math> mit einer Wachstumsrate <math>\lambda</math> und beispielsweise einer Anfangsbedingung <math>y(0) = y_0</math>. Die gesuchte Lösung <math>y</math> lässt sich in diesem Fall leicht mit elementarer Differentialrechnung finden und mithilfe der [[Exponentialfunktion]] angeben: Es gilt <math>y(t) = y_0 \cdot e^{\lambda \cdot t}</math>.<br />
<br />
[[Datei:Binary system orbit q=10 e=0.5.gif|miniatur|Das [[Zweikörperproblem]] wird in der Ebene durch ein System von vier Differentialgleichungen zweiter Ordnung beschrieben.]]<br />
Die gesuchte Funktion <math>y</math> in einer Differentialgleichung kann auch [[Vektorwertige Funktion|vektorwertig]] sein, das heißt, für jedes <math>t</math> kann <math>y(t) = (y_1(t), \dotsc, y_d(t))</math> ein [[Vektor]] mit <math>d</math> Komponenten sein. Man spricht dann auch von einem <math>d</math>-dimensionalen Differentialgleichungssystem. Im Anschauungsfall eines bewegten Körpers ist dann <math>y(t)</math> seine Position im <math>d</math>-dimensionalen [[Euklidischer Raum|euklidischen Raum]] und <math>y'(t)</math> seine [[Geschwindigkeit]] zur Zeit <math>t</math>. Durch die Differentialgleichung ist also in jedem Zeit- und Raumpunkt die Geschwindigkeit der gesuchten [[Trajektorie (Physik)|Bahnkurve]] mit Richtung und Betrag vorgegeben. Daraus soll die Bahn selbst berechnet werden.<br />
<br />
=== Grundidee der Einschrittverfahren ===<br />
Bei der oben als Beispiel betrachteten einfachen Differentialgleichung des exponentiellen Wachstums ließ sich die Lösungsfunktion direkt angeben. Das ist bei komplizierteren Problemen im Allgemeinen nicht mehr möglich. Man kann dann zwar unter gewissen Zusatzvoraussetzungen an die Funktion <math>f</math> zeigen, dass eine eindeutig bestimmte Lösung des Anfangswertproblems existiert; diese kann aber dann nicht mehr durch Lösungsverfahren der Analysis (wie beispielsweise [[Trennung der Variablen]], einen [[Exponentialansatz]] oder [[Variation der Konstanten]]) explizit berechnet werden. In diesem Fall können numerische Verfahren verwendet werden, um Näherungen für die gesuchte Lösung zu bestimmen.<br />
<br />
Die Verfahren zur numerischen Lösung von Anfangswertproblemen gewöhnlicher Differentialgleichung lassen sich grob in zwei große Gruppen einteilen: die Einschritt- und die Mehrschrittverfahren. Beiden Gruppen ist gemeinsam, dass sie schrittweise Näherungen <math>y_0, y_1, y_2 \dotsc</math> für die gesuchten Funktionswerte <math>y(t_0), y(t_1), y(t_2)<br />
\dotsc</math> an Stellen <math>t_0 < t_1 < t_2 < \ldots</math> berechnen. Die definierende Eigenschaft der Einschrittverfahren ist dabei, dass zur Bestimmung der folgenden Näherung <math>y_{j+1}</math> nur die „aktuelle“ Näherung <math>y_j</math> verwendet wird. Bei Mehrschrittverfahren gehen im Gegensatz dazu zusätzlich bereits zuvor berechnete Näherungen mit ein; ein 3-Schrittverfahren würde also beispielsweise außer <math>y_j</math> auch noch <math>y_{j-1}</math> und <math>y_{j-2}</math> zur Bestimmung der neuen Näherung <math>y_{j+1}</math> verwenden.<br />
<br />
Das einfachste und grundlegendste Einschrittverfahren ist das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]], das der Schweizer Mathematiker und Physiker [[Leonhard Euler]] 1768 in seinem Lehrbuch ''Institutiones Calculi Integralis'' vorstellte. Die Idee dieser Methode ist es, die gesuchte Lösung durch eine stückweise lineare Funktion anzunähern, bei der in jedem Schritt von der Stelle <math>t_j</math> zur Stelle <math>t_{j+1}</math> die Steigung des Geradenstücks durch <math>f(t_j, y_j)</math> gegeben ist. Genauer betrachtet: Durch die Problemstellung ist bereits ein Wert der gesuchten Funktion gegeben, nämlich <math>y(t_0) = y_0</math>. Aber auch die Ableitung an dieser Stelle ist bekannt, denn es gilt <math>y'(t_0) = f(t_0, y_0)</math>. Damit kann die Tangente an den Graphen der Lösungsfunktion bestimmt und als Näherung verwendet werden. An der Stelle <math>t_1 > t_0</math> ergibt sich mit der Schrittweite <math>h_0 := t_1 - t_0</math><br />
: <math>y(t_1) \approx y_0 + h_0 \cdot f(t_0, y_0) =: y_1</math>.<br />
Dieses Vorgehen kann nun in den folgenden Schritten fortgesetzt werden. Insgesamt ergibt sich damit für das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]] die Rechenvorschrift<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_j, y_j), \quad j = 0,1,2\dotsc</math><br />
mit den Schrittweiten <math>h_j = t_{j+1} - t_j</math>.<ref>{{Literatur |Autor=[[Wolfgang Dahmen (Mathematiker)|Wolfgang Dahmen]], Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Seiten=386 f.}}</ref><br />
<br />
Das explizite Euler-Verfahren ist der Ausgangspunkt für zahlreiche Verallgemeinerungen, bei denen die Steigung <math>f(t_j, y_j)</math>, durch Steigungen ersetzt wird, die das Verhalten der Lösung zwischen den Stellen <math>t_j</math> und <math>t_{j+1}</math> genauer annähern. Eine zusätzliche Idee für Einschrittverfahren bringt das ''implizite'' Eulerverfahren, das <math>f(t_{j+1}, y_{j+1})</math> als Steigung verwendet. Diese Wahl erscheint auf den ersten Blick wenig geeignet, da ja <math>y_{j+1}</math> unbekannt ist. Als Verfahrensschritt erhält man aber nun die Gleichung<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_{j+1}, y_{j+1})</math> <br />
aus der <math>y_{j+1}</math> (gegebenenfalls durch ein numerisches Verfahren) berechnet werden kann. Wählt man beispielsweise als Steigung das [[Arithmetisches Mittel|arithmetische Mittel]] aus den Steigungen des expliziten und des impliziten Euler-Verfahrens, so erhält man das implizite [[Trapez-Methode|Trapez-Verfahren]]. Aus diesen lässt sich wiederum ein explizites Verfahren gewinnen, wenn man zum Beispiel das unbekannte <math>y_{j+1}</math> auf der rechten Seite der Gleichung durch die Näherung des expliziten Euler-Verfahren nähert, das sogenannte [[Heun-Verfahren]]. All diesen Verfahren und allen weiteren Verallgemeinerungen ist die Grundidee der Einschrittverfahren gemeinsam: der Schritt<br />
: <math>y_{j+1} = y_j + h_j \cdot \Phi_f</math><br />
mit einer Steigung, die von <math>t_j</math>, <math>y_j</math> und <math>h_j</math> sowie (bei impliziten Verfahren) von <math>y_{j+1}</math> abhängen kann.<br />
<br />
== Definition ==<br />
Gesucht sei die Lösung <math>y</math> des Anfangswertproblems<br />
: <math>y'(t) = f(t, y(t))</math>, <math>\quad y(t_0) = y_0</math>.<br />
Dabei werde vorausgesetzt, dass die Lösung<br />
: <math>y \colon I \to \R^d</math><br />
auf einem gegebenen Intervall <math>I = [t_0, T]</math> existiert und eindeutig bestimmt ist.<br />
Sind<br />
: <math>t_0 < t_1 < t_2 < \ldots < t_n = T</math><br />
Zwischenstellen im Intervall <math>I</math> und <math>h_j = t_{j+1} - t_j</math> die zugehörigen Schrittweiten, dann heißt<br />
das durch<br />
: <math>y_{j+1} = y_j + h_j \Phi_f(t_j, y_j, y_{j+1}, h_j)</math>, <math>\quad j=0,\dotsc,n-1</math><br />
gegebene Verfahren ''Einschrittverfahren'' mit ''Verfahrensfunktion'' <math>\Phi_f</math>. Wenn <math>\Phi_f</math> nicht von <math>y_{j+1}</math> abhängt, dann nennt man es ''explizites Einschrittverfahren''. Anderenfalls muss in jedem Schritt <math>j</math> eine Gleichung für <math>y_{j+1}</math> gelöst werden, und das Verfahren wird ''implizit'' genannt.<br />
<br />
== Konsistenz und Konvergenz ==<br />
Für ein praxistaugliches Einschrittverfahren sollen die berechneten <math>y_j</math> gute Näherungen für Werte <math>y(t_j)</math> der exakten Lösung <math>y</math> an der Stelle <math>t_j</math> sein. Da im Allgemeinen die Größen <math>d</math>-dimensionale Vektoren sind, misst man die Güte dieser Näherung mit einer [[Vektornorm]] als Fehler <math>\|y_j -y(t_j)\|</math>. Es ist wünschenswert, dass diese Fehler für alle <math>j</math> schnell gegen null konvergieren, falls man die Schrittweiten gegen null konvergieren lässt. Um auch den Fall nicht konstanter Schrittweiten zu erfassen, definiert man dazu genauer <math>h</math> als das Maximum der verwendeten Schrittweiten und betrachtet das Verhalten des maximalen Fehlers an allen Stellen <math>t_j</math> im Vergleich zu Potenzen von <math>h</math>. Man sagt, das Einschrittverfahren zur Lösung des gegebenen Anfangswertproblems habe die ''Konvergenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\max_{j=0,\dotsc,n} \|y_j - y(t_j)\| \leq C h^p</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
<br />
Die Konvergenzordnung ist die wichtigste Kenngröße für den Vergleich verschiedener Einschrittverfahren.ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=156}}</ref> Ein Verfahren mit höherer Konvergenzordnung <math>p</math> liefert im Allgemeinen bei vorgegebener Schrittweite einen kleineren Gesamtfehler bzw. umgekehrt sind weniger Schritte nötig, um eine vorgegebene Genauigkeit zu erreichen. Bei einem Verfahren mit <math>p = 1</math> ist zu erwarten, dass sich bei einer Halbierung der Schrittweite auch der Fehler nur ungefähr halbiert. Bei einem Verfahren der Konvergenzordnung <math>p=4</math> kann man hingegen davon ausgehen, dass sich dabei der Fehler ungefähr um den Faktor <math>\left(\tfrac{1}{2}\right)^4 = \tfrac{1}{16}</math> verringert.<br />
<br />
Die in der Definition der Konvergenzordnung betrachteten Fehler <math>\|y_j - y(t_j)\|</math> setzen sich auf eine zunächst kompliziert erscheinende Weise aus zwei Einzelkomponenten zusammen: Natürlich hängen sie zum einen von dem Fehler ab, den das Verfahren in einem einzelnen Schritt macht, indem es die unbekannte Steigung der gesuchten Funktion durch die Verfahrensfunktion annähert. Zum anderen ist aber zusätzlich zu berücksichtigen, dass bereits der Startpunkt <math>(t_j, y_j)</math> eines Schrittes nicht von der exakten Stelle <math>(t_j, y(t_j))</math> aus erfolgt; der Fehler nach diesem Schritt hängt also auch von ''allen'' Fehlern ab, die bereits in der vorangegangenen Schritten gemacht wurden. Aufgrund der einheitlichen Definition der Einschrittverfahren, die sich nur in der Wahl der Verfahrensfunktion <math>\Phi_f</math> unterscheiden, lässt sich aber beweisen, dass man (unter gewissen technischen Voraussetzungen an <math>\Phi_f</math>) direkt von der Fehlerordnung in einem einzelnen Schritt, der sogenannten ''Konsistenzordnung'', auf die Konvergenzordnung schließen kann.<br />
<br />
Das Begriff der [[Konsistenz (Numerik)|Konsistenz]] ist ein allgemeines und zentrales Konzept der modernen numerischen Mathematik. Während man bei der Konvergenz eines Verfahrens untersucht, wie gut die numerischen Näherungen zur exakten Lösung passen, stellt man sich bei der Konsistenz vereinfacht gesprochen die „umgekehrte“ Frage: Wie gut erfüllt die exakte Lösung die Verfahrensvorschrift? In dieser allgemeinen Theorie gilt, dass ein Verfahren genau dann konvergent ist, wenn es konsistent und [[Stabilität (Numerik)|stabil]] ist. Um die Notation zu vereinfachen, soll in der folgenden Überlegung angenommen werden, dass ein explizites Einschrittverfahren<br />
: <math>y_{j+1} = y_j + h \Phi_f(t_j, y_j, h)</math><br />
mit konstanter Schrittweite <math>h</math> vorliegt. Mit der wahren Lösung <math>t \mapsto y(t)</math> definiert man den ''lokalen Abschneidefehler'' (auch ''lokaler Verfahrensfehler'' genannt) <math>\eta</math> als<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
: <math>\eta(t,h) = y(t) + h \Phi_f(t, y(t), h) - y(t+h)</math>.<br />
Man nimmt also an, dass die exakte Lösung bekannt ist, startet einen Verfahrensschritt an der Stelle <math>(t,y(t))</math> und bildet die Differenz zu exakten Lösung an der Stelle <math>t + h</math>. Damit definiert man: Ein Einschrittverfahren hat die ''Konsistenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\|\eta(t,h)\| \leq C h^{p+1}</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<br />
<br />
Der auffällige Unterschied zwischen den Definitionen der Konsistenzordnung und der Konvergenzordnung ist die Potenz <math>h^{p+1}</math> anstelle von <math>h^p</math>. Das lässt sich anschaulich so deuten, dass beim Übergang vom lokalen zum globalen Fehler eine Potenz der Schrittweite „verlorengeht“. Es gilt nämlich der folgende, für die Theorie der Einschrittverfahren zentrale Satz:<br />
: ''Ist die Verfahrensfunktion <math>\Phi_f</math> [[Lipschitz-Stetigkeit|Lipschitz-stetig]] und hat das zugehörige Einschrittverfahren die Konsistenzordnung <math>p</math>, dann hat es die auch die Konvergenzordnung <math>p</math>.''<br />
Die Lipschitz-Stetigkeit als Zusatzvoraussetzung für die Stabilität ist normalerweise leicht einzusehen, wenn die Funktion <math>f</math> aus der Differentialgleichung Lipschitz-stetig ist. Diese Forderung ist im Allgemeinen sowieso vorausgesetzt, um die eindeutige Lösbarkeit des Anfangswertproblems zu garantieren. Nach dem Satz genügt es also, die Konsistenzordnung eines Einschrittverfahrens zu bestimmen. Das lässt sich prinzipiell durch [[Taylor-Formel|Taylor-Entwicklung]] von <math>\eta(t,h)</math> nach Potenzen von <math>h</math> erreichen. In der Praxis werden die entstehenden Formeln für höhere Ordnungen sehr kompliziert und unübersichtlich, sodass zusätzliche Konzepte und Notationen benötigt werden.<br />
<br />
== Spezielle Verfahren und Verfahrensklassen ==<br />
[[Datei:Runge-kutta.svg|miniatur|Einige Einschrittverfahren im Vergleich]]<br />
=== Einfache Verfahren der Ordnung 1 und 2 ===<br />
Wenn man die Steigungen <math>f(t_j, y_j)</math> des [[Explizites_Euler-Verfahren|expliziten Euler-Verfahrens]] und <math>f(t_{j+1},y_{j+1})</math> des [[Implizites_Euler-Verfahren|impliziten Euler-Verfahrens]], wie sie an den beiden Endpunkten eines Schritts vorliegen, mittelt, kann man hoffen, eine bessere Näherung über das ganze Intervall zu erhalten. Tatsächlich lässt sich beweisen, dass das so erhaltene [[Trapez-Methode|''implizite Trapez-Verfahren'']]<br />
: <math>y_{j+1} = y_j + \frac{h}{2} \Big( f(t_j, y_j) + f(t_{j+1},y_{j+1}) \Big)</math> <br />
die [[Konvergenzgeschwindigkeit|Konvergenzordnung]] 2 hat. Dieses Verfahren weist sehr gute Stabilitätseigenschaften auf, ist allerdings implizit, sodass in jedem Schritt eine Gleichung für <math>y_{j+1}</math> gelöst werden muss. Nähert man diese Größe auf der rechten Seite der Gleichung durch das explizite Euler-Verfahren an, so entsteht das explizite ''Verfahren von Heun''<br />
: <math>y_{j+1} = y_j + \frac{h}{2}\Big[f(t_j, y_j) + f\big(t_{j+1},y_j + hf(t_j,y_j)\big) \Big]</math>,<br />
das ebenfalls die Konvergenzordnung 2 besitzt. Ein weiteres einfaches explizites Verfahren der Ordnung 2, das ''verbesserte Euler-Verfahren'', erhält man durch folgende Überlegung: Eine „mittlere“ Steigung im Verfahrensschritt wäre die Steigung der Lösung <math>y</math> in der Mitte des Schritts, also an der Stelle <math>t_j + \tfrac{h}{2}</math>. Da die Lösung aber unbekannt ist, nähert man sie durch einen expliziten Euler-Schritt mit halber Schrittweite an. Es ergibt sich die Verfahrensvorschrift<br />
: <math>y_{j+1} = y_j + h f\big(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}f(t_j,y_j)\big)</math>.<br />
<br />
=== Runge-Kutta-Verfahren ===<br />
Die erwähnten Ideen für einfache Einschrittverfahren führen bei weiterer Verallgemeinerung zur wichtigen Klasse der Runge-Kutta-Verfahren. Zum Beispiel lässt sich das Verfahren von Heun übersichtlicher so präsentieren: Zuerst wird eine Hilfssteigung <math>k_1 = f(t_j, y_j)</math> berechnet, nämlich die Steigung des expliziten Euler-Verfahrens. Damit wird eine weitere Hilfssteigung bestimmt, hier <math>k_2 = f(t_j + h, y_h + h k_1)</math>. Die tatsächlich verwendete Steigung, also <math>\Phi_f</math> ergibt sich anschließend als ein gewichtetes Mittel der Hilfssteigungen, im Verfahren von Heun also <math>\tfrac{1}{2} k_1 + \tfrac{1}{2} k_2</math>. Dieses Vorgehen lässt sich auf mehr als zwei Hilfssteigungen verallgemeinern. Ein <math>s</math>-stufiges Runge-Kunge-Kutta-Verfahren berechnet zunächst Hilfssteigungen <math>k_1, \dotsc, k_s</math> durch Auswertung von <math>f</math> an geeigneten Stellen und anschließend <math>\Phi_f</math> als gewichtetes Mittel. Bei einem expliziten Runge-Kutta-Verfahren werden die Hilfssteigungen <math>k_1, k_2, k_3, \dotsc</math> der Reihe nach direkt berechnet, bei einem impliziten ergeben sie sich als Lösungen eines Gleichungsystems. Als typisches Beispiel sei das explizite [[Klassisches Runge-Kutta-Verfahren|klassische Runge-Kutta-Verfahren]] der Ordnung 4 angeführt, dass mitunter einfach als ''das'' Runge-Kutta-Verfahren bezeichnet wird: Dabei werden zunächst die vier Hilfssteigungungen <math>k_1 = f(t_j, y_j)</math>, <math>k_2 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_1)</math>, <math>k_3 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_2)</math> und <math>k_4 = f(t_j+h, y_j + hk_3)</math> berechnet und dann als Verfahrenssteigung das gewichtete Mittel <math>\tfrac{1}{6} k_1 + \tfrac{1}{3} k_2 + \tfrac{1}{3} k_3 + \tfrac{1}{6} k_4</math> verwendet.<br />
<br />
== Literatur ==<br />
* {{Literatur |Autor=Wolfgang Dahmen, Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Kapitel=Kap. 11: ''Gewöhnliche Differentialgleichungen''}}<br />
* {{Literatur |Autor=[[Peter Deuflhard]], [[Folkmar Bornemann]] |Titel=Numerische Mathematik 2 – Gewöhnliche Differentialgleichungen |Auflage=3. |Verlag=Walter de Gruyter |Ort=Berlin |Jahr=2008 |ISBN=978-3-11-020356-1}}<br />
* {{Literatur |Autor=David F. Griffiths, Desmond J. Higham |Titel=Numerical Methods for Ordinary Differential Equations – Initial Value Problems |Verlag=Springer |Ort=London |Jahr=2010 |ISBN=978-0-85729-147-9}}<br />
* {{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 | Kapitel=Kap. 7: ''Einschrittverfahren für Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Hans Rudolf Schwarz, Norbert Köckler |Titel=Numerische Mathematik |Auflage=8. |Verlag=Vieweg+Teubner |Ort=Wiesbaden |Jahr=2011 |ISBN=978-3-8348-1551-4 |Kapitel=Kap. 8: ''Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Karl Strehmel, Rüdiger Weiner, Helmut Podhaisky |Titel=Numerik gewöhnlicher Differentialgleichungen |Auflage=2. |Verlag=Springer Spektrum |Ort=Wiesbaden |Jahr=2012 |ISBN=978-3-8348-1847-8}}<br />
<br />
== Weblinks ==<br />
<br />
* {{Internetquelle |url=http://num.math.uni-bayreuth.de/de/team/Gruene_Lars/lecture_notes/num2/num2_3.pdf |autor=Lars Grüne |titel=Numerische Methoden für gewöhnliche Differentialgleichungen (Numerische Mathematik II) |datum=2008 |format=PDF |kommentar=Vorlesungsskript der [[Universität Bayreuth]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=http://www.mathematik.tu-darmstadt.de/fbereiche/numerik/staff/spellucci/docs/odess07.pdf |autor=Peter Spellucci |titel=Numerik gewöhnlicher Differentialgleichungen |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[TU Darmstadt]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=https://home.zhaw.ch/~fuh/MUDS/FILES/MUDS_Chapter_05.pdf |autor=Hans U. Fuchs |titel=Numerical Methods for Differential Equations |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[Zürcher Hochschule für Angewandte Wissenschaften]] |zugriff=2017-09-08 |sprache=en}}<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{Schreibwettbewerb}}<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie gewöhnlicher Differentialgleichungen]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Einschrittverfahren&diff=169189989Einschrittverfahren2017-09-17T17:50:19Z<p>HerrHartmuth: /* Einfache Verfahren der Ordnung 1 und 2 */ Interwiki-Links hinzugefügt</p>
<hr />
<div>[[Datei:Euler method.svg|miniatur|Einschrittverfahren nähern die Lösung (blau) eines Anfangswertproblems an, indem vom gegebenen Startpunkt ''A''<sup>0</sup> aus nacheinander Punkte ''A''<sup>1</sup>, ''A''<sup>2</sup> usw. bestimmt werden]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] ist ein '''Einschrittverfahren''' eine Methode zur näherungsweisen Lösung von [[Anfangswertproblem]]en. Im Gegensatz zu [[Mehrschrittverfahren]] werden hier zur Berechnung der Näherung an die Lösung keine Daten von vorhergehenden Zeitpunkten benutzt. Die wichtigste Klasse von Einschrittverfahren sind die [[Runge-Kutta-Verfahren]].<br />
<br />
== Einführung ==<br />
=== Gewöhnliche Differentialgleichungen ===<br />
Die Entwicklung der Differential- und Integralrechnung durch den englischen Physiker und Mathematiker [[Isaac Newton]] und unabhängig davon durch den deutschen Universalgelehrten [[Gottfried Wilhelm Leibniz]] im letzten Drittel des 17.&nbsp;Jahrhunderts war ein wesentlicher Impuls für die Mathematisierung der Wissenschaft in der [[Frühe Neuzeit|frühen Neuzeit]]. Diese Methoden bildeten den Startpunkt des mathematischen Teilgebiets der [[Analysis]] und sind in allen Natur- und Ingenieurwissenschaften von zentraler Bedeutung. Während Leibniz von dem geometrischen Problem, Tangenten an gegebene Kurven zu bestimmen, zur Differentialrechnung geführt wurde, ging Newton von der physikalischen Fragestellung aus, wie sich Änderungen einer Größe zu einem bestimmten Zeitpunkt bestimmen lassen. So ergibt sich zum Beispiel bei der Bewegung eines Körpers dessen Durchschnittsgeschwindigkeit einfach als die zurückgelegte Strecke dividiert durch die dafür benötigte Zeit. Um jedoch die [[Momentangeschwindigkeit]] <math>v(t)</math> des Körpers zu einem bestimmten Zeitpunkt <math>t</math> mathematisch zu formulieren, ist ein Grenzübergang notwendig: Man betrachtet kurze Zeitspannen der Länge <math>\Delta t</math>, die dabei zurückgelegten Wegstrecken <math>\Delta x</math> und die zugehörigen Durchschnittsgeschwindigkeiten <math>\tfrac{\Delta x}{\Delta t}</math>. Lässt man nun die Zeitspanne <math>\Delta t</math> gegen null konvergieren und nähern sich dabei die Durchschnittsgeschwindigkeiten ebenfalls einem festen Wert an, dann wird dieser Wert die (Momentan-)Geschwindigkeit <math>v(t)</math> zu dem gegebenen Zeitpunkt <math>t</math> genannt. Bezeichnet <math>x(t)</math> die Position des Körpers zur Zeit <math>t</math>, dann schreibt man <math>v(t) = x'(t)</math> und nennt <math>v</math> die Ableitung von <math>x</math>.<br />
<br />
Der entscheidende Schritt in die Richtung der Differentialgleichungsmodelle ist nun die umgekehrte Fragestellung: Im Beispiel des bewegten Körpers sei also zu jeden Zeitpunkt <math>t</math> die Geschwindigkeit <math>v(t)</math> bekannt und daraus soll seine Position <math>x(t)</math> bestimmt werden. Es ist anschaulich klar, dass zusätzlich die Anfangsposition des Körpers zu einem Zeitpunkt <math>t_0</math> bekannt sein muss, um dieses Problem eindeutig lösen zu können. Es ist also eine Funktion <math>x(t)</math> mit <math>x'(t) = v(t)</math> gesucht, die die Anfangsbedingung <math>x(t_0) = x_0</math> mit gegebenen Werten <math>t_0</math> und <math>x_0</math> erfüllt. In diesem einfachsten Fall eines Anfangswertproblems ist die Ableitung der gesuchten Funktion explizit gegeben. Meist liegt jedoch der wichtige allgemeine Fall gewöhnlicher Differentialgleichungen vor: Für eine gesuchte Funktion <math>y</math> ist aufgrund der Naturgesetze oder der Modellannahmen ein Funktionszusammenhang bekannt, der angibt, wie die Ableitung <math>y'(t)</math> aus <math>t</math> und aus dem (unbekannten) Wert <math>y(t)</math> berechnet werden kann. Zusammen mit der Anfangsbedingung liegt also der folgende allgemeine Aufgabentyp vor: Man finde die Funktion <math>y</math>, die die Gleichungen<br />
<br />
: <math>y'(t) = f(t, y(t)), \quad y(t_0) = y_0</math><br />
<br />
erfüllt, wobei <math>f</math> eine gegebene Funktion ist. Ein einfaches Beispiel ist eine Größe <math>y</math>, die [[Exponentielles Wachstum|exponentiell wächst]]. Das bedeutet, dass die momentane Änderung, also die Ableitung <math>y'(t)</math> [[Proportionalität|proportional]] zu <math>y(t)</math> selbst ist. Es gilt also <math>y'(t) = \lambda \cdot y(t)</math> mit einer Wachstumsrate <math>\lambda</math> und beispielsweise einer Anfangsbedingung <math>y(0) = y_0</math>. Die gesuchte Lösung <math>y</math> lässt sich in diesem Fall leicht mit elementarer Differentialrechnung finden und mithilfe der [[Exponentialfunktion]] angeben: Es gilt <math>y(t) = y_0 \cdot e^{\lambda \cdot t}</math>.<br />
<br />
[[Datei:Binary system orbit q=10 e=0.5.gif|miniatur|Das [[Zweikörperproblem]] wird in der Ebene durch ein System von vier Differentialgleichungen zweiter Ordnung beschrieben.]]<br />
Die gesuchte Funktion <math>y</math> in einer Differentialgleichung kann auch [[Vektorwertige Funktion|vektorwertig]] sein, das heißt, für jedes <math>t</math> kann <math>y(t) = (y_1(t), \dotsc, y_d(t))</math> ein [[Vektor]] mit <math>d</math> Komponenten sein. Man spricht dann auch von einem <math>d</math>-dimensionalen Differentialgleichungssystem. Im Anschauungsfall eines bewegten Körpers ist dann <math>y(t)</math> seine Position im <math>d</math>-dimensionalen [[Euklidischer Raum|euklidischen Raum]] und <math>y'(t)</math> seine [[Geschwindigkeit]] zur Zeit <math>t</math>. Durch die Differentialgleichung ist also in jedem Zeit- und Raumpunkt die Geschwindigkeit der gesuchten [[Trajektorie (Physik)|Bahnkurve]] mit Richtung und Betrag vorgegeben. Daraus soll die Bahn selbst berechnet werden.<br />
<br />
=== Grundidee der Einschrittverfahren ===<br />
Bei der oben als Beispiel betrachteten einfachen Differentialgleichung des exponentiellen Wachstums ließ sich die Lösungsfunktion direkt angeben. Das ist bei komplizierteren Problemen im Allgemeinen nicht mehr möglich. Man kann dann zwar unter gewissen Zusatzvoraussetzungen an die Funktion <math>f</math> zeigen, dass eine eindeutig bestimmte Lösung des Anfangswertproblems existiert; diese kann aber dann nicht mehr durch Lösungsverfahren der Analysis (wie beispielsweise [[Trennung der Variablen]], einen [[Exponentialansatz]] oder [[Variation der Konstanten]]) explizit berechnet werden. In diesem Fall können numerische Verfahren verwendet werden, um Näherungen für die gesuchte Lösung zu bestimmen.<br />
<br />
Die Verfahren zur numerischen Lösung von Anfangswertproblemen gewöhnlicher Differentialgleichung lassen sich grob in zwei große Gruppen einteilen: die Einschritt- und die Mehrschrittverfahren. Beiden Gruppen ist gemeinsam, dass sie schrittweise Näherungen <math>y_0, y_1, y_2 \dotsc</math> für die gesuchten Funktionswerte <math>y(t_0), y(t_1), y(t_2)<br />
\dotsc</math> an Stellen <math>t_0 < t_1 < t_2 < \ldots</math> berechnen. Die definierende Eigenschaft der Einschrittverfahren ist dabei, dass zur Bestimmung der folgenden Näherung <math>y_{j+1}</math> nur die „aktuelle“ Näherung <math>y_j</math> verwendet wird. Bei Mehrschrittverfahren gehen im Gegensatz dazu zusätzlich bereits zuvor berechnete Näherungen mit ein; ein 3-Schrittverfahren würde also beispielsweise außer <math>y_j</math> auch noch <math>y_{j-1}</math> und <math>y_{j-2}</math> zur Bestimmung der neuen Näherung <math>y_{j+1}</math> verwenden.<br />
<br />
Das einfachste und grundlegendste Einschrittverfahren ist das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]], das der Schweizer Mathematiker und Physiker [[Leonhard Euler]] 1768 in seinem Lehrbuch ''Institutiones Calculi Integralis'' vorstellte. Die Idee dieser Methode ist es, die gesuchte Lösung durch eine stückweise lineare Funktion anzunähern, bei der in jedem Schritt von der Stelle <math>t_j</math> zur Stelle <math>t_{j+1}</math> die Steigung des Geradenstücks durch <math>f(t_j, y_j)</math> gegeben ist. Genauer betrachtet: Durch die Problemstellung ist bereits ein Wert der gesuchten Funktion gegeben, nämlich <math>y(t_0) = y_0</math>. Aber auch die Ableitung an dieser Stelle ist bekannt, denn es gilt <math>y'(t_0) = f(t_0, y_0)</math>. Damit kann die Tangente an den Graphen der Lösungsfunktion bestimmt und als Näherung verwendet werden. An der Stelle <math>t_1 > t_0</math> ergibt sich mit der Schrittweite <math>h_0 := t_1 - t_0</math><br />
: <math>y(t_1) \approx y_0 + h_0 \cdot f(t_0, y_0) =: y_1</math>.<br />
Dieses Vorgehen kann nun in den folgenden Schritten fortgesetzt werden. Insgesamt ergibt sich damit für das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]] die Rechenvorschrift<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_j, y_j), \quad j = 0,1,2\dotsc</math><br />
mit den Schrittweiten <math>h_j = t_{j+1} - t_j</math>.<ref>{{Literatur |Autor=[[Wolfgang Dahmen (Mathematiker)|Wolfgang Dahmen]], Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Seiten=386 f.}}</ref><br />
<br />
Das explizite Euler-Verfahren ist der Ausgangspunkt für zahlreiche Verallgemeinerungen, bei denen die Steigung <math>f(t_j, y_j)</math>, durch Steigungen ersetzt wird, die das Verhalten der Lösung zwischen den Stellen <math>t_j</math> und <math>t_{j+1}</math> genauer annähern. Eine zusätzliche Idee für Einschrittverfahren bringt das ''implizite'' Eulerverfahren, das <math>f(t_{j+1}, y_{j+1})</math> als Steigung verwendet. Diese Wahl erscheint auf den ersten Blick wenig geeignet, da ja <math>y_{j+1}</math> unbekannt ist. Als Verfahrensschritt erhält man aber nun die Gleichung<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_{j+1}, y_{j+1})</math> <br />
aus der <math>y_{j+1}</math> (gegebenenfalls durch ein numerisches Verfahren) berechnet werden kann. Wählt man beispielsweise als Steigung das [[Arithmetisches Mittel|arithmetische Mittel]] aus den Steigungen des expliziten und des impliziten Euler-Verfahrens, so erhält man das implizite [[Trapez-Methode|Trapez-Verfahren]]. Aus diesen lässt sich wiederum ein explizites Verfahren gewinnen, wenn man zum Beispiel das unbekannte <math>y_{j+1}</math> auf der rechten Seite der Gleichung durch die Näherung des expliziten Euler-Verfahren nähert, das sogenannte [[Heun-Verfahren]]. All diesen Verfahren und allen weiteren Verallgemeinerungen ist die Grundidee der Einschrittverfahren gemeinsam: der Schritt<br />
: <math>y_{j+1} = y_j + h_j \cdot \Phi_f</math><br />
mit einer Steigung, die von <math>t_j</math>, <math>y_j</math> und <math>h_j</math> sowie (bei impliziten Verfahren) von <math>y_{j+1}</math> abhängen kann.<br />
<br />
== Definition ==<br />
Gesucht sei die Lösung <math>y</math> des Anfangswertproblems<br />
: <math>y'(t) = f(t, y(t))</math>, <math>\quad y(t_0) = y_0</math>.<br />
Dabei werde vorausgesetzt, dass die Lösung<br />
: <math>y \colon I \to \R^d</math><br />
auf einem gegebenen Intervall <math>I = [t_0, T]</math> existiert und eindeutig bestimmt ist.<br />
Sind<br />
: <math>t_0 < t_1 < t_2 < \ldots < t_n = T</math><br />
Zwischenstellen im Intervall <math>I</math> und <math>h_j = t_{j+1} - t_j</math> die zugehörigen Schrittweiten, dann heißt<br />
das durch<br />
: <math>y_{j+1} = y_j + h_j \Phi_f(t_j, y_j, y_{j+1}, h_j)</math>, <math>\quad j=0,\dotsc,n-1</math><br />
gegebene Verfahren ''Einschrittverfahren'' mit ''Verfahrensfunktion'' <math>\Phi_f</math>. Wenn <math>\Phi_f</math> nicht von <math>y_{j+1}</math> abhängt, dann nennt man es ''explizites Einschrittverfahren''. Anderenfalls muss in jedem Schritt <math>j</math> eine Gleichung für <math>y_{j+1}</math> gelöst werden, und das Verfahren wird ''implizit'' genannt.<br />
<br />
== Konsistenz und Konvergenz ==<br />
Für ein praxistaugliches Einschrittverfahren sollen die berechneten <math>y_j</math> gute Näherungen für Werte <math>y(t_j)</math> der exakten Lösung <math>y</math> an der Stelle <math>t_j</math> sein. Da im Allgemeinen die Größen <math>d</math>-dimensionale Vektoren sind, misst man die Güte dieser Näherung mit einer [[Vektornorm]] als Fehler <math>\|y_j -y(t_j)\|</math>. Es ist wünschenswert, dass diese Fehler für alle <math>j</math> schnell gegen null konvergieren, falls man die Schrittweiten gegen null konvergieren lässt. Um auch den Fall nicht konstanter Schrittweiten zu erfassen, definiert man dazu genauer <math>h</math> als das Maximum der verwendeten Schrittweiten und betrachtet das Verhalten des maximalen Fehlers an allen Stellen <math>t_j</math> im Vergleich zu Potenzen von <math>h</math>. Man sagt, das Einschrittverfahren zur Lösung des gegebenen Anfangswertproblems habe die ''Konvergenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\max_{j=0,\dotsc,n} \|y_j - y(t_j)\| \leq C h^p</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
<br />
Die Konvergenzordnung ist die wichtigste Kenngröße für den Vergleich verschiedener Einschrittverfahren.ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=156}}</ref> Ein Verfahren mit höherer Konvergenzordnung <math>p</math> liefert im Allgemeinen bei vorgegebener Schrittweite einen kleineren Gesamtfehler bzw. umgekehrt sind weniger Schritte nötig, um eine vorgegebene Genauigkeit zu erreichen. Bei einem Verfahren mit <math>p = 1</math> ist zu erwarten, dass sich bei einer Halbierung der Schrittweite auch der Fehler nur ungefähr halbiert. Bei einem Verfahren der Konvergenzordnung <math>p=4</math> kann man hingegen davon ausgehen, dass sich dabei der Fehler ungefähr um den Faktor <math>\left(\tfrac{1}{2}\right)^4 = \tfrac{1}{16}</math> verringert.<br />
<br />
Die in der Definition der Konvergenzordnung betrachteten Fehler <math>\|y_j - y(t_j)\|</math> setzen sich auf eine zunächst kompliziert erscheinende Weise aus zwei Einzelkomponenten zusammen: Natürlich hängen sie zum einen von dem Fehler ab, den das Verfahren in einem einzelnen Schritt macht, indem es die unbekannte Steigung der gesuchten Funktion durch die Verfahrensfunktion annähert. Zum anderen ist aber zusätzlich zu berücksichtigen, dass bereits der Startpunkt <math>(t_j, y_j)</math> eines Schrittes nicht von der exakten Stelle <math>(t_j, y(t_j))</math> aus erfolgt; der Fehler nach diesem Schritt hängt also auch von ''allen'' Fehlern ab, die bereits in der vorangegangenen Schritten gemacht wurden. Aufgrund der einheitlichen Definition der Einschrittverfahren, die sich nur in der Wahl der Verfahrensfunktion <math>\Phi_f</math> unterscheiden, lässt sich aber beweisen, dass man (unter gewissen technischen Voraussetzungen an <math>\Phi_f</math>) direkt von der Fehlerordnung in einem einzelnen Schritt, der sogenannten ''Konsistenzordnung'', auf die Konvergenzordnung schließen kann.<br />
<br />
Das Begriff der [[Konsistenz (Numerik)|Konsistenz]] ist ein allgemeines und zentrales Konzept der modernen numerischen Mathematik. Während man bei der Konvergenz eines Verfahrens untersucht, wie gut die numerischen Näherungen zur exakten Lösung passen, stellt man sich bei der Konsistenz vereinfacht gesprochen die „umgekehrte“ Frage: Wie gut erfüllt die exakte Lösung die Verfahrensvorschrift? In dieser allgemeinen Theorie gilt, dass ein Verfahren genau dann konvergent ist, wenn es konsistent und [[Stabilität (Numerik)|stabil]] ist. Um die Notation zu vereinfachen, soll in der folgenden Überlegung angenommen werden, dass ein explizites Einschrittverfahren<br />
: <math>y_{j+1} = y_j + h \Phi_f(t_j, y_j, h)</math><br />
mit konstanter Schrittweite <math>h</math> vorliegt. Mit der wahren Lösung <math>t \mapsto y(t)</math> definiert man den ''lokalen Abschneidefehler'' (auch ''lokaler Verfahrensfehler'' genannt) <math>\eta</math> als<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
: <math>\eta(t,h) = y(t) + h \Phi_f(t, y(t), h) - y(t+h)</math>.<br />
Man nimmt also an, dass die exakte Lösung bekannt ist, startet einen Verfahrensschritt an der Stelle <math>(t,y(t))</math> und bildet die Differenz zu exakten Lösung an der Stelle <math>t + h</math>. Damit definiert man: Ein Einschrittverfahren hat die ''Konsistenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\|\eta(t,h)\| \leq C h^{p+1}</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<br />
<br />
Der auffällige Unterschied zwischen den Definitionen der Konsistenzordnung und der Konvergenzordnung ist die Potenz <math>h^{p+1}</math> anstelle von <math>h^p</math>. Das lässt sich anschaulich so deuten, dass beim Übergang vom lokalen zum globalen Fehler eine Potenz der Schrittweite „verlorengeht“. Es gilt nämlich der folgende, für die Theorie der Einschrittverfahren zentrale Satz:<br />
: ''Ist die Verfahrensfunktion <math>\Phi_f</math> [[Lipschitz-Stetigkeit|Lipschitz-stetig]] und hat das zugehörige Einschrittverfahren die Konsistenzordnung <math>p</math>, dann hat es die auch die Konvergenzordnung <math>p</math>.''<br />
Die Lipschitz-Stetigkeit als Zusatzvoraussetzung für die Stabilität ist normalerweise leicht einzusehen, wenn die Funktion <math>f</math> aus der Differentialgleichung Lipschitz-stetig ist. Diese Forderung ist im Allgemeinen sowieso vorausgesetzt, um die eindeutige Lösbarkeit des Anfangswertproblems zu garantieren. Nach dem Satz genügt es also, die Konsistenzordnung eines Einschrittverfahrens zu bestimmen. Das lässt sich prinzipiell durch [[Taylor-Formel|Taylor-Entwicklung]] von <math>\eta(t,h)</math> nach Potenzen von <math>h</math> erreichen. In der Praxis werden die entstehenden Formeln für höhere Ordnungen sehr kompliziert und unübersichtlich, sodass zusätzliche Konzepte und Notationen benötigt werden.<br />
<br />
== Spezielle Verfahren und Verfahrensklassen ==<br />
[[Datei:Runge-kutta.svg|miniatur|Einige Einschrittverfahren im Vergleich]]<br />
=== Einfache Verfahren der Ordnung 1 und 2 ===<br />
Wenn man die Steigungen <math>f(t_j, y_j)</math> des [[Explizites_Euler-Verfahren|expliziten Euler-Verfahrens]] und <math>f(t_{j+1},y_{j+1})</math> des [[Implizites_Euler-Verfahren|impliziten Euler-Verfahrens]], wie sie an den beiden Endpunkten eines Schritts vorliegen, mittelt, kann man hoffen, eine bessere Näherung über das ganze Intervall zu erhalten. Tatsächlich lässt sich beweisen, dass das so erhaltene ''implizite Trapez-Verfahren''<br />
: <math>y_{j+1} = y_j + \frac{h}{2}(f(t_j, y_j) + f(t_{j+1},y_{j+1}))</math> <br />
die Konvergenzordnung 2 hat. Dieses Verfahren weist sehr gute Stabilitätseigenschaften auf, ist allerdings implizit, sodass in jedem Schritt eine Gleichung für <math>y_{j+1}</math> gelöst werden muss. Nähert man diese Größe auf der rechten Seite der Gleichung durch das explizite Euler-Verfahren an, so entsteht das explizite ''Verfahren von Heun''<br />
: <math>y_{j+1} = y_j + \frac{h}{2}(f(t_j, y_j) + f(t_{j+1},y_j + hf(t_j,y_j)))</math>,<br />
das ebenfalls die Konvergenzordnung 2 besitzt. Ein weiteres einfaches explizites Verfahren der Ordnung 2, das ''verbesserte Euler-Verfahren'', erhält man durch folgende Überlegung: Eine „mittlere“ Steigung im Verfahrensschritt wäre die Steigung der Lösung <math>y</math> in der Mitte des Schritts, also an der Stelle <math>t_j + \tfrac{h}{2}</math>. Da die Lösung aber unbekannt ist, nähert man sie durch einen expliziten Euler-Schritt mit halber Schrittweite an. Es ergibt sich die Verfahrensvorschrift<br />
: <math>y_{j+1} = y_j + h f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}f(t_j,y_j))</math>.<br />
<br />
=== Runge-Kutta-Verfahren ===<br />
Die erwähnten Ideen für einfache Einschrittverfahren führen bei weiterer Verallgemeinerung zur wichtigen Klasse der Runge-Kutta-Verfahren. Zum Beispiel lässt sich das Verfahren von Heun übersichtlicher so präsentieren: Zuerst wird eine Hilfssteigung <math>k_1 = f(t_j, y_j)</math> berechnet, nämlich die Steigung des expliziten Euler-Verfahrens. Damit wird eine weitere Hilfssteigung bestimmt, hier <math>k_2 = f(t_j + h, y_h + h k_1)</math>. Die tatsächlich verwendete Steigung, also <math>\Phi_f</math> ergibt sich anschließend als ein gewichtetes Mittel der Hilfssteigungen, im Verfahren von Heun also <math>\tfrac{1}{2} k_1 + \tfrac{1}{2} k_2</math>. Dieses Vorgehen lässt sich auf mehr als zwei Hilfssteigungen verallgemeinern. Ein <math>s</math>-stufiges Runge-Kunge-Kutta-Verfahren berechnet zunächst Hilfssteigungen <math>k_1, \dotsc, k_s</math> durch Auswertung von <math>f</math> an geeigneten Stellen und anschließend <math>\Phi_f</math> als gewichtetes Mittel. Bei einem expliziten Runge-Kutta-Verfahren werden die Hilfssteigungen <math>k_1, k_2, k_3, \dotsc</math> der Reihe nach direkt berechnet, bei einem impliziten ergeben sie sich als Lösungen eines Gleichungsystems. Als typisches Beispiel sei das explizite [[Klassisches Runge-Kutta-Verfahren|klassische Runge-Kutta-Verfahren]] der Ordnung 4 angeführt, dass mitunter einfach als ''das'' Runge-Kutta-Verfahren bezeichnet wird: Dabei werden zunächst die vier Hilfssteigungungen <math>k_1 = f(t_j, y_j)</math>, <math>k_2 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_1)</math>, <math>k_3 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_2)</math> und <math>k_4 = f(t_j+h, y_j + hk_3)</math> berechnet und dann als Verfahrenssteigung das gewichtete Mittel <math>\tfrac{1}{6} k_1 + \tfrac{1}{3} k_2 + \tfrac{1}{3} k_3 + \tfrac{1}{6} k_4</math> verwendet.<br />
<br />
== Literatur ==<br />
* {{Literatur |Autor=Wolfgang Dahmen, Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Kapitel=Kap. 11: ''Gewöhnliche Differentialgleichungen''}}<br />
* {{Literatur |Autor=[[Peter Deuflhard]], [[Folkmar Bornemann]] |Titel=Numerische Mathematik 2 – Gewöhnliche Differentialgleichungen |Auflage=3. |Verlag=Walter de Gruyter |Ort=Berlin |Jahr=2008 |ISBN=978-3-11-020356-1}}<br />
* {{Literatur |Autor=David F. Griffiths, Desmond J. Higham |Titel=Numerical Methods for Ordinary Differential Equations – Initial Value Problems |Verlag=Springer |Ort=London |Jahr=2010 |ISBN=978-0-85729-147-9}}<br />
* {{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 | Kapitel=Kap. 7: ''Einschrittverfahren für Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Hans Rudolf Schwarz, Norbert Köckler |Titel=Numerische Mathematik |Auflage=8. |Verlag=Vieweg+Teubner |Ort=Wiesbaden |Jahr=2011 |ISBN=978-3-8348-1551-4 |Kapitel=Kap. 8: ''Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Karl Strehmel, Rüdiger Weiner, Helmut Podhaisky |Titel=Numerik gewöhnlicher Differentialgleichungen |Auflage=2. |Verlag=Springer Spektrum |Ort=Wiesbaden |Jahr=2012 |ISBN=978-3-8348-1847-8}}<br />
<br />
== Weblinks ==<br />
<br />
* {{Internetquelle |url=http://num.math.uni-bayreuth.de/de/team/Gruene_Lars/lecture_notes/num2/num2_3.pdf |autor=Lars Grüne |titel=Numerische Methoden für gewöhnliche Differentialgleichungen (Numerische Mathematik II) |datum=2008 |format=PDF |kommentar=Vorlesungsskript der [[Universität Bayreuth]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=http://www.mathematik.tu-darmstadt.de/fbereiche/numerik/staff/spellucci/docs/odess07.pdf |autor=Peter Spellucci |titel=Numerik gewöhnlicher Differentialgleichungen |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[TU Darmstadt]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=https://home.zhaw.ch/~fuh/MUDS/FILES/MUDS_Chapter_05.pdf |autor=Hans U. Fuchs |titel=Numerical Methods for Differential Equations |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[Zürcher Hochschule für Angewandte Wissenschaften]] |zugriff=2017-09-08 |sprache=en}}<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{Schreibwettbewerb}}<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie gewöhnlicher Differentialgleichungen]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Einschrittverfahren&diff=169189932Einschrittverfahren2017-09-17T17:47:59Z<p>HerrHartmuth: /* Grundidee der Einschrittverfahren */ Interwiki-Links hinzugefügt</p>
<hr />
<div>[[Datei:Euler method.svg|miniatur|Einschrittverfahren nähern die Lösung (blau) eines Anfangswertproblems an, indem vom gegebenen Startpunkt ''A''<sup>0</sup> aus nacheinander Punkte ''A''<sup>1</sup>, ''A''<sup>2</sup> usw. bestimmt werden]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] ist ein '''Einschrittverfahren''' eine Methode zur näherungsweisen Lösung von [[Anfangswertproblem]]en. Im Gegensatz zu [[Mehrschrittverfahren]] werden hier zur Berechnung der Näherung an die Lösung keine Daten von vorhergehenden Zeitpunkten benutzt. Die wichtigste Klasse von Einschrittverfahren sind die [[Runge-Kutta-Verfahren]].<br />
<br />
== Einführung ==<br />
=== Gewöhnliche Differentialgleichungen ===<br />
Die Entwicklung der Differential- und Integralrechnung durch den englischen Physiker und Mathematiker [[Isaac Newton]] und unabhängig davon durch den deutschen Universalgelehrten [[Gottfried Wilhelm Leibniz]] im letzten Drittel des 17.&nbsp;Jahrhunderts war ein wesentlicher Impuls für die Mathematisierung der Wissenschaft in der [[Frühe Neuzeit|frühen Neuzeit]]. Diese Methoden bildeten den Startpunkt des mathematischen Teilgebiets der [[Analysis]] und sind in allen Natur- und Ingenieurwissenschaften von zentraler Bedeutung. Während Leibniz von dem geometrischen Problem, Tangenten an gegebene Kurven zu bestimmen, zur Differentialrechnung geführt wurde, ging Newton von der physikalischen Fragestellung aus, wie sich Änderungen einer Größe zu einem bestimmten Zeitpunkt bestimmen lassen. So ergibt sich zum Beispiel bei der Bewegung eines Körpers dessen Durchschnittsgeschwindigkeit einfach als die zurückgelegte Strecke dividiert durch die dafür benötigte Zeit. Um jedoch die [[Momentangeschwindigkeit]] <math>v(t)</math> des Körpers zu einem bestimmten Zeitpunkt <math>t</math> mathematisch zu formulieren, ist ein Grenzübergang notwendig: Man betrachtet kurze Zeitspannen der Länge <math>\Delta t</math>, die dabei zurückgelegten Wegstrecken <math>\Delta x</math> und die zugehörigen Durchschnittsgeschwindigkeiten <math>\tfrac{\Delta x}{\Delta t}</math>. Lässt man nun die Zeitspanne <math>\Delta t</math> gegen null konvergieren und nähern sich dabei die Durchschnittsgeschwindigkeiten ebenfalls einem festen Wert an, dann wird dieser Wert die (Momentan-)Geschwindigkeit <math>v(t)</math> zu dem gegebenen Zeitpunkt <math>t</math> genannt. Bezeichnet <math>x(t)</math> die Position des Körpers zur Zeit <math>t</math>, dann schreibt man <math>v(t) = x'(t)</math> und nennt <math>v</math> die Ableitung von <math>x</math>.<br />
<br />
Der entscheidende Schritt in die Richtung der Differentialgleichungsmodelle ist nun die umgekehrte Fragestellung: Im Beispiel des bewegten Körpers sei also zu jeden Zeitpunkt <math>t</math> die Geschwindigkeit <math>v(t)</math> bekannt und daraus soll seine Position <math>x(t)</math> bestimmt werden. Es ist anschaulich klar, dass zusätzlich die Anfangsposition des Körpers zu einem Zeitpunkt <math>t_0</math> bekannt sein muss, um dieses Problem eindeutig lösen zu können. Es ist also eine Funktion <math>x(t)</math> mit <math>x'(t) = v(t)</math> gesucht, die die Anfangsbedingung <math>x(t_0) = x_0</math> mit gegebenen Werten <math>t_0</math> und <math>x_0</math> erfüllt. In diesem einfachsten Fall eines Anfangswertproblems ist die Ableitung der gesuchten Funktion explizit gegeben. Meist liegt jedoch der wichtige allgemeine Fall gewöhnlicher Differentialgleichungen vor: Für eine gesuchte Funktion <math>y</math> ist aufgrund der Naturgesetze oder der Modellannahmen ein Funktionszusammenhang bekannt, der angibt, wie die Ableitung <math>y'(t)</math> aus <math>t</math> und aus dem (unbekannten) Wert <math>y(t)</math> berechnet werden kann. Zusammen mit der Anfangsbedingung liegt also der folgende allgemeine Aufgabentyp vor: Man finde die Funktion <math>y</math>, die die Gleichungen<br />
<br />
: <math>y'(t) = f(t, y(t)), \quad y(t_0) = y_0</math><br />
<br />
erfüllt, wobei <math>f</math> eine gegebene Funktion ist. Ein einfaches Beispiel ist eine Größe <math>y</math>, die [[Exponentielles Wachstum|exponentiell wächst]]. Das bedeutet, dass die momentane Änderung, also die Ableitung <math>y'(t)</math> [[Proportionalität|proportional]] zu <math>y(t)</math> selbst ist. Es gilt also <math>y'(t) = \lambda \cdot y(t)</math> mit einer Wachstumsrate <math>\lambda</math> und beispielsweise einer Anfangsbedingung <math>y(0) = y_0</math>. Die gesuchte Lösung <math>y</math> lässt sich in diesem Fall leicht mit elementarer Differentialrechnung finden und mithilfe der [[Exponentialfunktion]] angeben: Es gilt <math>y(t) = y_0 \cdot e^{\lambda \cdot t}</math>.<br />
<br />
[[Datei:Binary system orbit q=10 e=0.5.gif|miniatur|Das [[Zweikörperproblem]] wird in der Ebene durch ein System von vier Differentialgleichungen zweiter Ordnung beschrieben.]]<br />
Die gesuchte Funktion <math>y</math> in einer Differentialgleichung kann auch [[Vektorwertige Funktion|vektorwertig]] sein, das heißt, für jedes <math>t</math> kann <math>y(t) = (y_1(t), \dotsc, y_d(t))</math> ein [[Vektor]] mit <math>d</math> Komponenten sein. Man spricht dann auch von einem <math>d</math>-dimensionalen Differentialgleichungssystem. Im Anschauungsfall eines bewegten Körpers ist dann <math>y(t)</math> seine Position im <math>d</math>-dimensionalen [[Euklidischer Raum|euklidischen Raum]] und <math>y'(t)</math> seine [[Geschwindigkeit]] zur Zeit <math>t</math>. Durch die Differentialgleichung ist also in jedem Zeit- und Raumpunkt die Geschwindigkeit der gesuchten [[Trajektorie (Physik)|Bahnkurve]] mit Richtung und Betrag vorgegeben. Daraus soll die Bahn selbst berechnet werden.<br />
<br />
=== Grundidee der Einschrittverfahren ===<br />
Bei der oben als Beispiel betrachteten einfachen Differentialgleichung des exponentiellen Wachstums ließ sich die Lösungsfunktion direkt angeben. Das ist bei komplizierteren Problemen im Allgemeinen nicht mehr möglich. Man kann dann zwar unter gewissen Zusatzvoraussetzungen an die Funktion <math>f</math> zeigen, dass eine eindeutig bestimmte Lösung des Anfangswertproblems existiert; diese kann aber dann nicht mehr durch Lösungsverfahren der Analysis (wie beispielsweise [[Trennung der Variablen]], einen [[Exponentialansatz]] oder [[Variation der Konstanten]]) explizit berechnet werden. In diesem Fall können numerische Verfahren verwendet werden, um Näherungen für die gesuchte Lösung zu bestimmen.<br />
<br />
Die Verfahren zur numerischen Lösung von Anfangswertproblemen gewöhnlicher Differentialgleichung lassen sich grob in zwei große Gruppen einteilen: die Einschritt- und die Mehrschrittverfahren. Beiden Gruppen ist gemeinsam, dass sie schrittweise Näherungen <math>y_0, y_1, y_2 \dotsc</math> für die gesuchten Funktionswerte <math>y(t_0), y(t_1), y(t_2)<br />
\dotsc</math> an Stellen <math>t_0 < t_1 < t_2 < \ldots</math> berechnen. Die definierende Eigenschaft der Einschrittverfahren ist dabei, dass zur Bestimmung der folgenden Näherung <math>y_{j+1}</math> nur die „aktuelle“ Näherung <math>y_j</math> verwendet wird. Bei Mehrschrittverfahren gehen im Gegensatz dazu zusätzlich bereits zuvor berechnete Näherungen mit ein; ein 3-Schrittverfahren würde also beispielsweise außer <math>y_j</math> auch noch <math>y_{j-1}</math> und <math>y_{j-2}</math> zur Bestimmung der neuen Näherung <math>y_{j+1}</math> verwenden.<br />
<br />
Das einfachste und grundlegendste Einschrittverfahren ist das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]], das der Schweizer Mathematiker und Physiker [[Leonhard Euler]] 1768 in seinem Lehrbuch ''Institutiones Calculi Integralis'' vorstellte. Die Idee dieser Methode ist es, die gesuchte Lösung durch eine stückweise lineare Funktion anzunähern, bei der in jedem Schritt von der Stelle <math>t_j</math> zur Stelle <math>t_{j+1}</math> die Steigung des Geradenstücks durch <math>f(t_j, y_j)</math> gegeben ist. Genauer betrachtet: Durch die Problemstellung ist bereits ein Wert der gesuchten Funktion gegeben, nämlich <math>y(t_0) = y_0</math>. Aber auch die Ableitung an dieser Stelle ist bekannt, denn es gilt <math>y'(t_0) = f(t_0, y_0)</math>. Damit kann die Tangente an den Graphen der Lösungsfunktion bestimmt und als Näherung verwendet werden. An der Stelle <math>t_1 > t_0</math> ergibt sich mit der Schrittweite <math>h_0 := t_1 - t_0</math><br />
: <math>y(t_1) \approx y_0 + h_0 \cdot f(t_0, y_0) =: y_1</math>.<br />
Dieses Vorgehen kann nun in den folgenden Schritten fortgesetzt werden. Insgesamt ergibt sich damit für das [[Explizites_Euler-Verfahren|explizite Euler-Verfahren]] die Rechenvorschrift<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_j, y_j), \quad j = 0,1,2\dotsc</math><br />
mit den Schrittweiten <math>h_j = t_{j+1} - t_j</math>.<ref>{{Literatur |Autor=[[Wolfgang Dahmen (Mathematiker)|Wolfgang Dahmen]], Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Seiten=386 f.}}</ref><br />
<br />
Das explizite Euler-Verfahren ist der Ausgangspunkt für zahlreiche Verallgemeinerungen, bei denen die Steigung <math>f(t_j, y_j)</math>, durch Steigungen ersetzt wird, die das Verhalten der Lösung zwischen den Stellen <math>t_j</math> und <math>t_{j+1}</math> genauer annähern. Eine zusätzliche Idee für Einschrittverfahren bringt das ''implizite'' Eulerverfahren, das <math>f(t_{j+1}, y_{j+1})</math> als Steigung verwendet. Diese Wahl erscheint auf den ersten Blick wenig geeignet, da ja <math>y_{j+1}</math> unbekannt ist. Als Verfahrensschritt erhält man aber nun die Gleichung<br />
: <math>y_{j+1} = y_j + h_j \cdot f(t_{j+1}, y_{j+1})</math> <br />
aus der <math>y_{j+1}</math> (gegebenenfalls durch ein numerisches Verfahren) berechnet werden kann. Wählt man beispielsweise als Steigung das [[Arithmetisches Mittel|arithmetische Mittel]] aus den Steigungen des expliziten und des impliziten Euler-Verfahrens, so erhält man das implizite [[Trapez-Methode|Trapez-Verfahren]]. Aus diesen lässt sich wiederum ein explizites Verfahren gewinnen, wenn man zum Beispiel das unbekannte <math>y_{j+1}</math> auf der rechten Seite der Gleichung durch die Näherung des expliziten Euler-Verfahren nähert, das sogenannte [[Heun-Verfahren]]. All diesen Verfahren und allen weiteren Verallgemeinerungen ist die Grundidee der Einschrittverfahren gemeinsam: der Schritt<br />
: <math>y_{j+1} = y_j + h_j \cdot \Phi_f</math><br />
mit einer Steigung, die von <math>t_j</math>, <math>y_j</math> und <math>h_j</math> sowie (bei impliziten Verfahren) von <math>y_{j+1}</math> abhängen kann.<br />
<br />
== Definition ==<br />
Gesucht sei die Lösung <math>y</math> des Anfangswertproblems<br />
: <math>y'(t) = f(t, y(t))</math>, <math>\quad y(t_0) = y_0</math>.<br />
Dabei werde vorausgesetzt, dass die Lösung<br />
: <math>y \colon I \to \R^d</math><br />
auf einem gegebenen Intervall <math>I = [t_0, T]</math> existiert und eindeutig bestimmt ist.<br />
Sind<br />
: <math>t_0 < t_1 < t_2 < \ldots < t_n = T</math><br />
Zwischenstellen im Intervall <math>I</math> und <math>h_j = t_{j+1} - t_j</math> die zugehörigen Schrittweiten, dann heißt<br />
das durch<br />
: <math>y_{j+1} = y_j + h_j \Phi_f(t_j, y_j, y_{j+1}, h_j)</math>, <math>\quad j=0,\dotsc,n-1</math><br />
gegebene Verfahren ''Einschrittverfahren'' mit ''Verfahrensfunktion'' <math>\Phi_f</math>. Wenn <math>\Phi_f</math> nicht von <math>y_{j+1}</math> abhängt, dann nennt man es ''explizites Einschrittverfahren''. Anderenfalls muss in jedem Schritt <math>j</math> eine Gleichung für <math>y_{j+1}</math> gelöst werden, und das Verfahren wird ''implizit'' genannt.<br />
<br />
== Konsistenz und Konvergenz ==<br />
Für ein praxistaugliches Einschrittverfahren sollen die berechneten <math>y_j</math> gute Näherungen für Werte <math>y(t_j)</math> der exakten Lösung <math>y</math> an der Stelle <math>t_j</math> sein. Da im Allgemeinen die Größen <math>d</math>-dimensionale Vektoren sind, misst man die Güte dieser Näherung mit einer [[Vektornorm]] als Fehler <math>\|y_j -y(t_j)\|</math>. Es ist wünschenswert, dass diese Fehler für alle <math>j</math> schnell gegen null konvergieren, falls man die Schrittweiten gegen null konvergieren lässt. Um auch den Fall nicht konstanter Schrittweiten zu erfassen, definiert man dazu genauer <math>h</math> als das Maximum der verwendeten Schrittweiten und betrachtet das Verhalten des maximalen Fehlers an allen Stellen <math>t_j</math> im Vergleich zu Potenzen von <math>h</math>. Man sagt, das Einschrittverfahren zur Lösung des gegebenen Anfangswertproblems habe die ''Konvergenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\max_{j=0,\dotsc,n} \|y_j - y(t_j)\| \leq C h^p</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
<br />
Die Konvergenzordnung ist die wichtigste Kenngröße für den Vergleich verschiedener Einschrittverfahren.ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=156}}</ref> Ein Verfahren mit höherer Konvergenzordnung <math>p</math> liefert im Allgemeinen bei vorgegebener Schrittweite einen kleineren Gesamtfehler bzw. umgekehrt sind weniger Schritte nötig, um eine vorgegebene Genauigkeit zu erreichen. Bei einem Verfahren mit <math>p = 1</math> ist zu erwarten, dass sich bei einer Halbierung der Schrittweite auch der Fehler nur ungefähr halbiert. Bei einem Verfahren der Konvergenzordnung <math>p=4</math> kann man hingegen davon ausgehen, dass sich dabei der Fehler ungefähr um den Faktor <math>\left(\tfrac{1}{2}\right)^4 = \tfrac{1}{16}</math> verringert.<br />
<br />
Die in der Definition der Konvergenzordnung betrachteten Fehler <math>\|y_j - y(t_j)\|</math> setzen sich auf eine zunächst kompliziert erscheinende Weise aus zwei Einzelkomponenten zusammen: Natürlich hängen sie zum einen von dem Fehler ab, den das Verfahren in einem einzelnen Schritt macht, indem es die unbekannte Steigung der gesuchten Funktion durch die Verfahrensfunktion annähert. Zum anderen ist aber zusätzlich zu berücksichtigen, dass bereits der Startpunkt <math>(t_j, y_j)</math> eines Schrittes nicht von der exakten Stelle <math>(t_j, y(t_j))</math> aus erfolgt; der Fehler nach diesem Schritt hängt also auch von ''allen'' Fehlern ab, die bereits in der vorangegangenen Schritten gemacht wurden. Aufgrund der einheitlichen Definition der Einschrittverfahren, die sich nur in der Wahl der Verfahrensfunktion <math>\Phi_f</math> unterscheiden, lässt sich aber beweisen, dass man (unter gewissen technischen Voraussetzungen an <math>\Phi_f</math>) direkt von der Fehlerordnung in einem einzelnen Schritt, der sogenannten ''Konsistenzordnung'', auf die Konvergenzordnung schließen kann.<br />
<br />
Das Begriff der [[Konsistenz (Numerik)|Konsistenz]] ist ein allgemeines und zentrales Konzept der modernen numerischen Mathematik. Während man bei der Konvergenz eines Verfahrens untersucht, wie gut die numerischen Näherungen zur exakten Lösung passen, stellt man sich bei der Konsistenz vereinfacht gesprochen die „umgekehrte“ Frage: Wie gut erfüllt die exakte Lösung die Verfahrensvorschrift? In dieser allgemeinen Theorie gilt, dass ein Verfahren genau dann konvergent ist, wenn es konsistent und [[Stabilität (Numerik)|stabil]] ist. Um die Notation zu vereinfachen, soll in der folgenden Überlegung angenommen werden, dass ein explizites Einschrittverfahren<br />
: <math>y_{j+1} = y_j + h \Phi_f(t_j, y_j, h)</math><br />
mit konstanter Schrittweite <math>h</math> vorliegt. Mit der wahren Lösung <math>t \mapsto y(t)</math> definiert man den ''lokalen Abschneidefehler'' (auch ''lokaler Verfahrensfehler'' genannt) <math>\eta</math> als<ref>{{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 |Seiten=157}}</ref><br />
: <math>\eta(t,h) = y(t) + h \Phi_f(t, y(t), h) - y(t+h)</math>.<br />
Man nimmt also an, dass die exakte Lösung bekannt ist, startet einen Verfahrensschritt an der Stelle <math>(t,y(t))</math> und bildet die Differenz zu exakten Lösung an der Stelle <math>t + h</math>. Damit definiert man: Ein Einschrittverfahren hat die ''Konsistenzordnung'' <math>p \geq 1</math>, wenn die Abschätzung<br />
: <math>\|\eta(t,h)\| \leq C h^{p+1}</math><br />
für alle hinreichend kleinen <math>h</math> mit einer von <math>h</math> unabhängigen Konstante <math>C > 0</math> gilt.<br />
<br />
Der auffällige Unterschied zwischen den Definitionen der Konsistenzordnung und der Konvergenzordnung ist die Potenz <math>h^{p+1}</math> anstelle von <math>h^p</math>. Das lässt sich anschaulich so deuten, dass beim Übergang vom lokalen zum globalen Fehler eine Potenz der Schrittweite „verlorengeht“. Es gilt nämlich der folgende, für die Theorie der Einschrittverfahren zentrale Satz:<br />
: ''Ist die Verfahrensfunktion <math>\Phi_f</math> [[Lipschitz-Stetigkeit|Lipschitz-stetig]] und hat das zugehörige Einschrittverfahren die Konsistenzordnung <math>p</math>, dann hat es die auch die Konvergenzordnung <math>p</math>.''<br />
Die Lipschitz-Stetigkeit als Zusatzvoraussetzung für die Stabilität ist normalerweise leicht einzusehen, wenn die Funktion <math>f</math> aus der Differentialgleichung Lipschitz-stetig ist. Diese Forderung ist im Allgemeinen sowieso vorausgesetzt, um die eindeutige Lösbarkeit des Anfangswertproblems zu garantieren. Nach dem Satz genügt es also, die Konsistenzordnung eines Einschrittverfahrens zu bestimmen. Das lässt sich prinzipiell durch [[Taylor-Formel|Taylor-Entwicklung]] von <math>\eta(t,h)</math> nach Potenzen von <math>h</math> erreichen. In der Praxis werden die entstehenden Formeln für höhere Ordnungen sehr kompliziert und unübersichtlich, sodass zusätzliche Konzepte und Notationen benötigt werden.<br />
<br />
== Spezielle Verfahren und Verfahrensklassen ==<br />
[[Datei:Runge-kutta.svg|miniatur|Einige Einschrittverfahren im Vergleich]]<br />
=== Einfache Verfahren der Ordnung 1 und 2 ===<br />
Wenn man die Steigungen <math>f(t_j, y_j)</math> des ''expliziten Euler-Verfahrens'' und <math>f(t_{j+1},y_{j+1})</math> des ''impliziten Euler-Verfahrens'', wie sie an den beiden Endpunkten eines Schritts vorliegen, mittelt, kann man hoffen, eine bessere Näherung über das ganze Intervall zu erhalten. Tatsächlich lässt sich beweisen, dass das so erhaltene ''implizite Trapez-Verfahren''<br />
: <math>y_{j+1} = y_j + \frac{h}{2}(f(t_j, y_j) + f(t_{j+1},y_{j+1}))</math> <br />
die Konvergenzordnung 2 hat. Dieses Verfahren weist sehr gute Stabilitätseigenschaften auf, ist allerdings implizit, sodass in jedem Schritt eine Gleichung für <math>y_{j+1}</math> gelöst werden muss. Nähert man diese Größe auf der rechten Seite der Gleichung durch das explizite Euler-Verfahren an, so entsteht das explizite ''Verfahren von Heun''<br />
: <math>y_{j+1} = y_j + \frac{h}{2}(f(t_j, y_j) + f(t_{j+1},y_j + hf(t_j,y_j)))</math>,<br />
das ebenfalls die Konvergenzordnung 2 besitzt. Ein weiteres einfaches explizites Verfahren der Ordnung 2, das ''verbesserte Euler-Verfahren'', erhält man durch folgende Überlegung: Eine „mittlere“ Steigung im Verfahrensschritt wäre die Steigung der Lösung <math>y</math> in der Mitte des Schritts, also an der Stelle <math>t_j + \tfrac{h}{2}</math>. Da die Lösung aber unbekannt ist, nähert man sie durch einen expliziten Euler-Schritt mit halber Schrittweite an. Es ergibt sich die Verfahrensvorschrift<br />
: <math>y_{j+1} = y_j + h f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}f(t_j,y_j))</math>.<br />
<br />
=== Runge-Kutta-Verfahren ===<br />
Die erwähnten Ideen für einfache Einschrittverfahren führen bei weiterer Verallgemeinerung zur wichtigen Klasse der Runge-Kutta-Verfahren. Zum Beispiel lässt sich das Verfahren von Heun übersichtlicher so präsentieren: Zuerst wird eine Hilfssteigung <math>k_1 = f(t_j, y_j)</math> berechnet, nämlich die Steigung des expliziten Euler-Verfahrens. Damit wird eine weitere Hilfssteigung bestimmt, hier <math>k_2 = f(t_j + h, y_h + h k_1)</math>. Die tatsächlich verwendete Steigung, also <math>\Phi_f</math> ergibt sich anschließend als ein gewichtetes Mittel der Hilfssteigungen, im Verfahren von Heun also <math>\tfrac{1}{2} k_1 + \tfrac{1}{2} k_2</math>. Dieses Vorgehen lässt sich auf mehr als zwei Hilfssteigungen verallgemeinern. Ein <math>s</math>-stufiges Runge-Kunge-Kutta-Verfahren berechnet zunächst Hilfssteigungen <math>k_1, \dotsc, k_s</math> durch Auswertung von <math>f</math> an geeigneten Stellen und anschließend <math>\Phi_f</math> als gewichtetes Mittel. Bei einem expliziten Runge-Kutta-Verfahren werden die Hilfssteigungen <math>k_1, k_2, k_3, \dotsc</math> der Reihe nach direkt berechnet, bei einem impliziten ergeben sie sich als Lösungen eines Gleichungsystems. Als typisches Beispiel sei das explizite [[Klassisches Runge-Kutta-Verfahren|klassische Runge-Kutta-Verfahren]] der Ordnung 4 angeführt, dass mitunter einfach als ''das'' Runge-Kutta-Verfahren bezeichnet wird: Dabei werden zunächst die vier Hilfssteigungungen <math>k_1 = f(t_j, y_j)</math>, <math>k_2 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_1)</math>, <math>k_3 = f(t_j + \tfrac{h}{2}, y_j + \tfrac{h}{2}k_2)</math> und <math>k_4 = f(t_j+h, y_j + hk_3)</math> berechnet und dann als Verfahrenssteigung das gewichtete Mittel <math>\tfrac{1}{6} k_1 + \tfrac{1}{3} k_2 + \tfrac{1}{3} k_3 + \tfrac{1}{6} k_4</math> verwendet.<br />
<br />
== Literatur ==<br />
* {{Literatur |Autor=Wolfgang Dahmen, Arnold Reusken |Titel=Numerik für Ingenieure und Naturwissenschaftler |Auflage=2. |Verlag=Springer |Ort=Berlin/Heidelberg |Jahr=2008 |ISBN=978-3-540-76492-2 |Kapitel=Kap. 11: ''Gewöhnliche Differentialgleichungen''}}<br />
* {{Literatur |Autor=[[Peter Deuflhard]], [[Folkmar Bornemann]] |Titel=Numerische Mathematik 2 – Gewöhnliche Differentialgleichungen |Auflage=3. |Verlag=Walter de Gruyter |Ort=Berlin |Jahr=2008 |ISBN=978-3-11-020356-1}}<br />
* {{Literatur |Autor=David F. Griffiths, Desmond J. Higham |Titel=Numerical Methods for Ordinary Differential Equations – Initial Value Problems |Verlag=Springer |Ort=London |Jahr=2010 |ISBN=978-0-85729-147-9}}<br />
* {{Literatur |Autor=Robert Plato |Titel=Numerische Mathematik kompakt |Auflage=4. |Verlag=Vieweg+Teubner | Ort=Wiesbaden | Jahr=2010 | ISBN=978-3-8348-1018-2 | Kapitel=Kap. 7: ''Einschrittverfahren für Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Hans Rudolf Schwarz, Norbert Köckler |Titel=Numerische Mathematik |Auflage=8. |Verlag=Vieweg+Teubner |Ort=Wiesbaden |Jahr=2011 |ISBN=978-3-8348-1551-4 |Kapitel=Kap. 8: ''Anfangswertprobleme''}}<br />
* {{Literatur |Autor=Karl Strehmel, Rüdiger Weiner, Helmut Podhaisky |Titel=Numerik gewöhnlicher Differentialgleichungen |Auflage=2. |Verlag=Springer Spektrum |Ort=Wiesbaden |Jahr=2012 |ISBN=978-3-8348-1847-8}}<br />
<br />
== Weblinks ==<br />
<br />
* {{Internetquelle |url=http://num.math.uni-bayreuth.de/de/team/Gruene_Lars/lecture_notes/num2/num2_3.pdf |autor=Lars Grüne |titel=Numerische Methoden für gewöhnliche Differentialgleichungen (Numerische Mathematik II) |datum=2008 |format=PDF |kommentar=Vorlesungsskript der [[Universität Bayreuth]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=http://www.mathematik.tu-darmstadt.de/fbereiche/numerik/staff/spellucci/docs/odess07.pdf |autor=Peter Spellucci |titel=Numerik gewöhnlicher Differentialgleichungen |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[TU Darmstadt]] |zugriff=2017-09-08}}<br />
* {{Internetquelle |url=https://home.zhaw.ch/~fuh/MUDS/FILES/MUDS_Chapter_05.pdf |autor=Hans U. Fuchs |titel=Numerical Methods for Differential Equations |datum=2007 |format=PDF |kommentar=Vorlesungsskript der [[Zürcher Hochschule für Angewandte Wissenschaften]] |zugriff=2017-09-08 |sprache=en}}<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{Schreibwettbewerb}}<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie gewöhnlicher Differentialgleichungen]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Romberg-Integration&diff=168962778Romberg-Integration2017-09-10T20:08:43Z<p>HerrHartmuth: Kapitel "Rechenvorschrift" verständlich umformuliert. Kapitel "Vorgehensweise" war ein nicht zugebrauchendes Wirrwarr.</p>
<hr />
<div>Die '''Romberg-Integration''' ist ein Verfahren zur [[Numerische Mathematik|numerischen]] Bestimmung von [[Integralrechnung|Integral]]en und wurde von [[Werner Romberg]] 1955<ref>Romberg, Vereinfachte Numerische Integration, Kgl.Norske Vid. Selsk. Forsk., Band 28, 1955, S. 30-36</ref> entwickelt. Sie ist eine Verbesserung der (Sehnen)-[[Trapezregel]] durch [[Extrapolation]].<br />
<br />
==Grundgedanke==<br />
Die Romberg-Integration basiert auf der [[Richardson-Extrapolation]] zum Limes über die Schrittweite einer summierten Quadraturformel, wie beispielsweise der [[Trapezregel]]. Die Trapezregel ist hier besonders zu erwähnen, da sie einfach zu berechnen ist und zudem eine Entwicklung in quadratischen Potenzen der Schrittweite besitzt, also eine Extrapolation in Quadraten der Schrittweite möglich ist, die deutlich schneller konvergiert als die einfache Extrapolation zum Limes. Mit Schrittweite h ist hier die Breite der Trapeze bei der Trapezregel gemeint. <br />
<br />
Der aufwändige Teil der numerischen Integration sind oft die Funktionsauswertungen. Um deren Anzahl minimal zu halten, ist es somit ratsam, einen Schrittweitenverlauf zu wählen, der die Weiterverwendung von bereits berechneten Funktionswerten erlaubt. Ein Beispiel für eine solche Schrittweite wäre <math>\textstyle{h_n=\frac{b-a}{2^{n-1}}}</math>, das zugleich die Bedingungen für eine konvergente Extrapolation erfüllt. Also<br />
<br />
<math>1,\frac{1}{2},\frac{1}{4},\frac{1}{8},\frac{1}{16},\frac{1}{32},\dots</math><br />
<br />
Bei dieser sogenannten ''Romberg-Folge'' wächst die Anzahl der benötigten Funktionsauswertungen bei großen n schnell an, was nicht immer erwünscht ist.<br />
<br />
Um diesem abzuhelfen, kann auch die [[Roland Bulirsch|Bulirsch]]-Folge verwendet werden:<br />
<br />
<math>1,\frac{1}{2},\frac{1}{3},\frac{1}{4},\frac{1}{6},\frac{1}{8},\dots</math><br />
<br />
Hier werden Glieder mit <math>\frac{2}{3}</math> zwischengeschaltet.<br />
<br />
== Rechenvorschrift ==<br />
Man nähert das Integral <math>I[f] = \int_a^b f(x) \, \mathrm dx</math> mit der Hilfe von [[Trapezregel#Zusammengesetzte_Sehnentrapezformel|Trapezsummen]] <math>T=T(h)</math> von verschiedenen Schrittweiten <math>h</math> an.<br />
Dabei nimmt man an, dass der Grenzwert <math>I[f] = \lim_{h \searrow 0 } T(h)</math> erfüllt wird.<br />
<br />
Die '''Rechenvorschrift''' der Romberg-Integration lautet nun wie folgt<ref>{{Literatur |Autor=Peter Deuflhard ; Folkmar Bornemann |Titel=Numerische Mathematik / 1. Eine algorithmisch orientierte Einführung. |Band=1 |Auflage=4., überarb. und erw. Aufl |Verlag=de Gruyter |Ort=Berlin |Datum= |ISBN=3-11-020354-5 |Seiten=318}}</ref>.<br />
# Bestimme die [[Trapezregel#Zusammengesetzte_Sehnentrapezformel|Trapezsummen]] <math>T=T(h)</math> zu Schrittweiten <math>\left( h_i \right)_{i=1, \, \ldots \, ,m}</math>. Dies definiert <math> T_{i,1}:=T(h_i) \, , i=1, \, \ldots \, ,m \, .</math><br />
# Mittels dem [[Polynominterpolation#Algorithmus_von_Neville-Aitken|Neville-Aitken-Schema]] wird das Interpolationspolynom bei <math>h=0</math> ausgewertet <math><br />
T_{i,k} := T_{i,k-1} + <br />
\frac{ T_{i,k-1}-T_{i-1,k-1} }<br />
{ \left( <br />
\frac{ h_{i-k+1} }{ h_i } <br />
\right)^2 -1 }<br />
\, \quad<br />
\text{mit}<br />
\quad<br />
2 \leq k \leq i<br />
\, .<br />
</math><br />
<br />
'''Anmerkungen'''<br />
* Im ersten Schritt berechnet man also die Datenpunkte <math>\left( h_i, T(h_i) \right)_{i=1, \, \ldots \, ,m}</math>. Aufgrund der [[Trapezregel#Asymptotische_Fehlerentwicklung|asymptotischen Fehlerentwicklung]] der Trapezsumme (es kommen nur Potenzen von <math>h^2</math> vor) wird im zweiten Schritt ein Interpolationspolynom zu den Datenpunkten <math>\left( h_i^2, T(h_i) \right)_{i=1, \, \ldots \, ,m}</math> benutzt.<br />
* Im zweiten Schritt wird nicht das vollständige Interpolationspolynom bestimmt, sondern nur die Auswertung an einem bestimmten Punkt: <math>h=0</math>. Dies funktioniert besonders effizient mit dem [[Polynominterpolation#Algorithmus_von_Neville-Aitken|Neville-Aitken-Schema]].<br />
* Das [[Polynominterpolation#Algorithmus_von_Neville-Aitken|Neville-Aitken-Schema]] liefert eine '''Approximation des Integrals''' mittels <math>T_{m,m} \approx I[f]</math>.<br />
* Die Durchführung des [[Polynominterpolation#Algorithmus_von_Neville-Aitken|Neville-Aitken-Schema]] muss in der "richtigen" Reihenfolge geschehen. Das folgende ''Extrapolationstableau'' soll dies verdeutlichen (man geht spaltenweise vor - zuerst die erste Spalte bestimmen, dann die zweite, etc.)<br />
:<math><br />
\begin{matrix}<br />
T_{1,1} \\<br />
&\searrow \\<br />
T_{2,1} & \rightarrow & T_{2,2} \\<br />
\vdots & & & \ddots \\<br />
T_{k-1,1} & \rightarrow & \cdots & \rightarrow & T_{k-1,k-1} \\<br />
&\searrow & & \searrow & & \searrow \\<br />
T_{k,1} & \rightarrow & \cdots & \rightarrow & T_{k,k-1} & \rightarrow & T_{k,k} \, .<br />
\end{matrix}<br />
</math><br />
<br />
<br />
==Anmerkungen==<br />
<br />
Eine Unterschreitung der hier definierten [[Fehlerschranke]] bedeutet nicht immer, dass das Integral korrekt berechnet wurde. Dies gilt besonders für periodische Funktionen und Funktionen mit einem periodischen Anteil. So führt z.&nbsp;B. das bei der [[Fourieranalyse]] periodischer Funktionen vorkommende Integral<br />
<br />
:<math> \int_{0}^{2 \pi} f(x) \cdot \cos(2^n x) \mathrm{d}x </math><br />
<br />
u. U. zu einem Fehler, wenn man nicht mindestens n+1 Integrationsstufen berechnet. In den ersten n Integrationsstufen fallen alle Stützstellen mit den Nullstellen der Funktion zusammen. Als Integral erhält man daher immer den Wert Null, egal ob es stimmt oder nicht. Ein Computerprogramm sollte also immer eine Mindestanzahl an Integrationsstufen erzwingen.<br />
<br />
==Fazit==<br />
Der große Vorteil der Romberg-Quadratur gegenüber anderen Verfahren besteht in der Möglichkeit, den Fehler im Nachhinein zu kontrollieren und schon erreichte Ergebnisse weiterzuverwenden, wenn die Genauigkeit noch nicht erreicht ist.<br />
<br />
==Literatur==<br />
* Martin Hermann: ''Numerische Mathematik'' 2. überarbeitete und erweiterte Auflage. Oldenbourg Wissenschaftsverlag, München u. a. 2006, ISBN 3-486-57935-5, S. 436 ff.<br />
* Josef Stoer: ''Numerische Mathematik 1'', 8. neu bearbeitete und erweiterte Auflage. Springer-Lehrbuch, ISBN 3-540-66154-9, S. 161 ff.<br />
==Weblinks==<br />
*{{Webarchiv | url=http://freenet-homepage.de/p-st/projects/romberg_v1.0.tar.gz | wayback=20070929103333 | text=Romberg-Integration}} – Plugin für [[Yacas]] <br />
==Einzelnachweise==<br />
<references /><br />
[[Kategorie:Numerische Mathematik]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Trapezregel&diff=168937521Trapezregel2017-09-09T21:20:51Z<p>HerrHartmuth: /* Zusammengesetzte Sehnentrapezformel */ Neues Kapitel hinzugefügt: Asymptotische Fehlerentwicklung der Trapezsumme (unter anderem wichtig für die Romberg-Integration)</p>
<hr />
<div>Die '''Trapezregel''' beschreibt ein [[Mathematik|mathematisches]] Verfahren zur [[Numerische Mathematik|numerischen]] Annäherung des [[Integralrechnung|Integrals]] einer [[Funktion (Mathematik)|Funktion]] <math>f(x)</math> im [[Intervall (Mathematik)|Intervall]] <math>[a, b]</math> ([[Numerische Quadratur]]).<br />
<br />
Dazu ersetzt man die Fläche unter der Kurve <math>y = f(x)</math> im gegebenen Intervall durch ein [[Trapez (Geometrie)|Trapez]] oder mehrere gleich breite Trapeze.<br />
<br />
Es gibt verschiedene Möglichkeiten zur Bestimmung dieser Trapeze:<br />
Man kann die Kurve zum Beispiel näherungsweise durch eine Sehne zwischen den Funktionswerten an den Stellen <math>a</math> und <math>b</math> ersetzen. Dies führt zur '''Sehnentrapezformel'''.<br />
Man kann aber auch in der Mitte des Intervalls die Tangente an die Funktion legen und erhält dann die '''Tangententrapezformel''' oder '''Mittelpunktsregel'''.<br />
<br />
== Beispiel ==<br />
<br />
: <math> J(f) = \int_{0}^{2}3^{3x-1} \, \mathrm{d}x = \frac{3^{3x-2}}{\ln(3)}\Big|_0^2 =\frac{728}{9 \ln(3)} = 73{,}6282396649\dots</math><br />
Mit Hilfe der im Folgenden erklärten Trapezformeln soll dieses bestimmte Integral näherungsweise berechnet werden.<br />
<br />
== Sehnentrapezformel ==<br />
[[Bild:Sehnentrapezformel.svg|mini|250px|Sehnentrapez]]<br />
<br />
:<math>J(f) = \int_a^b f(x)\, \mathrm dx = T(f) + E(f).</math><br />
<br />
Das Trapez wird gebildet aus der Grundlinie <math>[a,b]</math> (dem Intervall auf der <math>x</math>-Achse), den senkrechten Geraden <math>[a,f(a)]</math> und <math>[b,f(b)]</math> sowie der Sehne als [[Verbindungsgerade]] zwischen <math>f(a)</math> und <math>f(b)</math>. Diese Sehne ersetzt die Kurve <math>f(x), x\in[a,b]</math>.<br />
<br />
Die Sehnentrapezformel ergibt sich aus dem Flächeninhalt des beschriebenen Trapezes:<br />
<br />
:<math>T(f) = (b-a)\frac{f(a)+f(b)}{2}.</math><br />
<br />
Diese Formel - und auch die folgenden - kann man herleiten aus der „Allgemeinen Quadraturformel für eine Teilfläche“ (siehe [[Numerische Quadratur]]).<br />
<br />
Ist <math>f</math> zweimal stetig differenzierbar in <math>[a,b]</math>, dann gilt für das '''Restglied''' <math>E(f)</math> folgende Abschätzung (siehe [[Numerische Quadratur]]):<br />
<br />
:<math>\left|E(f)\right| \le\frac{(b-a)^3}{12} \max_{a\le x\le b} \left|f''(x)\right|.</math><br />
<br />
Ist <math>f</math> zusätzlich noch reellwertig, dann gilt mit einer Zwischenstelle <math>\zeta\in[a,b]</math><br />
<br />
:<math>E(f) = -\frac{(b-a)^3}{12} f''(\zeta).</math><br />
<br />
Das [[Vorzeichen (Zahl)|Vorzeichen]] in dieser Formel kann man sich wie folgt geometrisch plausibel machen:<br />
Falls die Funktion <math>f(x)</math>, wie in der obigen Abbildung des Sehnentrapezes, [[Konvexe und konkave Funktionen|streng konkav]] ist, gilt <math>f''(x)<0</math> für alle <math>x\in[a,b]</math> und daher auch für die Zwischenstelle <math>\zeta\in[a,b]</math>.<br />
Somit folgt, dass <math>E(f)=J(f)-T(f)>0</math>, d.h. die gesuchte Fläche <math>J(f)</math> ist größer als die Trapezfläche <math>T(f)</math>, wie auch die Abbildung zeigt.<br />
<br />
Die Abhängigkeit des Fehlers von der 2. Ableitung von <math>f(x)</math> bedeutet, dass die Formel für Geraden exakt ist, was auch anschaulich klar ist. Der '''Genauigkeitsgrad''' ist somit 1.<br />
<br />
Angewandt auf obiges Beispiel:<br />
:<math>T(f) = (2-0)\frac{f(0)+f(2)}{2} = \frac{730}3 = 243{,}\bar{3}.</math><br />
<br />
Wegen <math>f''(x)=3^{3x+1} \cdot \ln(3)^2>0</math> folgt aus obiger Formel, dass die gesuchte Fläche <math>J(f)</math> kleiner ist als die Trapezfläche <math>T(f)</math>, in Übereinstimmung mit den errechneten Zahlen. <br />
<br />
=== Zusammengesetzte Sehnentrapezformel ===<br />
:<math>J(f) = \int_a^b f(x)\,\mathrm dx = T^{(n)}(f) + E^{(n)}(f).</math><br />
Um das Integral noch besser annähern zu können, unterteilt man das Intervall <math>[a,b]</math> in <math>n</math> nebeneinanderliegende gleich große Teilintervalle der Länge <math>h=\tfrac{b-a}n</math>. In jedem Teilintervall wendet man die Sehnentrapezformel für die einzelnen Teilflächen an und addiert danach die entstandenen Näherungen. Damit erhält man die '''summierte (bzw. zusammengesetzte) Sehnentrapezformel''':<br />
<br />
:<math> T^{(n)}(f)=h\left(\frac 12 f(a) + \frac 12 f(b) + \sum_{i=1}^{n-1} f(a+ih)\right)</math><br />
mit <br />
:<math> h = \frac{b-a}n.</math><br />
Angewandt auf obiges Beispiel:<br />
<br />
Sei die Schrittweite <math>h = \tfrac 13</math> und damit <math>n = 6</math>. Dann ist<br />
:<math>\begin{align}<br />
T^{(6)}(f) &= \frac 13\left(\frac 12f(0) + f\left(\frac 13\right) + f\left(\frac 23\right) + f(1) + f\left(\frac 43\right) + f\left(\frac 53\right) + \frac 12 f(2) \right)\\<br />
&= \frac{728}9 = 80{,}\bar{8}.<br />
\end{align}</math><br />
<br />
Sei die Schrittweite <math>h = \tfrac 16</math> und damit <math>n = 12</math>. Dann ist<br />
:<math>\begin{align}<br />
T^{(12)}(f) &= \frac 16\left(\frac 12f(0) + f\left(\frac 16\right) + f\left(\frac 26\right) + f\left(\frac 36\right) + ... + f\left(\frac{10}{6}\right) + f\left(\frac{11}{6}\right) + \frac 12 f(2) \right)\\<br />
&= \frac{T^{(6)}(f)}{2}+ \frac{1}{6} \cdot \left(f\left(\frac{1}{6}\right) + f\left(\frac{3}{6}\right) + f\left(\frac{5}{6}\right) + f\left(\frac{7}{6}\right) + f\left(\frac{9}{6}\right) + f\left(\frac{11}{6}\right) \right)\\<br />
&= \frac{728+364\sqrt 3}{18} = 75{,}4703608\dotso<br />
\end{align}</math><br />
Man sieht hier den Vorteil der Sehnentrapezregel: Verdoppelt man die Anzahl der Intervalle, so kann auf die vorangegangene Rechnung zurückgegriffen werden. Das ist bei der Tangententrapezregel (s.u.) nicht der Fall. Das ist einer der Gründe, warum die [[Romberg-Integration]] auf der Sehnentrapezregel als Basis aufbaut.<br />
<br />
Die allgemeine Formel lautet:<br />
:<math>T^{(2n)}(f)= \frac{T^{(n)}(f)}{2}+ \frac{h}{2} \cdot \sum_{i=1}^n f\left(a \ - \frac{h}{2} + i\cdot h \right).</math><br />
<br />
==== Fehlerabschätzung ====<br />
Die Fehlerabschätzung für das Restglied lautet<br />
<br />
:<math>\left| E^{(n)}(f)\right|\le\frac{(b-a)}{12} h^2 \max_{a\le x\le b} \left|f''(x)\right|</math><br />
<br />
bzw. für reellwertige Funktionen mit einer Zwischenstelle <math>\zeta</math> aus dem Intervall <math>[a,b]</math><br />
<br />
:<math> E^{(n)}(f)= -\frac{(b-a)}{12} h^2 f''(\zeta).</math><br />
<br />
Der Faktor <math> h^2 </math> in obiger Formel bedeutet, dass bei einer Halbierung der Schrittweite (Verdoppelung der Intervalle), wie es beim [[Romberg-Verfahren]] mit der Romberg-Folge der Fall ist, der Fehler in etwa um den Faktor 4 kleiner wird, wie auch nachfolgendes Beispiel zeigt:<br />
<br />
Angewandt auf obiges Beispiel:<br />
<br />
Mit <math>f''(x)=3^{3x+1} \cdot \ln(3)^2</math> folgt<br />
:<math>\max_{0\le x\le 2} \left|f''(x)\right|=3^{3\cdot2+1} \cdot \ln(3)^2=3^7\cdot(\ln(3))^2</math> <br />
und somit die Fehlerabschätzung <br />
:<math>\left| E^{(6)}(f)\right|\le\frac{2}{12} \cdot \left(\frac{1}{3}\right)^{2}\cdot3^7\cdot(\ln(3))^2=\frac{3^4\cdot(\ln(3))^2}{2}= 48{,}88\dots</math>, <br />
die erwartungsgemäß einen größeren Wert ergibt als den exakten Wert<br />
:<math> E^{(6)}(f)=\frac{728}{9}\cdot\frac{1-\ln(3)}{\ln(3)}=-7{,}26\dots.</math><br />
Analog erhält man die Fehlerabschätzung<br />
:<math>\left| E^{(12)}(f)\right|\le\frac{2}{12} \cdot \left(\frac{1}{6}\right)^{2}\cdot3^7\cdot(\ln(3))^2=\frac{3^4\cdot(\ln(3))^2}{8}= 12{,}22\dots</math>, <br />
die erwartungsgemäß einen größeren Wert ergibt als den exakten Wert<br />
:<math>E^{(12)}(f)=\frac{182}{9\ln(3)}\cdot(4-2\ln(3)-\ln(3)\sqrt 3)=-1{,}842\dots.</math><br />
Es gilt<br />
:<math>\left| E^{(12)}(f)\right|=1,842\dots \approx \frac{\left| E^{(6)}(f)\right|}{4}=\frac{7,26\dots}{4}=1{,}815\dots.</math><br />
<br />
==== Fehlerschätzung ====<br />
<br />
Rechnet man die Sehnentrapezformel zweimal mit 2 verschiedenen Anzahlen von Intervallen <math> n \ne m </math>, so erhält man folgende Fehlerschätzung: <br />
<br />
:<math> E^{(n)}(f)\approx \frac{m^2}{m^2-n^2}\left(T^{(m)}(f)-T^{(n)}(f)\right).</math><br />
<br />
Speziell bei der Verdoppelung der Intervalle <math> m=2n </math> (Halbierung der Schrittweite) erhält man die Fehlerschätzung:<br />
:<math> E^{(n)}(f)\approx \frac 43 \left(T^{(2n)}(f)-T^{(n)}(f)\right)</math><br />
<br />
Angewandt auf das obige Beispiel erhält man<br />
:<math>\begin{align} <br />
E^{(6)}(f)=-7,26\dots &\approx \frac 43 \left(T^{(12)}(f)-T^{(6)}(f)\right)\\<br />
&=\frac{4}{3}\left(\frac{728+364\sqrt 3}{18}-\frac{728}{9}\right)=\frac{2}{27}(364\sqrt 3-728)=-7{,}2247\dots.<br />
\end{align}</math><br />
<br />
==== Asymptotische Fehlerentwicklung ====<br />
Wir bestimmen im folgenden die Art des Fehlers der Trapezsumme <math>T</math> und im speziellen ihre Abhängigkeit von der Schrittweite <math>h</math>, wobei das Integral <math>\int_a^b f(x) \, \mathrm dx</math> bestimmt werden soll.<br />
<br />
Seien dazu<br />
* die Schrittweite: <math>h=\frac{b-a}{n}</math> mit <math>n\in\N</math><br />
* Trapezsumme ist <math>h</math>-abhängig: <math> T=T_n(h) = \frac{h}{2} \left( f(a)+f(b) + 2 \sum_{i=1}^{n-1} f(a+ih) \right)</math><br />
* der Integrand ist [[Differenzierbarkeit#Stetige Differenzierbarkeit und h.C3.B6here Ableitungen|stetig-differenzierbar]]: <math> f \in C^{2m+1}([a,b])</math> mit <math>m\in\N</math>.<br />
Dann gilt das folgende Fehlerverhalten für die Trapezsumme<ref>{{Literatur|Autor=Peter Deuflhard ; Folkmar Bornemann|Titel=Numerische Mathematik / 1. Eine algorithmisch orientierte Einführung.|Hrsg=|Sammelwerk=|Band=1|Nummer=|Auflage=4., überarb. und erw. Aufl|Verlag=de Gruyter|Ort=Berlin|Datum=|Seiten=313|ISBN=3110203545|OCLC=244627727|Online=https://www.worldcat.org/oclc/244627727}}</ref><br />
: <math><br />
T_n(h) = \int_a^b f(x) \, \mathrm dx<br />
+ \sum_{k=1}^m \tau_{2k} h^{2k} + R_{2m+2}(h) h^{2m+2}<br />
\, ,<br />
</math><br />
wobei die folgenden Definitionen gelten<br />
: <math><br />
\tau_{2k} = \frac{B_{2k}}{(2k)!} \left( f^{(2k-1)}(b) - f^{(2k-1)}(a) \right)<br />
\, , \quad<br />
R_{2m+2}(h) = - \int_a^b K_{2m+2}(t,h) f^{(2m)} (t) \, \mathrm dt<br />
\, .<br />
</math><br />
Weiterhin sind die <math> B_{2k} </math> durch die [[Bernoulli-Zahl|Bernoulli-Zahlen]] gegeben und der Koeffizient des Resttermes <math>R</math> kann gleichmäßig in <math>h</math> abgeschätzt werden kann. Es gilt also<br />
: <math><br />
\exist C_{2m+2} \geq 0 \; \forall h=\frac{b-a}{n} \, : \quad<br />
| R_{2m+2}(h) | \leq C_{2m+2} <br />
\, .<br />
</math><br />
<br />
:<br />
== Tangententrapezformel oder Mittelpunktsregel==<br />
[[Bild:Tangententrapezformel.svg|mini|250px|Tangententrapez]]<br />
[[Bild:Mittelpunktsregel.svg|mini|250px|Mittelpunktsregel]]<br />
: <math> J(f) = \int_{a}^{b}f(x)\, \mathrm{d}x = M(f) + E(f).</math><br />
Das Trapez wird gebildet aus der Grundlinie <math>[a,b]</math> (dem Intervall auf der <math>x</math>-Achse), den senkrechten Geraden <math>[a,f(a)]</math> und <math>[b,f(b)]</math> sowie der Tangente an <math>f(x)</math> in der Mitte des Intervalls <math>[a,b]</math>. Diese Tangente ersetzt die Kurve <math>f(x), x\in[a,b]</math>.<br />
<br />
Die Tangententrapezformel ergibt sich aus dem Flächeninhalt des beschriebenen Trapezes:<br />
<br />
: <math> M(f) = (b - a) \ f\left(\frac{a + b}{2} \right).</math><br />
<br />
Diese Formel - und auch die folgenden - kann man herleiten aus der „Allgemeinen Quadraturformel für eine Teilfläche“ (siehe [[Numerische Quadratur]]).<br />
<br />
Ist <math>f</math> zweimal stetig differenzierbar in <math>[a,b]</math>, dann gilt für das '''Restglied''' <math>E(f)</math> folgende Abschätzung (siehe [[Numerische Quadratur]]):<br />
<br />
: <math>\left| E(f) \right| \le \frac{(b-a)^3}{24} \max_{a\le x \le b} {\left| f''(x) \right|}.</math><br />
<br />
Ist <math>f</math> zusätzlich noch reellwertig, dann gilt mit einer Zwischenstelle <math>\zeta\in[a,b]</math>:<br />
<br />
: <math> E(f) = \frac{(b-a)^3}{24} \cdot f''(\zeta).</math><br />
<br />
Das Vorzeichen in dieser Formel kann man sich wie folgt geometrisch plausibel machen:<br />
Falls die Funktion <math>f(x)</math>, wie in der obigen Abbildung des Tangententrapezes, [[Konvexe und konkave Funktionen|streng konkav]] ist, gilt <math>f''(x)<0</math> für alle <math>x\in[a,b]</math> und daher auch für die Zwischenstelle <math>\zeta\in[a,b]</math>.<br />
Somit folgt, dass <math>E(f)=J(f)-M(f)<0</math>, d.h. die gesuchte Fläche <math>J(f)</math> ist kleiner als die Trapezfläche <math>M(f)</math>, wie auch die Abbildung zeigt.<br />
<br />
Die Abhängigkeit des Fehlers von der 2. Ableitung von <math>f(x)</math> bedeutet, dass die Formel für Geraden exakt ist, was auch anschaulich klar ist. Der '''Genauigkeitsgrad''' ist somit 1.<br />
<br />
Dreht man im obenstehenden Bild der Tangententrapezregel die Tangente im Punkt <math>(c,f(c))</math> im Uhrzeigersinn bis man eine horizontale Gerade erhält, so entsteht ein Rechteck mit der gleichen Fläche. Die so erhaltene Regel ([[Mittelpunktsregel]]) ist somit eine andere geometrische Deutung der gleichen Quadraturformel. <br />
<br />
Angewandt auf obiges Beispiel:<br />
<br />
: <math> M(f) = (2-0) \cdot f(1) = 18.</math><br />
<br />
Wegen <math>f''(x)=3^{3x+1} \cdot \ln(3)^2>0</math> folgt aus obiger Formel, dass die gesuchte Fläche <math>J(f)</math> größer ist als die Trapezfläche <math>M(f)</math>, in Übereinstimmung mit den errechneten Zahlen. <br />
<br />
=== Zusammengesetzte Tangententrapezformel oder Mittelpunktsregel===<br />
:<math>J(f) = \int_a^b f(x)\,\mathrm dx = M^{(n)}(f) + E^{(n)}(f).</math><br />
<br />
Um das Integral noch besser annähern zu können unterteilt man das Intervall <math>[a,b]</math> in <math>n</math> nebeneinanderliegende gleich große Teilintervalle der Länge <math>h=\tfrac{b-a}n</math>. In jedem Teilintervall wendet man die Tangententrapezformel für die einzelnen Teilflächen an und addiert danach die entstandenen Näherungen. Damit erhält man die '''summierte (bzw. zusammengesetzte) Tangententrapezformel''':<br />
<br />
: <math> M^{(n)}(f)=h \cdot \sum_{i=1}^n f\left(a \ - \frac{h}{2} + i\cdot h \right) </math><br />
mit<br />
: <math> h = \frac{(b - a)}{n}.</math><br />
Angewandt auf obiges Beispiel:<br />
<br />
Sei die Schrittweite &nbsp; <math>h = \tfrac 13</math> und damit <math>n = 6</math><br />
:<math>M^{(6)}(f) = \frac{1}{3} \cdot \left(f\left(\frac{1}{6}\right) + f\left(\frac{3}{6}\right) + f\left(\frac{5}{6}\right) + f\left(\frac{7}{6}\right) + f\left(\frac{9}{6}\right) + f\left(\frac{11}{6}\right) \right) = \frac{364 \sqrt 3}{9} = 70{,}05183266\dots </math><br />
<br />
Sei die Schrittweite <math>h = \tfrac 16</math> und damit <math>n = 12</math>. Dann ist<br />
:<math>M^{(12)}(f) = \frac{1}{6} \cdot \left(f\left(\frac{1}{12}\right) + f\left(\frac{3}{12}\right) + f\left(\frac{5}{12}\right) + \dots + f\left(\frac{21}{12}\right) + f\left(\frac{23}{12}\right) \right) = \frac{3^6-1}{2 \cdot 3^\frac{7}{4}(\sqrt 3 - 1)}= 72{,}71063941368\dots. </math><br />
<br />
Im Gegensatz zur Sehnentrapezregel kann bei der Tangententrapezregel bei Verdoppelung der Anzahl der Intervalle auf die vorangegangene Rechnung nicht zurückgegriffen werden. <br />
<br />
==== Fehlerabschätzung ====<br />
Die Fehlerabschätzung für das Restglied lautet:<br />
<br />
: <math>\left| E^{(n)}(f) \right| \le {(b - a) \over 24} \ h^2 \max_{a\le x \le b} {\left| f''(x) \right|} </math><br />
<br />
bzw. für reellwertige Funktionen mit einer Zwischenstelle <math>\zeta\in[a,b]</math>: <br />
<br />
: <math> E^{(n)}(f)={(b - a) \over 24} \cdot h^2 \cdot f''(\zeta).</math><br />
<br />
Der Faktor <math> h^2 </math> in obiger Formel bedeutet, dass bei einer Halbierung der Schrittweite (Verdoppelung der Intervalle), der Fehler in etwa um den Faktor 4 kleiner wird, wie auch nachfolgendes Beispiel zeigt:<br />
<br />
Angewandt auf obiges Beispiel:<br />
<br />
Mit <math>f''(x)=3^{3x+1} \cdot \ln(3)^2</math> folgt<br />
:<math>\max_{0\le x\le 2} \left|f''(x)\right|=3^{3\cdot2+1} \cdot \ln(3)^2=3^7\cdot(\ln(3))^2</math> <br />
und somit die Fehlerabschätzung <br />
:<math>\left| E^{(6)}(f)\right|\le\frac{2}{24} \cdot \left(\frac{1}{3}\right)^{2}\cdot3^7\cdot(\ln(3))^2=\frac{3^4\cdot(\ln(3))^2}{4}= 24{,}44\dots</math>, <br />
die erwartungsgemäß einen größeren Wert ergibt als den exakten Wert<br />
:<math> E^{(6)}(f)=\frac{364}{9}\cdot\frac{2-\ln(3)\sqrt 3}{\ln(3)}=3{,}5764\dots.</math><br />
<br />
Analog erhält man als Fehlerabschätzung<br />
:<math>\left| E^{(12)}(f)\right|\le\frac{2}{24} \cdot \left(\frac{1}{6}\right)^{2}\cdot3^7\cdot(\ln(3))^2=\frac{3^4\cdot(\ln(3))^2}{16}= 6{,}11\dots </math>, <br />
die erwartungsgemäß einen größeren Wert ergibt als den exakten Wert<br />
:<math>E^{(12)}(f)=0,9176\dots.</math><br />
Es gilt<br />
:<math>\left| E^{(12)}(f)\right|=0,9176\dots \approx \frac{\left| E^{(6)}(f)\right|}{4}=\frac{3,5764\dots}{4}=0{,}8941\dots.</math><br />
==== Fehlerschätzung ====<br />
<br />
Rechnet man die Tangententrapezformel zweimal mit 2 verschiedenen Anzahlen von Intervallen <math> n \ne m </math>, so erhält man wie bei der Sehnentrapezregel folgende Fehlerschätzung: <br />
<br />
:<math> E^{(n)}(f)\approx \frac{m^2}{m^2-n^2}\left(M^{(m)}(f)-M^{(n)}(f)\right).</math><br />
<br />
Speziell bei der Verdoppelung der Intervalle <math> m=2n </math> (Halbierung der Schrittweite) erhält man die Fehlerschätzung:<br />
:<math> E^{(n)}(f)\approx \frac{2^2}{2^2-1}\left(M^{(2n)}(f)-M^{(n)}(f)\right).</math><br />
<br />
Angewandt auf das obige Beispiel erhält man<br />
:<math> E^{(6)}(f)=3,5764\dots \approx \frac{2^2}{2^2-1}\left(M^{(12)}(f)-M^{(6)}(f)\right)=3{,}545\dots.</math><br />
<br />
== Zusammenhang mit anderen Formeln == <br />
Wie man an obigen Beispielen sieht, gilt<br />
<br />
:<math>\begin{align}<br />
T^{(12)}(f) &= \frac{T^{(6)}(f)}{2}+ \frac{1}{6} \cdot \left(f\left(\frac{1}{6}\right) + f\left(\frac{3}{6}\right) + f\left(\frac{5}{6}\right) + f\left(\frac{7}{6}\right) + f\left(\frac{9}{6}\right) + f\left(\frac{11}{6}\right) \right)\\<br />
&= \frac{T^{(6)}(f)+M^{(6)}(f)}{2}.\\<br />
\end{align}</math><br />
<br />
Die allgemeine Formel lautet:<br />
:<math>T^{(2n)}(f)= \frac{T^{(n)}(f)}{2}+ \frac{h}{2} \cdot \sum_{i=1}^n f\left(a \ - \frac{h}{2} + i\cdot h \right)= \frac{T^{(n)}(f)+M^{(n)}(f)}{2}. </math><br />
<br />
Für die Fehlerschätzung der Sehnentrapezregel erhält man somit <br />
<br />
:<math> E^{(n)}(f)\approx \frac 43 \left(T^{(2n)}(f)-T^{(n)}(f)\right) = \frac 43 \left(\frac{T^{(n)}(f)+M^{(n)}(f)}{2}-T^{(n)}(f)\right)= \frac 23 \left(M^{(n)}(f)-T^{(n)}(f)\right).</math><br />
<br />
Addiert man zum Näherungswert <math> T^{(n)}(f)</math> die Fehlerschätzung für <math> E^{(n)}(f)</math>, so erhält man die beiden besseren äquivalenten Formeln:<br />
<br />
#<math> T^{(n)}(f)+\frac{2}{3}\left(M^{(n)}(f)-T^{(n)}(f)\right) = \frac 13 \left(T^{(n)}(f)+2M^{(n)}(f)\right).</math> <br />Das ist die Formel von <math> S^{(n)}(f) </math> der [[Simpsonregel]]. Somit erhält man eine Formel vom Genauigkeitsgrad 3, die Polynome bis zum Grad 3 exakt integriert. Diese liefert i.A. bessere Resultate als <math> T^{(n)}(f)</math> oder <math> M^{(n)}(f) </math>. <br />
#<math> T^{(n)}(f)+\frac{4}{3}\left(T^{(2n)}(f)-T^{(n)}(f)\right) = \frac{4 \cdot T^{(2n)}(f)-T^{(n)}(f)}{3}.</math> <br />Das ist die Formel für die 2. Spalte des Rechenschemas der [[Romberg-Integration]] bei Verwendung der Romberg-Folge. Somit ist die 2. Spalte des Rombergschemas die Simpsonregel mit dem Genauigkeitsgrad 3.<br />
<br />
Angewandt auf obiges Beispiel erhält man mit <br />
<br />
:<math> S^{(6)}(f) = \frac 13 \left(T^{(6)}(f)+2M^{(6)}(f)\right) = \frac{4 \cdot T^{(12)}(f)-T^{(6)}(f)}{3} = \frac{728 \cdot (\sqrt 3 + 1)}{27} = 73{,}66418473741264\dots</math><br />
<br />
eine bessere Näherung für das exakte Integral <math> J(f) = \int_{0}^{2}3^{3x-1} \, \mathrm{d}x = 73{,}6282396649\dots</math> <br />
<br />
als mit <math> T^{(6)}(f)= 80{,}\bar{8}, T^{(12)}(f)= 75{,}4703608...</math>, oder <math> M^{(6)}(f)= 70{,}05183266\dots, </math><br />
<br />
bei gleicher Anzahl auszuwertender Funktionswerte wie <math> T^{(12)}(f) </math>, nämlich 13 Stück.<br />
<br />
== Siehe auch ==<br />
* [[Newton-Cotes-Formeln]]<br />
* [[Simpsonregel]] (Keplersche Fassregel)<br />
* [[Romberg-Integration]]<br />
* [[Trapez-Methode]]<br />
<br />
== Literatur ==<br />
* Josef Stoer: Numerische Mathematik, Springer-Verlag, Berlin, 2005, ISBN 3-540-21395-3<br />
* Martin Hanke-Bourgeois: Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens, Teubner-Verlag, Stuttgart, 2002, ISBN 3-519-00356-2, S 317 ff<br />
<br />
[[Kategorie:Integralrechnung]]<br />
[[Kategorie:Numerische Mathematik]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Gau%C3%9F-Quadratur&diff=168899945Gauß-Quadratur2017-09-08T14:29:57Z<p>HerrHartmuth: /* Variablentransformation bei der Gauß-Quadratur */ Transformation der wichtigen Größen verdeutlicht</p>
<hr />
<div>Die '''Gauß-Quadratur''' (nach [[Carl Friedrich Gauß]]) ist ein Verfahren zur [[Numerische Integration|numerischen Integration]], das bei gegebenen Freiheitsgraden eine optimale Approximation des Integrals liefert. Bei diesem Verfahren wird die zu integrierende Funktion <math>g</math> aufgeteilt in <math>g(x) = w(x) \cdot \Phi(x)</math>, wobei <math>w</math> eine Gewichtsfunktion ist und <math>\Phi</math> durch ein spezielles [[Polynom]] mit speziell gewählten Auswertungspunkten <math>x_i</math> approximiert wird. Dieses Polynom lässt sich exakt integrieren. Das Verfahren ist also von der Form<br />
:<math>\int_a^bg(x)\,\mathrm dx = \int_a^b\Phi(x)w(x)\,\mathrm dx \approx \int_a^bp_n(x)w(x)\,\mathrm dx = \sum_{i=1}^{n}\Phi(x_i)\alpha_i</math>.<br />
<br />
Für die Gewichtsfunktion <math>w</math> gilt, dass sie größer gleich Null ist, sie hat endlich viele Nullstellen und ist integrierbar. <math>\Phi</math> ist eine [[Stetigkeit|stetige Funktion]]. Der Integrationsbereich <math>[a,b]</math> ist nicht auf endliche Intervalle beschränkt. Weiterhin werden <math>x_{i}</math> als Knoten oder Abszissenwerte und die Größen <math>\alpha_i</math> als Gewichte bezeichnet.<br />
<br />
Das Verfahren wurde 1814 von Gauß veröffentlicht<ref>Methodus nova integralium valores per approximationem inveniendi, Comm. Soc. Sci. Göttingen Math., Band 3, 1815, 29-76, [http://gallica.bnf.fr/ark:/12148/bpt6k2412190.r=Gauss.langEN Gallica], datiert 1814, auch in Werke, Band 3, 1876, S. 163–196</ref>, in der heutigen Form mit orthogonalen Polynomen von [[Carl Gustav Jacobi]] 1826<ref>Jacobi ''Ueber Gauß’ neue Methode, die Werthe der Integrale näherungsweise zu finden.'' Journal für Reine und Angewandte Mathematik, Band 1, 1826, 301-308, [http://gdz.sub.uni-goettingen.de/dms/load/img/?PPN=PPN243919689_0001&DMDID=DMDLOG_0035 Online], und Werke, Band 6</ref>.<br />
<br />
== Eigenschaften ==<br />
<br />
Um optimale Genauigkeit zu erreichen, müssen die Abszissenwerte <math>x_{i}</math> einer Gauß-Quadraturformel vom Grad ''n'' genau den Nullstellen des ''n''-ten [[Orthogonale Polynome|orthogonalen Polynoms]] <math>P_n</math> vom Grad n entsprechen. Die Polynome <math>P_1</math>, <math>P_2</math>, …, <math>P_n</math> müssen dabei orthogonal bezüglich des mit <math>w</math> gewichteten [[Skalarprodukt]]s sein,<br />
<br />
:<math>\delta_{i,j}=\langle P_i,P_j\rangle_w:=\int_a^b P_i(x)P_j(x)w(x)\,\mathrm dx</math><br />
<br />
Für die Gewichte gilt:<br />
<br />
:<math>\alpha_i = \int_a^b w(x)\prod_{j=1,j\neq i}^n\frac{x-x_j}{x_i-x_j}\mathrm dx, \quad i=1,\ldots,n</math><br />
<br />
Die Gauß-Quadratur stimmt für polynomiale Funktionen, deren Grad maximal <math>2n-1</math> ist, mit dem Wert des Integrals exakt überein. Es lässt sich zeigen, dass keine Quadraturformel existiert, die alle Polynome vom Grad <math>2n</math> exakt integriert. In dieser Hinsicht ist die Ordnung des Quadraturverfahrens optimal.<br />
<br />
Ist die Funktion <math>f</math> nun kein Polynom mehr, jedoch hinreichend glatt, d.&nbsp;h. <math>f\in C^{2n}[a,b]</math>, so kann für den Fehler <math>\varepsilon(n)</math> der Gaußquadratur mit ''n'' Stützstellen gezeigt werden<ref name="stoer" />:<br />
<br />
:<math>\varepsilon(n)=\frac{f^{(2n)}(\xi)}{(2n)!}\langle P_n,P_n\rangle_w</math> mit <math>\xi\in(a,b)</math><br />
<br />
== Anwendung ==<br />
<br />
Die gaußsche Quadratur findet Anwendung bei der numerischen Integration. Dabei werden für eine gegebene Gewichtsfunktion und einen gegebenen Grad n, der die Genauigkeit der numerischen Integration bestimmt, einmalig die Stützpunkte <math>x_i</math> und Gewichtswerte <math>\alpha_i</math> berechnet und tabelliert. Anschließend kann für beliebige <math>\Phi(x)</math> die numerische Integration durch einfaches Aufsummieren von gewichteten Funktionswerten erfolgen.<br />
<br />
Dieses Verfahren ist damit potentiell vorteilhaft<br />
# wenn viele Integrationen mit derselben Gewichtsfunktion durchgeführt werden müssen und<br />
# wenn <math>\Phi(x)</math> hinreichend gut durch ein Polynom approximierbar ist.<br />
<br />
Für einige spezielle Gewichtsfunktionen sind die Werte für die Stützstellen und Gewichte fertig tabelliert.<br />
<br />
=== Gauß-Legendre-Integration ===<br />
<br />
Hier handelt es sich um die bekannteste Form der Gauß-Integration auf dem Intervall <math>[-1,1]</math>, sie wird oft auch einfach als Gauß-Integration bezeichnet. Es gilt <math>w(x)=1</math>. Die resultierenden orthogonalen Polynome sind die [[Legendre-Polynom]]e erster Art. Die Erweiterung auf beliebige Intervalle <math>[a,b]</math> erfolgt durch eine Variablentransformation.<br />
<br />
Die Stützpunkte (auch Gaußpunkte genannt) und Gewichte der Gauß-Legendre-Integration sind:<br />
<br />
{| border="0" cellspacing="3"<br />
|bgcolor="#ffcccc"| n=1<br />
|bgcolor="#ffcccc"| <math>x_i</math><br />
|bgcolor="#ffcccc"| <math>\alpha_i</math><br />
|-<br />
|bgcolor="#cccccc"| 1 || 0 || 2<br />
|-<br />
|bgcolor="#ffcccc"| n=2<br />
|bgcolor="#ffcccc"| <math>x_i</math><br />
|bgcolor="#ffcccc"| <math>\alpha_i</math><br />
|-<br />
|bgcolor="#cccccc"| 1 || <math>-\sqrt{\tfrac{1}{3}} \approx -0{,}57735026919</math> || 1<br />
|-<br />
|bgcolor="#cccccc"| 2 || <math> \sqrt{\tfrac{1}{3}} \approx 0{,}57735026919</math> || 1<br />
|-<br />
|bgcolor="#ffcccc"| n=3<br />
|bgcolor="#ffcccc"| <math>x_i</math><br />
|bgcolor="#ffcccc"| <math>\alpha_i</math><br />
|-<br />
|bgcolor="#cccccc"| 1 || <math>-\sqrt{\tfrac{3}{5}} \approx -0{,}774596669241 </math> || <math>\tfrac{5}{9} \approx 0{,}555555555556 </math><br />
|-<br />
|bgcolor="#cccccc"| 2 || 0 || <math>\tfrac{8}{9} \approx 0{,}888888888889 </math><br />
|-<br />
|bgcolor="#cccccc"| 3 || <math> \sqrt{\tfrac{3}{5}} \approx 0{,}774596669241 </math> || <math>\tfrac{5}{9} \approx 0{,}555555555556 </math><br />
|-<br />
|bgcolor="#ffcccc"| n=4<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|-<br />
|bgcolor="#cccccc"| 1 || <math>-\sqrt{ \tfrac{3}{7} + \tfrac{2}{7}\sqrt{\tfrac{6}{5}} } \approx -0{,}861136311594053 </math> || <math>\tfrac{18-\sqrt{30}}{36} \approx 0{,}347854845137454</math><br />
|-<br />
|bgcolor="#cccccc"| 2 || <math>-\sqrt{ \tfrac{3}{7} - \tfrac{2}{7}\sqrt{\tfrac{6}{5}} } \approx -0{,}339981043584856 </math> || <math>\tfrac{18+\sqrt{30}}{36} \approx 0{,}652145154862546</math><br />
|-<br />
|bgcolor="#cccccc"| 3 || <math> \sqrt{ \tfrac{3}{7} - \tfrac{2}{7}\sqrt{\tfrac{6}{5}} } \approx 0{,}339981043584856 </math> || <math>\tfrac{18+\sqrt{30}}{36} \approx 0{,}652145154862546</math><br />
|-<br />
|bgcolor="#cccccc"| 4 || <math> \sqrt{ \tfrac{3}{7} + \tfrac{2}{7}\sqrt{\tfrac{6}{5}} } \approx 0{,}861136311594053 </math> || <math>\tfrac{18-\sqrt{30}}{36} \approx 0{,}347854845137454</math><br />
|-<br />
|bgcolor="#ffcccc"| n=5<br />
|bgcolor="#ffcccc"| <math>x_i</math><br />
|bgcolor="#ffcccc"| <math>\alpha_i</math><br />
|-<br />
|bgcolor="#cccccc"| 1 || <math>-\tfrac13\sqrt{5+2\sqrt{\tfrac{10}{7}}} \approx -0{,}906179845938664</math> || <math>\tfrac{322-13\sqrt{70}}{900} \approx 0{,}236926885056189</math><br />
|-<br />
|bgcolor="#cccccc"| 2 || <math>-\tfrac13\sqrt{5-2\sqrt{\tfrac{10}{7}}} \approx -0{,}538469310105683</math> || <math>\tfrac{322+13\sqrt{70}}{900} \approx 0{,}478628670499366</math><br />
|-<br />
|bgcolor="#cccccc"| 3 || 0 || <math>\tfrac{128}{225} \approx 0{,}568888888888889</math><br />
|-<br />
|bgcolor="#cccccc"| 4 || <math>\tfrac13\sqrt{5-2\sqrt{\tfrac{10}{7}}} \approx 0{,}538469310105683</math> || <math>\tfrac{322+13\sqrt{70}}{900} \approx 0{,}478628670499366</math><br />
|-<br />
|bgcolor="#cccccc"| 5 || <math>\tfrac13\sqrt{5+2\sqrt{\tfrac{10}{7}}} \approx 0{,}906179845938664</math> || <math>\tfrac{322-13\sqrt{70}}{900} \approx 0{,}236926885056189</math><br />
|}<br />
<br />
=== Gauß-Tschebyschow-Integration ===<br />
[[Datei:Gauss-chebychev-integration.svg|gerahmt|20px|Im Gegensatz zur Schulmethode ist die Breite der einzelnen Balken, hier Gewicht genannt, nicht konstant, sondern nimmt zu den Intervallrändern hin ab. Sie beträgt <math>\Delta{}x_i = \tfrac{\pi}{n}\sqrt{1-x_i^2}</math>.]]<br />
<br />
Eine Variante der Gauß-Integration auf dem Intervall <math>[-1,1]</math> ist jene mit der Gewichtsfunktion <math>w(x)=\tfrac{1}{\sqrt{1-x^2}}</math>. Die dazugehörigen orthogonalen Polynome sind die [[Tschebyschow-Polynom]]e, deren Nullstellen und damit auch die Stützpunkte der Quadraturformel direkt in analytischer Form vorliegen:<br />
:<math>x_{i,n}=\cos\left(\frac{2i-1}{2n}\,\pi\right)</math><br />
während die Gewichte nur von der Anzahl der Stützpunkte abhängen<br />
:<math>\alpha_{i,n}=\tfrac{\pi}{n}.</math><br />
<br />
Die Erweiterung auf beliebige Intervalle <math>[a,b]</math> erfolgt durch eine Variablentransformation (siehe unten). Liegt der Integrand in der Form <math>\textstyle \int_{-1}^1\,f(x)\,\mathrm dx</math> vor, so kann er umgeformt werden in <math>\textstyle \int_{-1}^{1}w(x)\,\sqrt{1-x^2}\,f(x)\,\mathrm dx</math>. Zur numerischen Berechnung wird das Integral nun durch die Summe <math>\textstyle \tfrac{\pi}{n}\,\sum_{i=1}^n f(x_{i})\,\sqrt{1-x_i^2}</math> approximiert. Durch Einsetzen der Stützpunkte in analytischer Form erhält man<br />
<br />
:<math>\int_{-1}^1 \,f(x)\,\mathrm dx \approx \tfrac{\pi}{n}\,\sum_{i=1}^n f\left(\cos\left(\tfrac{2i-1}{2n}\,\pi\right)\right)\,\sin\left(\tfrac{2i-1}{2n}\,\pi\right)</math><br />
was der n-fachen Anwendung der [[Mittelpunktsregel]] über dem Intervall 0 bis Pi entspricht. Der Fehler kann für einen geeigneten Wert für ''t'' zwischen 0 und Pi abgeschätzt werden über<br />
<br />
:<math>\frac{d^{2n}\,\sin\,t\,f(\cos\,t)}{dt^{2n}}\,\left(\frac{\pi}{2n}\right)^{2n}\,\frac{b-a}{(2n+1)!}.</math><br />
<br />
=== Gauß-Hermite-Integration ===<br />
<br />
Gauß-Integration auf dem Intervall <math>(-\infty,\infty)</math>. Es gilt <math>w(x)=e^{-x^2}</math>. Die resultierenden orthogonalen Polynome sind die [[Hermite-Polynom]]e. Liegt der Integrand in der Form <math>\textstyle \int_{-\infty}^{\infty}\,f(x)\,\mathrm dx</math> vor, so kann er umgeformt werden in <math>\textstyle \int_{-\infty}^{\infty}w(x)\,e^{x^2}\,f(x)\,\mathrm dx</math>. Zur numerischen Berechnung wird das Integral nun durch die Summe <math>\textstyle \sum_{i=1}^{n}f(x_{i})\,e^{x_{i}^2}\,\alpha_i</math> approximiert.<br />
<br />
Stützpunkte und Gewichte der Gauß-Hermite-Integration:<br />
<br />
{| border="0" cellspacing="3"<br />
|bgcolor="#ffcccc"|n=1<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i\,e^{x_i^2}</math><br />
|-<br />
|bgcolor="#cccccc"|1 || 0 || <math>\sqrt{\pi} \approx 1{,}7724538509055159</math> || 1,7724538509055159<br />
|-<br />
|bgcolor="#ffcccc"|n=2<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i\,e^{x_i^2}</math><br />
|-<br />
|bgcolor="#cccccc"|1 || <math>-\frac{1}{\sqrt{2}} \approx -0{,}707106781187</math> || <math>\frac{\sqrt{\pi }}{2} \approx 0{,}886226925453</math> || 1,46114118266<br />
|-<br />
|bgcolor="#cccccc"|2 || <math>\frac{1}{\sqrt{2}} \approx 0{,}707106781187</math> || <math>\frac{\sqrt{\pi }}{2} \approx 0{,}886226925453</math> || 1,46114118266<br />
|-<br />
|bgcolor="#ffcccc"|n=3<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i\,e^{x_i^2}</math><br />
|-<br />
|bgcolor="#cccccc"|1 || <math>-\sqrt{\frac{3}{2}} \approx -1{,}22474487139</math> || <math>\frac{\sqrt{\pi }}{6} \approx 0{,}295408975151</math> || 1,32393117521<br />
|-<br />
|bgcolor="#cccccc"|2 || 0 || <math>\frac{2 \sqrt{\pi }}{3} \approx 1{,}1816359006</math> ||1,1816359006<br />
|-<br />
|bgcolor="#cccccc"|3 || <math>\sqrt{\frac{3}{2}} \approx 1{,}22474487139</math> || <math>\frac{\sqrt{\pi }}{6} \approx 0{,}295408975151</math> ||1,32393117521<br />
|-<br />
|bgcolor="#ffcccc"|n=4<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i\,e^{x_i^2}</math><br />
|-<br />
|bgcolor="#cccccc"|1 || -1,65068012389 || 0,0813128354472 || 1,2402258177<br />
|-<br />
|bgcolor="#cccccc"|2 || -0,524647623275 || 0,804914090006 || 1,05996448289<br />
|-<br />
|bgcolor="#cccccc"|3 || 0,524647623275 || 0,804914090006 ||1,05996448289<br />
|-<br />
|bgcolor="#cccccc"|4 || 1,65068012389 ||0,0813128354472 ||1,2402258177<br />
|}<br />
<br />
=== Gauß-Laguerre-Integration ===<br />
<br />
Gauß-Integration auf dem Intervall <math>[0,\infty)</math>. Es gilt <math>w(x)=e^{-x}</math>. Die resultierenden orthogonalen Polynome sind die [[Laguerre-Polynome]]. Liegt der Integrand in der Form <math>\textstyle \int_{0}^{\infty}\,f(x)\,\mathrm dx</math> vor, so kann er umgeformt werden in <math>\textstyle \int_{0}^{\infty}w(x)\,e^{x}\,f(x)\,\mathrm dx</math>. Zur numerischen Berechnung wird das Integral nun durch die Summe <math>\textstyle \sum_{i=1}^{n}f(x_{i})\,e^{x_i}\,\alpha_{i}</math> approximiert.<br />
<br />
Stützpunkte und Gewichte der Gauß-Laguerre-Integration:<br />
{| border="0" cellspacing="3"<br />
|bgcolor="#ffcccc"|n=1<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i\,e^{x_i}</math><br />
|-<br />
|bgcolor="#cccccc"|1 || 1 || 1 || 2,7182818284590451<br />
|-<br />
|bgcolor="#ffcccc"|n=2<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i\,e^{x_i}</math><br />
|-<br />
|bgcolor="#cccccc"|1 || <math>2-\sqrt{2} \approx 0{,}585786437627</math> || <math>\frac{1}{4} \left(2+\sqrt{2}\right) \approx 0{,}853553390593</math> ||1,53332603312<br />
|-<br />
|bgcolor="#cccccc"|2 || <math>2+\sqrt{2} \approx 3{,}41421356237</math> || <math>\frac{1}{4} \left(2-\sqrt{2}\right) \approx 0{,}146446609407</math> ||4,45095733505<br />
|-<br />
|bgcolor="#ffcccc"|n=3<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i\,e^{x_i}</math><br />
|-<br />
|bgcolor="#cccccc"|1 || 0,415774556783 || 0,711093009929 ||1,07769285927<br />
|-<br />
|bgcolor="#cccccc"|2 || 2,29428036028 ||0,278517733569 ||2,7621429619<br />
|-<br />
|bgcolor="#cccccc"|3 || 6,28994508294 ||0,0103892565016 ||5,60109462543<br />
|-<br />
|bgcolor="#ffcccc"|n=4<br />
|bgcolor="#ffcccc"|<math>x_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i</math><br />
|bgcolor="#ffcccc"|<math>\alpha_i\,e^{x_i}</math><br />
|-<br />
|bgcolor="#cccccc"|1 || 0,322547689619 ||0,603154104342 ||0,832739123838<br />
|-<br />
|bgcolor="#cccccc"|2 || 1,74576110116 ||0,357418692438 ||2,04810243845<br />
|-<br />
|bgcolor="#cccccc"|3 || 4,53662029692 ||0,038887908515 ||3,63114630582<br />
|-<br />
|bgcolor="#cccccc"|4 || 9,3950709123 ||0,000539294705561 || 6,48714508441<br />
|}<br />
<br />
=== Variablentransformation bei der Gauß-Quadratur ===<br />
<br />
Ein Integral über <math>[a,b]</math> wird auf ein Integral über <math>[-1,1]</math> zurückgeführt, bevor man die Methode der Gauß-Quadratur anwendet. Dieser Übergang kann durch<br />
<math>x(t):=\frac{1}{b-a}(2t-a-b)</math> mit <math>x(a)=-1</math> und <math>x(b)=1</math> sowie <math>t(x):=x^{-1}(x)=\frac{b-a}{2}x+\frac{a+b}{2}</math> und Anwendung der [[Integration durch Substitution]] mit <math>\mathrm{d}t=\frac{b-a}{2}\mathrm{d}x</math> auf folgende Weise geschehen:<br />
:<math><br />
\int_a^b f(t)\,\mathrm{d}t = \frac{b-a}{2} \int_{-1}^1 f\left(\frac{b-a}{2}x<br />
+ \frac{a+b}{2}\right)\,\mathrm{d}x \, .<br />
</math><br />
<br />
Seien nun <math>\left( x_i \right)_i, \left( \tilde{x}_i \right)_i</math> die Stützstellen und <math>\left( \alpha_i \right)_i,\left( \tilde{\alpha}_i \right)_i</math> die Gewichte der Gauß-Quadratur über dem Intervall <math>[-1,1]</math>, bzw. <math>[a,b]</math>.<br />
Deren Zusammenhang ist also durch<br />
:<math><br />
\tilde{x}_i = \frac{b-a}{2}x_i + \frac{a+b}{2}<br />
\, , \quad<br />
\tilde{\alpha}_i = \frac{b-a}{2} \alpha_i<br />
\, ,<br />
</math><br />
gegeben.<br />
<br />
=== Adaptives Gauß-Verfahren ===<br />
Da der Fehler bei der Gauß-Quadratur, wie oben erwähnt, abhängig von der Anzahl der gewählten Stützstellen ist und sich mit einer größeren Anzahl Stützstellen gerade der Nenner erheblich vergrößern kann, legt dies nahe, bessere Näherungen mit größerem <math>n</math> zu erhalten. Die Idee ist, zu einer vorhandenen Näherung <math>G_{n}</math> eine bessere<br />
Näherung, beispielsweise <math>G_{2n+1}</math>, zu berechnen, um die Differenz zwischen beiden Näherungen zu betrachten. Sofern der geschätzte Fehler <math>\varepsilon:=\left|G_{2n+1}-G_{n}\right|</math> eine gewisse absolute Vorgabe <math>\varepsilon_{Tol}</math> überschreitet, ist das Intervall aufzuteilen, sodass auf <math>\left[a,\frac{a+b}{2}\right]</math> und <math>\left[\frac{a+b}{2},b\right]</math> die <math>G_n</math>-Quadratur erfolgen kann. Jedoch ist die Auswertung einer <math>2n+1</math> Gauß-Quadratur ziemlich kostspielig, da insbesondere für <math>n< m</math> im Allgemeinen <math>m</math> neue Stützstellen berechnet werden müssen, sodass sich für die Gauß-Quadratur mit Legendre-Polynomen die adaptive Gauß-Kronrod-Quadratur anbietet.<br />
<br />
==== Adaptive Gauß-Kronrod-Quadratur ====<br />
Die präsentierte Kronrod-Modifikation, welche nur für die Gauß-Legendre-Quadratur existiert, basiert auf der Verwendung der bereits gewählten <math>n</math> Stützstellen und der Hinzunahme von <math>n+1</math> neuen Stützstellen.<ref name="piessens" /> Während die Existenz optimaler Erweiterungen für die Gauß-Formeln von Szegö belegt wurde, leitete Kronrod (1965) für die Gauß-Legendre-Formeln optimale <math>n+1</math> Punkte her, die den Präzisionsgrad <math>3n+1</math> sicherstellen.<ref name="piessens" /><br />
Wenn die mithilfe der erweiterten Knotenzahl von <math>2n+1</math> berechnete Näherung als <math>K_{2n+1}</math> definiert wird, lautet die Fehlerschätzung:<br />
{{Center|<math><br />
\varepsilon:=\left|K_{2n+1}-G_{n}\right| .<br />
</math>}}<br />
Diese kann dann mit einem <math>\varepsilon_{tol}</math> verglichen werden, um dem Algorithmus ein Abbruchkriterium zu geben. Die <math>n+1</math> Kronrod-Knoten und -Gewichte zu den <math>n</math> Gauß-Legendre-Knoten und -Gewichten sind für <math>n\in\{3,7\}</math> in der folgenden Tabelle festgehalten. Die Gauß-Knoten wurden mit einem (G) markiert.<br />
<br />
{| cellspacing="5" style="border:none;"<br />
|- style="text-align:center; height:15px; background:#FFCCCC;"<br />
| '''n=3'''<br />
| <math>x_i</math><br />
| <math>\alpha_i</math><br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 1<br />
| ~0,960491268708020283423507092629080<br />
| ~0,104656226026467265193823857192073<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 2<br />
| ~0,774596669241483377035853079956480 (G)<br />
| ~0,268488089868333440728569280666710<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 3<br />
| ~0,434243749346802558002071502844628<br />
| ~0,401397414775962222905051818618432<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 4<br />
| 0 (G)<br />
| ~0,450916538658474142345110087045571<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 5<br />
| ~-0,434243749346802558002071502844628<br />
| ~0,401397414775962222905051818618432<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 6<br />
| ~-0,774596669241483377035853079956480 (G)<br />
| ~0,268488089868333440728569280666710<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 7<br />
| style="height:15px;" | ~-0,960491268708020283423507092629080<br />
| style="height:15px;" | ~0,104656226026467265193823857192073<br />
|- style="text-align:center; height:15px; background:#FFCCCC;"<br />
| '''n=7'''<br />
| <math>x_i</math><br />
| <math>\alpha_i</math><br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 1<br />
| ~0,991455371120812639206854697526329<br />
| ~0,022935322010529224963732008058970<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 2<br />
| ~0,949107912342758524526189684047851 (G)<br />
| ~0,063092092629978553290700663189204<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 3<br />
| ~0,864864423359769072789712788640926<br />
| ~0,104790010322250183839876322541518<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 4<br />
| ~0,741531185599394439863864773280788 (G)<br />
| ~0,140653259715525918745189590510238<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 5<br />
| ~0,586087235467691130294144838258730<br />
| ~0,169004726639267902826583426598550<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 6<br />
| ~0,405845151377397166906606412076961 (G)<br />
| ~0,190350578064785409913256402421014<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 7<br />
| ~0,207784955007898467600689403773245<br />
| ~0,204432940075298892414161999234649<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 8<br />
| 0 (G)<br />
| ~0,209482141084727828012999174891714<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 9<br />
| ~-0,207784955007898467600689403773245<br />
| ~0,204432940075298892414161999234649<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 10<br />
| ~-0,405845151377397166906606412076961 (G)<br />
| ~0,190350578064785409913256402421014<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 11<br />
| ~-0,586087235467691130294144838258730<br />
| ~0,169004726639267902826583426598550<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 12<br />
| ~-0,741531185599394439863864773280788 (G)<br />
| ~0,140653259715525918745189590510238<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 13<br />
| ~-0,864864423359769072789712788640926<br />
| ~0,104790010322250183839876322541518<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 14<br />
| ~-0,949107912342758524526189684047851 (G)<br />
| ~0,063092092629978553290700663189204<br />
|-<br />
| style="text-align:center; background-color:#cccccc" | 15<br />
| ~-0,991455371120812639206854697526329<br />
| ~0,022935322010529224963732008058970<br />
|}<br />
<br />
== Weblinks ==<br />
* [http://www.efunda.com/math/num_integration/findgausslaguerre.cfm efunda: Abscissas and Weights of Gauss-Laguerre Integration]<br />
<br />
== Literatur ==<br />
* Krylov, V. I.: "Approximate Calculation of Integrals". MacMillan, New York, 1962.<br />
* Davis, P. und Rabinowitz, P.: ''Methods of Numerical Integration''. 2nd. ed., Academic Press, 1984.<br />
* Stroud, A. H. und Secrest, D.: ''Gaussian Quadrature Formulas''. Prentice-Hall, Englewood Cliffs, NJ, 1966.<br />
* Stroud, A. H.: ''Approximate Calculation of Multiple Integrals''. Prentice-Hall, Englewood Cliffs, NJ, 1971.<br />
<br />
== Quellen ==<br />
<references><br />
<ref name="stoer"><br />
Freund, Ronald W.; Hoppe, Ronald H. W.: ''Stoer/Bulirsch: Numerische Mathematik 1''. Zehnte, neu bearbeitete Auflage. Berlin, Heidelberg : Springer-Verlag, 2007, S. 195<br />
</ref><br />
<ref name="piessens"><br />
Piessens, Robert ; Doncker-Kapenga, Elise de ; Überhuber, Christoph W. ; Kahaner, David K.: QUADPACK: A subrotine package for automatic integration. Berlin, Heidelberg, New York : Springer-Verlag, 1983, S. 16–17<br />
</ref><br />
</references><br />
<br />
{{SORTIERUNG:GaussQuadratur}}<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Carl Friedrich Gauß als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Polynominterpolation&diff=168876767Polynominterpolation2017-09-07T17:47:00Z<p>HerrHartmuth: /* */ Neue Section Bestapproximation hinzugefügt</p>
<hr />
<div>[[Datei:Polynomial-interpolation.svg|mini|Interpolationspolynom 7.&nbsp;Grades]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] versteht man unter '''Polynominterpolation''' die Suche nach einem [[Polynom]], welches exakt durch vorgegebene Punkte (z.&nbsp;B. aus einer Messreihe) verläuft. Dieses Polynom wird '''Interpolationspolynom''' genannt und man sagt, es [[Interpolation (Mathematik)|interpoliere]] die gegebenen Punkte.<br />
<br />
== Anwendungen ==<br />
Polynome lassen sich sehr leicht integrieren und ableiten. Deswegen tauchen interpolierende Polynome an vielen Stellen in der numerischen Mathematik auf, beispielsweise bei der [[Numerische Integration|numerischen Integration]] und entsprechend bei Verfahren zur numerischen Lösung [[Gewöhnliche Differentialgleichung|gewöhnlicher Differentialgleichungen]].<br />
<br />
== Problemstellung ==<br />
Für <math>n+1</math> gegebene Wertepaare <math>(x_i,\,f_i)</math> mit [[paarweise verschieden]]en [[Stützstelle]]n <math>x_i</math> wird ein Polynom <math>P</math> maximal <math>n</math>-ten Grades gesucht, das alle Gleichungen<br />
:<math>P(x_i) = f_i, \quad i=0,\dotsc,n</math><br />
erfüllt. Ein solches Polynom existiert stets und ist eindeutig bestimmt, wie im Folgenden gezeigt wird.<br />
<br />
Beim Interpolationsproblem ist also <math>P</math> im [[Vektorraum]] <math>\Pi_n</math> der Polynome mit Grad <math>n</math> oder kleiner zu suchen, kurz <math>P \in \Pi_n</math>. Ist <math>\phi_0,\dotsc,\phi_n</math> eine [[Basis (Vektorraum)|Basis]] von <math>\Pi_n</math>, so ergeben die Gleichungen <math>P(x_i) = f_i</math> ein [[lineares Gleichungssystem]] für die Koeffizienten der Basisdarstellung <math>P = \sum_{k=0}^n a_k \phi_k</math>. Da sich ein und dasselbe Polynom aber unterschiedlich darstellen lässt, je nachdem welche Basis für den Vektorraum <math>\Pi_n</math> gewählt wird, kann man ganz verschiedene Gleichungssysteme erhalten. Wählt man für <math>\Pi_n</math> die Standardbasis <math>\left\{x^k\mid 0\le k\le n\right\}</math>, also für <math>P</math> die Darstellung <math>P(x) = \sum_{k=0}^n a_kx^k</math>, so erhält man ein Gleichungssystem mit der [[Vandermonde-Matrix]]:<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & x_0 & \cdots & x_0^n \\<br />
\vdots & \vdots & \ddots & \vdots \\<br />
1 & x_n & \cdots & x_n^n<br />
\end{pmatrix}<br />
\begin{pmatrix}<br />
a_0 \\<br />
\vdots \\<br />
a_n<br />
\end{pmatrix}<br />
= <br />
\begin{pmatrix}<br />
f_0 \\<br />
\vdots \\<br />
f_n<br />
\end{pmatrix}<br />
</math>.<br />
<br />
Diese ist [[Reguläre Matrix|regulär]], wenn die Stützstellen <math>x_i</math> paarweise verschieden sind, das Gleichungssystem lässt sich dann eindeutig lösen. Somit ist die Existenz und Eindeutigkeit des gesuchten Polynoms <math>P \in \Pi_n</math> immer sichergestellt. Trotz der theoretischen Machbarkeit wird diese Art der Interpolation in der Praxis nicht durchgeführt, da die Berechnung der Vandermonde-Matrix aufwendig ist (<math>\mathcal O(n^2)</math>, siehe [[Landau-Symbole]]) und zudem schlecht [[Kondition (Mathematik)|konditioniert]] bei einer ungeeigneten Wahl der Stützstellen.<br />
<br />
== Lösungsverfahren ==<br />
Obiges Gleichungssystem ließe sich beispielsweise mit dem [[Gaußsches Eliminationsverfahren|Gaußschen Eliminationsverfahren]] lösen. Der Aufwand dafür ist mit <math>\mathcal O(n^3)</math> allerdings vergleichsweise groß. Bei Wahl einer anderen Basis als der Standardbasis zur Beschreibung des Polynoms <math>P</math> kann der Aufwand verringert werden.<br />
<br />
=== Lagrangesche Interpolationsformel ===<br />
[[File:Lagrangesche Basisfunktionen.svg|thumb|Beispielhafte lagrangesche Basisfunktionen für x<sub>0</sub> = 0, x<sub>1</sub> = 1, x<sub>2</sub> = 2, x<sub>3</sub> = 3 (n = 3)]]<br />
Eher für theoretische Betrachtungen günstig ist eine Darstellung in der [[Joseph-Louis Lagrange|Lagrange]]-Basis. Die Basisfunktionen sind die ''Lagrange-Polynome''<br />
<br />
:<math>\ell_i(x) = \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{x-x_j}{x_i-x_j}=\frac{x-x_0}{x_i-x_0}\cdots\frac{x-x_{i-1}}{x_i-x_{i-1}}\cdot\frac{x-x_{i+1}}{x_i-x_{i+1}}\cdots\frac{x-x_n}{x_i-x_n} \, ,</math><br />
<br />
die so definiert sind, dass<br />
<br />
:<math>\ell_i(x_k) = \delta_{ik} = \left\{\begin{matrix}<br />
1 & \mbox{falls } i=k \\<br />
0 & \mbox{falls } i \neq k \, ,<br />
\end{matrix}\right.</math><br />
gilt, wobei <math>\delta_{ik}</math> das [[Kronecker-Delta]] darstellt. Damit entspricht die Matrix <math>\left(\ell_i\left(x_j\right)\right)_{i,j=0,1,\ldots,n}</math> genau der [[Einheitsmatrix]].<br />
Die Lösung des Interpolationsproblems lässt sich dann einfach angeben als<br />
<br />
:<math>P(x) = \sum_{i=0}^n f_i\ell_i\left(x\right) \, ,</math><br />
<br />
mit den [[Stützwert]]en <math>f_i</math>. Dies wird häufig benutzt, um die Existenz der Lösung des Interpolationsproblems zu beweisen. Ein Vorteil der Lagrange-Basis ist somit, dass die Basisfunktionen <math>\ell_i</math> von den Stützwerten <math>f_i</math> unabhängig sind. Dadurch lassen sich verschiedene Sätze von Stützwerten <math>f_i</math> mit gleichen Stützstellen <math>x_i</math> schnell interpolieren, wenn die Basisfunktionen <math>\ell_i</math> einmal bestimmt worden sind. Ein Nachteil dieser Darstellung ist jedoch, dass alle Basisvektoren bei Hinzunahme einer einzelnen Stützstelle komplett neu berechnet werden müssen, weshalb dieses Verfahren für die meisten praktischen Zwecke zu aufwendig ist.<br />
<br />
=== Baryzentrische Interpolationsformel ===<br />
Die Lagrangesche Interpolationsformel kann umgeformt werden in die praktisch relevantere ''Baryzentrische Interpolationsformel''<br />
:<math><br />
P(x) = \frac{\sum_{j=0}^n \frac{\lambda_j f_j}{x-x_j} }<br />
{\sum_{j=0}^n \frac{\lambda_j}{x-x_j} } \, ,<br />
</math><br />
wobei die ''Baryzentrischen Gewichte'' wiefolgt definiert sind<br />
:<math><br />
\lambda_j := \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{1}{x_j - x_i} \, .<br />
</math><br />
<br />
Für vorgegebene Stützstellen <math>(x_i)_i</math> können die Gewichte <math>(\lambda_i)_i</math> vorberechnet werden, sodass der Aufwand für die Auswertung von <math>P(x)</math> nur noch bei <math>\mathcal{O}(n)</math> liegt.<br />
Beim Hinzufügen einer neuen Stützstelle müssen die Gewichte neubestimmt werden.<br />
Dies hat einen Aufwand von <math>\mathcal{O}(n)</math> im Vergleich zum Neubestimmen der Lagrangepolynome von <math>\mathcal{O}(n^2)</math>.<br />
<br />
=== Newtonscher Algorithmus ===<br />
In diesem Verfahren wird das Polynom <math>P</math> in Newton-Basis dargestellt, so dass die Koeffizienten [[Effizienz (Informatik)|effizient]] mit dem [[#Bestimmung der Koeffizienten: Schema der dividierten Differenzen|Schema der dividierten Differenzen]] bestimmt werden können. Eine effiziente Auswertung des Polynoms kann dann mithilfe des [[#Auswertung des Polynoms: Horner-Schema|Horner-Schemas]] erfolgen.<br />
<br />
==== Ansatz: Newton-Basis ====<br />
Als Ansatz für das gesuchte Interpolationspolynom <math>P</math> wählt man die Newton-Basisfunktionen <math>N_0(x)=1</math> und <math>\textstyle N_i(x) = \prod_{j=0}^{i-1}\left(x-x_j\right)=\left(x-x_0\right)\cdots\left(x-x_{i-1}\right)</math> mit <math>i=1,\ldots ,n</math>, so dass <math>P</math> dargestellt wird mit der Newtonschen Interpolationsformel<br />
<br />
:<math>P(x)=\sum_{i=0}^n c_i\cdot N_i(x)=c_0+c_1 \left(x-x_0\right)+c_2 \left(x-x_0\right) \left(x-x_1\right)+\dotsb+c_n\left(x-x_0\right)\dotsm \left(x-x_{n-1}\right)</math><br />
<br />
Das Gleichungssystem der Gleichungen <math>P(x_i) = f_i</math> hat dann die Form<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & & & & 0 \\<br />
1 & (x_1 - x_0) & & & \\<br />
1 & (x_2 - x_0) & (x_2 - x_0)(x_2 - x_1) & & \\<br />
\vdots & \vdots & & \ddots & \\<br />
1 & (x_n - x_0) & \cdots & & \prod_{i=0}^{n-1}(x_n - x_i) \\<br />
\end{pmatrix}<br />
\cdot<br />
\begin{pmatrix} c_0 \\ \vdots \\ c_n \end{pmatrix}<br />
= \begin{pmatrix} f_0 \\ \vdots \\ f_n \end{pmatrix}<br />
</math><br />
<br />
Im Gegensatz zur komplizierten [[Vandermonde-Matrix]] bei Wahl der Standardbasis <math>\{x^k|0 \le k \le n\}</math> erhält man bei Wahl der Newton-Basis also eine einfach strukturierte [[untere Dreiecksmatrix]] und das Gleichungssystem lässt sich einfach lösen.<br />
<br />
==== Bestimmung der Koeffizienten: Schema der dividierten Differenzen ====<br />
Die Koeffizienten <math>c_i</math> werden aber nicht direkt aus dem obigen Gleichungssystem bestimmt, sondern effizienter mithilfe der dividierten Differenzen. Durch Induktion beweist man mit der [[#Algorithmus von Neville-Aitken|Rekursionsformel von Aitken]], dass für die Koeffizienten <math>c_i</math> gilt<br />
<br />
:<math>c_i = [x_0, \dotsb, x_i]f</math>.<br />
<br />
Dabei sind für <math>i<j</math> die dividierten Differenzen <math>[x_i, \dotsc, x_j]f</math> rekursiv definiert durch<br />
<br />
:<math>[x_i]f = f_i \qquad</math><br />
:<math>[x_i,\dotsc,x_j]f = \frac {[x_{i+1},\dotsc,x_j]f-[x_i,\dotsc,x_{j-1}]f}{x_j - x_i}</math>.<br />
<br />
Die Notation mit angehängtem <math>f</math> erklärt sich dadurch, dass oft eine unbekannte Funktion <math>f</math> angenommen wird, die bei bekannten Funktionswerten <math>f_i = f(x_i)</math> interpoliert werden soll.<br />
<br />
Die rekursive Berechnung der dividierten Differenzen lässt sich wie folgt veranschaulichen. Dabei sind die gesuchten Koeffizienten <math>c_i</math> genau die oberste Schrägzeile:<br />
<br />
<!-- [[Datei:Polynominterpolation_Schema_dividierte_Differenzen.jpg]] --><br />
:<math>\begin{array}{crcrccrcrc}<br />
[x_0]f \\<br />
& \searrow \\{}<br />
[x_1]f & \rightarrow & [x_0,x_1]f \\<br />
& \searrow & & \searrow \\{}<br />
[x_2]f & \rightarrow & [x_1,x_2]f & \rightarrow & [x_0,x_1,x_2]f \\{}<br />
\vdots & \vdots & \vdots & \vdots & \vdots &\ddots \\{}<br />
& \searrow & & \searrow & & & \searrow \\{}<br />
[x_{n-1}]f & \rightarrow & [x_{n-2},x_{n-1}]f & \rightarrow & [x_{n-3},x_{n-2},x_{n-1}]f<br />
& \cdots & \rightarrow & [x_0\ldots x_{n-1}]f \\<br />
& \searrow & & \searrow & & & \searrow && \searrow\\{}<br />
[x_n]f & \rightarrow & [x_{n-1},x_n]f & \rightarrow & [x_{n-2},x_{n-1},x_n]f<br />
& \cdots & \rightarrow & [x_1\ldots x_n]f & \rightarrow & [x_0\ldots x_n]f<br />
\end{array}</math><br />
<br />
Offensichtlich ist bei Ergänzung der <math>n+1</math> Wertepaare <math>(x_i, f_i)</math> um einen weiteren Punkt <math>(x_{n+1}, f_{n+1})</math> in obigem Schema nur eine weitere Zeile hinzuzufügen, um den zusätzlichen Koeffizienten <math>c_{n+1} = [x_0, \dotsc, x_{n+1}]f</math> zu berechnen. Die zuvor bestimmten Koeffizienten <math>c_0, \dotsc, c_n</math> müssen nicht neu berechnet werden.<br />
<br />
Alternativ zur obigen rekursiven Definition wird zum Beispiel in einem der Artikel von Marsden<ref>Martin J. Marsden: An Identity for Spline Functions with Applications to Variation-Diminishing Spline Approximation. Journal of Approximation Theory 3, 7-49 (1970).</ref> die ''dividierte Differenz'' <math>[x_0,\ldots,x_n]f</math> einer hinreichend oft differenzierbaren Funktion <math>f</math> als der eindeutige Koeffizient zur höchsten Potenz von <math>x</math> eines Polynoms <math>n</math>-ten Grads <math>p(x)</math> definiert, das <math>f</math> an den Stellen <math>x_0,\ldots,x_n</math> interpoliert. Tritt dabei ein Wert in der Sequenz <math>x_0,\ldots,x_n</math> mit der Vielfachheit <math>\nu\geq 1</math> auf, so sollen die Ableitungen des Polynoms die Ableitungen der Funktion <math>f</math> an dieser Stelle bis zur Ordnung <math>\nu-1</math> interpolieren.<br />
Es gilt somit<br />
:<math><br />
[x_0,\dotsc,x_k]f = \frac{ f^{(k)}(x^*) }{k!} <br />
\qquad \text{falls} \quad<br />
x^* := x_0 = \ldots = x_k \, .<br />
</math><br />
<br />
==== Auswertung des Polynoms: Horner-Schema ====<br />
Wenn die Koeffizienten <math>c_i</math> des Interpolationspolynoms <math>P</math> einmal bekannt sind, kann man es effizient mithilfe des [[Horner-Schema]]s auswerten. Dazu schreibt man <math>P</math> in der Form (einfache Umformung der Newtonschen Interpolationsformel)<br />
<br />
:<math>P(x) = \left(\cdots\left(c_n(x - x_{n-1}\right) + c_{n-1})(x - x_{n-2}) + \dotsb + c_1\right)(x - x_0) + c_0</math>,<br />
<br />
so dass <math>P(x)</math> rekursiv berechnet werden kann durch<br />
<br />
:<math>\begin{align}<br />
b_n & = c_n \\<br />
b_i & = b_{i+1}(x - x_i) + c_i, \qquad i = n - 1, \dotsc, 0 \\<br />
P(x) & = b_0<br />
\end{align}</math><br />
<br />
Dies erfordert einen Aufwand von <math>\mathcal{O}(n)</math>.<br />
<br />
=== Algorithmus von Neville-Aitken ===<br />
Ähnlich wie im [[#Newtonscher Algorithmus|Newtonschen Algorithmus]] wird beim Algorithmus von Neville-Aitken die Lösung rekursiv berechnet. Dazu bezeichne <math>p\left(f|x_i...x_{j}\right)</math> das eindeutig bestimmte Interpolationspolynom <math>k</math>-ten Grades zu den <math>k+1</math> [[Stützstelle|Stützpunkten]] <math>(x_{i}, f_{i}), \dots, (x_{j}, f_{j})</math>, wobei <math>k=j-i</math> ist. Es gilt dann die Rekursionsformel von Aitken:<br />
<br />
:<math>\begin{align}p(f|x_i)(x) & \equiv f_i, \\<br />
p(f|x_i, \dotsc, x_{j})(x) & \equiv \frac{(x - x_i)p(f|x_{i+1}, \dotsc, x_{j})(x) - (x - x_{j})p(f|x_{i}, \dotsc, x_{j-1})(x)}{x_{j}-x_{i}}.\end{align}</math><br />
<br />
Beweisen lässt sie sich durch Einsetzen von <math>x_i</math>, wodurch man verifiziert, dass die rechte Seite der Gleichung die Interpolationsbedingung erfüllt. Die Eindeutigkeit des Interpolationspolynoms liefert dann die Behauptung.<br />
<br />
Mit dem Schema von Neville kann die Auswertung von <math>p(f|{x_0, \dotsc, x_n})(x) = P(x)</math> dann rekursiv erfolgen:<br />
<br />
<!-- [[Datei:Polynominterpolation Schema von Neville.jpg]] --><br />
<math>\begin{array}{crcrccrcrc}<br />
p(f|x_{0})\\<br />
& \searrow\\<br />
p(f|x_{1}) & \rightarrow & p(f|x_{0},x_{1})\\<br />
& \searrow & & \searrow\\<br />
p(f|x_{2}) & \rightarrow & p(f|x_{1},x_{2}) & \rightarrow & p(f|x_{0},x_{1},x_{2})\\<br />
\vdots & & \vdots & & \vdots & \ddots\\<br />
& \searrow & & \searrow & & & \searrow\\<br />
p(f|x_{n-1}) & \rightarrow & p(f|x_{n-2},x_{n-1}) & \rightarrow & p(f|x_{n-3},x_{n-2},x_{n-1}) & \cdots & \rightarrow & p(f|x_{0},\dots,x_{n-1})\\<br />
& \searrow & & \searrow & & & \searrow & & \searrow\\<br />
p(f|x_{n}) & \rightarrow & p(f|x_{n-1},x_{n}) & \rightarrow & p(f|x_{n-2},x_{n-1},x_{n}) & \cdots & \rightarrow & p(f|x_{1},\dots,x_{n}) & \rightarrow & p(f|x_{0},\dots,x_{n})<br />
\end{array}</math><br />
<br />
=== Vergleich der Lösungsverfahren ===<br />
Möchte man alle Koeffizienten des Interpolationspolynoms <math>P</math> bestimmen, so bietet der Newtonsche Algorithmus hierfür den geringsten notwendigen Aufwand von <math>\mathcal O(n^2)</math>. Das so bestimmte Polynom lässt sich dann mit <math>\mathcal O(n)</math> Operationen an einer Stelle auswerten. Darum ist der Newtonsche Algorithmus gut geeignet, wenn das Interpolationspolynom an vielen Stellen ausgewertet werden soll. Auch lassen sich effizient weitere Stützpunkte hinzufügen. Liegen die Stützstellen oder die Stützwerte allerdings zu nahe beieinander, so besteht die Gefahr der [[Auslöschung (numerische Mathematik)|Auslöschung]] bei der Bestimmung der dividierten Differenzen.<br />
<br />
Der Neville-Aitken-Algorithmus ist dagegen gut geeignet, wenn ein Interpolationspolynom nur an ganz wenigen Stellen ausgewertet werden soll, dabei ist er weniger anfällig gegen Auslöschung. Auch im Neville-Aitken-Algorithmus lassen sich effizient neue Stützpunkte hinzufügen. So kann z.&nbsp;B. eine gewünschte Genauigkeit der Interpolation an einer Stelle durch Hinzufügen immer weiterer Stützstellen erreicht werden.<br />
<br />
=== Beispiel: Interpolation der Tangensfunktion ===<br />
[[Datei:Interpolation der Tangensfunktion.svg|miniatur|300x300px|Tangensfunktion (blau) und ihre Polynominterpolante dritten Grades (rot)]]<br />
Interpoliere die Funktion <math>f(x) = \tan(x)</math> bei gegebenen Punkten<br />
{| class="wikitable"<br />
|<math>x_0 = -1{,}5</math><br />
|<math>f(x_0) = -14{,}101420</math><br />
|-<br />
|<math>x_1 = -0{,}75</math><br />
|<math>f(x_1) = -0{,}931596</math><br />
|-<br />
|<math>x_2 = 0</math><br />
|<math>f(x_2) = 0</math><br />
|-<br />
|<math>x_3 = 0{,}75</math><br />
|<math>f(x_3) = 0{,}931596</math><br />
|-<br />
|<math>x_4 = 1{,}5</math><br />
|<math>f(x_4) = 14{,}101420</math><br />
|}<br />
<br />
==== Lösung mit Lagrange ====<br />
Die Lagrange-Basisfunktionen sind<br />
:<math>\begin{align}<br />
\ell_0(x)&={x - x_1 \over x_0 - x_1}\cdot{x - x_2 \over x_0 - x_2}\cdot{x - x_3 \over x_0 - x_3}\cdot{x - x_4 \over x_0 - x_4}<br />
={1\over 243} x (2x-3)(4x-3)(4x+3)\\<br />
\ell_1(x)&= {x - x_0 \over x_1 - x_0}\cdot{x - x_2 \over x_1 - x_2}\cdot{x - x_3 \over x_1 - x_3}\cdot{x - x_4 \over x_1 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x-3)\\<br />
\ell_2(x)&={x - x_0 \over x_2 - x_0}\cdot{x - x_1 \over x_2 - x_1}\cdot{x - x_3 \over x_2 - x_3}\cdot{x - x_4 \over x_2 - x_4}<br />
={3\over 243} (2x+3)(4x+3)(4x-3)(2x-3)\\<br />
\ell_3(x)&={x - x_0 \over x_3 - x_0}\cdot{x - x_1 \over x_3 - x_1}\cdot{x - x_2 \over x_3 - x_2}\cdot{x - x_4 \over x_3 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x+3)\\<br />
\ell_4(x)&={x - x_0 \over x_4 - x_0}\cdot{x - x_1 \over x_4 - x_1}\cdot{x - x_2 \over x_4 - x_2}\cdot{x - x_3 \over x_4 - x_3}<br />
={1\over 243} x (2x+3)(4x-3)(4x+3)<br />
\end{align}</math><br />
<br />
also ist das Interpolationspolynom<br />
<br />
:<math> \begin{align}P_\text{Lagrange}(x) =& \tfrac1{243}\big(f(x_0)x (2x-3)(4x-3)(4x+3) \\<br />
& \qquad{} - 8f(x_1)x (2x-3)(2x+3)(4x-3) \\<br />
& \qquad{} + 3f(x_2)(2x+3)(4x+3)(4x-3)(2x-3) \\<br />
& \qquad{} - 8f(x_3)x (2x-3)(2x+3)(4x+3) \\<br />
& \qquad{} + f(x_4)x (2x+3)(4x-3)(4x+3)\big)\\<br />
=& - 1{,}477474x + 4{,}834848x^3<br />
\end{align} </math><br />
<br />
==== Lösung mit Newton ====<br />
Die dividierten Differenzen sind hier<br />
<br />
: <math>\begin{array}{rrrrrr}<br />
x_i & f(x_i) & & & &\\<br />
-1{,}50& -14{,}10140& & & &\\<br />
& & & & &\\<br />
-0{,}75& -0{,}931596&{-0{,}931596-(-14{,}1014) \over -0{,}75-(-1{,}5)}=17{,}5597& & &\\<br />
& & & & &\\<br />
0{,}00 & 0{,}00000 &{0-(-0{,}931596) \over 0 - (-0{,}75)}=1{,}24213 &{1{,}24213-17{,}5597 \over 0-(-1{,}5) }=-10{,}8784& &\\<br />
& & & & &\\<br />
0{,}75 & 0{,}931596 &{0{,}931596 - 0 \over 0{,}75-0}=1{,}24213 &{1{,}24213-1{,}24213 \over 0{,}75-(-0{,}75)}=0{,}00000 &{0 - (-10{,}8784) \over 0{,}75-(-1{,}5)}=4{,}83484&\\<br />
& & & & &\\<br />
1{,}50 & 14{,}10140 &{14{,}10140-0{,}931596 \over 1{,}5 - 0{,}75}=17{,}5597 &{17{,}5597-1{,}24213 \over 1{,}5-0}=10{,}8784 &{10{,}8784-0 \over 1{,}5-(-0{,}75)}=4{,}83484 &{4{,}83484-4{,}83484 \over 1{,}5-(-1{,}5)}=0\\<br />
\end{array}</math><br />
<br />
und das Interpolationspolynom ist<br />
<br />
:<math>\begin{align}P_\text{Newton}(x) =& -14{,}1014+17{,}5597(x+1{,}5)-10{,}8784(x+1{,}5)(x+0{,}75) \\<br />
& {} +4{,}83484(x+1{,}5)(x+0{,}75)x+0(x+1{,}5)(x+0{,}75)x(x-0{,}75)\\<br />
=& -0{,}00005-1{,}4775x-0{,}00001x^2+4{,}83484x^3\end{align}</math><br />
<br />
Verwendet man genauere Startwerte <math>f(x_i)</math>, verschwinden der erste und der dritte Koeffizient.<br />
<br />
== Interpolationsgüte ==<br />
=== Fehlerabschätzung ===<br />
Gegeben sei eine Funktion <math>f</math>, deren <math>n+1</math> Funktionswerte <math>f_i</math> an den Stellen <math>x_i</math> durch das Polynom <math>P</math> interpoliert werden. Mit <math>I</math> sei das kleinste Intervall bezeichnet, das die Stützstellen <math>x_i</math> und eine Stelle <math>x</math> enthält. Ferner sei <math>f</math> (<math>n+1</math>)-mal stetig differenzierbar auf <math>I</math>. Dann existiert ein <math>\xi \in I</math>, für das gilt:<br />
<br />
:<math>f(x) - P(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
Insbesondere ist also bezüglich der [[Maximumsnorm]] auf <math>[a,b]</math> und mit <math>w_n(x) = \prod_{i=0}^n (x-x_i)</math>:<br />
:<math>|f(x)-P(x)| \leq\frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \prod_{i=0}^n |x-x_i| \leq \frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \|w_n\|_\infty</math><br />
<br />
=== Fehleroptimierung nach Tschebyschow<ref>{{Cite book<br />
| edition = 1<br />
| publisher = Vieweg Studium, Nr.32, Vieweg Verlagsgesellschaft<br />
| isbn = 3-528-07232-6<br />
| last = Werner<br />
| first = Jochen<br />
| title = Numerische Mathematik<br />
| date = 1992<br />
| chapter = 10.4<br />
}}<br />
* Auch [http://www.sam.math.ethz.ch/~hiptmair/tmp/NCSE_full.pdf hier] (4.1.3.; PDF-Datei; 11,68&nbsp;MB)</ref>===<br />
[[Datei:T30.svg|mini|Für größere <math>n</math> clustern die Tschebyschow-Punkte an den Intervallrändern.]]<br />
Der Fehler hängt also von einer Ableitung von <math>f</math> ab und von dem Produkt <math>w_n(x):=\prod_{i=0}^n (x-x_i)</math>, also den Stützstellen <math>x_i</math>. Manchmal ist man in der Position, dass man sich Stützstellen selbst wählen kann; etwa, wenn man ein physikalisches Experiment durchführt, oder aber auch bei einigen Verfahren zur numerischen Lösung von [[Differentialgleichung]]en. In diesem Fall ist die Frage interessant, für welche Stützstellen die Maximumsnorm <math>\|w_n\|_{\infty}</math> minimal wird.<br />
<br />
Für einen Beweis betrachten man normalerweise normierte Stützstellen<br />
:<math><br />
\begin{align}<br />
w_n: [-1,1] \rightarrow \R, \ w_n(x)=\prod_{i=0}^n (x-x_i) \\<br />
\text{mit} \qquad \forall \, i=0,\ldots,n : \quad x_i \in [-1,1] \, .<br />
\end{align}<br />
</math><br />
Nun kann man die Maximumsnorm der Funktion <math>w_n</math> wie folgt abschätzen<br />
:<math><br />
\|w_n\|_{[-1,1],\infty} <br />
=\max_{x\in[-1,1]} |w_n(x)| <br />
\geq 2^{-n} \, .<br />
</math><br />
<br />
[[Pafnuti Lwowitsch Tschebyschow|Tschebyschow]] hat gezeigt, dass die Nullstellen der [[Tschebyschow-Polynom]]e („Tschebyschow-Punkte“) optimale Stützstellen sind. <br />
Die Polynome <math>T_{n+1}(x)=\cos((n+1) \arccos(x) )</math> haben die Nullstellen <math>t_k=\cos\left(\frac{2k+1}{2n+2} \pi\right)</math> für <math>k\in\{0,1,\ldots,n\}</math>. <br />
So gewähtle Stützstellen liefern eine scharfe Grenze der oberen Abschätzung<br />
:<math><br />
\|w_n\|_{[-1,1],\infty} <br />
= 2^{-n} \, .<br />
</math><br />
<br />
Diese Aussage kann dann mit der Transformation<br />
:<math>\begin{align}<br />
\xi\in[-1,1] &\rightsquigarrow x=\frac{a+b}{2}+\frac{b-a}{2}\xi &\in [a,b] \\<br />
x\in[a,b] &\rightsquigarrow \xi = \frac{2x-a-b}{b-a} &\in [-1,1]<br />
\end{align}</math><br />
auf den Fall eines allgemeinen Intervalls <math>[a,b]\subset\mathbb{R}</math> übertragen werden. Der Beweis liefert auch die Abschätzung<br />
:<math>\begin{align}<br />
\|w_n\|_{[a,b],\infty} =\max_{x\in[a,b]} |w_n(x)| =2\left(\frac{b-a}{4}\right)^{n+1}.<br />
\end{align}</math><br />
<br />
=== Runges Phänomen ===<br />
[[File:Interpolation der Runge-Funktion (n=5).svg|thumb|Interpolation der Rungefunktion bei 6 äquidistanten Stützstellen (rote Punkte)]]<br />
[[File:Myplot p2.svg|thumb|Interpolation der Rungefunktion bei 11 äquidistanten Stützstellen (rote Punkte)]]<br />
<br />
Verbessert sich die Interpolationsgüte, wenn mehr Stützpunkte hinzugefügt werden? Im Allgemeinen nicht: Bei hohem Grad des Polynoms kann es vorkommen, dass die Polynomfunktion kaum noch der zu interpolierenden Funktion ähnelt, was auch als ''[[Carl Runge|Runges]] Phänomen'' bekannt ist. Polynome streben im Grenzfall <math>x\to \pm \infty</math> gegen <math>\pm\infty</math>. Verhält sich die zu interpolierende Funktion anders, etwa periodisch oder asymptotisch konstant, treten starke Oszillationen in der Nähe der Intervallgrenzen auf. Für solche Funktionen sind Polynominterpolationen über das gesamte Intervall relativ ungeeignet.<br />
<br />
Tschebyschow-Stützstellen, die an den Intervallgrenzen dichter liegen, können zwar den Gesamtfehler der Interpolation verkleinern, dennoch empfiehlt sich ein Wechsel des Interpolationsverfahrens, etwa zur [[Spline-Interpolation]]. Runge gab für dieses Phänomen ein Beispiel an, die nach ihm benannte Runge-Funktion:<br />
<br />
:<math>f(x)=\frac{1}{1+x^2}\,,\quad x\in[-5;5]</math><br />
<br />
=== Konvergenzverhalten ===<br />
Es gibt aber Bedingungen, unter denen sich die Interpolationsgüte mit steigender Anzahl von Stützpunkten verbessert: Wenn das Stützstellengitter immer „feiner“ wird und eine [[analytische Funktion]] interpoliert wird. Genauer: Sei <math>f</math> eine analytische Funktion auf dem Intervall <math>I=[a,b] \subset \R</math>. Für eine Intervallteilung<br />
<br />
:<math>\Delta_m = \{a=x_0^{(m)} < x_1^{(m)} < \dotsb < x_{n_m}^{(m)}=b\}, \qquad m\in \N</math><br />
<br />
sei ihre [[Norm (Mathematik)|Norm]] definiert durch<br />
<br />
:<math>\|\Delta_m\| = \max_i|x_{i+1}^{(m)} - x_i^{(m)}|.</math><br />
<br />
Zu jeder Intervallteilung <math>\Delta_m</math> gibt es ein eindeutig bestimmtes Polynom <math>P_{\Delta_m}</math>, das <math>f</math> an den Stützstellen <math>\Delta_m</math> interpoliert. Gilt für eine Folge von Intervallteilungen <math>\|\Delta_m\| \rightarrow 0</math>, so folgt <math>P_{\Delta_m} \rightarrow f</math> [[Gleichmäßige Konvergenz|gleichmäßig]].<br />
<br />
Allerdings lässt sich zu ''jeder'' Folge <math>\{\Delta_m\}_{m \in \N}</math> auch eine auf <math>I</math> stetige Funktion <math>f</math> finden, so dass <math>\{P_{\Delta_m}\}_{m \in \N}</math> ''nicht'' gleichmäßig gegen <math>f</math> konvergiert (Satz von [[Georg Faber|Faber]]<ref>{{Cite book<br />
| edition = 1<br />
| publisher = [[Birkhäuser Verlag|Birkhäuser]]<br />
| isbn = 3-7643-5845-9<br />
| last = [[Andrei Nikolajewitsch Kolmogorow|Kolmogorow]], et al.<br />
| first = Andrei Nikolajewitsch<br />
| title = Mathematics of the 19th Century<br />
| date = 1998<br />
| chapter = 4<br />
}}<br />
* Auch [http://books.google.de/books?id=Mw6JMdZQO-wC&pg=PA277&lpg=PA277&dq=satz+faber+1914+(1877-1966)&source=bl&ots=N-yWl0pxi2&sig=lBBUKHD9uQdvmUR_oJ9FicSKNAg&hl=de&ei=pu90TrzLJNHAtAbr3-mSCw&sa=X&oi=book_result&ct=result&resnum=5&ved=0CEIQ6AEwBA#v=onepage&q&f=false hier] ([[Google Bücher|Google Books]])</ref>).<br />
<br />
=== Bestapproximation ===<br />
Der Zusammenhang zwischen dem Interpolationpolynom und dem Polynom welches die Funktion am besten (bezüglich der [[Maximumsnorn]] <math>\| \cdot \|_\max</math>) annähert ist wie folgt.<br />
<br />
Seien dazu folgende gegeben<br />
* eine stetige, zu nähernde Funktion: <math>f \in C([a,b])</math><br />
* Stützstellen: <math>x_0,\ldots,x_n \in [a,b]</math><br />
* [[Polynominterpolation#Lebesgue_Konstante]]: <math>\Lambda_n</math><br />
* Interpolationspolynom: <math>P \in P_n</math> mit <math>P(x_i) = f(x_i)</math><br />
* Bestapproximation: <math>Q \in P_n</math> mit <math>\| f-Q \|_\max = \min_{R \in P_n} \| f-R \|_\max </math>.<br />
Dann gilt für die folgende Abschätzung<br />
:<math><br />
\| f-P \|_\max = (1+\Lambda_n) \| f-Q \|_\max \, .<br />
</math><br />
<br />
== Verallgemeinerung ==<br />
Bisher wurden die Stützstellen <math>x_i</math> des Interpolationspolynoms <math>P</math> als paarweise verschieden angenommen. Bei der [[Hermiteinterpolation]] ist das nicht der Fall. An mehrfach vorkommenden Stützstellen werden dabei nicht nur die Funktionswerte, sondern auch die Werte der Ableitungen des Interpolationspolynoms vorgegeben.<br />
<br />
=== Lebesgue Konstante ===<br />
Sei der [[Linearer_Operator|Operator]], der einer Funktion <math>f</math> sein Interpolationspolynom <math>P(f)</math> zuordnet, definiert durch<br />
:<math><br />
\phi_n \colon C([a,b]) \rightarrow P_n \, , \ <br />
f \mapsto P(f) = \sum_{i=0}^n f(x_i) l_i \, ,<br />
</math><br />
wobei <math>l_i</math> das <math>i</math>-te [[Polynominterpolation#Lagrangesche_Interpolationsformel|Lagrange-Polynom]] ist.<br />
<br />
Als ''Lebesgue Konstante'' <math>\Lambda_n</math> wird die [[Operatornorm]] von <math>\phi_n</math> bezeichnet. Dafür wird eine Norm benötigt und oft wird hier auf die [[Maximumsnorn]] <math>\| \cdot \|_\max</math> zugegriffen<br />
:<math><br />
\Lambda_n := \| \phi_n \|_\max \, .<br />
</math><br />
Die Norm kann explizit evaluiert werden<br />
:<math><br />
\Lambda_n = \max_{x\in[a,b]} \sum_{i=0}^n |L_i(x)| \, .<br />
</math><br />
<br />
== Literatur ==<br />
* Hans R. Schwarz, Norbert Köckler: ''Numerische Mathematik''. 5. Aufl. Teubner, Stuttgart 2004, ISBN 3-519-42960-8<br />
<br />
* {{Literatur <br />
|Autor=Stoer, Bulirsch<br />
|Titel=Numerische Mathematik 1<br />
|Auflage=10.<br />
|Verlag=Springer Verlag<br />
|Ort=Berlin, Heidelberg, New York<br />
|Datum=2007<br />
|ISBN=978-3-540-45389-5<br />
|Kapitel=2.1 Interpolation durch Polynome<br />
|Seiten=39-57<br />
|Kommentar=Behandelt die Verfahren nach Lagrange, Neville-Aitken und Newton, Hermite-Interpolation und Fehlerabschätzung jeweils mit Beispielen und Beweisen.}}<br />
* {{Literatur <br />
|Autor=Press, Teukolsky, Vetterling, Flannery<br />
|Titel=Numerical Recipes<br />
|TitelErg=The Art of Scientific Computing<br />
|Auflage=3.<br />
|Verlag=Cambridge University Press<br />
|Ort=Cambridge<br />
|Datum=2007<br />
|ISBN=978-0-521-88407-5<br />
|Kapitel=3.2 Polynomial Interpolation and Extrapolation<br />
|Seiten=118-120<br />
|Kommentar=Neville-Aitken-Algorithmus mit C++-Implementation}}<br />
* {{Literatur<br />
|Autor=Carl Runge<br />
|Hrsg=<br />
|Titel=Über empirische Funktionen und die Interpolation zwischen äquidistanten Ordinaten<br />
|Sammelwerk=Zeitschrift für Mathematik und Physik<br />
|Band=46<br />
|Verlag=B. G. Teubner<br />
|Ort=Leipzig<br />
|Datum=1901<br />
|Seiten=224–243<br />
|Kommentar=Runge-Phänomen<br />
|Online=http://iris.univ-lille1.fr/handle/1908/2014}}<br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik|Dividierte Differenzen & Horner-Schema|Implementierungen in der Algorithmensammlung}}<br />
* [http://www.mathe-online.at/materialien/Andreas.Pester/files/applets/Interpolation/ Seite zu Newton, Lagrange und Cubic Spline] mit Java-Applet<br />
* [http://matheplanet.com/default3.html?call=article.php?sid=977 Erläuterungen und Beispiel zur Lagrange-Interpolation]<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie der Polynome]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Polynominterpolation&diff=168876504Polynominterpolation2017-09-07T17:39:00Z<p>HerrHartmuth: /* Verallgemeinerung */ Definition der Lebesgue Konstante hinzugefügt</p>
<hr />
<div>[[Datei:Polynomial-interpolation.svg|mini|Interpolationspolynom 7.&nbsp;Grades]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] versteht man unter '''Polynominterpolation''' die Suche nach einem [[Polynom]], welches exakt durch vorgegebene Punkte (z.&nbsp;B. aus einer Messreihe) verläuft. Dieses Polynom wird '''Interpolationspolynom''' genannt und man sagt, es [[Interpolation (Mathematik)|interpoliere]] die gegebenen Punkte.<br />
<br />
== Anwendungen ==<br />
Polynome lassen sich sehr leicht integrieren und ableiten. Deswegen tauchen interpolierende Polynome an vielen Stellen in der numerischen Mathematik auf, beispielsweise bei der [[Numerische Integration|numerischen Integration]] und entsprechend bei Verfahren zur numerischen Lösung [[Gewöhnliche Differentialgleichung|gewöhnlicher Differentialgleichungen]].<br />
<br />
== Problemstellung ==<br />
Für <math>n+1</math> gegebene Wertepaare <math>(x_i,\,f_i)</math> mit [[paarweise verschieden]]en [[Stützstelle]]n <math>x_i</math> wird ein Polynom <math>P</math> maximal <math>n</math>-ten Grades gesucht, das alle Gleichungen<br />
:<math>P(x_i) = f_i, \quad i=0,\dotsc,n</math><br />
erfüllt. Ein solches Polynom existiert stets und ist eindeutig bestimmt, wie im Folgenden gezeigt wird.<br />
<br />
Beim Interpolationsproblem ist also <math>P</math> im [[Vektorraum]] <math>\Pi_n</math> der Polynome mit Grad <math>n</math> oder kleiner zu suchen, kurz <math>P \in \Pi_n</math>. Ist <math>\phi_0,\dotsc,\phi_n</math> eine [[Basis (Vektorraum)|Basis]] von <math>\Pi_n</math>, so ergeben die Gleichungen <math>P(x_i) = f_i</math> ein [[lineares Gleichungssystem]] für die Koeffizienten der Basisdarstellung <math>P = \sum_{k=0}^n a_k \phi_k</math>. Da sich ein und dasselbe Polynom aber unterschiedlich darstellen lässt, je nachdem welche Basis für den Vektorraum <math>\Pi_n</math> gewählt wird, kann man ganz verschiedene Gleichungssysteme erhalten. Wählt man für <math>\Pi_n</math> die Standardbasis <math>\left\{x^k\mid 0\le k\le n\right\}</math>, also für <math>P</math> die Darstellung <math>P(x) = \sum_{k=0}^n a_kx^k</math>, so erhält man ein Gleichungssystem mit der [[Vandermonde-Matrix]]:<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & x_0 & \cdots & x_0^n \\<br />
\vdots & \vdots & \ddots & \vdots \\<br />
1 & x_n & \cdots & x_n^n<br />
\end{pmatrix}<br />
\begin{pmatrix}<br />
a_0 \\<br />
\vdots \\<br />
a_n<br />
\end{pmatrix}<br />
= <br />
\begin{pmatrix}<br />
f_0 \\<br />
\vdots \\<br />
f_n<br />
\end{pmatrix}<br />
</math>.<br />
<br />
Diese ist [[Reguläre Matrix|regulär]], wenn die Stützstellen <math>x_i</math> paarweise verschieden sind, das Gleichungssystem lässt sich dann eindeutig lösen. Somit ist die Existenz und Eindeutigkeit des gesuchten Polynoms <math>P \in \Pi_n</math> immer sichergestellt. Trotz der theoretischen Machbarkeit wird diese Art der Interpolation in der Praxis nicht durchgeführt, da die Berechnung der Vandermonde-Matrix aufwendig ist (<math>\mathcal O(n^2)</math>, siehe [[Landau-Symbole]]) und zudem schlecht [[Kondition (Mathematik)|konditioniert]] bei einer ungeeigneten Wahl der Stützstellen.<br />
<br />
== Lösungsverfahren ==<br />
Obiges Gleichungssystem ließe sich beispielsweise mit dem [[Gaußsches Eliminationsverfahren|Gaußschen Eliminationsverfahren]] lösen. Der Aufwand dafür ist mit <math>\mathcal O(n^3)</math> allerdings vergleichsweise groß. Bei Wahl einer anderen Basis als der Standardbasis zur Beschreibung des Polynoms <math>P</math> kann der Aufwand verringert werden.<br />
<br />
=== Lagrangesche Interpolationsformel ===<br />
[[File:Lagrangesche Basisfunktionen.svg|thumb|Beispielhafte lagrangesche Basisfunktionen für x<sub>0</sub> = 0, x<sub>1</sub> = 1, x<sub>2</sub> = 2, x<sub>3</sub> = 3 (n = 3)]]<br />
Eher für theoretische Betrachtungen günstig ist eine Darstellung in der [[Joseph-Louis Lagrange|Lagrange]]-Basis. Die Basisfunktionen sind die ''Lagrange-Polynome''<br />
<br />
:<math>\ell_i(x) = \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{x-x_j}{x_i-x_j}=\frac{x-x_0}{x_i-x_0}\cdots\frac{x-x_{i-1}}{x_i-x_{i-1}}\cdot\frac{x-x_{i+1}}{x_i-x_{i+1}}\cdots\frac{x-x_n}{x_i-x_n} \, ,</math><br />
<br />
die so definiert sind, dass<br />
<br />
:<math>\ell_i(x_k) = \delta_{ik} = \left\{\begin{matrix}<br />
1 & \mbox{falls } i=k \\<br />
0 & \mbox{falls } i \neq k \, ,<br />
\end{matrix}\right.</math><br />
gilt, wobei <math>\delta_{ik}</math> das [[Kronecker-Delta]] darstellt. Damit entspricht die Matrix <math>\left(\ell_i\left(x_j\right)\right)_{i,j=0,1,\ldots,n}</math> genau der [[Einheitsmatrix]].<br />
Die Lösung des Interpolationsproblems lässt sich dann einfach angeben als<br />
<br />
:<math>P(x) = \sum_{i=0}^n f_i\ell_i\left(x\right) \, ,</math><br />
<br />
mit den [[Stützwert]]en <math>f_i</math>. Dies wird häufig benutzt, um die Existenz der Lösung des Interpolationsproblems zu beweisen. Ein Vorteil der Lagrange-Basis ist somit, dass die Basisfunktionen <math>\ell_i</math> von den Stützwerten <math>f_i</math> unabhängig sind. Dadurch lassen sich verschiedene Sätze von Stützwerten <math>f_i</math> mit gleichen Stützstellen <math>x_i</math> schnell interpolieren, wenn die Basisfunktionen <math>\ell_i</math> einmal bestimmt worden sind. Ein Nachteil dieser Darstellung ist jedoch, dass alle Basisvektoren bei Hinzunahme einer einzelnen Stützstelle komplett neu berechnet werden müssen, weshalb dieses Verfahren für die meisten praktischen Zwecke zu aufwendig ist.<br />
<br />
=== Baryzentrische Interpolationsformel ===<br />
Die Lagrangesche Interpolationsformel kann umgeformt werden in die praktisch relevantere ''Baryzentrische Interpolationsformel''<br />
:<math><br />
P(x) = \frac{\sum_{j=0}^n \frac{\lambda_j f_j}{x-x_j} }<br />
{\sum_{j=0}^n \frac{\lambda_j}{x-x_j} } \, ,<br />
</math><br />
wobei die ''Baryzentrischen Gewichte'' wiefolgt definiert sind<br />
:<math><br />
\lambda_j := \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{1}{x_j - x_i} \, .<br />
</math><br />
<br />
Für vorgegebene Stützstellen <math>(x_i)_i</math> können die Gewichte <math>(\lambda_i)_i</math> vorberechnet werden, sodass der Aufwand für die Auswertung von <math>P(x)</math> nur noch bei <math>\mathcal{O}(n)</math> liegt.<br />
Beim Hinzufügen einer neuen Stützstelle müssen die Gewichte neubestimmt werden.<br />
Dies hat einen Aufwand von <math>\mathcal{O}(n)</math> im Vergleich zum Neubestimmen der Lagrangepolynome von <math>\mathcal{O}(n^2)</math>.<br />
<br />
=== Newtonscher Algorithmus ===<br />
In diesem Verfahren wird das Polynom <math>P</math> in Newton-Basis dargestellt, so dass die Koeffizienten [[Effizienz (Informatik)|effizient]] mit dem [[#Bestimmung der Koeffizienten: Schema der dividierten Differenzen|Schema der dividierten Differenzen]] bestimmt werden können. Eine effiziente Auswertung des Polynoms kann dann mithilfe des [[#Auswertung des Polynoms: Horner-Schema|Horner-Schemas]] erfolgen.<br />
<br />
==== Ansatz: Newton-Basis ====<br />
Als Ansatz für das gesuchte Interpolationspolynom <math>P</math> wählt man die Newton-Basisfunktionen <math>N_0(x)=1</math> und <math>\textstyle N_i(x) = \prod_{j=0}^{i-1}\left(x-x_j\right)=\left(x-x_0\right)\cdots\left(x-x_{i-1}\right)</math> mit <math>i=1,\ldots ,n</math>, so dass <math>P</math> dargestellt wird mit der Newtonschen Interpolationsformel<br />
<br />
:<math>P(x)=\sum_{i=0}^n c_i\cdot N_i(x)=c_0+c_1 \left(x-x_0\right)+c_2 \left(x-x_0\right) \left(x-x_1\right)+\dotsb+c_n\left(x-x_0\right)\dotsm \left(x-x_{n-1}\right)</math><br />
<br />
Das Gleichungssystem der Gleichungen <math>P(x_i) = f_i</math> hat dann die Form<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & & & & 0 \\<br />
1 & (x_1 - x_0) & & & \\<br />
1 & (x_2 - x_0) & (x_2 - x_0)(x_2 - x_1) & & \\<br />
\vdots & \vdots & & \ddots & \\<br />
1 & (x_n - x_0) & \cdots & & \prod_{i=0}^{n-1}(x_n - x_i) \\<br />
\end{pmatrix}<br />
\cdot<br />
\begin{pmatrix} c_0 \\ \vdots \\ c_n \end{pmatrix}<br />
= \begin{pmatrix} f_0 \\ \vdots \\ f_n \end{pmatrix}<br />
</math><br />
<br />
Im Gegensatz zur komplizierten [[Vandermonde-Matrix]] bei Wahl der Standardbasis <math>\{x^k|0 \le k \le n\}</math> erhält man bei Wahl der Newton-Basis also eine einfach strukturierte [[untere Dreiecksmatrix]] und das Gleichungssystem lässt sich einfach lösen.<br />
<br />
==== Bestimmung der Koeffizienten: Schema der dividierten Differenzen ====<br />
Die Koeffizienten <math>c_i</math> werden aber nicht direkt aus dem obigen Gleichungssystem bestimmt, sondern effizienter mithilfe der dividierten Differenzen. Durch Induktion beweist man mit der [[#Algorithmus von Neville-Aitken|Rekursionsformel von Aitken]], dass für die Koeffizienten <math>c_i</math> gilt<br />
<br />
:<math>c_i = [x_0, \dotsb, x_i]f</math>.<br />
<br />
Dabei sind für <math>i<j</math> die dividierten Differenzen <math>[x_i, \dotsc, x_j]f</math> rekursiv definiert durch<br />
<br />
:<math>[x_i]f = f_i \qquad</math><br />
:<math>[x_i,\dotsc,x_j]f = \frac {[x_{i+1},\dotsc,x_j]f-[x_i,\dotsc,x_{j-1}]f}{x_j - x_i}</math>.<br />
<br />
Die Notation mit angehängtem <math>f</math> erklärt sich dadurch, dass oft eine unbekannte Funktion <math>f</math> angenommen wird, die bei bekannten Funktionswerten <math>f_i = f(x_i)</math> interpoliert werden soll.<br />
<br />
Die rekursive Berechnung der dividierten Differenzen lässt sich wie folgt veranschaulichen. Dabei sind die gesuchten Koeffizienten <math>c_i</math> genau die oberste Schrägzeile:<br />
<br />
<!-- [[Datei:Polynominterpolation_Schema_dividierte_Differenzen.jpg]] --><br />
:<math>\begin{array}{crcrccrcrc}<br />
[x_0]f \\<br />
& \searrow \\{}<br />
[x_1]f & \rightarrow & [x_0,x_1]f \\<br />
& \searrow & & \searrow \\{}<br />
[x_2]f & \rightarrow & [x_1,x_2]f & \rightarrow & [x_0,x_1,x_2]f \\{}<br />
\vdots & \vdots & \vdots & \vdots & \vdots &\ddots \\{}<br />
& \searrow & & \searrow & & & \searrow \\{}<br />
[x_{n-1}]f & \rightarrow & [x_{n-2},x_{n-1}]f & \rightarrow & [x_{n-3},x_{n-2},x_{n-1}]f<br />
& \cdots & \rightarrow & [x_0\ldots x_{n-1}]f \\<br />
& \searrow & & \searrow & & & \searrow && \searrow\\{}<br />
[x_n]f & \rightarrow & [x_{n-1},x_n]f & \rightarrow & [x_{n-2},x_{n-1},x_n]f<br />
& \cdots & \rightarrow & [x_1\ldots x_n]f & \rightarrow & [x_0\ldots x_n]f<br />
\end{array}</math><br />
<br />
Offensichtlich ist bei Ergänzung der <math>n+1</math> Wertepaare <math>(x_i, f_i)</math> um einen weiteren Punkt <math>(x_{n+1}, f_{n+1})</math> in obigem Schema nur eine weitere Zeile hinzuzufügen, um den zusätzlichen Koeffizienten <math>c_{n+1} = [x_0, \dotsc, x_{n+1}]f</math> zu berechnen. Die zuvor bestimmten Koeffizienten <math>c_0, \dotsc, c_n</math> müssen nicht neu berechnet werden.<br />
<br />
Alternativ zur obigen rekursiven Definition wird zum Beispiel in einem der Artikel von Marsden<ref>Martin J. Marsden: An Identity for Spline Functions with Applications to Variation-Diminishing Spline Approximation. Journal of Approximation Theory 3, 7-49 (1970).</ref> die ''dividierte Differenz'' <math>[x_0,\ldots,x_n]f</math> einer hinreichend oft differenzierbaren Funktion <math>f</math> als der eindeutige Koeffizient zur höchsten Potenz von <math>x</math> eines Polynoms <math>n</math>-ten Grads <math>p(x)</math> definiert, das <math>f</math> an den Stellen <math>x_0,\ldots,x_n</math> interpoliert. Tritt dabei ein Wert in der Sequenz <math>x_0,\ldots,x_n</math> mit der Vielfachheit <math>\nu\geq 1</math> auf, so sollen die Ableitungen des Polynoms die Ableitungen der Funktion <math>f</math> an dieser Stelle bis zur Ordnung <math>\nu-1</math> interpolieren.<br />
Es gilt somit<br />
:<math><br />
[x_0,\dotsc,x_k]f = \frac{ f^{(k)}(x^*) }{k!} <br />
\qquad \text{falls} \quad<br />
x^* := x_0 = \ldots = x_k \, .<br />
</math><br />
<br />
==== Auswertung des Polynoms: Horner-Schema ====<br />
Wenn die Koeffizienten <math>c_i</math> des Interpolationspolynoms <math>P</math> einmal bekannt sind, kann man es effizient mithilfe des [[Horner-Schema]]s auswerten. Dazu schreibt man <math>P</math> in der Form (einfache Umformung der Newtonschen Interpolationsformel)<br />
<br />
:<math>P(x) = \left(\cdots\left(c_n(x - x_{n-1}\right) + c_{n-1})(x - x_{n-2}) + \dotsb + c_1\right)(x - x_0) + c_0</math>,<br />
<br />
so dass <math>P(x)</math> rekursiv berechnet werden kann durch<br />
<br />
:<math>\begin{align}<br />
b_n & = c_n \\<br />
b_i & = b_{i+1}(x - x_i) + c_i, \qquad i = n - 1, \dotsc, 0 \\<br />
P(x) & = b_0<br />
\end{align}</math><br />
<br />
Dies erfordert einen Aufwand von <math>\mathcal{O}(n)</math>.<br />
<br />
=== Algorithmus von Neville-Aitken ===<br />
Ähnlich wie im [[#Newtonscher Algorithmus|Newtonschen Algorithmus]] wird beim Algorithmus von Neville-Aitken die Lösung rekursiv berechnet. Dazu bezeichne <math>p\left(f|x_i...x_{j}\right)</math> das eindeutig bestimmte Interpolationspolynom <math>k</math>-ten Grades zu den <math>k+1</math> [[Stützstelle|Stützpunkten]] <math>(x_{i}, f_{i}), \dots, (x_{j}, f_{j})</math>, wobei <math>k=j-i</math> ist. Es gilt dann die Rekursionsformel von Aitken:<br />
<br />
:<math>\begin{align}p(f|x_i)(x) & \equiv f_i, \\<br />
p(f|x_i, \dotsc, x_{j})(x) & \equiv \frac{(x - x_i)p(f|x_{i+1}, \dotsc, x_{j})(x) - (x - x_{j})p(f|x_{i}, \dotsc, x_{j-1})(x)}{x_{j}-x_{i}}.\end{align}</math><br />
<br />
Beweisen lässt sie sich durch Einsetzen von <math>x_i</math>, wodurch man verifiziert, dass die rechte Seite der Gleichung die Interpolationsbedingung erfüllt. Die Eindeutigkeit des Interpolationspolynoms liefert dann die Behauptung.<br />
<br />
Mit dem Schema von Neville kann die Auswertung von <math>p(f|{x_0, \dotsc, x_n})(x) = P(x)</math> dann rekursiv erfolgen:<br />
<br />
<!-- [[Datei:Polynominterpolation Schema von Neville.jpg]] --><br />
<math>\begin{array}{crcrccrcrc}<br />
p(f|x_{0})\\<br />
& \searrow\\<br />
p(f|x_{1}) & \rightarrow & p(f|x_{0},x_{1})\\<br />
& \searrow & & \searrow\\<br />
p(f|x_{2}) & \rightarrow & p(f|x_{1},x_{2}) & \rightarrow & p(f|x_{0},x_{1},x_{2})\\<br />
\vdots & & \vdots & & \vdots & \ddots\\<br />
& \searrow & & \searrow & & & \searrow\\<br />
p(f|x_{n-1}) & \rightarrow & p(f|x_{n-2},x_{n-1}) & \rightarrow & p(f|x_{n-3},x_{n-2},x_{n-1}) & \cdots & \rightarrow & p(f|x_{0},\dots,x_{n-1})\\<br />
& \searrow & & \searrow & & & \searrow & & \searrow\\<br />
p(f|x_{n}) & \rightarrow & p(f|x_{n-1},x_{n}) & \rightarrow & p(f|x_{n-2},x_{n-1},x_{n}) & \cdots & \rightarrow & p(f|x_{1},\dots,x_{n}) & \rightarrow & p(f|x_{0},\dots,x_{n})<br />
\end{array}</math><br />
<br />
=== Vergleich der Lösungsverfahren ===<br />
Möchte man alle Koeffizienten des Interpolationspolynoms <math>P</math> bestimmen, so bietet der Newtonsche Algorithmus hierfür den geringsten notwendigen Aufwand von <math>\mathcal O(n^2)</math>. Das so bestimmte Polynom lässt sich dann mit <math>\mathcal O(n)</math> Operationen an einer Stelle auswerten. Darum ist der Newtonsche Algorithmus gut geeignet, wenn das Interpolationspolynom an vielen Stellen ausgewertet werden soll. Auch lassen sich effizient weitere Stützpunkte hinzufügen. Liegen die Stützstellen oder die Stützwerte allerdings zu nahe beieinander, so besteht die Gefahr der [[Auslöschung (numerische Mathematik)|Auslöschung]] bei der Bestimmung der dividierten Differenzen.<br />
<br />
Der Neville-Aitken-Algorithmus ist dagegen gut geeignet, wenn ein Interpolationspolynom nur an ganz wenigen Stellen ausgewertet werden soll, dabei ist er weniger anfällig gegen Auslöschung. Auch im Neville-Aitken-Algorithmus lassen sich effizient neue Stützpunkte hinzufügen. So kann z.&nbsp;B. eine gewünschte Genauigkeit der Interpolation an einer Stelle durch Hinzufügen immer weiterer Stützstellen erreicht werden.<br />
<br />
=== Beispiel: Interpolation der Tangensfunktion ===<br />
[[Datei:Interpolation der Tangensfunktion.svg|miniatur|300x300px|Tangensfunktion (blau) und ihre Polynominterpolante dritten Grades (rot)]]<br />
Interpoliere die Funktion <math>f(x) = \tan(x)</math> bei gegebenen Punkten<br />
{| class="wikitable"<br />
|<math>x_0 = -1{,}5</math><br />
|<math>f(x_0) = -14{,}101420</math><br />
|-<br />
|<math>x_1 = -0{,}75</math><br />
|<math>f(x_1) = -0{,}931596</math><br />
|-<br />
|<math>x_2 = 0</math><br />
|<math>f(x_2) = 0</math><br />
|-<br />
|<math>x_3 = 0{,}75</math><br />
|<math>f(x_3) = 0{,}931596</math><br />
|-<br />
|<math>x_4 = 1{,}5</math><br />
|<math>f(x_4) = 14{,}101420</math><br />
|}<br />
<br />
==== Lösung mit Lagrange ====<br />
Die Lagrange-Basisfunktionen sind<br />
:<math>\begin{align}<br />
\ell_0(x)&={x - x_1 \over x_0 - x_1}\cdot{x - x_2 \over x_0 - x_2}\cdot{x - x_3 \over x_0 - x_3}\cdot{x - x_4 \over x_0 - x_4}<br />
={1\over 243} x (2x-3)(4x-3)(4x+3)\\<br />
\ell_1(x)&= {x - x_0 \over x_1 - x_0}\cdot{x - x_2 \over x_1 - x_2}\cdot{x - x_3 \over x_1 - x_3}\cdot{x - x_4 \over x_1 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x-3)\\<br />
\ell_2(x)&={x - x_0 \over x_2 - x_0}\cdot{x - x_1 \over x_2 - x_1}\cdot{x - x_3 \over x_2 - x_3}\cdot{x - x_4 \over x_2 - x_4}<br />
={3\over 243} (2x+3)(4x+3)(4x-3)(2x-3)\\<br />
\ell_3(x)&={x - x_0 \over x_3 - x_0}\cdot{x - x_1 \over x_3 - x_1}\cdot{x - x_2 \over x_3 - x_2}\cdot{x - x_4 \over x_3 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x+3)\\<br />
\ell_4(x)&={x - x_0 \over x_4 - x_0}\cdot{x - x_1 \over x_4 - x_1}\cdot{x - x_2 \over x_4 - x_2}\cdot{x - x_3 \over x_4 - x_3}<br />
={1\over 243} x (2x+3)(4x-3)(4x+3)<br />
\end{align}</math><br />
<br />
also ist das Interpolationspolynom<br />
<br />
:<math> \begin{align}P_\text{Lagrange}(x) =& \tfrac1{243}\big(f(x_0)x (2x-3)(4x-3)(4x+3) \\<br />
& \qquad{} - 8f(x_1)x (2x-3)(2x+3)(4x-3) \\<br />
& \qquad{} + 3f(x_2)(2x+3)(4x+3)(4x-3)(2x-3) \\<br />
& \qquad{} - 8f(x_3)x (2x-3)(2x+3)(4x+3) \\<br />
& \qquad{} + f(x_4)x (2x+3)(4x-3)(4x+3)\big)\\<br />
=& - 1{,}477474x + 4{,}834848x^3<br />
\end{align} </math><br />
<br />
==== Lösung mit Newton ====<br />
Die dividierten Differenzen sind hier<br />
<br />
: <math>\begin{array}{rrrrrr}<br />
x_i & f(x_i) & & & &\\<br />
-1{,}50& -14{,}10140& & & &\\<br />
& & & & &\\<br />
-0{,}75& -0{,}931596&{-0{,}931596-(-14{,}1014) \over -0{,}75-(-1{,}5)}=17{,}5597& & &\\<br />
& & & & &\\<br />
0{,}00 & 0{,}00000 &{0-(-0{,}931596) \over 0 - (-0{,}75)}=1{,}24213 &{1{,}24213-17{,}5597 \over 0-(-1{,}5) }=-10{,}8784& &\\<br />
& & & & &\\<br />
0{,}75 & 0{,}931596 &{0{,}931596 - 0 \over 0{,}75-0}=1{,}24213 &{1{,}24213-1{,}24213 \over 0{,}75-(-0{,}75)}=0{,}00000 &{0 - (-10{,}8784) \over 0{,}75-(-1{,}5)}=4{,}83484&\\<br />
& & & & &\\<br />
1{,}50 & 14{,}10140 &{14{,}10140-0{,}931596 \over 1{,}5 - 0{,}75}=17{,}5597 &{17{,}5597-1{,}24213 \over 1{,}5-0}=10{,}8784 &{10{,}8784-0 \over 1{,}5-(-0{,}75)}=4{,}83484 &{4{,}83484-4{,}83484 \over 1{,}5-(-1{,}5)}=0\\<br />
\end{array}</math><br />
<br />
und das Interpolationspolynom ist<br />
<br />
:<math>\begin{align}P_\text{Newton}(x) =& -14{,}1014+17{,}5597(x+1{,}5)-10{,}8784(x+1{,}5)(x+0{,}75) \\<br />
& {} +4{,}83484(x+1{,}5)(x+0{,}75)x+0(x+1{,}5)(x+0{,}75)x(x-0{,}75)\\<br />
=& -0{,}00005-1{,}4775x-0{,}00001x^2+4{,}83484x^3\end{align}</math><br />
<br />
Verwendet man genauere Startwerte <math>f(x_i)</math>, verschwinden der erste und der dritte Koeffizient.<br />
<br />
== Interpolationsgüte ==<br />
=== Fehlerabschätzung ===<br />
Gegeben sei eine Funktion <math>f</math>, deren <math>n+1</math> Funktionswerte <math>f_i</math> an den Stellen <math>x_i</math> durch das Polynom <math>P</math> interpoliert werden. Mit <math>I</math> sei das kleinste Intervall bezeichnet, das die Stützstellen <math>x_i</math> und eine Stelle <math>x</math> enthält. Ferner sei <math>f</math> (<math>n+1</math>)-mal stetig differenzierbar auf <math>I</math>. Dann existiert ein <math>\xi \in I</math>, für das gilt:<br />
<br />
:<math>f(x) - P(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
Insbesondere ist also bezüglich der [[Maximumsnorm]] auf <math>[a,b]</math> und mit <math>w_n(x) = \prod_{i=0}^n (x-x_i)</math>:<br />
:<math>|f(x)-P(x)| \leq\frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \prod_{i=0}^n |x-x_i| \leq \frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \|w_n\|_\infty</math><br />
<br />
=== Fehleroptimierung nach Tschebyschow<ref>{{Cite book<br />
| edition = 1<br />
| publisher = Vieweg Studium, Nr.32, Vieweg Verlagsgesellschaft<br />
| isbn = 3-528-07232-6<br />
| last = Werner<br />
| first = Jochen<br />
| title = Numerische Mathematik<br />
| date = 1992<br />
| chapter = 10.4<br />
}}<br />
* Auch [http://www.sam.math.ethz.ch/~hiptmair/tmp/NCSE_full.pdf hier] (4.1.3.; PDF-Datei; 11,68&nbsp;MB)</ref>===<br />
[[Datei:T30.svg|mini|Für größere <math>n</math> clustern die Tschebyschow-Punkte an den Intervallrändern.]]<br />
Der Fehler hängt also von einer Ableitung von <math>f</math> ab und von dem Produkt <math>w_n(x):=\prod_{i=0}^n (x-x_i)</math>, also den Stützstellen <math>x_i</math>. Manchmal ist man in der Position, dass man sich Stützstellen selbst wählen kann; etwa, wenn man ein physikalisches Experiment durchführt, oder aber auch bei einigen Verfahren zur numerischen Lösung von [[Differentialgleichung]]en. In diesem Fall ist die Frage interessant, für welche Stützstellen die Maximumsnorm <math>\|w_n\|_{\infty}</math> minimal wird.<br />
<br />
Für einen Beweis betrachten man normalerweise normierte Stützstellen<br />
:<math><br />
\begin{align}<br />
w_n: [-1,1] \rightarrow \R, \ w_n(x)=\prod_{i=0}^n (x-x_i) \\<br />
\text{mit} \qquad \forall \, i=0,\ldots,n : \quad x_i \in [-1,1] \, .<br />
\end{align}<br />
</math><br />
Nun kann man die Maximumsnorm der Funktion <math>w_n</math> wie folgt abschätzen<br />
:<math><br />
\|w_n\|_{[-1,1],\infty} <br />
=\max_{x\in[-1,1]} |w_n(x)| <br />
\geq 2^{-n} \, .<br />
</math><br />
<br />
[[Pafnuti Lwowitsch Tschebyschow|Tschebyschow]] hat gezeigt, dass die Nullstellen der [[Tschebyschow-Polynom]]e („Tschebyschow-Punkte“) optimale Stützstellen sind. <br />
Die Polynome <math>T_{n+1}(x)=\cos((n+1) \arccos(x) )</math> haben die Nullstellen <math>t_k=\cos\left(\frac{2k+1}{2n+2} \pi\right)</math> für <math>k\in\{0,1,\ldots,n\}</math>. <br />
So gewähtle Stützstellen liefern eine scharfe Grenze der oberen Abschätzung<br />
:<math><br />
\|w_n\|_{[-1,1],\infty} <br />
= 2^{-n} \, .<br />
</math><br />
<br />
Diese Aussage kann dann mit der Transformation<br />
:<math>\begin{align}<br />
\xi\in[-1,1] &\rightsquigarrow x=\frac{a+b}{2}+\frac{b-a}{2}\xi &\in [a,b] \\<br />
x\in[a,b] &\rightsquigarrow \xi = \frac{2x-a-b}{b-a} &\in [-1,1]<br />
\end{align}</math><br />
auf den Fall eines allgemeinen Intervalls <math>[a,b]\subset\mathbb{R}</math> übertragen werden. Der Beweis liefert auch die Abschätzung<br />
:<math>\begin{align}<br />
\|w_n\|_{[a,b],\infty} =\max_{x\in[a,b]} |w_n(x)| =2\left(\frac{b-a}{4}\right)^{n+1}.<br />
\end{align}</math><br />
<br />
=== Runges Phänomen ===<br />
[[File:Interpolation der Runge-Funktion (n=5).svg|thumb|Interpolation der Rungefunktion bei 6 äquidistanten Stützstellen (rote Punkte)]]<br />
[[File:Myplot p2.svg|thumb|Interpolation der Rungefunktion bei 11 äquidistanten Stützstellen (rote Punkte)]]<br />
<br />
Verbessert sich die Interpolationsgüte, wenn mehr Stützpunkte hinzugefügt werden? Im Allgemeinen nicht: Bei hohem Grad des Polynoms kann es vorkommen, dass die Polynomfunktion kaum noch der zu interpolierenden Funktion ähnelt, was auch als ''[[Carl Runge|Runges]] Phänomen'' bekannt ist. Polynome streben im Grenzfall <math>x\to \pm \infty</math> gegen <math>\pm\infty</math>. Verhält sich die zu interpolierende Funktion anders, etwa periodisch oder asymptotisch konstant, treten starke Oszillationen in der Nähe der Intervallgrenzen auf. Für solche Funktionen sind Polynominterpolationen über das gesamte Intervall relativ ungeeignet.<br />
<br />
Tschebyschow-Stützstellen, die an den Intervallgrenzen dichter liegen, können zwar den Gesamtfehler der Interpolation verkleinern, dennoch empfiehlt sich ein Wechsel des Interpolationsverfahrens, etwa zur [[Spline-Interpolation]]. Runge gab für dieses Phänomen ein Beispiel an, die nach ihm benannte Runge-Funktion:<br />
<br />
:<math>f(x)=\frac{1}{1+x^2}\,,\quad x\in[-5;5]</math><br />
<br />
=== Konvergenzverhalten ===<br />
Es gibt aber Bedingungen, unter denen sich die Interpolationsgüte mit steigender Anzahl von Stützpunkten verbessert: Wenn das Stützstellengitter immer „feiner“ wird und eine [[analytische Funktion]] interpoliert wird. Genauer: Sei <math>f</math> eine analytische Funktion auf dem Intervall <math>I=[a,b] \subset \R</math>. Für eine Intervallteilung<br />
<br />
:<math>\Delta_m = \{a=x_0^{(m)} < x_1^{(m)} < \dotsb < x_{n_m}^{(m)}=b\}, \qquad m\in \N</math><br />
<br />
sei ihre [[Norm (Mathematik)|Norm]] definiert durch<br />
<br />
:<math>\|\Delta_m\| = \max_i|x_{i+1}^{(m)} - x_i^{(m)}|.</math><br />
<br />
Zu jeder Intervallteilung <math>\Delta_m</math> gibt es ein eindeutig bestimmtes Polynom <math>P_{\Delta_m}</math>, das <math>f</math> an den Stützstellen <math>\Delta_m</math> interpoliert. Gilt für eine Folge von Intervallteilungen <math>\|\Delta_m\| \rightarrow 0</math>, so folgt <math>P_{\Delta_m} \rightarrow f</math> [[Gleichmäßige Konvergenz|gleichmäßig]].<br />
<br />
Allerdings lässt sich zu ''jeder'' Folge <math>\{\Delta_m\}_{m \in \N}</math> auch eine auf <math>I</math> stetige Funktion <math>f</math> finden, so dass <math>\{P_{\Delta_m}\}_{m \in \N}</math> ''nicht'' gleichmäßig gegen <math>f</math> konvergiert (Satz von [[Georg Faber|Faber]]<ref>{{Cite book<br />
| edition = 1<br />
| publisher = [[Birkhäuser Verlag|Birkhäuser]]<br />
| isbn = 3-7643-5845-9<br />
| last = [[Andrei Nikolajewitsch Kolmogorow|Kolmogorow]], et al.<br />
| first = Andrei Nikolajewitsch<br />
| title = Mathematics of the 19th Century<br />
| date = 1998<br />
| chapter = 4<br />
}}<br />
* Auch [http://books.google.de/books?id=Mw6JMdZQO-wC&pg=PA277&lpg=PA277&dq=satz+faber+1914+(1877-1966)&source=bl&ots=N-yWl0pxi2&sig=lBBUKHD9uQdvmUR_oJ9FicSKNAg&hl=de&ei=pu90TrzLJNHAtAbr3-mSCw&sa=X&oi=book_result&ct=result&resnum=5&ved=0CEIQ6AEwBA#v=onepage&q&f=false hier] ([[Google Bücher|Google Books]])</ref>).<br />
<br />
== Verallgemeinerung ==<br />
Bisher wurden die Stützstellen <math>x_i</math> des Interpolationspolynoms <math>P</math> als paarweise verschieden angenommen. Bei der [[Hermiteinterpolation]] ist das nicht der Fall. An mehrfach vorkommenden Stützstellen werden dabei nicht nur die Funktionswerte, sondern auch die Werte der Ableitungen des Interpolationspolynoms vorgegeben.<br />
<br />
=== Lebesgue Konstante ===<br />
Sei der [[Linearer_Operator|Operator]], der einer Funktion <math>f</math> sein Interpolationspolynom <math>P(f)</math> zuordnet, definiert durch<br />
:<math><br />
\phi_n \colon C([a,b]) \rightarrow P_n \, , \ <br />
f \mapsto P(f) = \sum_{i=0}^n f(x_i) l_i \, ,<br />
</math><br />
wobei <math>l_i</math> das <math>i</math>-te [[Polynominterpolation#Lagrangesche_Interpolationsformel|Lagrange-Polynom]] ist.<br />
<br />
Als ''Lebesgue Konstante'' <math>\Lambda_n</math> wird die [[Operatornorm]] von <math>\phi_n</math> bezeichnet. Dafür wird eine Norm benötigt und oft wird hier auf die [[Maximumsnorn]] <math>\| \cdot \|_\max</math> zugegriffen<br />
:<math><br />
\Lambda_n := \| \phi_n \|_\max \, .<br />
</math><br />
Die Norm kann explizit evaluiert werden<br />
:<math><br />
\Lambda_n = \max_{x\in[a,b]} \sum_{i=0}^n |L_i(x)| \, .<br />
</math><br />
<br />
== Literatur ==<br />
* Hans R. Schwarz, Norbert Köckler: ''Numerische Mathematik''. 5. Aufl. Teubner, Stuttgart 2004, ISBN 3-519-42960-8<br />
<br />
* {{Literatur <br />
|Autor=Stoer, Bulirsch<br />
|Titel=Numerische Mathematik 1<br />
|Auflage=10.<br />
|Verlag=Springer Verlag<br />
|Ort=Berlin, Heidelberg, New York<br />
|Datum=2007<br />
|ISBN=978-3-540-45389-5<br />
|Kapitel=2.1 Interpolation durch Polynome<br />
|Seiten=39-57<br />
|Kommentar=Behandelt die Verfahren nach Lagrange, Neville-Aitken und Newton, Hermite-Interpolation und Fehlerabschätzung jeweils mit Beispielen und Beweisen.}}<br />
* {{Literatur <br />
|Autor=Press, Teukolsky, Vetterling, Flannery<br />
|Titel=Numerical Recipes<br />
|TitelErg=The Art of Scientific Computing<br />
|Auflage=3.<br />
|Verlag=Cambridge University Press<br />
|Ort=Cambridge<br />
|Datum=2007<br />
|ISBN=978-0-521-88407-5<br />
|Kapitel=3.2 Polynomial Interpolation and Extrapolation<br />
|Seiten=118-120<br />
|Kommentar=Neville-Aitken-Algorithmus mit C++-Implementation}}<br />
* {{Literatur<br />
|Autor=Carl Runge<br />
|Hrsg=<br />
|Titel=Über empirische Funktionen und die Interpolation zwischen äquidistanten Ordinaten<br />
|Sammelwerk=Zeitschrift für Mathematik und Physik<br />
|Band=46<br />
|Verlag=B. G. Teubner<br />
|Ort=Leipzig<br />
|Datum=1901<br />
|Seiten=224–243<br />
|Kommentar=Runge-Phänomen<br />
|Online=http://iris.univ-lille1.fr/handle/1908/2014}}<br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik|Dividierte Differenzen & Horner-Schema|Implementierungen in der Algorithmensammlung}}<br />
* [http://www.mathe-online.at/materialien/Andreas.Pester/files/applets/Interpolation/ Seite zu Newton, Lagrange und Cubic Spline] mit Java-Applet<br />
* [http://matheplanet.com/default3.html?call=article.php?sid=977 Erläuterungen und Beispiel zur Lagrange-Interpolation]<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie der Polynome]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Polynominterpolation&diff=168817005Polynominterpolation2017-09-05T20:38:37Z<p>HerrHartmuth: Fehleroptimierung nach Tschebyschow umstrukturiert und normierte Abschätzung hinzugefügt</p>
<hr />
<div>[[Datei:Polynomial-interpolation.svg|mini|Interpolationspolynom 7.&nbsp;Grades]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] versteht man unter '''Polynominterpolation''' die Suche nach einem [[Polynom]], welches exakt durch vorgegebene Punkte (z.&nbsp;B. aus einer Messreihe) verläuft. Dieses Polynom wird '''Interpolationspolynom''' genannt und man sagt, es [[Interpolation (Mathematik)|interpoliere]] die gegebenen Punkte.<br />
<br />
== Anwendungen ==<br />
Polynome lassen sich sehr leicht integrieren und ableiten. Deswegen tauchen interpolierende Polynome an vielen Stellen in der numerischen Mathematik auf, beispielsweise bei der [[Numerische Integration|numerischen Integration]] und entsprechend bei Verfahren zur numerischen Lösung [[Gewöhnliche Differentialgleichung|gewöhnlicher Differentialgleichungen]].<br />
<br />
== Problemstellung ==<br />
Für <math>n+1</math> gegebene Wertepaare <math>(x_i,\,f_i)</math> mit [[paarweise verschieden]]en [[Stützstelle]]n <math>x_i</math> wird ein Polynom <math>P</math> maximal <math>n</math>-ten Grades gesucht, das alle Gleichungen<br />
:<math>P(x_i) = f_i, \quad i=0,\dotsc,n</math><br />
erfüllt. Ein solches Polynom existiert stets und ist eindeutig bestimmt, wie im Folgenden gezeigt wird.<br />
<br />
Beim Interpolationsproblem ist also <math>P</math> im [[Vektorraum]] <math>\Pi_n</math> der Polynome mit Grad <math>n</math> oder kleiner zu suchen, kurz <math>P \in \Pi_n</math>. Ist <math>\phi_0,\dotsc,\phi_n</math> eine [[Basis (Vektorraum)|Basis]] von <math>\Pi_n</math>, so ergeben die Gleichungen <math>P(x_i) = f_i</math> ein [[lineares Gleichungssystem]] für die Koeffizienten der Basisdarstellung <math>P = \sum_{k=0}^n a_k \phi_k</math>. Da sich ein und dasselbe Polynom aber unterschiedlich darstellen lässt, je nachdem welche Basis für den Vektorraum <math>\Pi_n</math> gewählt wird, kann man ganz verschiedene Gleichungssysteme erhalten. Wählt man für <math>\Pi_n</math> die Standardbasis <math>\left\{x^k\mid 0\le k\le n\right\}</math>, also für <math>P</math> die Darstellung <math>P(x) = \sum_{k=0}^n a_kx^k</math>, so erhält man ein Gleichungssystem mit der [[Vandermonde-Matrix]]:<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & x_0 & \cdots & x_0^n \\<br />
\vdots & \vdots & \ddots & \vdots \\<br />
1 & x_n & \cdots & x_n^n<br />
\end{pmatrix}<br />
\begin{pmatrix}<br />
a_0 \\<br />
\vdots \\<br />
a_n<br />
\end{pmatrix}<br />
= <br />
\begin{pmatrix}<br />
f_0 \\<br />
\vdots \\<br />
f_n<br />
\end{pmatrix}<br />
</math>.<br />
<br />
Diese ist [[Reguläre Matrix|regulär]], wenn die Stützstellen <math>x_i</math> paarweise verschieden sind, das Gleichungssystem lässt sich dann eindeutig lösen. Somit ist die Existenz und Eindeutigkeit des gesuchten Polynoms <math>P \in \Pi_n</math> immer sichergestellt. Trotz der theoretischen Machbarkeit wird diese Art der Interpolation in der Praxis nicht durchgeführt, da die Berechnung der Vandermonde-Matrix aufwendig ist (<math>\mathcal O(n^2)</math>, siehe [[Landau-Symbole]]) und zudem schlecht [[Kondition (Mathematik)|konditioniert]] bei einer ungeeigneten Wahl der Stützstellen.<br />
<br />
== Lösungsverfahren ==<br />
Obiges Gleichungssystem ließe sich beispielsweise mit dem [[Gaußsches Eliminationsverfahren|Gaußschen Eliminationsverfahren]] lösen. Der Aufwand dafür ist mit <math>\mathcal O(n^3)</math> allerdings vergleichsweise groß. Bei Wahl einer anderen Basis als der Standardbasis zur Beschreibung des Polynoms <math>P</math> kann der Aufwand verringert werden.<br />
<br />
=== Lagrangesche Interpolationsformel ===<br />
[[File:Lagrangesche Basisfunktionen.svg|thumb|Beispielhafte lagrangesche Basisfunktionen für x<sub>0</sub> = 0, x<sub>1</sub> = 1, x<sub>2</sub> = 2, x<sub>3</sub> = 3 (n = 3)]]<br />
Eher für theoretische Betrachtungen günstig ist eine Darstellung in der [[Joseph-Louis Lagrange|Lagrange]]-Basis. Die Basisfunktionen sind die ''Lagrange-Polynome''<br />
<br />
:<math>\ell_i(x) = \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{x-x_j}{x_i-x_j}=\frac{x-x_0}{x_i-x_0}\cdots\frac{x-x_{i-1}}{x_i-x_{i-1}}\cdot\frac{x-x_{i+1}}{x_i-x_{i+1}}\cdots\frac{x-x_n}{x_i-x_n} \, ,</math><br />
<br />
die so definiert sind, dass<br />
<br />
:<math>\ell_i(x_k) = \delta_{ik} = \left\{\begin{matrix}<br />
1 & \mbox{falls } i=k \\<br />
0 & \mbox{falls } i \neq k \, ,<br />
\end{matrix}\right.</math><br />
gilt, wobei <math>\delta_{ik}</math> das [[Kronecker-Delta]] darstellt. Damit entspricht die Matrix <math>\left(\ell_i\left(x_j\right)\right)_{i,j=0,1,\ldots,n}</math> genau der [[Einheitsmatrix]].<br />
Die Lösung des Interpolationsproblems lässt sich dann einfach angeben als<br />
<br />
:<math>P(x) = \sum_{i=0}^n f_i\ell_i\left(x\right) \, ,</math><br />
<br />
mit den [[Stützwert]]en <math>f_i</math>. Dies wird häufig benutzt, um die Existenz der Lösung des Interpolationsproblems zu beweisen. Ein Vorteil der Lagrange-Basis ist somit, dass die Basisfunktionen <math>\ell_i</math> von den Stützwerten <math>f_i</math> unabhängig sind. Dadurch lassen sich verschiedene Sätze von Stützwerten <math>f_i</math> mit gleichen Stützstellen <math>x_i</math> schnell interpolieren, wenn die Basisfunktionen <math>\ell_i</math> einmal bestimmt worden sind. Ein Nachteil dieser Darstellung ist jedoch, dass alle Basisvektoren bei Hinzunahme einer einzelnen Stützstelle komplett neu berechnet werden müssen, weshalb dieses Verfahren für die meisten praktischen Zwecke zu aufwendig ist.<br />
<br />
=== Baryzentrische Interpolationsformel ===<br />
Die Lagrangesche Interpolationsformel kann umgeformt werden in die praktisch relevantere ''Baryzentrische Interpolationsformel''<br />
:<math><br />
P(x) = \frac{\sum_{j=0}^n \frac{\lambda_j f_j}{x-x_j} }<br />
{\sum_{j=0}^n \frac{\lambda_j}{x-x_j} } \, ,<br />
</math><br />
wobei die ''Baryzentrischen Gewichte'' wiefolgt definiert sind<br />
:<math><br />
\lambda_j := \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{1}{x_j - x_i} \, .<br />
</math><br />
<br />
Für vorgegebene Stützstellen <math>(x_i)_i</math> können die Gewichte <math>(\lambda_i)_i</math> vorberechnet werden, sodass der Aufwand für die Auswertung von <math>P(x)</math> nur noch bei <math>\mathcal{O}(n)</math> liegt.<br />
Beim Hinzufügen einer neuen Stützstelle müssen die Gewichte neubestimmt werden.<br />
Dies hat einen Aufwand von <math>\mathcal{O}(n)</math> im Vergleich zum Neubestimmen der Lagrangepolynome von <math>\mathcal{O}(n^2)</math>.<br />
<br />
=== Newtonscher Algorithmus ===<br />
In diesem Verfahren wird das Polynom <math>P</math> in Newton-Basis dargestellt, so dass die Koeffizienten [[Effizienz (Informatik)|effizient]] mit dem [[#Bestimmung der Koeffizienten: Schema der dividierten Differenzen|Schema der dividierten Differenzen]] bestimmt werden können. Eine effiziente Auswertung des Polynoms kann dann mithilfe des [[#Auswertung des Polynoms: Horner-Schema|Horner-Schemas]] erfolgen.<br />
<br />
==== Ansatz: Newton-Basis ====<br />
Als Ansatz für das gesuchte Interpolationspolynom <math>P</math> wählt man die Newton-Basisfunktionen <math>N_0(x)=1</math> und <math>\textstyle N_i(x) = \prod_{j=0}^{i-1}\left(x-x_j\right)=\left(x-x_0\right)\cdots\left(x-x_{i-1}\right)</math> mit <math>i=1,\ldots ,n</math>, so dass <math>P</math> dargestellt wird mit der Newtonschen Interpolationsformel<br />
<br />
:<math>P(x)=\sum_{i=0}^n c_i\cdot N_i(x)=c_0+c_1 \left(x-x_0\right)+c_2 \left(x-x_0\right) \left(x-x_1\right)+\dotsb+c_n\left(x-x_0\right)\dotsm \left(x-x_{n-1}\right)</math><br />
<br />
Das Gleichungssystem der Gleichungen <math>P(x_i) = f_i</math> hat dann die Form<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & & & & 0 \\<br />
1 & (x_1 - x_0) & & & \\<br />
1 & (x_2 - x_0) & (x_2 - x_0)(x_2 - x_1) & & \\<br />
\vdots & \vdots & & \ddots & \\<br />
1 & (x_n - x_0) & \cdots & & \prod_{i=0}^{n-1}(x_n - x_i) \\<br />
\end{pmatrix}<br />
\cdot<br />
\begin{pmatrix} c_0 \\ \vdots \\ c_n \end{pmatrix}<br />
= \begin{pmatrix} f_0 \\ \vdots \\ f_n \end{pmatrix}<br />
</math><br />
<br />
Im Gegensatz zur komplizierten [[Vandermonde-Matrix]] bei Wahl der Standardbasis <math>\{x^k|0 \le k \le n\}</math> erhält man bei Wahl der Newton-Basis also eine einfach strukturierte [[untere Dreiecksmatrix]] und das Gleichungssystem lässt sich einfach lösen.<br />
<br />
==== Bestimmung der Koeffizienten: Schema der dividierten Differenzen ====<br />
Die Koeffizienten <math>c_i</math> werden aber nicht direkt aus dem obigen Gleichungssystem bestimmt, sondern effizienter mithilfe der dividierten Differenzen. Durch Induktion beweist man mit der [[#Algorithmus von Neville-Aitken|Rekursionsformel von Aitken]], dass für die Koeffizienten <math>c_i</math> gilt<br />
<br />
:<math>c_i = [x_0, \dotsb, x_i]f</math>.<br />
<br />
Dabei sind für <math>i<j</math> die dividierten Differenzen <math>[x_i, \dotsc, x_j]f</math> rekursiv definiert durch<br />
<br />
:<math>[x_i]f = f_i \qquad</math><br />
:<math>[x_i,\dotsc,x_j]f = \frac {[x_{i+1},\dotsc,x_j]f-[x_i,\dotsc,x_{j-1}]f}{x_j - x_i}</math>.<br />
<br />
Die Notation mit angehängtem <math>f</math> erklärt sich dadurch, dass oft eine unbekannte Funktion <math>f</math> angenommen wird, die bei bekannten Funktionswerten <math>f_i = f(x_i)</math> interpoliert werden soll.<br />
<br />
Die rekursive Berechnung der dividierten Differenzen lässt sich wie folgt veranschaulichen. Dabei sind die gesuchten Koeffizienten <math>c_i</math> genau die oberste Schrägzeile:<br />
<br />
<!-- [[Datei:Polynominterpolation_Schema_dividierte_Differenzen.jpg]] --><br />
:<math>\begin{array}{crcrccrcrc}<br />
[x_0]f \\<br />
& \searrow \\{}<br />
[x_1]f & \rightarrow & [x_0,x_1]f \\<br />
& \searrow & & \searrow \\{}<br />
[x_2]f & \rightarrow & [x_1,x_2]f & \rightarrow & [x_0,x_1,x_2]f \\{}<br />
\vdots & \vdots & \vdots & \vdots & \vdots &\ddots \\{}<br />
& \searrow & & \searrow & & & \searrow \\{}<br />
[x_{n-1}]f & \rightarrow & [x_{n-2},x_{n-1}]f & \rightarrow & [x_{n-3},x_{n-2},x_{n-1}]f<br />
& \cdots & \rightarrow & [x_0\ldots x_{n-1}]f \\<br />
& \searrow & & \searrow & & & \searrow && \searrow\\{}<br />
[x_n]f & \rightarrow & [x_{n-1},x_n]f & \rightarrow & [x_{n-2},x_{n-1},x_n]f<br />
& \cdots & \rightarrow & [x_1\ldots x_n]f & \rightarrow & [x_0\ldots x_n]f<br />
\end{array}</math><br />
<br />
Offensichtlich ist bei Ergänzung der <math>n+1</math> Wertepaare <math>(x_i, f_i)</math> um einen weiteren Punkt <math>(x_{n+1}, f_{n+1})</math> in obigem Schema nur eine weitere Zeile hinzuzufügen, um den zusätzlichen Koeffizienten <math>c_{n+1} = [x_0, \dotsc, x_{n+1}]f</math> zu berechnen. Die zuvor bestimmten Koeffizienten <math>c_0, \dotsc, c_n</math> müssen nicht neu berechnet werden.<br />
<br />
Alternativ zur obigen rekursiven Definition wird zum Beispiel in einem der Artikel von Marsden<ref>Martin J. Marsden: An Identity for Spline Functions with Applications to Variation-Diminishing Spline Approximation. Journal of Approximation Theory 3, 7-49 (1970).</ref> die ''dividierte Differenz'' <math>[x_0,\ldots,x_n]f</math> einer hinreichend oft differenzierbaren Funktion <math>f</math> als der eindeutige Koeffizient zur höchsten Potenz von <math>x</math> eines Polynoms <math>n</math>-ten Grads <math>p(x)</math> definiert, das <math>f</math> an den Stellen <math>x_0,\ldots,x_n</math> interpoliert. Tritt dabei ein Wert in der Sequenz <math>x_0,\ldots,x_n</math> mit der Vielfachheit <math>\nu\geq 1</math> auf, so sollen die Ableitungen des Polynoms die Ableitungen der Funktion <math>f</math> an dieser Stelle bis zur Ordnung <math>\nu-1</math> interpolieren.<br />
Es gilt somit<br />
:<math><br />
[x_0,\dotsc,x_k]f = \frac{ f^{(k)}(x^*) }{k!} <br />
\qquad \text{falls} \quad<br />
x^* := x_0 = \ldots = x_k \, .<br />
</math><br />
<br />
==== Auswertung des Polynoms: Horner-Schema ====<br />
Wenn die Koeffizienten <math>c_i</math> des Interpolationspolynoms <math>P</math> einmal bekannt sind, kann man es effizient mithilfe des [[Horner-Schema]]s auswerten. Dazu schreibt man <math>P</math> in der Form (einfache Umformung der Newtonschen Interpolationsformel)<br />
<br />
:<math>P(x) = \left(\cdots\left(c_n(x - x_{n-1}\right) + c_{n-1})(x - x_{n-2}) + \dotsb + c_1\right)(x - x_0) + c_0</math>,<br />
<br />
so dass <math>P(x)</math> rekursiv berechnet werden kann durch<br />
<br />
:<math>\begin{align}<br />
b_n & = c_n \\<br />
b_i & = b_{i+1}(x - x_i) + c_i, \qquad i = n - 1, \dotsc, 0 \\<br />
P(x) & = b_0<br />
\end{align}</math><br />
<br />
Dies erfordert einen Aufwand von <math>\mathcal{O}(n)</math>.<br />
<br />
=== Algorithmus von Neville-Aitken ===<br />
Ähnlich wie im [[#Newtonscher Algorithmus|Newtonschen Algorithmus]] wird beim Algorithmus von Neville-Aitken die Lösung rekursiv berechnet. Dazu bezeichne <math>p\left(f|x_i...x_{j}\right)</math> das eindeutig bestimmte Interpolationspolynom <math>k</math>-ten Grades zu den <math>k+1</math> [[Stützstelle|Stützpunkten]] <math>(x_{i}, f_{i}), \dots, (x_{j}, f_{j})</math>, wobei <math>k=j-i</math> ist. Es gilt dann die Rekursionsformel von Aitken:<br />
<br />
:<math>\begin{align}p(f|x_i)(x) & \equiv f_i, \\<br />
p(f|x_i, \dotsc, x_{j})(x) & \equiv \frac{(x - x_i)p(f|x_{i+1}, \dotsc, x_{j})(x) - (x - x_{j})p(f|x_{i}, \dotsc, x_{j-1})(x)}{x_{j}-x_{i}}.\end{align}</math><br />
<br />
Beweisen lässt sie sich durch Einsetzen von <math>x_i</math>, wodurch man verifiziert, dass die rechte Seite der Gleichung die Interpolationsbedingung erfüllt. Die Eindeutigkeit des Interpolationspolynoms liefert dann die Behauptung.<br />
<br />
Mit dem Schema von Neville kann die Auswertung von <math>p(f|{x_0, \dotsc, x_n})(x) = P(x)</math> dann rekursiv erfolgen:<br />
<br />
<!-- [[Datei:Polynominterpolation Schema von Neville.jpg]] --><br />
<math>\begin{array}{crcrccrcrc}<br />
p(f|x_{0})\\<br />
& \searrow\\<br />
p(f|x_{1}) & \rightarrow & p(f|x_{0},x_{1})\\<br />
& \searrow & & \searrow\\<br />
p(f|x_{2}) & \rightarrow & p(f|x_{1},x_{2}) & \rightarrow & p(f|x_{0},x_{1},x_{2})\\<br />
\vdots & & \vdots & & \vdots & \ddots\\<br />
& \searrow & & \searrow & & & \searrow\\<br />
p(f|x_{n-1}) & \rightarrow & p(f|x_{n-2},x_{n-1}) & \rightarrow & p(f|x_{n-3},x_{n-2},x_{n-1}) & \cdots & \rightarrow & p(f|x_{0},\dots,x_{n-1})\\<br />
& \searrow & & \searrow & & & \searrow & & \searrow\\<br />
p(f|x_{n}) & \rightarrow & p(f|x_{n-1},x_{n}) & \rightarrow & p(f|x_{n-2},x_{n-1},x_{n}) & \cdots & \rightarrow & p(f|x_{1},\dots,x_{n}) & \rightarrow & p(f|x_{0},\dots,x_{n})<br />
\end{array}</math><br />
<br />
=== Vergleich der Lösungsverfahren ===<br />
Möchte man alle Koeffizienten des Interpolationspolynoms <math>P</math> bestimmen, so bietet der Newtonsche Algorithmus hierfür den geringsten notwendigen Aufwand von <math>\mathcal O(n^2)</math>. Das so bestimmte Polynom lässt sich dann mit <math>\mathcal O(n)</math> Operationen an einer Stelle auswerten. Darum ist der Newtonsche Algorithmus gut geeignet, wenn das Interpolationspolynom an vielen Stellen ausgewertet werden soll. Auch lassen sich effizient weitere Stützpunkte hinzufügen. Liegen die Stützstellen oder die Stützwerte allerdings zu nahe beieinander, so besteht die Gefahr der [[Auslöschung (numerische Mathematik)|Auslöschung]] bei der Bestimmung der dividierten Differenzen.<br />
<br />
Der Neville-Aitken-Algorithmus ist dagegen gut geeignet, wenn ein Interpolationspolynom nur an ganz wenigen Stellen ausgewertet werden soll, dabei ist er weniger anfällig gegen Auslöschung. Auch im Neville-Aitken-Algorithmus lassen sich effizient neue Stützpunkte hinzufügen. So kann z.&nbsp;B. eine gewünschte Genauigkeit der Interpolation an einer Stelle durch Hinzufügen immer weiterer Stützstellen erreicht werden.<br />
<br />
=== Beispiel: Interpolation der Tangensfunktion ===<br />
[[Datei:Interpolation der Tangensfunktion.svg|miniatur|300x300px|Tangensfunktion (blau) und ihre Polynominterpolante dritten Grades (rot)]]<br />
Interpoliere die Funktion <math>f(x) = \tan(x)</math> bei gegebenen Punkten<br />
{| class="wikitable"<br />
|<math>x_0 = -1{,}5</math><br />
|<math>f(x_0) = -14{,}101420</math><br />
|-<br />
|<math>x_1 = -0{,}75</math><br />
|<math>f(x_1) = -0{,}931596</math><br />
|-<br />
|<math>x_2 = 0</math><br />
|<math>f(x_2) = 0</math><br />
|-<br />
|<math>x_3 = 0{,}75</math><br />
|<math>f(x_3) = 0{,}931596</math><br />
|-<br />
|<math>x_4 = 1{,}5</math><br />
|<math>f(x_4) = 14{,}101420</math><br />
|}<br />
<br />
==== Lösung mit Lagrange ====<br />
Die Lagrange-Basisfunktionen sind<br />
:<math>\begin{align}<br />
\ell_0(x)&={x - x_1 \over x_0 - x_1}\cdot{x - x_2 \over x_0 - x_2}\cdot{x - x_3 \over x_0 - x_3}\cdot{x - x_4 \over x_0 - x_4}<br />
={1\over 243} x (2x-3)(4x-3)(4x+3)\\<br />
\ell_1(x)&= {x - x_0 \over x_1 - x_0}\cdot{x - x_2 \over x_1 - x_2}\cdot{x - x_3 \over x_1 - x_3}\cdot{x - x_4 \over x_1 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x-3)\\<br />
\ell_2(x)&={x - x_0 \over x_2 - x_0}\cdot{x - x_1 \over x_2 - x_1}\cdot{x - x_3 \over x_2 - x_3}\cdot{x - x_4 \over x_2 - x_4}<br />
={3\over 243} (2x+3)(4x+3)(4x-3)(2x-3)\\<br />
\ell_3(x)&={x - x_0 \over x_3 - x_0}\cdot{x - x_1 \over x_3 - x_1}\cdot{x - x_2 \over x_3 - x_2}\cdot{x - x_4 \over x_3 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x+3)\\<br />
\ell_4(x)&={x - x_0 \over x_4 - x_0}\cdot{x - x_1 \over x_4 - x_1}\cdot{x - x_2 \over x_4 - x_2}\cdot{x - x_3 \over x_4 - x_3}<br />
={1\over 243} x (2x+3)(4x-3)(4x+3)<br />
\end{align}</math><br />
<br />
also ist das Interpolationspolynom<br />
<br />
:<math> \begin{align}P_\text{Lagrange}(x) =& \tfrac1{243}\big(f(x_0)x (2x-3)(4x-3)(4x+3) \\<br />
& \qquad{} - 8f(x_1)x (2x-3)(2x+3)(4x-3) \\<br />
& \qquad{} + 3f(x_2)(2x+3)(4x+3)(4x-3)(2x-3) \\<br />
& \qquad{} - 8f(x_3)x (2x-3)(2x+3)(4x+3) \\<br />
& \qquad{} + f(x_4)x (2x+3)(4x-3)(4x+3)\big)\\<br />
=& - 1{,}477474x + 4{,}834848x^3<br />
\end{align} </math><br />
<br />
==== Lösung mit Newton ====<br />
Die dividierten Differenzen sind hier<br />
<br />
: <math>\begin{array}{rrrrrr}<br />
x_i & f(x_i) & & & &\\<br />
-1{,}50& -14{,}10140& & & &\\<br />
& & & & &\\<br />
-0{,}75& -0{,}931596&{-0{,}931596-(-14{,}1014) \over -0{,}75-(-1{,}5)}=17{,}5597& & &\\<br />
& & & & &\\<br />
0{,}00 & 0{,}00000 &{0-(-0{,}931596) \over 0 - (-0{,}75)}=1{,}24213 &{1{,}24213-17{,}5597 \over 0-(-1{,}5) }=-10{,}8784& &\\<br />
& & & & &\\<br />
0{,}75 & 0{,}931596 &{0{,}931596 - 0 \over 0{,}75-0}=1{,}24213 &{1{,}24213-1{,}24213 \over 0{,}75-(-0{,}75)}=0{,}00000 &{0 - (-10{,}8784) \over 0{,}75-(-1{,}5)}=4{,}83484&\\<br />
& & & & &\\<br />
1{,}50 & 14{,}10140 &{14{,}10140-0{,}931596 \over 1{,}5 - 0{,}75}=17{,}5597 &{17{,}5597-1{,}24213 \over 1{,}5-0}=10{,}8784 &{10{,}8784-0 \over 1{,}5-(-0{,}75)}=4{,}83484 &{4{,}83484-4{,}83484 \over 1{,}5-(-1{,}5)}=0\\<br />
\end{array}</math><br />
<br />
und das Interpolationspolynom ist<br />
<br />
:<math>\begin{align}P_\text{Newton}(x) =& -14{,}1014+17{,}5597(x+1{,}5)-10{,}8784(x+1{,}5)(x+0{,}75) \\<br />
& {} +4{,}83484(x+1{,}5)(x+0{,}75)x+0(x+1{,}5)(x+0{,}75)x(x-0{,}75)\\<br />
=& -0{,}00005-1{,}4775x-0{,}00001x^2+4{,}83484x^3\end{align}</math><br />
<br />
Verwendet man genauere Startwerte <math>f(x_i)</math>, verschwinden der erste und der dritte Koeffizient.<br />
<br />
== Interpolationsgüte ==<br />
=== Fehlerabschätzung ===<br />
Gegeben sei eine Funktion <math>f</math>, deren <math>n+1</math> Funktionswerte <math>f_i</math> an den Stellen <math>x_i</math> durch das Polynom <math>P</math> interpoliert werden. Mit <math>I</math> sei das kleinste Intervall bezeichnet, das die Stützstellen <math>x_i</math> und eine Stelle <math>x</math> enthält. Ferner sei <math>f</math> (<math>n+1</math>)-mal stetig differenzierbar auf <math>I</math>. Dann existiert ein <math>\xi \in I</math>, für das gilt:<br />
<br />
:<math>f(x) - P(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
Insbesondere ist also bezüglich der [[Maximumsnorm]] auf <math>[a,b]</math> und mit <math>w_n(x) = \prod_{i=0}^n (x-x_i)</math>:<br />
:<math>|f(x)-P(x)| \leq\frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \prod_{i=0}^n |x-x_i| \leq \frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \|w_n\|_\infty</math><br />
<br />
=== Fehleroptimierung nach Tschebyschow<ref>{{Cite book<br />
| edition = 1<br />
| publisher = Vieweg Studium, Nr.32, Vieweg Verlagsgesellschaft<br />
| isbn = 3-528-07232-6<br />
| last = Werner<br />
| first = Jochen<br />
| title = Numerische Mathematik<br />
| date = 1992<br />
| chapter = 10.4<br />
}}<br />
* Auch [http://www.sam.math.ethz.ch/~hiptmair/tmp/NCSE_full.pdf hier] (4.1.3.; PDF-Datei; 11,68&nbsp;MB)</ref>===<br />
[[Datei:T30.svg|mini|Für größere <math>n</math> clustern die Tschebyschow-Punkte an den Intervallrändern.]]<br />
Der Fehler hängt also von einer Ableitung von <math>f</math> ab und von dem Produkt <math>w_n(x):=\prod_{i=0}^n (x-x_i)</math>, also den Stützstellen <math>x_i</math>. Manchmal ist man in der Position, dass man sich Stützstellen selbst wählen kann; etwa, wenn man ein physikalisches Experiment durchführt, oder aber auch bei einigen Verfahren zur numerischen Lösung von [[Differentialgleichung]]en. In diesem Fall ist die Frage interessant, für welche Stützstellen die Maximumsnorm <math>\|w_n\|_{\infty}</math> minimal wird.<br />
<br />
Für einen Beweis betrachten man normalerweise normierte Stützstellen<br />
:<math><br />
\begin{align}<br />
w_n: [-1,1] \rightarrow \R, \ w_n(x)=\prod_{i=0}^n (x-x_i) \\<br />
\text{mit} \qquad \forall \, i=0,\ldots,n : \quad x_i \in [-1,1] \, .<br />
\end{align}<br />
</math><br />
Nun kann man die Maximumsnorm der Funktion <math>w_n</math> wie folgt abschätzen<br />
:<math><br />
\|w_n\|_{[-1,1],\infty} <br />
=\max_{x\in[-1,1]} |w_n(x)| <br />
\geq 2^{-n} \, .<br />
</math><br />
<br />
[[Pafnuti Lwowitsch Tschebyschow|Tschebyschow]] hat gezeigt, dass die Nullstellen der [[Tschebyschow-Polynom]]e („Tschebyschow-Punkte“) optimale Stützstellen sind. <br />
Die Polynome <math>T_{n+1}(x)=\cos((n+1) \arccos(x) )</math> haben die Nullstellen <math>t_k=\cos\left(\frac{2k+1}{2n+2} \pi\right)</math> für <math>k\in\{0,1,\ldots,n\}</math>. <br />
So gewähtle Stützstellen liefern eine scharfe Grenze der oberen Abschätzung<br />
:<math><br />
\|w_n\|_{[-1,1],\infty} <br />
= 2^{-n} \, .<br />
</math><br />
<br />
Diese Aussage kann dann mit der Transformation<br />
:<math>\begin{align}<br />
\xi\in[-1,1] &\rightsquigarrow x=\frac{a+b}{2}+\frac{b-a}{2}\xi &\in [a,b] \\<br />
x\in[a,b] &\rightsquigarrow \xi = \frac{2x-a-b}{b-a} &\in [-1,1]<br />
\end{align}</math><br />
auf den Fall eines allgemeinen Intervalls <math>[a,b]\subset\mathbb{R}</math> übertragen werden. Der Beweis liefert auch die Abschätzung<br />
:<math>\begin{align}<br />
\|w_n\|_{[a,b],\infty} =\max_{x\in[a,b]} |w_n(x)| =2\left(\frac{b-a}{4}\right)^{n+1}.<br />
\end{align}</math><br />
<br />
=== Runges Phänomen ===<br />
[[File:Interpolation der Runge-Funktion (n=5).svg|thumb|Interpolation der Rungefunktion bei 6 äquidistanten Stützstellen (rote Punkte)]]<br />
[[File:Myplot p2.svg|thumb|Interpolation der Rungefunktion bei 11 äquidistanten Stützstellen (rote Punkte)]]<br />
<br />
Verbessert sich die Interpolationsgüte, wenn mehr Stützpunkte hinzugefügt werden? Im Allgemeinen nicht: Bei hohem Grad des Polynoms kann es vorkommen, dass die Polynomfunktion kaum noch der zu interpolierenden Funktion ähnelt, was auch als ''[[Carl Runge|Runges]] Phänomen'' bekannt ist. Polynome streben im Grenzfall <math>x\to \pm \infty</math> gegen <math>\pm\infty</math>. Verhält sich die zu interpolierende Funktion anders, etwa periodisch oder asymptotisch konstant, treten starke Oszillationen in der Nähe der Intervallgrenzen auf. Für solche Funktionen sind Polynominterpolationen über das gesamte Intervall relativ ungeeignet.<br />
<br />
Tschebyschow-Stützstellen, die an den Intervallgrenzen dichter liegen, können zwar den Gesamtfehler der Interpolation verkleinern, dennoch empfiehlt sich ein Wechsel des Interpolationsverfahrens, etwa zur [[Spline-Interpolation]]. Runge gab für dieses Phänomen ein Beispiel an, die nach ihm benannte Runge-Funktion:<br />
<br />
:<math>f(x)=\frac{1}{1+x^2}\,,\quad x\in[-5;5]</math><br />
<br />
=== Konvergenzverhalten ===<br />
Es gibt aber Bedingungen, unter denen sich die Interpolationsgüte mit steigender Anzahl von Stützpunkten verbessert: Wenn das Stützstellengitter immer „feiner“ wird und eine [[analytische Funktion]] interpoliert wird. Genauer: Sei <math>f</math> eine analytische Funktion auf dem Intervall <math>I=[a,b] \subset \R</math>. Für eine Intervallteilung<br />
<br />
:<math>\Delta_m = \{a=x_0^{(m)} < x_1^{(m)} < \dotsb < x_{n_m}^{(m)}=b\}, \qquad m\in \N</math><br />
<br />
sei ihre [[Norm (Mathematik)|Norm]] definiert durch<br />
<br />
:<math>\|\Delta_m\| = \max_i|x_{i+1}^{(m)} - x_i^{(m)}|.</math><br />
<br />
Zu jeder Intervallteilung <math>\Delta_m</math> gibt es ein eindeutig bestimmtes Polynom <math>P_{\Delta_m}</math>, das <math>f</math> an den Stützstellen <math>\Delta_m</math> interpoliert. Gilt für eine Folge von Intervallteilungen <math>\|\Delta_m\| \rightarrow 0</math>, so folgt <math>P_{\Delta_m} \rightarrow f</math> [[Gleichmäßige Konvergenz|gleichmäßig]].<br />
<br />
Allerdings lässt sich zu ''jeder'' Folge <math>\{\Delta_m\}_{m \in \N}</math> auch eine auf <math>I</math> stetige Funktion <math>f</math> finden, so dass <math>\{P_{\Delta_m}\}_{m \in \N}</math> ''nicht'' gleichmäßig gegen <math>f</math> konvergiert (Satz von [[Georg Faber|Faber]]<ref>{{Cite book<br />
| edition = 1<br />
| publisher = [[Birkhäuser Verlag|Birkhäuser]]<br />
| isbn = 3-7643-5845-9<br />
| last = [[Andrei Nikolajewitsch Kolmogorow|Kolmogorow]], et al.<br />
| first = Andrei Nikolajewitsch<br />
| title = Mathematics of the 19th Century<br />
| date = 1998<br />
| chapter = 4<br />
}}<br />
* Auch [http://books.google.de/books?id=Mw6JMdZQO-wC&pg=PA277&lpg=PA277&dq=satz+faber+1914+(1877-1966)&source=bl&ots=N-yWl0pxi2&sig=lBBUKHD9uQdvmUR_oJ9FicSKNAg&hl=de&ei=pu90TrzLJNHAtAbr3-mSCw&sa=X&oi=book_result&ct=result&resnum=5&ved=0CEIQ6AEwBA#v=onepage&q&f=false hier] ([[Google Bücher|Google Books]])</ref>).<br />
<br />
== Verallgemeinerung ==<br />
Bisher wurden die Stützstellen <math>x_i</math> des Interpolationspolynoms <math>P</math> als paarweise verschieden angenommen. Bei der [[Hermiteinterpolation]] ist das nicht der Fall. An mehrfach vorkommenden Stützstellen werden dabei nicht nur die Funktionswerte, sondern auch die Werte der Ableitungen des Interpolationspolynoms vorgegeben.<br />
<br />
== Literatur ==<br />
* Hans R. Schwarz, Norbert Köckler: ''Numerische Mathematik''. 5. Aufl. Teubner, Stuttgart 2004, ISBN 3-519-42960-8<br />
<br />
* {{Literatur <br />
|Autor=Stoer, Bulirsch<br />
|Titel=Numerische Mathematik 1<br />
|Auflage=10.<br />
|Verlag=Springer Verlag<br />
|Ort=Berlin, Heidelberg, New York<br />
|Datum=2007<br />
|ISBN=978-3-540-45389-5<br />
|Kapitel=2.1 Interpolation durch Polynome<br />
|Seiten=39-57<br />
|Kommentar=Behandelt die Verfahren nach Lagrange, Neville-Aitken und Newton, Hermite-Interpolation und Fehlerabschätzung jeweils mit Beispielen und Beweisen.}}<br />
* {{Literatur <br />
|Autor=Press, Teukolsky, Vetterling, Flannery<br />
|Titel=Numerical Recipes<br />
|TitelErg=The Art of Scientific Computing<br />
|Auflage=3.<br />
|Verlag=Cambridge University Press<br />
|Ort=Cambridge<br />
|Datum=2007<br />
|ISBN=978-0-521-88407-5<br />
|Kapitel=3.2 Polynomial Interpolation and Extrapolation<br />
|Seiten=118-120<br />
|Kommentar=Neville-Aitken-Algorithmus mit C++-Implementation}}<br />
* {{Literatur<br />
|Autor=Carl Runge<br />
|Hrsg=<br />
|Titel=Über empirische Funktionen und die Interpolation zwischen äquidistanten Ordinaten<br />
|Sammelwerk=Zeitschrift für Mathematik und Physik<br />
|Band=46<br />
|Verlag=B. G. Teubner<br />
|Ort=Leipzig<br />
|Datum=1901<br />
|Seiten=224–243<br />
|Kommentar=Runge-Phänomen<br />
|Online=http://iris.univ-lille1.fr/handle/1908/2014}}<br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik|Dividierte Differenzen & Horner-Schema|Implementierungen in der Algorithmensammlung}}<br />
* [http://www.mathe-online.at/materialien/Andreas.Pester/files/applets/Interpolation/ Seite zu Newton, Lagrange und Cubic Spline] mit Java-Applet<br />
* [http://matheplanet.com/default3.html?call=article.php?sid=977 Erläuterungen und Beispiel zur Lagrange-Interpolation]<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie der Polynome]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Polynominterpolation&diff=168814911Polynominterpolation2017-09-05T20:06:12Z<p>HerrHartmuth: /* Bestimmung der Koeffizienten: Schema der dividierten Differenzen */ Verbindung zwischen gleichen Stützstellen und dividierten Differenzen/Ableitung in Formel gefasst.</p>
<hr />
<div>[[Datei:Polynomial-interpolation.svg|mini|Interpolationspolynom 7.&nbsp;Grades]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] versteht man unter '''Polynominterpolation''' die Suche nach einem [[Polynom]], welches exakt durch vorgegebene Punkte (z.&nbsp;B. aus einer Messreihe) verläuft. Dieses Polynom wird '''Interpolationspolynom''' genannt und man sagt, es [[Interpolation (Mathematik)|interpoliere]] die gegebenen Punkte.<br />
<br />
== Anwendungen ==<br />
Polynome lassen sich sehr leicht integrieren und ableiten. Deswegen tauchen interpolierende Polynome an vielen Stellen in der numerischen Mathematik auf, beispielsweise bei der [[Numerische Integration|numerischen Integration]] und entsprechend bei Verfahren zur numerischen Lösung [[Gewöhnliche Differentialgleichung|gewöhnlicher Differentialgleichungen]].<br />
<br />
== Problemstellung ==<br />
Für <math>n+1</math> gegebene Wertepaare <math>(x_i,\,f_i)</math> mit [[paarweise verschieden]]en [[Stützstelle]]n <math>x_i</math> wird ein Polynom <math>P</math> maximal <math>n</math>-ten Grades gesucht, das alle Gleichungen<br />
:<math>P(x_i) = f_i, \quad i=0,\dotsc,n</math><br />
erfüllt. Ein solches Polynom existiert stets und ist eindeutig bestimmt, wie im Folgenden gezeigt wird.<br />
<br />
Beim Interpolationsproblem ist also <math>P</math> im [[Vektorraum]] <math>\Pi_n</math> der Polynome mit Grad <math>n</math> oder kleiner zu suchen, kurz <math>P \in \Pi_n</math>. Ist <math>\phi_0,\dotsc,\phi_n</math> eine [[Basis (Vektorraum)|Basis]] von <math>\Pi_n</math>, so ergeben die Gleichungen <math>P(x_i) = f_i</math> ein [[lineares Gleichungssystem]] für die Koeffizienten der Basisdarstellung <math>P = \sum_{k=0}^n a_k \phi_k</math>. Da sich ein und dasselbe Polynom aber unterschiedlich darstellen lässt, je nachdem welche Basis für den Vektorraum <math>\Pi_n</math> gewählt wird, kann man ganz verschiedene Gleichungssysteme erhalten. Wählt man für <math>\Pi_n</math> die Standardbasis <math>\left\{x^k\mid 0\le k\le n\right\}</math>, also für <math>P</math> die Darstellung <math>P(x) = \sum_{k=0}^n a_kx^k</math>, so erhält man ein Gleichungssystem mit der [[Vandermonde-Matrix]]:<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & x_0 & \cdots & x_0^n \\<br />
\vdots & \vdots & \ddots & \vdots \\<br />
1 & x_n & \cdots & x_n^n<br />
\end{pmatrix}<br />
\begin{pmatrix}<br />
a_0 \\<br />
\vdots \\<br />
a_n<br />
\end{pmatrix}<br />
= <br />
\begin{pmatrix}<br />
f_0 \\<br />
\vdots \\<br />
f_n<br />
\end{pmatrix}<br />
</math>.<br />
<br />
Diese ist [[Reguläre Matrix|regulär]], wenn die Stützstellen <math>x_i</math> paarweise verschieden sind, das Gleichungssystem lässt sich dann eindeutig lösen. Somit ist die Existenz und Eindeutigkeit des gesuchten Polynoms <math>P \in \Pi_n</math> immer sichergestellt. Trotz der theoretischen Machbarkeit wird diese Art der Interpolation in der Praxis nicht durchgeführt, da die Berechnung der Vandermonde-Matrix aufwendig ist (<math>\mathcal O(n^2)</math>, siehe [[Landau-Symbole]]) und zudem schlecht [[Kondition (Mathematik)|konditioniert]] bei einer ungeeigneten Wahl der Stützstellen.<br />
<br />
== Lösungsverfahren ==<br />
Obiges Gleichungssystem ließe sich beispielsweise mit dem [[Gaußsches Eliminationsverfahren|Gaußschen Eliminationsverfahren]] lösen. Der Aufwand dafür ist mit <math>\mathcal O(n^3)</math> allerdings vergleichsweise groß. Bei Wahl einer anderen Basis als der Standardbasis zur Beschreibung des Polynoms <math>P</math> kann der Aufwand verringert werden.<br />
<br />
=== Lagrangesche Interpolationsformel ===<br />
[[File:Lagrangesche Basisfunktionen.svg|thumb|Beispielhafte lagrangesche Basisfunktionen für x<sub>0</sub> = 0, x<sub>1</sub> = 1, x<sub>2</sub> = 2, x<sub>3</sub> = 3 (n = 3)]]<br />
Eher für theoretische Betrachtungen günstig ist eine Darstellung in der [[Joseph-Louis Lagrange|Lagrange]]-Basis. Die Basisfunktionen sind die ''Lagrange-Polynome''<br />
<br />
:<math>\ell_i(x) = \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{x-x_j}{x_i-x_j}=\frac{x-x_0}{x_i-x_0}\cdots\frac{x-x_{i-1}}{x_i-x_{i-1}}\cdot\frac{x-x_{i+1}}{x_i-x_{i+1}}\cdots\frac{x-x_n}{x_i-x_n} \, ,</math><br />
<br />
die so definiert sind, dass<br />
<br />
:<math>\ell_i(x_k) = \delta_{ik} = \left\{\begin{matrix}<br />
1 & \mbox{falls } i=k \\<br />
0 & \mbox{falls } i \neq k \, ,<br />
\end{matrix}\right.</math><br />
gilt, wobei <math>\delta_{ik}</math> das [[Kronecker-Delta]] darstellt. Damit entspricht die Matrix <math>\left(\ell_i\left(x_j\right)\right)_{i,j=0,1,\ldots,n}</math> genau der [[Einheitsmatrix]].<br />
Die Lösung des Interpolationsproblems lässt sich dann einfach angeben als<br />
<br />
:<math>P(x) = \sum_{i=0}^n f_i\ell_i\left(x\right) \, ,</math><br />
<br />
mit den [[Stützwert]]en <math>f_i</math>. Dies wird häufig benutzt, um die Existenz der Lösung des Interpolationsproblems zu beweisen. Ein Vorteil der Lagrange-Basis ist somit, dass die Basisfunktionen <math>\ell_i</math> von den Stützwerten <math>f_i</math> unabhängig sind. Dadurch lassen sich verschiedene Sätze von Stützwerten <math>f_i</math> mit gleichen Stützstellen <math>x_i</math> schnell interpolieren, wenn die Basisfunktionen <math>\ell_i</math> einmal bestimmt worden sind. Ein Nachteil dieser Darstellung ist jedoch, dass alle Basisvektoren bei Hinzunahme einer einzelnen Stützstelle komplett neu berechnet werden müssen, weshalb dieses Verfahren für die meisten praktischen Zwecke zu aufwendig ist.<br />
<br />
=== Baryzentrische Interpolationsformel ===<br />
Die Lagrangesche Interpolationsformel kann umgeformt werden in die praktisch relevantere ''Baryzentrische Interpolationsformel''<br />
:<math><br />
P(x) = \frac{\sum_{j=0}^n \frac{\lambda_j f_j}{x-x_j} }<br />
{\sum_{j=0}^n \frac{\lambda_j}{x-x_j} } \, ,<br />
</math><br />
wobei die ''Baryzentrischen Gewichte'' wiefolgt definiert sind<br />
:<math><br />
\lambda_j := \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{1}{x_j - x_i} \, .<br />
</math><br />
<br />
Für vorgegebene Stützstellen <math>(x_i)_i</math> können die Gewichte <math>(\lambda_i)_i</math> vorberechnet werden, sodass der Aufwand für die Auswertung von <math>P(x)</math> nur noch bei <math>\mathcal{O}(n)</math> liegt.<br />
Beim Hinzufügen einer neuen Stützstelle müssen die Gewichte neubestimmt werden.<br />
Dies hat einen Aufwand von <math>\mathcal{O}(n)</math> im Vergleich zum Neubestimmen der Lagrangepolynome von <math>\mathcal{O}(n^2)</math>.<br />
<br />
=== Newtonscher Algorithmus ===<br />
In diesem Verfahren wird das Polynom <math>P</math> in Newton-Basis dargestellt, so dass die Koeffizienten [[Effizienz (Informatik)|effizient]] mit dem [[#Bestimmung der Koeffizienten: Schema der dividierten Differenzen|Schema der dividierten Differenzen]] bestimmt werden können. Eine effiziente Auswertung des Polynoms kann dann mithilfe des [[#Auswertung des Polynoms: Horner-Schema|Horner-Schemas]] erfolgen.<br />
<br />
==== Ansatz: Newton-Basis ====<br />
Als Ansatz für das gesuchte Interpolationspolynom <math>P</math> wählt man die Newton-Basisfunktionen <math>N_0(x)=1</math> und <math>\textstyle N_i(x) = \prod_{j=0}^{i-1}\left(x-x_j\right)=\left(x-x_0\right)\cdots\left(x-x_{i-1}\right)</math> mit <math>i=1,\ldots ,n</math>, so dass <math>P</math> dargestellt wird mit der Newtonschen Interpolationsformel<br />
<br />
:<math>P(x)=\sum_{i=0}^n c_i\cdot N_i(x)=c_0+c_1 \left(x-x_0\right)+c_2 \left(x-x_0\right) \left(x-x_1\right)+\dotsb+c_n\left(x-x_0\right)\dotsm \left(x-x_{n-1}\right)</math><br />
<br />
Das Gleichungssystem der Gleichungen <math>P(x_i) = f_i</math> hat dann die Form<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & & & & 0 \\<br />
1 & (x_1 - x_0) & & & \\<br />
1 & (x_2 - x_0) & (x_2 - x_0)(x_2 - x_1) & & \\<br />
\vdots & \vdots & & \ddots & \\<br />
1 & (x_n - x_0) & \cdots & & \prod_{i=0}^{n-1}(x_n - x_i) \\<br />
\end{pmatrix}<br />
\cdot<br />
\begin{pmatrix} c_0 \\ \vdots \\ c_n \end{pmatrix}<br />
= \begin{pmatrix} f_0 \\ \vdots \\ f_n \end{pmatrix}<br />
</math><br />
<br />
Im Gegensatz zur komplizierten [[Vandermonde-Matrix]] bei Wahl der Standardbasis <math>\{x^k|0 \le k \le n\}</math> erhält man bei Wahl der Newton-Basis also eine einfach strukturierte [[untere Dreiecksmatrix]] und das Gleichungssystem lässt sich einfach lösen.<br />
<br />
==== Bestimmung der Koeffizienten: Schema der dividierten Differenzen ====<br />
Die Koeffizienten <math>c_i</math> werden aber nicht direkt aus dem obigen Gleichungssystem bestimmt, sondern effizienter mithilfe der dividierten Differenzen. Durch Induktion beweist man mit der [[#Algorithmus von Neville-Aitken|Rekursionsformel von Aitken]], dass für die Koeffizienten <math>c_i</math> gilt<br />
<br />
:<math>c_i = [x_0, \dotsb, x_i]f</math>.<br />
<br />
Dabei sind für <math>i<j</math> die dividierten Differenzen <math>[x_i, \dotsc, x_j]f</math> rekursiv definiert durch<br />
<br />
:<math>[x_i]f = f_i \qquad</math><br />
:<math>[x_i,\dotsc,x_j]f = \frac {[x_{i+1},\dotsc,x_j]f-[x_i,\dotsc,x_{j-1}]f}{x_j - x_i}</math>.<br />
<br />
Die Notation mit angehängtem <math>f</math> erklärt sich dadurch, dass oft eine unbekannte Funktion <math>f</math> angenommen wird, die bei bekannten Funktionswerten <math>f_i = f(x_i)</math> interpoliert werden soll.<br />
<br />
Die rekursive Berechnung der dividierten Differenzen lässt sich wie folgt veranschaulichen. Dabei sind die gesuchten Koeffizienten <math>c_i</math> genau die oberste Schrägzeile:<br />
<br />
<!-- [[Datei:Polynominterpolation_Schema_dividierte_Differenzen.jpg]] --><br />
:<math>\begin{array}{crcrccrcrc}<br />
[x_0]f \\<br />
& \searrow \\{}<br />
[x_1]f & \rightarrow & [x_0,x_1]f \\<br />
& \searrow & & \searrow \\{}<br />
[x_2]f & \rightarrow & [x_1,x_2]f & \rightarrow & [x_0,x_1,x_2]f \\{}<br />
\vdots & \vdots & \vdots & \vdots & \vdots &\ddots \\{}<br />
& \searrow & & \searrow & & & \searrow \\{}<br />
[x_{n-1}]f & \rightarrow & [x_{n-2},x_{n-1}]f & \rightarrow & [x_{n-3},x_{n-2},x_{n-1}]f<br />
& \cdots & \rightarrow & [x_0\ldots x_{n-1}]f \\<br />
& \searrow & & \searrow & & & \searrow && \searrow\\{}<br />
[x_n]f & \rightarrow & [x_{n-1},x_n]f & \rightarrow & [x_{n-2},x_{n-1},x_n]f<br />
& \cdots & \rightarrow & [x_1\ldots x_n]f & \rightarrow & [x_0\ldots x_n]f<br />
\end{array}</math><br />
<br />
Offensichtlich ist bei Ergänzung der <math>n+1</math> Wertepaare <math>(x_i, f_i)</math> um einen weiteren Punkt <math>(x_{n+1}, f_{n+1})</math> in obigem Schema nur eine weitere Zeile hinzuzufügen, um den zusätzlichen Koeffizienten <math>c_{n+1} = [x_0, \dotsc, x_{n+1}]f</math> zu berechnen. Die zuvor bestimmten Koeffizienten <math>c_0, \dotsc, c_n</math> müssen nicht neu berechnet werden.<br />
<br />
Alternativ zur obigen rekursiven Definition wird zum Beispiel in einem der Artikel von Marsden<ref>Martin J. Marsden: An Identity for Spline Functions with Applications to Variation-Diminishing Spline Approximation. Journal of Approximation Theory 3, 7-49 (1970).</ref> die ''dividierte Differenz'' <math>[x_0,\ldots,x_n]f</math> einer hinreichend oft differenzierbaren Funktion <math>f</math> als der eindeutige Koeffizient zur höchsten Potenz von <math>x</math> eines Polynoms <math>n</math>-ten Grads <math>p(x)</math> definiert, das <math>f</math> an den Stellen <math>x_0,\ldots,x_n</math> interpoliert. Tritt dabei ein Wert in der Sequenz <math>x_0,\ldots,x_n</math> mit der Vielfachheit <math>\nu\geq 1</math> auf, so sollen die Ableitungen des Polynoms die Ableitungen der Funktion <math>f</math> an dieser Stelle bis zur Ordnung <math>\nu-1</math> interpolieren.<br />
Es gilt somit<br />
:<math><br />
[x_0,\dotsc,x_k]f = \frac{ f^{(k)}(x^*) }{k!} <br />
\qquad \text{falls} \quad<br />
x^* := x_0 = \ldots = x_k \, .<br />
</math><br />
<br />
==== Auswertung des Polynoms: Horner-Schema ====<br />
Wenn die Koeffizienten <math>c_i</math> des Interpolationspolynoms <math>P</math> einmal bekannt sind, kann man es effizient mithilfe des [[Horner-Schema]]s auswerten. Dazu schreibt man <math>P</math> in der Form (einfache Umformung der Newtonschen Interpolationsformel)<br />
<br />
:<math>P(x) = \left(\cdots\left(c_n(x - x_{n-1}\right) + c_{n-1})(x - x_{n-2}) + \dotsb + c_1\right)(x - x_0) + c_0</math>,<br />
<br />
so dass <math>P(x)</math> rekursiv berechnet werden kann durch<br />
<br />
:<math>\begin{align}<br />
b_n & = c_n \\<br />
b_i & = b_{i+1}(x - x_i) + c_i, \qquad i = n - 1, \dotsc, 0 \\<br />
P(x) & = b_0<br />
\end{align}</math><br />
<br />
Dies erfordert einen Aufwand von <math>\mathcal{O}(n)</math>.<br />
<br />
=== Algorithmus von Neville-Aitken ===<br />
Ähnlich wie im [[#Newtonscher Algorithmus|Newtonschen Algorithmus]] wird beim Algorithmus von Neville-Aitken die Lösung rekursiv berechnet. Dazu bezeichne <math>p\left(f|x_i...x_{j}\right)</math> das eindeutig bestimmte Interpolationspolynom <math>k</math>-ten Grades zu den <math>k+1</math> [[Stützstelle|Stützpunkten]] <math>(x_{i}, f_{i}), \dots, (x_{j}, f_{j})</math>, wobei <math>k=j-i</math> ist. Es gilt dann die Rekursionsformel von Aitken:<br />
<br />
:<math>\begin{align}p(f|x_i)(x) & \equiv f_i, \\<br />
p(f|x_i, \dotsc, x_{j})(x) & \equiv \frac{(x - x_i)p(f|x_{i+1}, \dotsc, x_{j})(x) - (x - x_{j})p(f|x_{i}, \dotsc, x_{j-1})(x)}{x_{j}-x_{i}}.\end{align}</math><br />
<br />
Beweisen lässt sie sich durch Einsetzen von <math>x_i</math>, wodurch man verifiziert, dass die rechte Seite der Gleichung die Interpolationsbedingung erfüllt. Die Eindeutigkeit des Interpolationspolynoms liefert dann die Behauptung.<br />
<br />
Mit dem Schema von Neville kann die Auswertung von <math>p(f|{x_0, \dotsc, x_n})(x) = P(x)</math> dann rekursiv erfolgen:<br />
<br />
<!-- [[Datei:Polynominterpolation Schema von Neville.jpg]] --><br />
<math>\begin{array}{crcrccrcrc}<br />
p(f|x_{0})\\<br />
& \searrow\\<br />
p(f|x_{1}) & \rightarrow & p(f|x_{0},x_{1})\\<br />
& \searrow & & \searrow\\<br />
p(f|x_{2}) & \rightarrow & p(f|x_{1},x_{2}) & \rightarrow & p(f|x_{0},x_{1},x_{2})\\<br />
\vdots & & \vdots & & \vdots & \ddots\\<br />
& \searrow & & \searrow & & & \searrow\\<br />
p(f|x_{n-1}) & \rightarrow & p(f|x_{n-2},x_{n-1}) & \rightarrow & p(f|x_{n-3},x_{n-2},x_{n-1}) & \cdots & \rightarrow & p(f|x_{0},\dots,x_{n-1})\\<br />
& \searrow & & \searrow & & & \searrow & & \searrow\\<br />
p(f|x_{n}) & \rightarrow & p(f|x_{n-1},x_{n}) & \rightarrow & p(f|x_{n-2},x_{n-1},x_{n}) & \cdots & \rightarrow & p(f|x_{1},\dots,x_{n}) & \rightarrow & p(f|x_{0},\dots,x_{n})<br />
\end{array}</math><br />
<br />
=== Vergleich der Lösungsverfahren ===<br />
Möchte man alle Koeffizienten des Interpolationspolynoms <math>P</math> bestimmen, so bietet der Newtonsche Algorithmus hierfür den geringsten notwendigen Aufwand von <math>\mathcal O(n^2)</math>. Das so bestimmte Polynom lässt sich dann mit <math>\mathcal O(n)</math> Operationen an einer Stelle auswerten. Darum ist der Newtonsche Algorithmus gut geeignet, wenn das Interpolationspolynom an vielen Stellen ausgewertet werden soll. Auch lassen sich effizient weitere Stützpunkte hinzufügen. Liegen die Stützstellen oder die Stützwerte allerdings zu nahe beieinander, so besteht die Gefahr der [[Auslöschung (numerische Mathematik)|Auslöschung]] bei der Bestimmung der dividierten Differenzen.<br />
<br />
Der Neville-Aitken-Algorithmus ist dagegen gut geeignet, wenn ein Interpolationspolynom nur an ganz wenigen Stellen ausgewertet werden soll, dabei ist er weniger anfällig gegen Auslöschung. Auch im Neville-Aitken-Algorithmus lassen sich effizient neue Stützpunkte hinzufügen. So kann z.&nbsp;B. eine gewünschte Genauigkeit der Interpolation an einer Stelle durch Hinzufügen immer weiterer Stützstellen erreicht werden.<br />
<br />
=== Beispiel: Interpolation der Tangensfunktion ===<br />
[[Datei:Interpolation der Tangensfunktion.svg|miniatur|300x300px|Tangensfunktion (blau) und ihre Polynominterpolante dritten Grades (rot)]]<br />
Interpoliere die Funktion <math>f(x) = \tan(x)</math> bei gegebenen Punkten<br />
{| class="wikitable"<br />
|<math>x_0 = -1{,}5</math><br />
|<math>f(x_0) = -14{,}101420</math><br />
|-<br />
|<math>x_1 = -0{,}75</math><br />
|<math>f(x_1) = -0{,}931596</math><br />
|-<br />
|<math>x_2 = 0</math><br />
|<math>f(x_2) = 0</math><br />
|-<br />
|<math>x_3 = 0{,}75</math><br />
|<math>f(x_3) = 0{,}931596</math><br />
|-<br />
|<math>x_4 = 1{,}5</math><br />
|<math>f(x_4) = 14{,}101420</math><br />
|}<br />
<br />
==== Lösung mit Lagrange ====<br />
Die Lagrange-Basisfunktionen sind<br />
:<math>\begin{align}<br />
\ell_0(x)&={x - x_1 \over x_0 - x_1}\cdot{x - x_2 \over x_0 - x_2}\cdot{x - x_3 \over x_0 - x_3}\cdot{x - x_4 \over x_0 - x_4}<br />
={1\over 243} x (2x-3)(4x-3)(4x+3)\\<br />
\ell_1(x)&= {x - x_0 \over x_1 - x_0}\cdot{x - x_2 \over x_1 - x_2}\cdot{x - x_3 \over x_1 - x_3}\cdot{x - x_4 \over x_1 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x-3)\\<br />
\ell_2(x)&={x - x_0 \over x_2 - x_0}\cdot{x - x_1 \over x_2 - x_1}\cdot{x - x_3 \over x_2 - x_3}\cdot{x - x_4 \over x_2 - x_4}<br />
={3\over 243} (2x+3)(4x+3)(4x-3)(2x-3)\\<br />
\ell_3(x)&={x - x_0 \over x_3 - x_0}\cdot{x - x_1 \over x_3 - x_1}\cdot{x - x_2 \over x_3 - x_2}\cdot{x - x_4 \over x_3 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x+3)\\<br />
\ell_4(x)&={x - x_0 \over x_4 - x_0}\cdot{x - x_1 \over x_4 - x_1}\cdot{x - x_2 \over x_4 - x_2}\cdot{x - x_3 \over x_4 - x_3}<br />
={1\over 243} x (2x+3)(4x-3)(4x+3)<br />
\end{align}</math><br />
<br />
also ist das Interpolationspolynom<br />
<br />
:<math> \begin{align}P_\text{Lagrange}(x) =& \tfrac1{243}\big(f(x_0)x (2x-3)(4x-3)(4x+3) \\<br />
& \qquad{} - 8f(x_1)x (2x-3)(2x+3)(4x-3) \\<br />
& \qquad{} + 3f(x_2)(2x+3)(4x+3)(4x-3)(2x-3) \\<br />
& \qquad{} - 8f(x_3)x (2x-3)(2x+3)(4x+3) \\<br />
& \qquad{} + f(x_4)x (2x+3)(4x-3)(4x+3)\big)\\<br />
=& - 1{,}477474x + 4{,}834848x^3<br />
\end{align} </math><br />
<br />
==== Lösung mit Newton ====<br />
Die dividierten Differenzen sind hier<br />
<br />
: <math>\begin{array}{rrrrrr}<br />
x_i & f(x_i) & & & &\\<br />
-1{,}50& -14{,}10140& & & &\\<br />
& & & & &\\<br />
-0{,}75& -0{,}931596&{-0{,}931596-(-14{,}1014) \over -0{,}75-(-1{,}5)}=17{,}5597& & &\\<br />
& & & & &\\<br />
0{,}00 & 0{,}00000 &{0-(-0{,}931596) \over 0 - (-0{,}75)}=1{,}24213 &{1{,}24213-17{,}5597 \over 0-(-1{,}5) }=-10{,}8784& &\\<br />
& & & & &\\<br />
0{,}75 & 0{,}931596 &{0{,}931596 - 0 \over 0{,}75-0}=1{,}24213 &{1{,}24213-1{,}24213 \over 0{,}75-(-0{,}75)}=0{,}00000 &{0 - (-10{,}8784) \over 0{,}75-(-1{,}5)}=4{,}83484&\\<br />
& & & & &\\<br />
1{,}50 & 14{,}10140 &{14{,}10140-0{,}931596 \over 1{,}5 - 0{,}75}=17{,}5597 &{17{,}5597-1{,}24213 \over 1{,}5-0}=10{,}8784 &{10{,}8784-0 \over 1{,}5-(-0{,}75)}=4{,}83484 &{4{,}83484-4{,}83484 \over 1{,}5-(-1{,}5)}=0\\<br />
\end{array}</math><br />
<br />
und das Interpolationspolynom ist<br />
<br />
:<math>\begin{align}P_\text{Newton}(x) =& -14{,}1014+17{,}5597(x+1{,}5)-10{,}8784(x+1{,}5)(x+0{,}75) \\<br />
& {} +4{,}83484(x+1{,}5)(x+0{,}75)x+0(x+1{,}5)(x+0{,}75)x(x-0{,}75)\\<br />
=& -0{,}00005-1{,}4775x-0{,}00001x^2+4{,}83484x^3\end{align}</math><br />
<br />
Verwendet man genauere Startwerte <math>f(x_i)</math>, verschwinden der erste und der dritte Koeffizient.<br />
<br />
== Interpolationsgüte ==<br />
=== Fehlerabschätzung ===<br />
Gegeben sei eine Funktion <math>f</math>, deren <math>n+1</math> Funktionswerte <math>f_i</math> an den Stellen <math>x_i</math> durch das Polynom <math>P</math> interpoliert werden. Mit <math>I</math> sei das kleinste Intervall bezeichnet, das die Stützstellen <math>x_i</math> und eine Stelle <math>x</math> enthält. Ferner sei <math>f</math> (<math>n+1</math>)-mal stetig differenzierbar auf <math>I</math>. Dann existiert ein <math>\xi \in I</math>, für das gilt:<br />
<br />
:<math>f(x) - P(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
Insbesondere ist also bezüglich der [[Maximumsnorm]] auf <math>[a,b]</math> und mit <math>w_n(x) = \prod_{i=0}^n (x-x_i)</math>:<br />
:<math>|f(x)-P(x)| \leq\frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \prod_{i=0}^n |x-x_i| \leq \frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \|w_n\|_\infty</math><br />
<br />
=== Fehleroptimierung nach Tschebyschow<ref>{{Cite book<br />
| edition = 1<br />
| publisher = Vieweg Studium, Nr.32, Vieweg Verlagsgesellschaft<br />
| isbn = 3-528-07232-6<br />
| last = Werner<br />
| first = Jochen<br />
| title = Numerische Mathematik<br />
| date = 1992<br />
| chapter = 10.4<br />
}}<br />
* Auch [http://www.sam.math.ethz.ch/~hiptmair/tmp/NCSE_full.pdf hier] (4.1.3.; PDF-Datei; 11,68&nbsp;MB)</ref>===<br />
[[Datei:T30.svg|mini|Für größere <math>n</math> clustern die Tschebyschow-Punkte an den Intervallrändern.]]<br />
Der Fehler hängt also von einer Ableitung von <math>f</math> ab und von dem Produkt <math>w_n(x):=\prod_{i=0}^n (x-x_i)</math>, also den Stützstellen <math>x_i</math>. Manchmal ist man in der Position, dass man sich Stützstellen selbst wählen kann; etwa, wenn man ein physikalisches Experiment durchführt, oder aber auch bei einigen Verfahren zur numerischen Lösung von [[Differentialgleichung]]en. In diesem Fall ist die Frage interessant, für welche Stützstellen die Maximumsnorm <math>\|w_n\|_{\infty}</math> minimal wird.<br />
<br />
[[Pafnuti Lwowitsch Tschebyschow|Tschebyschow]] hat gezeigt, dass die Nullstellen der [[Tschebyschow-Polynom]]e („Tschebyschow-Punkte“) optimale Stützstellen sind. Die Polynome <math>T_{n+1}(x)=\cos((n+1) \arccos(x) )</math> haben die Nullstellen <math>t_k=\cos\left(\frac{2k+1}{2n+2} \pi\right)</math> <math>k\in\{0,1,\dotsc,n\}</math>. Die ersten Tschebyschow-Polynome sind:<br />
:<math>\begin{align}<br />
T_2(x)= 2x^2-1, &&& T_3(x)= 4x^3-3x, &&& T_4(x)=8x^4-8x^2+1<br />
\end{align}</math><br />
Man kann dann beweisen, dass jedes Polynom der Form <math>w_n</math> auf dem Intervall <math>[-1,1]</math> durch ein normiertes Tschebyschow-Polynom beschränkt bleibt. Diese Aussage kann dann mit der Transformation<br />
:<math>\begin{align}<br />
\xi\in[-1,1] &\rightsquigarrow x=\frac{a+b}{2}+\frac{b-a}{2}\xi &\in [a,b] \\<br />
x\in[a,b] &\rightsquigarrow \xi = \frac{2x-a-b}{b-a} &\in [-1,1]<br />
\end{align}</math><br />
auf den Fall eines allgemeinen Intervalls <math>[a,b]\subset\mathbb{R}</math> übertragen werden. Der Beweis liefert auch die Abschätzung<br />
:<math>\begin{align}<br />
\|w_n\|_{[a,b],\infty} =\max_{x\in[a,b]} |w_n(x)| =2\left(\frac{b-a}{4}\right)^{n+1}.<br />
\end{align}</math><br />
<br />
=== Runges Phänomen ===<br />
[[File:Interpolation der Runge-Funktion (n=5).svg|thumb|Interpolation der Rungefunktion bei 6 äquidistanten Stützstellen (rote Punkte)]]<br />
[[File:Myplot p2.svg|thumb|Interpolation der Rungefunktion bei 11 äquidistanten Stützstellen (rote Punkte)]]<br />
<br />
Verbessert sich die Interpolationsgüte, wenn mehr Stützpunkte hinzugefügt werden? Im Allgemeinen nicht: Bei hohem Grad des Polynoms kann es vorkommen, dass die Polynomfunktion kaum noch der zu interpolierenden Funktion ähnelt, was auch als ''[[Carl Runge|Runges]] Phänomen'' bekannt ist. Polynome streben im Grenzfall <math>x\to \pm \infty</math> gegen <math>\pm\infty</math>. Verhält sich die zu interpolierende Funktion anders, etwa periodisch oder asymptotisch konstant, treten starke Oszillationen in der Nähe der Intervallgrenzen auf. Für solche Funktionen sind Polynominterpolationen über das gesamte Intervall relativ ungeeignet.<br />
<br />
Tschebyschow-Stützstellen, die an den Intervallgrenzen dichter liegen, können zwar den Gesamtfehler der Interpolation verkleinern, dennoch empfiehlt sich ein Wechsel des Interpolationsverfahrens, etwa zur [[Spline-Interpolation]]. Runge gab für dieses Phänomen ein Beispiel an, die nach ihm benannte Runge-Funktion:<br />
<br />
:<math>f(x)=\frac{1}{1+x^2}\,,\quad x\in[-5;5]</math><br />
<br />
=== Konvergenzverhalten ===<br />
Es gibt aber Bedingungen, unter denen sich die Interpolationsgüte mit steigender Anzahl von Stützpunkten verbessert: Wenn das Stützstellengitter immer „feiner“ wird und eine [[analytische Funktion]] interpoliert wird. Genauer: Sei <math>f</math> eine analytische Funktion auf dem Intervall <math>I=[a,b] \subset \R</math>. Für eine Intervallteilung<br />
<br />
:<math>\Delta_m = \{a=x_0^{(m)} < x_1^{(m)} < \dotsb < x_{n_m}^{(m)}=b\}, \qquad m\in \N</math><br />
<br />
sei ihre [[Norm (Mathematik)|Norm]] definiert durch<br />
<br />
:<math>\|\Delta_m\| = \max_i|x_{i+1}^{(m)} - x_i^{(m)}|.</math><br />
<br />
Zu jeder Intervallteilung <math>\Delta_m</math> gibt es ein eindeutig bestimmtes Polynom <math>P_{\Delta_m}</math>, das <math>f</math> an den Stützstellen <math>\Delta_m</math> interpoliert. Gilt für eine Folge von Intervallteilungen <math>\|\Delta_m\| \rightarrow 0</math>, so folgt <math>P_{\Delta_m} \rightarrow f</math> [[Gleichmäßige Konvergenz|gleichmäßig]].<br />
<br />
Allerdings lässt sich zu ''jeder'' Folge <math>\{\Delta_m\}_{m \in \N}</math> auch eine auf <math>I</math> stetige Funktion <math>f</math> finden, so dass <math>\{P_{\Delta_m}\}_{m \in \N}</math> ''nicht'' gleichmäßig gegen <math>f</math> konvergiert (Satz von [[Georg Faber|Faber]]<ref>{{Cite book<br />
| edition = 1<br />
| publisher = [[Birkhäuser Verlag|Birkhäuser]]<br />
| isbn = 3-7643-5845-9<br />
| last = [[Andrei Nikolajewitsch Kolmogorow|Kolmogorow]], et al.<br />
| first = Andrei Nikolajewitsch<br />
| title = Mathematics of the 19th Century<br />
| date = 1998<br />
| chapter = 4<br />
}}<br />
* Auch [http://books.google.de/books?id=Mw6JMdZQO-wC&pg=PA277&lpg=PA277&dq=satz+faber+1914+(1877-1966)&source=bl&ots=N-yWl0pxi2&sig=lBBUKHD9uQdvmUR_oJ9FicSKNAg&hl=de&ei=pu90TrzLJNHAtAbr3-mSCw&sa=X&oi=book_result&ct=result&resnum=5&ved=0CEIQ6AEwBA#v=onepage&q&f=false hier] ([[Google Bücher|Google Books]])</ref>).<br />
<br />
== Verallgemeinerung ==<br />
Bisher wurden die Stützstellen <math>x_i</math> des Interpolationspolynoms <math>P</math> als paarweise verschieden angenommen. Bei der [[Hermiteinterpolation]] ist das nicht der Fall. An mehrfach vorkommenden Stützstellen werden dabei nicht nur die Funktionswerte, sondern auch die Werte der Ableitungen des Interpolationspolynoms vorgegeben.<br />
<br />
== Literatur ==<br />
* Hans R. Schwarz, Norbert Köckler: ''Numerische Mathematik''. 5. Aufl. Teubner, Stuttgart 2004, ISBN 3-519-42960-8<br />
<br />
* {{Literatur <br />
|Autor=Stoer, Bulirsch<br />
|Titel=Numerische Mathematik 1<br />
|Auflage=10.<br />
|Verlag=Springer Verlag<br />
|Ort=Berlin, Heidelberg, New York<br />
|Datum=2007<br />
|ISBN=978-3-540-45389-5<br />
|Kapitel=2.1 Interpolation durch Polynome<br />
|Seiten=39-57<br />
|Kommentar=Behandelt die Verfahren nach Lagrange, Neville-Aitken und Newton, Hermite-Interpolation und Fehlerabschätzung jeweils mit Beispielen und Beweisen.}}<br />
* {{Literatur <br />
|Autor=Press, Teukolsky, Vetterling, Flannery<br />
|Titel=Numerical Recipes<br />
|TitelErg=The Art of Scientific Computing<br />
|Auflage=3.<br />
|Verlag=Cambridge University Press<br />
|Ort=Cambridge<br />
|Datum=2007<br />
|ISBN=978-0-521-88407-5<br />
|Kapitel=3.2 Polynomial Interpolation and Extrapolation<br />
|Seiten=118-120<br />
|Kommentar=Neville-Aitken-Algorithmus mit C++-Implementation}}<br />
* {{Literatur<br />
|Autor=Carl Runge<br />
|Hrsg=<br />
|Titel=Über empirische Funktionen und die Interpolation zwischen äquidistanten Ordinaten<br />
|Sammelwerk=Zeitschrift für Mathematik und Physik<br />
|Band=46<br />
|Verlag=B. G. Teubner<br />
|Ort=Leipzig<br />
|Datum=1901<br />
|Seiten=224–243<br />
|Kommentar=Runge-Phänomen<br />
|Online=http://iris.univ-lille1.fr/handle/1908/2014}}<br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik|Dividierte Differenzen & Horner-Schema|Implementierungen in der Algorithmensammlung}}<br />
* [http://www.mathe-online.at/materialien/Andreas.Pester/files/applets/Interpolation/ Seite zu Newton, Lagrange und Cubic Spline] mit Java-Applet<br />
* [http://matheplanet.com/default3.html?call=article.php?sid=977 Erläuterungen und Beispiel zur Lagrange-Interpolation]<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie der Polynome]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Diskussion:Polynominterpolation&diff=168814647Diskussion:Polynominterpolation2017-09-05T19:55:19Z<p>HerrHartmuth: /* baryzentrische Interpolation */</p>
<hr />
<div>== Diverses ==<br />
Hallo<br />
BASIC algorithm für c(i) arbeitet für lineare Interpolation (von 2 Punkten) nicht!<br />
<br />
Die Interpolation mit Lagrange wird auf der Seite doppelt beschrieben. Einmal sollte eigentlich reichen ;)<br />
Wenn möglich sollte hier zusammengefasst werden.<br />
:Ich habs einfach gelöscht. Der Abschnitt zur Lagrange-Interpolation könnte zwar noch etwas erweitert werden, dazu braucht man das Beispiel allerdings nicht. Danke für den Hinweis. --[[Benutzer:P. Birken|P. Birken]] 23:28, 20. Jun 2006 (CEST)<br />
<br />
::Naja, andererseits hat mir das Beispiel der Lagrange-Interpolation beim Verständnis geholfen, was das Lagrange-Polynom überhaupt ist und welche Eigenschaften es für die Interpolation so nützlich machen. Eine allgemeine Darstellung gibt es hier ja leider nicht, wenn man "Lagrange-Polynom" eingibt, wird man sofort zu "Polynominterpolation" weitergeleitet.<br />
:::Das ist schon richtig, wir schreiben aber kein Lehrbuch. Die Idee der Lagrange-Polynome kann durchaus noch genauer erklärt werden, das entfernte Beispiel ist als Textgrundlage aber IMHO nicht geeignet. --[[Benutzer:P. Birken|P. Birken]] 09:22, 22. Jun 2006 (CEST)<br />
<br />
Warum braucht man den Fundamentalsatz der Algebra für Existenz und<br />
Eindeutigkeit des Polynoms? Die gelten doch beide in beliebigen <br />
Körpern (denn für die Existenz ist die Formel von Lagrange in allen<br />
Körpern anwendbar und die Eindeutigkeit kommt daher, dass das<br />
Differenzpolynom zweier solcher Polynome höchstens vom Grad n ist <br />
und n+1 Nullstellen hat).<br />
:Ich habs mal überarbeitet. --[[Benutzer:P. Birken|P. Birken]] 20:08, 18. Sep 2006 (CEST)<br />
<br />
OK, aber selbst für die Eindeutigkeit braucht<br />
man ihn doch nicht: <br />
Seien p,q Polynome über dem Körper K vom Grad n,<br />
die an n+1 Stellen übereinstimmen. Dann ist <br />
f:=p-q höchstens vom Grad n, hat aber n+1<br />
Nullstellen, also f=0. (Mit Induktion nach dem<br />
Grad eines Polynoms zeigt man schließlich leicht,<br />
dass ein Polynom, das nicht das Nullpolynom ist,<br />
höchstens soviele Nullstellen hat, wie sein Grad<br />
angibt).<br />
:Ja und genau das ist auch als Fundamentalsatz der Algebra bekannt. --[[Benutzer:P. Birken|P. Birken]] 08:58, 19. Sep 2006 (CEST)<br />
<br />
Also laut Wikipedia sagt doch der Fundamentalsatz, dass der Körper <br />
der komplexen Zahlen (im Gegensatz z.B. zu den reellen) algebraisch <br />
abgeschlossen ist, dass also dort jedes nichtkonstante Polynom eine <br />
Nullstelle besitzt. Der sagt nur etwas über C aus. Aber man braucht<br />
ihn eben nicht, weil das alles nur einfache (im Gegensatz zum Fund.-Satz)<br />
Argumente benötigt, die überall in Körpern gelten.<br />
<br />
Ich seh schon, dass du das mit dem Fundamentalsatz rausgenommen <br />
hast, obwohl du anscheinend nicht ganz überzeugt bist.<br />
Keine Sorge, ich bin nicht militant, wir können ruhig noch ne <br />
Weile diskutieren :)<br />
<br />
Um das mit den einfachen Argumenten klarzumachen:<br />
Sei p ein Polynom über K vom Grad n mit n+1 verschiedenen Nullstellen. <br />
Dann kann man eine Nullstelle als Linearfaktor abspalten (das geht in <br />
jedem Körper; der Fundamentalsatz sagt: es gibt immer eine Nullstelle <br />
in C, aber allgemein gilt: _wenn_ es eine gibt, kann man sie abspalten). <br />
Also p=q(X-a), wobei q n Nullstellen hat und vom Grad n-1 ist. Führt <br />
man das fort, so erhält man ein Polynom vom Grad 1 mit zwei <br />
Nullstellen, also einen Widerspruch. <br />
(Das ist die einfache Induktion, die ich meinte).<br />
:Du hast das Argument in Kurz (Fundamentalsatz der Algebra - auch mal was anderes Lesen als nur Wikipedia...), jetzt im Artikel in lang hingeschrieben. Entfernt habe ich es nicht, sondern die Argumente nach Eindeutigkeit und Existenz getrennt. Ansonsten tut es mir leid, aber ich verstehe wirklich nicht, was Du mir überhaupt sagen willst. Was ist Dein Punkt? --[[Benutzer:P. Birken|P. Birken]] 23:50, 19. Sep 2006 (CEST)<br />
<br />
Die Änderung, die Erwähnung des Satzes herauszunehmen, war wohl ein anderer Anonymer.<br />
Ich hab keine Änderung am Artikel vorgenommen. Um Verwechslungen auszuschließen, hab <br />
ich mich jetzt mal angemeldet. <br />
<br />
Was ich nur sagen wollte: Den Fundamentalsatz muss man nicht heranziehen um zu <br />
zeigen, dass man für n+1 vorgegebene Funktionswerte genau ein Polynom findet, <br />
das sie an n+1 vorgegebenen Stellen annimmt. Und das muss man nicht, weil man<br />
diese Aussage (sogar für beliebige Körper) beweisen kann, ohne den Fundamental-<br />
satz zu benutzen.<br />
<br />
Was meinst du denn mit "Auch mal was anderes als Wikipedia lesen"? <br />
Hast du woanders eine andere Beschreibung des Fundamentalsatzes gefunden?<br />
<br />
Der letzte Beitrag ist von mir. <br />
Tschuldigung, bin noch neu hier.<br />
<br />
--[[Benutzer:G.Zetzsche|G.Zetzsche]] 00:08, 20. Sep 2006 (CEST)<br />
<br />
Achso, ich meinte schon die ganze Zeit den <br />
Fundamentalsatz der Algebra (hab das nur <br />
nicht ausgeschrieben). Und der sagt nur <br />
etwas über C aus (obwohl er witzigerweise<br />
"... der Algebra" heißt).<br />
<br />
Wieder von mir.<br />
--[[Benutzer:G.Zetzsche|G.Zetzsche]] 00:19, 20. Sep 2006 (CEST)<br />
:Die reelle Variante ist: ein reelles Polynom ''n''-ten Grades hat höchstens ''n'' Nullstellen und das ist genau das, was hier zum Beweis der Eindeutigkeit benutzt wird. --[[Benutzer:P. Birken|P. Birken]] 10:14, 20. Sep 2006 (CEST)<br />
<br />
Hmm, das hat jemand als Teil des Fundamentalsatzes bezeichnet?<br />
Hab ich ja noch nie gesehen. Vermutlich aus didaktischen Gründen<br />
oder sowas. Aber gut, wir hatten einfach verschiedene Vorstellungen<br />
davon, was der Satz sagt und ich will nicht weiter nerven.<br />
Mach's gut.<br />
<br />
--[[Benutzer:134.100.6.5|134.100.6.5]] 12:03, 20. Sep 2006 (CEST)<br />
<br />
Argh, der letzte ist wieder von mir :)<br />
--[[Benutzer:G.Zetzsche|G.Zetzsche]] 12:06, 20. Sep 2006 (CEST)<br />
:Es ist doch eine triviale Folgerung. Und nur mal als Beispiel: [http://www.chemgapedia.de/vsengine/vlu/vsc/de/ma/1/mc/ma_01/ma_01_02/ma_01_02_03.vlu/Page/vsc/de/ma/1/mc/ma_01/ma_01_02/ma_01_02_18.vscml.html]. --[[Benutzer:P. Birken|P. Birken]] 14:09, 20. Sep 2006 (CEST)<br />
<br />
Naja, es ist eine triviale Folgerung in dem Sinne, dass auch<br />
0+0=0 eine triviale Folgerung daraus ist. Die Tatsache, dass<br />
Polynome in Körpern nur soviele Nullstellen haben können, wie<br />
ihr Grad angibt, ist vollkommen unabhängig davon, was für ein<br />
Körper vorliegt und sehr einfach (ohne den Fundamentalsatz)<br />
zu zeigen. Man kann das höchstens deshalb der algebraischen<br />
Abgeschlossenheit von C zuordnen, weil man denkt "Na, da gehts <br />
doch irgendwie um Nullstellen von Polynomen, das tun wir mal <br />
dazu". <br />
<br />
Die algebraische Abgeschlossenheit gibt nunmal eine _untere_ <br />
Schranke für die Zahl der Nullstellen an, aber die _obere_ <br />
Schranke gilt allgemein, ist viel einfacher zu zeigen und hat <br />
mit der algebraischen Abgeschlossenheit von C nichts zutun. <br />
Auch in größeren Körpern als C können Polynome n-ten Grades<br />
höchstens n Nullstellen haben.<br />
<br />
Eine Aussage, für die man die algebraische Abgeschlossenheit<br />
benutzen kann, wäre vielleicht, dass relle nullstellenfreie <br />
Polynome höchstens vom Grad 2 sind, aber dafür, dass höchstens<br />
n Nullstellen vorliegen, braucht man sie nicht.<br />
<br />
--[[Benutzer:G.Zetzsche|G.Zetzsche]] 14:34, 20. Sep 2006 (CEST)<br />
:Auch das kann ich nicht wirklich zu Polynominterpolation in Beziehung setzen. --[[Benutzer:P. Birken|P. Birken]] 14:36, 20. Sep 2006 (CEST)<br />
<br />
Ups, ich meine irreduzibel statt nullstellenfrei :)<br />
--[[Benutzer:G.Zetzsche|G.Zetzsche]] 14:36, 20. Sep 2006 (CEST)<br />
<br />
Also langsam zweifle ich am Sinn der Diskussion.<br />
Ich versuche nocheinmal klarzumachen, was ich meinte.<br />
<br />
In einer Version dieses Artikels stand: Aus dem Fundamentalsatz<br />
der Algebra folgt die Eindeutigkeit des Interpolationspolynoms.<br />
Und mein Einwand ist, dass man den Fundamentalsatz dazu nicht <br />
braucht, weil er lediglich aussagt, dass C algebraisch <br />
abgeschlossen ist. Das ist, als würde man sagen: Und da nun <br />
der große Satz von Fermat bewiesen ist, wissen wir, dass <br />
differenzierbare Funktionen stetig sind. Es ist einfach<br />
ein Satz unnötig zitiert worden, mehr nicht. Ist ja auch nicht<br />
so schlimm. Irgendwie reden wir aneinander vorbei und sollten<br />
das vielleicht lassen.<br />
<br />
Wie immer: Der letzte ist von mir.<br />
--[[Benutzer:G.Zetzsche|G.Zetzsche]] 14:46, 20. Sep 2006 (CEST)<br />
:Was heisst denn "lediglich aussagt, dass C algebraisch abgeschlossen ist". Daraus folgt genau das, was man hier braucht. --[[Benutzer:P. Birken|P. Birken]] 14:54, 20. Sep 2006 (CEST)<br />
<br />
OK, endlich sind wir an einem gemeinsamen Punkt angelangt!<br />
Nein, das folgt höchstens daraus, in dem Sinne, dass jeder <br />
richtige Satz aus jedem anderen richtigen Satz folgt.<br />
<br />
Ich wüßte nicht, wie man eine obere Schranke für die<br />
Anzahl der Nullstellen aus einer unteren Schranke für die<br />
Anzahl der Nullstellen folgert! Weil ersteres eine ganz<br />
simple Sache ist und zweiteres nicht *so* einfach ist. <br />
Oder gibt es einen wunderbar eleganten Beweis, der die <br />
algebraische Abgeschlossenheit benutzt, den ich nicht <br />
sehe? Wenn ja, wüßte ich ihn gern!<br />
<br />
Wieder von mir.<br />
(Oder um meinen letzten Beitrag noch mal kurz zu formulieren:<br />
"Wie denn?" :) )<br />
:Genau n komplexe Nullstellen ist keine untere Schranke und natuerlich folgt daraus, dass es maximal n reelle gibt. Fuer mich ist hier auch EOD, da die ganze Diskussion irgendwie sinnlos ist. --[[Benutzer:P. Birken|P. Birken]] 16:40, 20. Sep 2006 (CEST)<br />
<br />
Wenn ich mich hier nach geraumer Zeit mal einmischen darf: Ich hab den Fundamentalsatz der Algebra nun in 4 verschiedenen Ausführungen in 4 verschiedenen Veranstaltungen bewiesen. In der Gauß-Disseration von 1799 steht laut einem meiner Profs sogar "lediglich", dass jedes Polynom in <math>\mathbb{C}</math> vom Grad größer gleich 1 eine Nullstelle besitzt, durch einen Linearfaktor ausklammerbar ist und der zweiter Faktor ein Polynom mit einem um 1 reduzierten Grad ist. Desweiteren wird in vielen Numerik-Lehrbüchern der Beweise der Eindeutigkeit des Interpolationspolynoms eben über den Fundamentalsatz der Algebra in dieser gängigen Form (bzw. bei Hermite-Interpolation über Rolle) geführt, da der einfach allgemein bekannt ist. <br> Was ich mit meiner hier viel zu lang ausgeführten Meinung sagen will, ich find die "Beweisführung" so sehr gut ^^ -- [[Benutzer:Crus4d3r|Crus4d3r]]<br />
<br />
meinem bescheidenen verständnis nach gibt es für n+1 paarweise verschiedene punkte genau ein polynom vom grad kleiner gleich (d.h. höchstens) n, dass diese erfüllt. liegen nämlich alle punkte auf einer geraden, so hat das polynom den grad 1 (ist somit eine lineare funktion) ... !?<br />
21:16, 04. Jun 2006 (CEST)<br />
<br />
== Optimale Knotenwahl ==<br />
<br />
Gibt es bereits einen Artikel zur optimalen Knotenwahl (Nullstellen der Tschebycheff-Polynome)? Ich würde fast meinen das könnte hier her passen. -- [[Benutzer:Crus4d3r|Crus4d3r]]<br />
<br />
Ja, die Interpolationsgüte geht mit der Knotenwahl einher. Das Runge Phänomen tritt auch nur auf, wenn die Stützstellen nicht zum Rand hin verdichtet werden. Chebyshev-Punkteverteilungen sind hier ideal. Das wird allerdings bei der Interpolationsgüte nicht genannt, und sollte geändert werden. Das sollte aber besser ein Mathematiker machen... [[Benutzer:Marcuszengl| Marcus Zengl]] <small>(17:19, 15. Sep. 2010 (CEST), ''Datum/Uhrzeit nachträglich eingefügt, siehe [[Hilfe:Signatur]]'')</small><br />
<br />
== Beweis der Existenz eines Interpolationspolynoms ==<br />
Nachdem Ihr Euch oben so schön über die Eindeutigkeit des Interpolationspolynoms ausgelassen habt, kommt jetzt die Existenz. Die Beweisführung wie sie jetzt ist ''Die n + 1 Gleichungen P(xi) = fi ergeben ein lineares Gleichungssystem mit n + 1 Gleichungen. Das Interpolationspolynom n-ten Grades hat n+1 Koeffizienten, also ebenso viele Freiheitsgrade wie das lineare Gleichungssystem. Daher muss eine Lösung existieren'' sollte so nicht stehen bleiben. Einerseits ist in der Theorie der linearen Gleichungssysteme (LGS) der Begriff des ''Freiheitsgrades'' m. E. unüblich. Andererseits ist der Schluss, dass jedes LGS mit n+1 Unbekannten (= n+1 Freiheitsgraden?) in n+1 Gleichungen eindeutig lösbar ist, schlicht falsch. Hier fehlt eine Aussage über die Struktur des entstehenden LGS. Die Koeffizientenmatrix ist nämlich die [[Vandermonde-Matrix]]. Dort ist der Beweis der Existenz und Eindeutigkeit übrigens als Anwendung korrekt geführt. MfG --[[Benutzer:Bertrus|Bertrus]] 15:21, 20. Okt. 2008 (CEST)<br />
<br />
Ein kürzerer Beweis, der etwas Hintergrundwissen über [[lineare Abbildung]]en vorraussetzt, ist im Artikel [[Haar-Raum]], Unterpunkt Interpolation, zu finden. --[[Benutzer:Bertrus|Bertrus]] 17:11, 20. Okt. 2008 (CEST)<br />
:Nur mal so als Frage, in der Zeit die du gebraucht hast, um das oben zu verfassen hättest Du doch auch den Artikel editieren können oder? --[[Benutzer:P. Birken|P. Birken]] 20:59, 22. Okt. 2008 (CEST)<br />
<br />
::Ich habe es vorgezogen, die allgemeine Interpolation in [[Haar-Raum|Haar-Räumen]] zu beschreiben, anstatt wieder mit Dir zu streiten ;-) --[[Benutzer:Bertrus|Bertrus]] 12:54, 24. Okt. 2008 (CEST)<br />
<br />
== [[Vandermonde-Matrix]] ==<br />
<br />
Wieso wird die Matrix hier nicht erwähnt? Im dortigen Artikel hat es einen Teil über Interpolation drin. Gruss --[[Benutzer:Hannes Röst|hroest]] <small>[[Benutzer Diskussion:Hannes Röst|Disk]]</small> 17:05, 29. Nov. 2008 (CET)<br />
:Wird jetzt erwähnt. --[[Benutzer:Scholten|Scholten]] 14:13, 7. Jul. 2009 (CEST)<br />
<br />
== Lagrange Basis ==<br />
<br />
Kann es sein, dass das Verhalten der Lagrange-Polynome folgendermassen ist:<br />
<br />
li(xj) = {1, falls xj = xi; '''0 <= li < 1''', falls xj != xi} ?<br />
<br />
Dabei muss xj natürlich nicht zwingend eine Stützstelle sein des Interpolationspolynoms.<br />
Man könnte nun noch hinzufügen, dass falls xj != xi und xj ist Element der Stützstellen, dann folgt li(xj) = 0<br />
<br />
--[[Benutzer:Teeh|Teeh]] 11:54, 26. Jan. 2009 (CET)<br />
:Ich frag mal so: Was fehlt Dir denn für das Verständnis dieses Artikels? --[[Benutzer:P. Birken|P. Birken]] 20:59, 26. Jan. 2009 (CET)<br />
<br />
<br />
== Überarbeitung des gesamten Artikels ==<br />
Aufgrund [[Qualitätssicherung#Neville-Aitken-Schema|dieser Diskussion]] habe ich auf meiner [[Benutzer_Diskussion:Scholten|Diskussionsseite]] einen Vorschlag zur Überarbeitung dieses Artikels gemacht. --[[Benutzer:Scholten|Scholten]] 00:51, 23. Jun. 2009 (CEST)<br />
<br />
:Da die Aktion mitlerweile mehrere Artikel betrifft, habe ich [[Portal:Mathematik/Qualitätssicherung#Polynominterpolation|hier]] eine Diskussion dazu eröffnet. --[[Benutzer:Scholten|Scholten]] 17:24, 24. Jun. 2009 (CEST)<br />
<br />
== Fachliche Fragen ==<br />
=== Benennung Neville-Algorithmus, Aitken-Algorithmus, ... ===<br />
Mir ist nicht ganz klar, welcher Algorithmus jetzt der von Aitken, welcher der von Neville und welcher der Neville-Aitken-Algorithmus ist. Es scheint sich auch nicht um dieselben Algorithmen zu handeln, beispielsweise findet sich im Buch Numerical Recipes der Hinweis, die ersten beiden Algorithmen würden oft miteinander verwechselt. Es wird aber nur der Neville-Algorithmus erklärt, der Aitken-Algorithmus gilt als obsolet. Ich nehme an, bei Neville-Aitken und Neville handelt es sich um denselben Algorithmus, der auf der Idee des Aitken-Algorithmus basiert. Interessant wäre jetzt, wie der Aitken-Algorithmus genau aussieht. --[[Benutzer:Scholten|Scholten]] 16:35, 25. Jun. 2009 (CEST)<br />
<br />
Im Bronstein wird er Aitken-Neville Algorithmus genannt... --[[Benutzer:Marcuszengl|Marcuszengl]] 17:31, 16. Sep. 2010 (CEST)<br />
<br />
=== Konvergenz bei analytischen Funktionen? ===<br />
Hi Christian1985, du hast den Abschnitt Konvergenzverhalten so geändert, dass für alle analytischen Funktionen bei feiner werdenden Intervallteilungen ihre Polynominterpolanten konvergieren. Hast du dafür eine Literaturangabe? Bei Stoer/ Bulirsch und in meinem Uni-Skript ist die Behauptung nur für ganze Funktionen gegeben. Schwarz/ Köckler hab ich leider nicht zur Hand. Ich kann mir gut vorstellen, dass die Behauptung auch für analytische Fkt gilt, würde das aber ungern ohne Nachprüfen schreiben. Viele Grüße Daniel --[[Benutzer:Scholten|Scholten]] 16:22, 26. Jun. 2009 (CEST)<br />
:Naja das ist doch einfach die Definition einer analytischen Funktion. Eine Funktion ist genau dann auf I analytisch. Eine Funktion <math>f : I \to \C</math> kann nicht ganz sein. Der Begriff ganze Funktion hat eigentlich nur historische Berechtigung. Dieser Begriff wurde im Satz von Liovill geprägt. Eine ganze Funktion ist eine Funktion, welche auf ganz <math>\C</math> analytisch ist. Diese historische Begründung findet man im Buch Funktionentheorie von Freitag und Busam. Ein Numerikbuch mit einer anderen Formulierung des Satzes kenne ich leider nicht. Ich kenne in diesem Bereich nicht viele Bücher. --[[Benutzer:Christian1985|Christian1985]] 17:43, 26. Jun. 2009 (CEST)<br />
::Ach, das hatte ich gar nicht bedacht, dass es nur um auf <math>I \subset \R</math> definiertes <math>f</math> geht. Da forsche ich aber nochmal nach, ob sich der Satz nicht auch auf <math>\C</math> ausdehnen lässt, das liegt ja irgendwie nahe. --[[Benutzer:Scholten|Scholten]] 23:29, 26. Jun. 2009 (CEST)<br />
::Außerdem kann <math>f:[a, b] \rightarrow \R</math> formal gar nicht analytisch sein, weil [[analytische Funktion]]en nur für offenen Definitionsbereich definiert sind. Aber wenn ich das alles richtig verstehe, ist das Formsache und man könnte ''f ist analytisch in x'' auch für Randpunkte x definieren, wenn man ''Umgebung'' entsprechend umdefiniert. Oder man braucht hier nur ''f analytisch auf (a, b)'' fordern? Am Einfachsten wär's wirklich, wenn der Satz auch auf <math>\C</math> gelten würde. --[[Benutzer:Scholten|Scholten]] 23:39, 26. Jun. 2009 (CEST)<br />
<br />
=== Eindeutig bestimmtes Polynom von Grad n oder <= n? ===<br />
In Definition/ Problemstellung kann das ''maximal'' doch eigentlich weg. Das Polynom hat immer genau Grad n, oder sehe ich das falsch? --[[Benutzer:Scholten|Scholten]] 13:56, 28. Jun. 2009 (CEST)<br />
:jo, denke ich auch. --[[Benutzer:P. Birken|P. Birken]] 20:23, 29. Jun. 2009 (CEST)<br />
:: done --[[Benutzer:Scholten|Scholten]] 10:30, 1. Jul. 2009 (CEST)<br />
<br />
=== Schreibweise für die Newton-Rekursionsformel ===<br />
Unter dem Abschnitt [[Polynominterpolation#Bestimmung der Koeffizienten: Schema der dividierten Differenzen]] wird durchgehend die Schreibweise <math>[x_i]f</math> gewählt, die ich sonst nie gesehen habe. Z. B. auf der unter „Weblinks“ gelistete Seite http://www.mathe-online.at/materialien/Andreas.Pester/files/applets/Interpolation/ (unter „Newton Interpolation“) wird die Notation <math>f[x_i]</math> verwendet, die allgemeiner im Gebrauch zu sein scheint. --[[Benutzer:Yuwash|Yuwash]] 15:37, 7. Feb. 2012 (CET)<br />
:Schau mal nach ganz unten. -- [[Benutzer:Pberndt|pberndt]] <sub>([[Benutzer_Diskussion:Pberndt|DS]])</sub> 18:25, 7. Feb. 2012 (CET)<br />
::Ah, das Thema wird bereits kotrovers diskutiert! Danke für den Hinweis. --[[Benutzer:Yuwash|Yuwash]] 16:05, 8. Feb. 2012 (CET)<br />
<br />
== Verbesserungsvorschläge ==<br />
=== Verbesserung Neville-Aitken ===<br />
Schön wäre auch noch etwas zur Verbesserung des Neville-Aitken-Algorithmus, bei der die Differenzen zwischen den Rekursionsschritten betrachtet werden, siehe Stoer/ Bulirsch oder Numerical Recipes. Ich komme da aber grade nicht zu, vielleicht später, oder jemand anders schreibt's rein. --[[Benutzer:Scholten|Scholten]] 16:42, 25. Jun. 2009 (CEST)<br />
<br />
=== Anwendungen ===<br />
Schön wären noch ausführlichere Angaben zu Anwendungen finde ich. --[[Benutzer:Scholten|Scholten]] 17:42, 25. Jun. 2009 (CEST)<br />
<br />
=== numerische Stabilität ===<br />
In meinen Büchern habe ich nichts zur numerischen Stabilität der Verfahren gefunden, das wäre auch interessant. --[[Benutzer:Scholten|Scholten]] 17:42, 25. Jun. 2009 (CEST)<br />
<br />
=== baryzentrische Interpolation ===<br />
etwas dazu, siehe [http://en.wikipedia.org/wiki/Lagrange_form#Barycentric_interpolation en-WP]<br />
<br />
Ich schrieb so eben ein Kapitel dazu. Abschnitt könnte gelöscht werden. [[Benutzer:HerrHartmuth|HerrHartmuth]] ([[Benutzer Diskussion:HerrHartmuth|Diskussion]]) 21:55, 5. Sep. 2017 (CEST)<br />
<br />
=== Beispiele ===<br />
Eines zu Neville-Aitken, vielleicht aber erst mit der Verbesserung des Algorithmus. Eines, wo ein Stützpunkt hinzugefügt wird. Eines, wo zu denselben Stützstellen ein neuer Satz Stützwerte gegeben ist. Eines zur Fehlerabschätzung (schön ist z.B. Sinus interpoliert). --[[Benutzer:Scholten|Scholten]] 23:08, 25. Jun. 2009 (CEST)<br />
<br />
=== Runges Phänomen ===<br />
Man könnte auf eine ideale Wahl von Stützstellen, um dieses Phänomen zu vermeiden, hinweisen. Ich kenne da nur die Nullstellen der [[Legendre-Polynom]]e, die die [[Lebesgue-Konstante]] auf 0.04 (oder so) an die untere Schranke heranbringen - evntl geht es noch besser?! Besonders schön wäre das in Verbindung mit einem weiteren Plot der Rungefunktion mit Wahl dieser Stützstellen - leider habe ich keine Ahnung, mit welcher Software [[Benutzer:Martinpie|Martinpie]] die Bilder dazu gemacht hat, da müsste man sich noch mal mit ihm in Verbindung setzen, damit die Bilder am Ende zueinander passen. -- [[Benutzer:Pberndt|Pberndt]] <sub>([[Benutzer_Diskussion:Pberndt|DS]])</sub> 22:10, 30. Jun. 2009 (CEST)<br />
<br />
:Zunächst einmal ist festzustellen, daß der Abschnitt (wie viele andere Behauptungen auch) ohne Quellenangabe ist und das wird auch so bleiben, weil es für diesen hanebüchenden Unsinn keine seriösen Quellen gibt. Carl Runge bezieht sich bei seinem Paradoxon ausschließlich auf äquidistante Stützstellen, Titel seines Aufsatzes von 1901 ist deshalb auch: "Über empirische Funktionen und die Interpolation zwischen äquidistanten Ordinaten". Außerdem gilt das nur für Funktionen, deren alle Ableitung an den Intervalgrenzen schnell gegen Null streben. Der Approximationssatz von Weierstraß ist aber unverändert gültig: Eine stetige und n-mal stetig ableitbare Funktion ist auf einem vorgegebenen Intervall beliebig genau zu approximieren, und damit auch zu interpolieren, mit einem Polynom von höchstens n-tem Grad. Wie das Polynom aussieht, hängt unter anderem von dem Genauigkeitskriterium ab: zB Integral des Fehlerquadrats oder minimale größte Abweichung, relativer oder absoluter Fehler. Bei vorgegebenem Polynomengrad n gibt es genau eine Verteilung der n+1 Stützstellen, die genau ein Genauigkeitskriterium optimal erfüllt.<br />
<br />
:Die penälerhafte Schlußfolgerung, daß (bei offensichtlich ungeeigneter Stützstellenverteilung) die Splinefunktion die besseren Interpolationsergebnisse bringt, ist bestenfalls eine Spitzfindigkeit. Eine allgemeine Fehlerabschätzung der (kubischen) Splinefunktion ist kaum möglich und wegen allgemeinem Desinteresse an diesem Hilfsmittel auch kaum mehr Gegenstand aktueller Forschung. Man weiß nur, daß der Fehler stückweise höchstens die Ordnung 4 hat (meistens weniger), und das auch nur, wenn man nicht gleiche Stützstellenabstände sondern gleiche Bogenlängen verwendet. Der Versuch die glatte aber zickige Funktion ln(x)=Spline(n,x) zwischen 1 und 2 auf doppelte Genauigkeit (16 Stellen) als Spline zu bestimmen benötigt über 3500 Stützstellen und 7000 Knotenwerte, und das nur mit Tricks. Ein (MiniMax-) Polynom schafft das mit 19 Stützstellen und Koeffizienten.<br />
<br />
:Das Runge-Phenomän ist keinesfalls ein Plädoyer für die Splinefunktion, die häufig von Naivlingen als eine Art heiliger Gral der numerischen Mathematik dargestellt wird. Sie machen dabei stets den Eindruck, als wüßten sie sicher, daß sie die Weisheit mit Löffeln gefressen haben. Tatsächlich ist das Runge-Phenomän eine Ermahnung, daß es in der NuMa kein einfachen "Kochrezepte" gibt und die Qualität des Ergebnisses mehr vom Geschick und der Erfahrung des Anwenders und nicht vom Unterhaltungswert seines Mathelehrers abhängt. Runges Anregung, als Lösungsansatz einmal einen Spline zu versuchen, war bis in die 1960er vielleicht noch brauchbar, heute würde man aber bei vorgegebener Äquidistanz der Stützstellen (zB Tabellenwerte, Meßprotokol) zur Kosinus- oder allgemeinen Fouriertransformation greifen oder wenigstens eine zusätzliche Gewichtungsfunktion vorschalten. <br />
<br />
:Der ganze Artikel ist voll mit solchen Halbwahrheiten, naiven Schlußfolgerungen und kuriosen Bewertungen, durchweg ohne Beleg. Die Ansichten bei "Anwendungen" sind seit über 50 Jahren veraltet, aber Stand der Oberstufen- oder FH-Mathematik. Gleiches gilt für die Vandermondmatrix, die Gausselimination und die Lagrangepolynome, ingendwie nur halbwahr, unvollständig und veraltet. Ein gut konditioniertes Interpolationsproblem wird eben nicht penälermäßig mit Gauss sondern über Vandermont mithilfe der Lagrangepolynome gelöst, so ungebräuchlich und theoretisch ist beides (siehe Numerical Recepies in ...). Ob mit Newton oder Neville-Aitken ist egal, die Kondition des Problems, also die Stützstellenverteilung, ist allein entscheidend für die Brauchbarkeit der Lösung, nicht für die Lösbarkeit. Wenn man merkt, wie einem die Differenzen ausgehen, war schon der Ansatz falsch. Das ungeschickt gewählte Beispiel der Tangensfunktion zeigt immerhin die Auswirkungen eines schlecht konditionierten Problems mit nur 5 Stützstellen und die Nützlichkeit der Lagrangepolynome. Die Erklärung dazu ist einfach nur falsch. Die Tschebyscheffpolynome beginnen nicht erst mit T2. Und was ist mit dem Restgliedpolynom aus den Tschebyscheff-Lobatto-Knoten? Ein Hinweis auf die numerisch stabilere Interpolation mit Tschebyscheff- oder Legendrepolynomen anstelle der naiven Polynomen wäre auch notwendig. "Konvergenz" ist sehr chaotisch und bezieht sich nur auf einen nicht näher erklärten Spezialfall. Es geht auch nicht um analytische Funktionen, sondern um Funktionen, zu denen für jeden zu wählenden x-Wert ein y-Wert bestimmt werden kann, zB durch messen. Bei "Verallgemeinerung" sind alle drei Sätze sachlich falsch und die Überschrift mißverständlich. --[[Spezial:Beiträge/46.115.0.174|46.115.0.174]] 17:12, 14. Aug. 2012 (CEST)<br />
<br />
== Numerische Betrachtung der Interpolation ==<br />
<br />
Dieser Artikel geht nicht auf die Numerischen Gesichtspunkte der Polynominterpolation. Wie z.B. die Konvergenzgeschwindigkeit oder Kondition. Ich habe mal ein wenig rumgesucht auf der Wikipedia und keinen Artikel gefunden der dies tut. Sollte dieser Artikel auf die numerische Polynominterpolation erweitert werden, oder stattdessen ein neuer Begonnen werden? --[[Benutzer:Latency|Latency]] 09:30, 10. Jul. 2009 (CEST)<br />
: Bis jetzt behandelt der Artikel fast ausschließlich die "technischen" Aspekte von Polynominterpolation, diese allerdings (neuerdings) komplett an Ort und Stelle. Darum bin ich stark dafür, die numerischen Aspekte auch hier im Artikel einzubauen. --[[Benutzer:Scholten|Scholten]] 18:17, 10. Jul. 2009 (CEST)<br />
<br />
== Änderung vom 07. April revertiert ==<br />
<br />
Habe ich rückgängig gemacht. mMn war die alte Formel richtig und die neue Falsch (Guter Indikator: Im Index kan i=0 nicht mehr vor, rechts vom Gleichheitszeichen dann plötzlich doch, aber mit falschem Vorzeichen). -- [[Benutzer:Pberndt|pberndt]] <sub>([[Benutzer_Diskussion:Pberndt|DS]])</sub> 15:29, 7. Apr. 2011 (CEST)<br />
<br />
== Notation der dividierten Diffs ==<br />
<br />
([https://secure.wikimedia.org/wikipedia/de/w/index.php?title=Polynominterpolation&action=historysubmit&diff=89989481&oldid=89882242])<br />
<br />
Ich kenne die auch eher so, wie sie die IP notiert. Und Operatoren kenne ich auch von beiden Seiten notiert.--[[Benutzer:0g1o2i3k4e5n6|goiken]] 14:30, 13. Jun. 2011 (CEST)<br />
:OK, ich schaue nächste Woche nochmal in die Literatur. Viele Grüße --[[Benutzer:P. Birken|P. Birken]] 14:42, 13. Jun. 2011 (CEST)<br />
::Sollte am Ende einheitlich mit [http://de.wikipedia.org/w/index.php?title=Hermiteinterpolation&action=historysubmit&diff=89869937&oldid=85736497 Hermiteinterpolation] bleiben. -- [[Benutzer:Pberndt|pberndt]] <sub>([[Benutzer_Diskussion:Pberndt|DS]])</sub> 22:44, 13. Jun. 2011 (CEST)<br />
:::Sieht nicht gut aus: Opfer machts mit f[...], Bjoerck/Dahlquist mit [...]f, Schwarz/Koeckler drueckt sich drumrum und macht [...], ganz ohne f. Hat noch jemand andere Sachen zur Hand? --[[Benutzer:P. Birken|P. Birken]] 15:58, 17. Jun. 2011 (CEST)<br />
::::Carl De Boor (Verweis aus en) verwendet eine ganz andere Notation, ∆(), Burden/Faires f[..], Deuflhard/Bornemann [..]f. Das waren die ersten drei, wo ich nun reingeschaut habe, das Bild ist dasselbe. Wiedemauchsei: Beide Notationen sind offenbar ähnlich verbreitet. Aus meiner eigenen Erfahrung bin ich der Meinung, dass für Anfänger die Notation f[...] natürlicher ist <small>(Vielleicht weil man die Ästhetik der anderen Notation erst später begreift? ☺)</small>, daher wäre ich im Zweifelsfall eher für die. -- [[Benutzer:Pberndt|pberndt]] <sub>([[Benutzer_Diskussion:Pberndt|DS]])</sub> 16:52, 17. Jun. 2011 (CEST)<br />
:::::Diese Frage geht anscheinend ins Leere (jeder Professor/Autor benutzt einfach die Notation, die ihm gefällt!). Gibt es keine wikipedia-weite Regelung, woran man sich bei der mathematischen Notation orientieren soll? (ISO?)--[[Benutzer:Yuwash|Yuwash]] 16:25, 8. Feb. 2012 (CET)<br />
::::::Die gibt es nicht. Speziell hier ist die Notationsvielfalt auch nachzuvollziehen: Als Funktionalanalytiker erkennt man in den dividierten Differenzen den Operator (bzw. das Funktional, dass aus einer Funktion eine Zahl macht), als Didakt hat man die Zielgruppe vor Augen, die als vermutlich Erstsemester mit Operatoren nicht so viel anzufangen weiß und es natürlicher findet, wenn Funktionsparameter rechts von der Funktion stehen. Mir ist es wichtig, dass wir hier in der Wikipedia einen einheitlichen Standard benutzen. Welcher das ist, ist mir relativ egal und ich halte mich gerne an den Status Quo. Wenn's Dir wichtig ist, starte doch mal in [[PD:M]] eine Meinungsumfrage! -- [[Benutzer:Pberndt|pberndt]] <sub>([[Benutzer_Diskussion:Pberndt|DS]])</sub> 17:12, 8. Feb. 2012 (CET)<br />
<br />
== Entwicklungen der letzten Jahre ==<br />
<br />
Im Artikel sind leider die Entwicklungen der letzten Jahrzehnte auf dem Gebiet nicht zu finden: <br />
<br />
* Baryzentrische Formeln, die numerisch stabil sind (Higham 2004), fehlen komplett (eine der baryz. Formel ist sogar rückwärtsstabil). <br />
* Es wird für die Runge-Funktion tatsächlich Spline-Interpolation empfohlen (oh je). Polynominterpolation mit Tscheb.-Knoten konvergiert da sogar GEOMETRISCH schnell. <br />
* u.s.w.<br />
<br />
Empfehlung FACHliteratur:<br />
z.B. <br />
http://www2.maths.ox.ac.uk/chebfun/ATAP/<br />
<br />
oder auch das "Myth-Buster-Paper" von Trefethen.<br />
http://people.maths.ox.ac.uk/trefethen/mythspaper.pdf<br />
<br />
-- [[Spezial:Beiträge/131.159.70.197|131.159.70.197]] 15:23, 20. Apr. 2012 (CEST)<br />
<br />
== Skript als interaktives Beispiel ==<br />
Hallo zusammen,<br />
<br />
ich habe gerade [http://martin-thoma.com/html5/polynom-interpolation.htm hier] ein interaktives Beispiel zur Polynominterpolation erstellt. Eventuell wäre das was für die "Weblinks". Da ich jedoch der Autor der Seite und des Skripts bin, will ich das nicht selbst in die Weblinks schreiben.<br />
<br />
Das ganze könnte man von mir aus auch direkt in die Wikipedia einbinden. Allerdings habe ich Zweifel, ob das möglich ist.<br />
<br />
Grüße, --[[Benutzer:MartinThoma|Martin Thoma]] 09:46, 4. Jul. 2013 (CEST)<br />
<br />
== Groß-Pi-Notation Lagrange-Basispolynome ==<br />
<br />
Vielleicht bin ich nur pingelig, aber findet ihr nicht auch <br />
:<math>\ell_i(x) = \prod_{\begin{smallmatrix}0\le j\le n\\j\neq i\end{smallmatrix}} \frac{x-x_j}{x_i-x_j}=\dots</math><br />
schöner (und gleich auf den ersten Blick eindeutiger) als:<br />
:<math>\ell_i(x) = \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{x-x_j}{x_i-x_j}=\dots</math><br />
?<br />
Letzteres wird wohl auch in einem Teil der Literatur verwendet, aber wäre das allein auch Grund genug das beizubehalten? Das englische Wikipedia hat jedenfalls die erste Form. Soll ich vielleicht auch gleich auch eine Diskussion in irgendeinem Meta-Bereich (welchen ich zuerst finden muss) starten? ;) --[[Benutzer:Unverbluemt|Unverbluemt]] ([[Benutzer Diskussion:Unverbluemt|Diskussion]]) 20:22, 28. Aug. 2014 (CEST)<br />
: {{ping|Benutzer:Unverbluemt}} Ich finde die zweite Notation auch schöner und sehe keine Grund, der dagegen spricht sie im Artikel umzusetzen. --[[Benutzer:MartinThoma|Martin Thoma]] 05:23, 29. Aug. 2014 (CEST)<br />
:: Die zweite? --[[Benutzer:Unverbluemt|Unverbluemt]] ([[Benutzer Diskussion:Unverbluemt|Diskussion]]) 13:45, 30. Aug. 2014 (CEST)<br />
::: Oh, ich habe mich bei dir verlesen. Naja, es istt nur eine Notation. Ich finde die zweite schöner als die erste, da sie kompakter ist (also: Weniger Platz zwischen dem Summensymbol und dem Bruch). Aber im Prinzip ist mir das relativ egal. Es sollte im Artikel vor allem einheitlich sein.<br />
::: Grüße, --[[Benutzer:MartinThoma|Martin Thoma]] 20:46, 30. Aug. 2014 (CEST)</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Polynominterpolation&diff=168814563Polynominterpolation2017-09-05T19:51:51Z<p>HerrHartmuth: /* Lagrangesche Interpolationsformel */ Kapitel "Baryzentrische Interpolationsformel" hinzugefügt</p>
<hr />
<div>[[Datei:Polynomial-interpolation.svg|mini|Interpolationspolynom 7.&nbsp;Grades]]<br />
In der [[Numerische Mathematik|numerischen Mathematik]] versteht man unter '''Polynominterpolation''' die Suche nach einem [[Polynom]], welches exakt durch vorgegebene Punkte (z.&nbsp;B. aus einer Messreihe) verläuft. Dieses Polynom wird '''Interpolationspolynom''' genannt und man sagt, es [[Interpolation (Mathematik)|interpoliere]] die gegebenen Punkte.<br />
<br />
== Anwendungen ==<br />
Polynome lassen sich sehr leicht integrieren und ableiten. Deswegen tauchen interpolierende Polynome an vielen Stellen in der numerischen Mathematik auf, beispielsweise bei der [[Numerische Integration|numerischen Integration]] und entsprechend bei Verfahren zur numerischen Lösung [[Gewöhnliche Differentialgleichung|gewöhnlicher Differentialgleichungen]].<br />
<br />
== Problemstellung ==<br />
Für <math>n+1</math> gegebene Wertepaare <math>(x_i,\,f_i)</math> mit [[paarweise verschieden]]en [[Stützstelle]]n <math>x_i</math> wird ein Polynom <math>P</math> maximal <math>n</math>-ten Grades gesucht, das alle Gleichungen<br />
:<math>P(x_i) = f_i, \quad i=0,\dotsc,n</math><br />
erfüllt. Ein solches Polynom existiert stets und ist eindeutig bestimmt, wie im Folgenden gezeigt wird.<br />
<br />
Beim Interpolationsproblem ist also <math>P</math> im [[Vektorraum]] <math>\Pi_n</math> der Polynome mit Grad <math>n</math> oder kleiner zu suchen, kurz <math>P \in \Pi_n</math>. Ist <math>\phi_0,\dotsc,\phi_n</math> eine [[Basis (Vektorraum)|Basis]] von <math>\Pi_n</math>, so ergeben die Gleichungen <math>P(x_i) = f_i</math> ein [[lineares Gleichungssystem]] für die Koeffizienten der Basisdarstellung <math>P = \sum_{k=0}^n a_k \phi_k</math>. Da sich ein und dasselbe Polynom aber unterschiedlich darstellen lässt, je nachdem welche Basis für den Vektorraum <math>\Pi_n</math> gewählt wird, kann man ganz verschiedene Gleichungssysteme erhalten. Wählt man für <math>\Pi_n</math> die Standardbasis <math>\left\{x^k\mid 0\le k\le n\right\}</math>, also für <math>P</math> die Darstellung <math>P(x) = \sum_{k=0}^n a_kx^k</math>, so erhält man ein Gleichungssystem mit der [[Vandermonde-Matrix]]:<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & x_0 & \cdots & x_0^n \\<br />
\vdots & \vdots & \ddots & \vdots \\<br />
1 & x_n & \cdots & x_n^n<br />
\end{pmatrix}<br />
\begin{pmatrix}<br />
a_0 \\<br />
\vdots \\<br />
a_n<br />
\end{pmatrix}<br />
= <br />
\begin{pmatrix}<br />
f_0 \\<br />
\vdots \\<br />
f_n<br />
\end{pmatrix}<br />
</math>.<br />
<br />
Diese ist [[Reguläre Matrix|regulär]], wenn die Stützstellen <math>x_i</math> paarweise verschieden sind, das Gleichungssystem lässt sich dann eindeutig lösen. Somit ist die Existenz und Eindeutigkeit des gesuchten Polynoms <math>P \in \Pi_n</math> immer sichergestellt. Trotz der theoretischen Machbarkeit wird diese Art der Interpolation in der Praxis nicht durchgeführt, da die Berechnung der Vandermonde-Matrix aufwendig ist (<math>\mathcal O(n^2)</math>, siehe [[Landau-Symbole]]) und zudem schlecht [[Kondition (Mathematik)|konditioniert]] bei einer ungeeigneten Wahl der Stützstellen.<br />
<br />
== Lösungsverfahren ==<br />
Obiges Gleichungssystem ließe sich beispielsweise mit dem [[Gaußsches Eliminationsverfahren|Gaußschen Eliminationsverfahren]] lösen. Der Aufwand dafür ist mit <math>\mathcal O(n^3)</math> allerdings vergleichsweise groß. Bei Wahl einer anderen Basis als der Standardbasis zur Beschreibung des Polynoms <math>P</math> kann der Aufwand verringert werden.<br />
<br />
=== Lagrangesche Interpolationsformel ===<br />
[[File:Lagrangesche Basisfunktionen.svg|thumb|Beispielhafte lagrangesche Basisfunktionen für x<sub>0</sub> = 0, x<sub>1</sub> = 1, x<sub>2</sub> = 2, x<sub>3</sub> = 3 (n = 3)]]<br />
Eher für theoretische Betrachtungen günstig ist eine Darstellung in der [[Joseph-Louis Lagrange|Lagrange]]-Basis. Die Basisfunktionen sind die ''Lagrange-Polynome''<br />
<br />
:<math>\ell_i(x) = \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{x-x_j}{x_i-x_j}=\frac{x-x_0}{x_i-x_0}\cdots\frac{x-x_{i-1}}{x_i-x_{i-1}}\cdot\frac{x-x_{i+1}}{x_i-x_{i+1}}\cdots\frac{x-x_n}{x_i-x_n} \, ,</math><br />
<br />
die so definiert sind, dass<br />
<br />
:<math>\ell_i(x_k) = \delta_{ik} = \left\{\begin{matrix}<br />
1 & \mbox{falls } i=k \\<br />
0 & \mbox{falls } i \neq k \, ,<br />
\end{matrix}\right.</math><br />
gilt, wobei <math>\delta_{ik}</math> das [[Kronecker-Delta]] darstellt. Damit entspricht die Matrix <math>\left(\ell_i\left(x_j\right)\right)_{i,j=0,1,\ldots,n}</math> genau der [[Einheitsmatrix]].<br />
Die Lösung des Interpolationsproblems lässt sich dann einfach angeben als<br />
<br />
:<math>P(x) = \sum_{i=0}^n f_i\ell_i\left(x\right) \, ,</math><br />
<br />
mit den [[Stützwert]]en <math>f_i</math>. Dies wird häufig benutzt, um die Existenz der Lösung des Interpolationsproblems zu beweisen. Ein Vorteil der Lagrange-Basis ist somit, dass die Basisfunktionen <math>\ell_i</math> von den Stützwerten <math>f_i</math> unabhängig sind. Dadurch lassen sich verschiedene Sätze von Stützwerten <math>f_i</math> mit gleichen Stützstellen <math>x_i</math> schnell interpolieren, wenn die Basisfunktionen <math>\ell_i</math> einmal bestimmt worden sind. Ein Nachteil dieser Darstellung ist jedoch, dass alle Basisvektoren bei Hinzunahme einer einzelnen Stützstelle komplett neu berechnet werden müssen, weshalb dieses Verfahren für die meisten praktischen Zwecke zu aufwendig ist.<br />
<br />
=== Baryzentrische Interpolationsformel ===<br />
Die Lagrangesche Interpolationsformel kann umgeformt werden in die praktisch relevantere ''Baryzentrische Interpolationsformel''<br />
:<math><br />
P(x) = \frac{\sum_{j=0}^n \frac{\lambda_j f_j}{x-x_j} }<br />
{\sum_{j=0}^n \frac{\lambda_j}{x-x_j} } \, ,<br />
</math><br />
wobei die ''Baryzentrischen Gewichte'' wiefolgt definiert sind<br />
:<math><br />
\lambda_j := \prod_{\begin{smallmatrix}j=0\\j\neq i\end{smallmatrix}}^n \frac{1}{x_j - x_i} \, .<br />
</math><br />
<br />
Für vorgegebene Stützstellen <math>(x_i)_i</math> können die Gewichte <math>(\lambda_i)_i</math> vorberechnet werden, sodass der Aufwand für die Auswertung von <math>P(x)</math> nur noch bei <math>\mathcal{O}(n)</math> liegt.<br />
Beim Hinzufügen einer neuen Stützstelle müssen die Gewichte neubestimmt werden.<br />
Dies hat einen Aufwand von <math>\mathcal{O}(n)</math> im Vergleich zum Neubestimmen der Lagrangepolynome von <math>\mathcal{O}(n^2)</math>.<br />
<br />
=== Newtonscher Algorithmus ===<br />
In diesem Verfahren wird das Polynom <math>P</math> in Newton-Basis dargestellt, so dass die Koeffizienten [[Effizienz (Informatik)|effizient]] mit dem [[#Bestimmung der Koeffizienten: Schema der dividierten Differenzen|Schema der dividierten Differenzen]] bestimmt werden können. Eine effiziente Auswertung des Polynoms kann dann mithilfe des [[#Auswertung des Polynoms: Horner-Schema|Horner-Schemas]] erfolgen.<br />
<br />
==== Ansatz: Newton-Basis ====<br />
Als Ansatz für das gesuchte Interpolationspolynom <math>P</math> wählt man die Newton-Basisfunktionen <math>N_0(x)=1</math> und <math>\textstyle N_i(x) = \prod_{j=0}^{i-1}\left(x-x_j\right)=\left(x-x_0\right)\cdots\left(x-x_{i-1}\right)</math> mit <math>i=1,\ldots ,n</math>, so dass <math>P</math> dargestellt wird mit der Newtonschen Interpolationsformel<br />
<br />
:<math>P(x)=\sum_{i=0}^n c_i\cdot N_i(x)=c_0+c_1 \left(x-x_0\right)+c_2 \left(x-x_0\right) \left(x-x_1\right)+\dotsb+c_n\left(x-x_0\right)\dotsm \left(x-x_{n-1}\right)</math><br />
<br />
Das Gleichungssystem der Gleichungen <math>P(x_i) = f_i</math> hat dann die Form<br />
<br />
:<math><br />
\begin{pmatrix}<br />
1 & & & & 0 \\<br />
1 & (x_1 - x_0) & & & \\<br />
1 & (x_2 - x_0) & (x_2 - x_0)(x_2 - x_1) & & \\<br />
\vdots & \vdots & & \ddots & \\<br />
1 & (x_n - x_0) & \cdots & & \prod_{i=0}^{n-1}(x_n - x_i) \\<br />
\end{pmatrix}<br />
\cdot<br />
\begin{pmatrix} c_0 \\ \vdots \\ c_n \end{pmatrix}<br />
= \begin{pmatrix} f_0 \\ \vdots \\ f_n \end{pmatrix}<br />
</math><br />
<br />
Im Gegensatz zur komplizierten [[Vandermonde-Matrix]] bei Wahl der Standardbasis <math>\{x^k|0 \le k \le n\}</math> erhält man bei Wahl der Newton-Basis also eine einfach strukturierte [[untere Dreiecksmatrix]] und das Gleichungssystem lässt sich einfach lösen.<br />
<br />
==== Bestimmung der Koeffizienten: Schema der dividierten Differenzen ====<br />
Die Koeffizienten <math>c_i</math> werden aber nicht direkt aus dem obigen Gleichungssystem bestimmt, sondern effizienter mithilfe der dividierten Differenzen. Durch Induktion beweist man mit der [[#Algorithmus von Neville-Aitken|Rekursionsformel von Aitken]], dass für die Koeffizienten <math>c_i</math> gilt<br />
<br />
:<math>c_i = [x_0, \dotsb, x_i]f</math>.<br />
<br />
Dabei sind für <math>i<j</math> die dividierten Differenzen <math>[x_i, \dotsc, x_j]f</math> rekursiv definiert durch<br />
<br />
:<math>[x_i]f = f_i \qquad</math><br />
:<math>[x_i,\dotsc,x_j]f = \frac {[x_{i+1},\dotsc,x_j]f-[x_i,\dotsc,x_{j-1}]f}{x_j - x_i}</math>.<br />
<br />
Die Notation mit angehängtem <math>f</math> erklärt sich dadurch, dass oft eine unbekannte Funktion <math>f</math> angenommen wird, die bei bekannten Funktionswerten <math>f_i = f(x_i)</math> interpoliert werden soll.<br />
<br />
Die rekursive Berechnung der dividierten Differenzen lässt sich wie folgt veranschaulichen. Dabei sind die gesuchten Koeffizienten <math>c_i</math> genau die oberste Schrägzeile:<br />
<br />
<!-- [[Datei:Polynominterpolation_Schema_dividierte_Differenzen.jpg]] --><br />
:<math>\begin{array}{crcrccrcrc}<br />
[x_0]f \\<br />
& \searrow \\{}<br />
[x_1]f & \rightarrow & [x_0,x_1]f \\<br />
& \searrow & & \searrow \\{}<br />
[x_2]f & \rightarrow & [x_1,x_2]f & \rightarrow & [x_0,x_1,x_2]f \\{}<br />
\vdots & \vdots & \vdots & \vdots & \vdots &\ddots \\{}<br />
& \searrow & & \searrow & & & \searrow \\{}<br />
[x_{n-1}]f & \rightarrow & [x_{n-2},x_{n-1}]f & \rightarrow & [x_{n-3},x_{n-2},x_{n-1}]f<br />
& \cdots & \rightarrow & [x_0\ldots x_{n-1}]f \\<br />
& \searrow & & \searrow & & & \searrow && \searrow\\{}<br />
[x_n]f & \rightarrow & [x_{n-1},x_n]f & \rightarrow & [x_{n-2},x_{n-1},x_n]f<br />
& \cdots & \rightarrow & [x_1\ldots x_n]f & \rightarrow & [x_0\ldots x_n]f<br />
\end{array}</math><br />
<br />
Offensichtlich ist bei Ergänzung der <math>n+1</math> Wertepaare <math>(x_i, f_i)</math> um einen weiteren Punkt <math>(x_{n+1}, f_{n+1})</math> in obigem Schema nur eine weitere Zeile hinzuzufügen, um den zusätzlichen Koeffizienten <math>c_{n+1} = [x_0, \dotsc, x_{n+1}]f</math> zu berechnen. Die zuvor bestimmten Koeffizienten <math>c_0, \dotsc, c_n</math> müssen nicht neu berechnet werden.<br />
<br />
Alternativ zur obigen rekursiven Definition wird zum Beispiel in einem der Artikel von Marsden<ref>Martin J. Marsden: An Identity for Spline Functions with Applications to Variation-Diminishing Spline Approximation. Journal of Approximation Theory 3, 7-49 (1970).</ref> die ''dividierte Differenz'' <math>[x_0,\ldots,x_n]f</math> einer hinreichend oft differenzierbaren Funktion <math>f</math> als der eindeutige Koeffizient zur höchsten Potenz von <math>x</math> eines Polynoms <math>n</math>-ten Grads <math>p(x)</math> definiert, das <math>f</math> an den Stellen <math>x_0,\ldots,x_n</math> interpoliert. Tritt dabei ein Wert in der Sequenz <math>x_0,\ldots,x_n</math> mit der Vielfachheit <math>\nu\geq 1</math> auf, so sollen die Ableitungen des Polynoms die Ableitungen der Funktion <math>f</math> an dieser Stelle bis zur Ordnung <math>\nu-1</math> interpolieren.<br />
<br />
==== Auswertung des Polynoms: Horner-Schema ====<br />
Wenn die Koeffizienten <math>c_i</math> des Interpolationspolynoms <math>P</math> einmal bekannt sind, kann man es effizient mithilfe des [[Horner-Schema]]s auswerten. Dazu schreibt man <math>P</math> in der Form (einfache Umformung der Newtonschen Interpolationsformel)<br />
<br />
:<math>P(x) = \left(\cdots\left(c_n(x - x_{n-1}\right) + c_{n-1})(x - x_{n-2}) + \dotsb + c_1\right)(x - x_0) + c_0</math>,<br />
<br />
so dass <math>P(x)</math> rekursiv berechnet werden kann durch<br />
<br />
:<math>\begin{align}<br />
b_n & = c_n \\<br />
b_i & = b_{i+1}(x - x_i) + c_i, \qquad i = n - 1, \dotsc, 0 \\<br />
P(x) & = b_0<br />
\end{align}</math><br />
<br />
Dies erfordert einen Aufwand von <math>\mathcal{O}(n)</math>.<br />
<br />
=== Algorithmus von Neville-Aitken ===<br />
Ähnlich wie im [[#Newtonscher Algorithmus|Newtonschen Algorithmus]] wird beim Algorithmus von Neville-Aitken die Lösung rekursiv berechnet. Dazu bezeichne <math>p\left(f|x_i...x_{j}\right)</math> das eindeutig bestimmte Interpolationspolynom <math>k</math>-ten Grades zu den <math>k+1</math> [[Stützstelle|Stützpunkten]] <math>(x_{i}, f_{i}), \dots, (x_{j}, f_{j})</math>, wobei <math>k=j-i</math> ist. Es gilt dann die Rekursionsformel von Aitken:<br />
<br />
:<math>\begin{align}p(f|x_i)(x) & \equiv f_i, \\<br />
p(f|x_i, \dotsc, x_{j})(x) & \equiv \frac{(x - x_i)p(f|x_{i+1}, \dotsc, x_{j})(x) - (x - x_{j})p(f|x_{i}, \dotsc, x_{j-1})(x)}{x_{j}-x_{i}}.\end{align}</math><br />
<br />
Beweisen lässt sie sich durch Einsetzen von <math>x_i</math>, wodurch man verifiziert, dass die rechte Seite der Gleichung die Interpolationsbedingung erfüllt. Die Eindeutigkeit des Interpolationspolynoms liefert dann die Behauptung.<br />
<br />
Mit dem Schema von Neville kann die Auswertung von <math>p(f|{x_0, \dotsc, x_n})(x) = P(x)</math> dann rekursiv erfolgen:<br />
<br />
<!-- [[Datei:Polynominterpolation Schema von Neville.jpg]] --><br />
<math>\begin{array}{crcrccrcrc}<br />
p(f|x_{0})\\<br />
& \searrow\\<br />
p(f|x_{1}) & \rightarrow & p(f|x_{0},x_{1})\\<br />
& \searrow & & \searrow\\<br />
p(f|x_{2}) & \rightarrow & p(f|x_{1},x_{2}) & \rightarrow & p(f|x_{0},x_{1},x_{2})\\<br />
\vdots & & \vdots & & \vdots & \ddots\\<br />
& \searrow & & \searrow & & & \searrow\\<br />
p(f|x_{n-1}) & \rightarrow & p(f|x_{n-2},x_{n-1}) & \rightarrow & p(f|x_{n-3},x_{n-2},x_{n-1}) & \cdots & \rightarrow & p(f|x_{0},\dots,x_{n-1})\\<br />
& \searrow & & \searrow & & & \searrow & & \searrow\\<br />
p(f|x_{n}) & \rightarrow & p(f|x_{n-1},x_{n}) & \rightarrow & p(f|x_{n-2},x_{n-1},x_{n}) & \cdots & \rightarrow & p(f|x_{1},\dots,x_{n}) & \rightarrow & p(f|x_{0},\dots,x_{n})<br />
\end{array}</math><br />
<br />
=== Vergleich der Lösungsverfahren ===<br />
Möchte man alle Koeffizienten des Interpolationspolynoms <math>P</math> bestimmen, so bietet der Newtonsche Algorithmus hierfür den geringsten notwendigen Aufwand von <math>\mathcal O(n^2)</math>. Das so bestimmte Polynom lässt sich dann mit <math>\mathcal O(n)</math> Operationen an einer Stelle auswerten. Darum ist der Newtonsche Algorithmus gut geeignet, wenn das Interpolationspolynom an vielen Stellen ausgewertet werden soll. Auch lassen sich effizient weitere Stützpunkte hinzufügen. Liegen die Stützstellen oder die Stützwerte allerdings zu nahe beieinander, so besteht die Gefahr der [[Auslöschung (numerische Mathematik)|Auslöschung]] bei der Bestimmung der dividierten Differenzen.<br />
<br />
Der Neville-Aitken-Algorithmus ist dagegen gut geeignet, wenn ein Interpolationspolynom nur an ganz wenigen Stellen ausgewertet werden soll, dabei ist er weniger anfällig gegen Auslöschung. Auch im Neville-Aitken-Algorithmus lassen sich effizient neue Stützpunkte hinzufügen. So kann z.&nbsp;B. eine gewünschte Genauigkeit der Interpolation an einer Stelle durch Hinzufügen immer weiterer Stützstellen erreicht werden.<br />
<br />
=== Beispiel: Interpolation der Tangensfunktion ===<br />
[[Datei:Interpolation der Tangensfunktion.svg|miniatur|300x300px|Tangensfunktion (blau) und ihre Polynominterpolante dritten Grades (rot)]]<br />
Interpoliere die Funktion <math>f(x) = \tan(x)</math> bei gegebenen Punkten<br />
{| class="wikitable"<br />
|<math>x_0 = -1{,}5</math><br />
|<math>f(x_0) = -14{,}101420</math><br />
|-<br />
|<math>x_1 = -0{,}75</math><br />
|<math>f(x_1) = -0{,}931596</math><br />
|-<br />
|<math>x_2 = 0</math><br />
|<math>f(x_2) = 0</math><br />
|-<br />
|<math>x_3 = 0{,}75</math><br />
|<math>f(x_3) = 0{,}931596</math><br />
|-<br />
|<math>x_4 = 1{,}5</math><br />
|<math>f(x_4) = 14{,}101420</math><br />
|}<br />
<br />
==== Lösung mit Lagrange ====<br />
Die Lagrange-Basisfunktionen sind<br />
:<math>\begin{align}<br />
\ell_0(x)&={x - x_1 \over x_0 - x_1}\cdot{x - x_2 \over x_0 - x_2}\cdot{x - x_3 \over x_0 - x_3}\cdot{x - x_4 \over x_0 - x_4}<br />
={1\over 243} x (2x-3)(4x-3)(4x+3)\\<br />
\ell_1(x)&= {x - x_0 \over x_1 - x_0}\cdot{x - x_2 \over x_1 - x_2}\cdot{x - x_3 \over x_1 - x_3}\cdot{x - x_4 \over x_1 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x-3)\\<br />
\ell_2(x)&={x - x_0 \over x_2 - x_0}\cdot{x - x_1 \over x_2 - x_1}\cdot{x - x_3 \over x_2 - x_3}\cdot{x - x_4 \over x_2 - x_4}<br />
={3\over 243} (2x+3)(4x+3)(4x-3)(2x-3)\\<br />
\ell_3(x)&={x - x_0 \over x_3 - x_0}\cdot{x - x_1 \over x_3 - x_1}\cdot{x - x_2 \over x_3 - x_2}\cdot{x - x_4 \over x_3 - x_4}<br />
=-{8\over 243} x (2x-3)(2x+3)(4x+3)\\<br />
\ell_4(x)&={x - x_0 \over x_4 - x_0}\cdot{x - x_1 \over x_4 - x_1}\cdot{x - x_2 \over x_4 - x_2}\cdot{x - x_3 \over x_4 - x_3}<br />
={1\over 243} x (2x+3)(4x-3)(4x+3)<br />
\end{align}</math><br />
<br />
also ist das Interpolationspolynom<br />
<br />
:<math> \begin{align}P_\text{Lagrange}(x) =& \tfrac1{243}\big(f(x_0)x (2x-3)(4x-3)(4x+3) \\<br />
& \qquad{} - 8f(x_1)x (2x-3)(2x+3)(4x-3) \\<br />
& \qquad{} + 3f(x_2)(2x+3)(4x+3)(4x-3)(2x-3) \\<br />
& \qquad{} - 8f(x_3)x (2x-3)(2x+3)(4x+3) \\<br />
& \qquad{} + f(x_4)x (2x+3)(4x-3)(4x+3)\big)\\<br />
=& - 1{,}477474x + 4{,}834848x^3<br />
\end{align} </math><br />
<br />
==== Lösung mit Newton ====<br />
Die dividierten Differenzen sind hier<br />
<br />
: <math>\begin{array}{rrrrrr}<br />
x_i & f(x_i) & & & &\\<br />
-1{,}50& -14{,}10140& & & &\\<br />
& & & & &\\<br />
-0{,}75& -0{,}931596&{-0{,}931596-(-14{,}1014) \over -0{,}75-(-1{,}5)}=17{,}5597& & &\\<br />
& & & & &\\<br />
0{,}00 & 0{,}00000 &{0-(-0{,}931596) \over 0 - (-0{,}75)}=1{,}24213 &{1{,}24213-17{,}5597 \over 0-(-1{,}5) }=-10{,}8784& &\\<br />
& & & & &\\<br />
0{,}75 & 0{,}931596 &{0{,}931596 - 0 \over 0{,}75-0}=1{,}24213 &{1{,}24213-1{,}24213 \over 0{,}75-(-0{,}75)}=0{,}00000 &{0 - (-10{,}8784) \over 0{,}75-(-1{,}5)}=4{,}83484&\\<br />
& & & & &\\<br />
1{,}50 & 14{,}10140 &{14{,}10140-0{,}931596 \over 1{,}5 - 0{,}75}=17{,}5597 &{17{,}5597-1{,}24213 \over 1{,}5-0}=10{,}8784 &{10{,}8784-0 \over 1{,}5-(-0{,}75)}=4{,}83484 &{4{,}83484-4{,}83484 \over 1{,}5-(-1{,}5)}=0\\<br />
\end{array}</math><br />
<br />
und das Interpolationspolynom ist<br />
<br />
:<math>\begin{align}P_\text{Newton}(x) =& -14{,}1014+17{,}5597(x+1{,}5)-10{,}8784(x+1{,}5)(x+0{,}75) \\<br />
& {} +4{,}83484(x+1{,}5)(x+0{,}75)x+0(x+1{,}5)(x+0{,}75)x(x-0{,}75)\\<br />
=& -0{,}00005-1{,}4775x-0{,}00001x^2+4{,}83484x^3\end{align}</math><br />
<br />
Verwendet man genauere Startwerte <math>f(x_i)</math>, verschwinden der erste und der dritte Koeffizient.<br />
<br />
== Interpolationsgüte ==<br />
=== Fehlerabschätzung ===<br />
Gegeben sei eine Funktion <math>f</math>, deren <math>n+1</math> Funktionswerte <math>f_i</math> an den Stellen <math>x_i</math> durch das Polynom <math>P</math> interpoliert werden. Mit <math>I</math> sei das kleinste Intervall bezeichnet, das die Stützstellen <math>x_i</math> und eine Stelle <math>x</math> enthält. Ferner sei <math>f</math> (<math>n+1</math>)-mal stetig differenzierbar auf <math>I</math>. Dann existiert ein <math>\xi \in I</math>, für das gilt:<br />
<br />
:<math>f(x) - P(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
Insbesondere ist also bezüglich der [[Maximumsnorm]] auf <math>[a,b]</math> und mit <math>w_n(x) = \prod_{i=0}^n (x-x_i)</math>:<br />
:<math>|f(x)-P(x)| \leq\frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \prod_{i=0}^n |x-x_i| \leq \frac{\|f^{(n+1)}\|_\infty}{(n+1)!} \|w_n\|_\infty</math><br />
<br />
=== Fehleroptimierung nach Tschebyschow<ref>{{Cite book<br />
| edition = 1<br />
| publisher = Vieweg Studium, Nr.32, Vieweg Verlagsgesellschaft<br />
| isbn = 3-528-07232-6<br />
| last = Werner<br />
| first = Jochen<br />
| title = Numerische Mathematik<br />
| date = 1992<br />
| chapter = 10.4<br />
}}<br />
* Auch [http://www.sam.math.ethz.ch/~hiptmair/tmp/NCSE_full.pdf hier] (4.1.3.; PDF-Datei; 11,68&nbsp;MB)</ref>===<br />
[[Datei:T30.svg|mini|Für größere <math>n</math> clustern die Tschebyschow-Punkte an den Intervallrändern.]]<br />
Der Fehler hängt also von einer Ableitung von <math>f</math> ab und von dem Produkt <math>w_n(x):=\prod_{i=0}^n (x-x_i)</math>, also den Stützstellen <math>x_i</math>. Manchmal ist man in der Position, dass man sich Stützstellen selbst wählen kann; etwa, wenn man ein physikalisches Experiment durchführt, oder aber auch bei einigen Verfahren zur numerischen Lösung von [[Differentialgleichung]]en. In diesem Fall ist die Frage interessant, für welche Stützstellen die Maximumsnorm <math>\|w_n\|_{\infty}</math> minimal wird.<br />
<br />
[[Pafnuti Lwowitsch Tschebyschow|Tschebyschow]] hat gezeigt, dass die Nullstellen der [[Tschebyschow-Polynom]]e („Tschebyschow-Punkte“) optimale Stützstellen sind. Die Polynome <math>T_{n+1}(x)=\cos((n+1) \arccos(x) )</math> haben die Nullstellen <math>t_k=\cos\left(\frac{2k+1}{2n+2} \pi\right)</math> <math>k\in\{0,1,\dotsc,n\}</math>. Die ersten Tschebyschow-Polynome sind:<br />
:<math>\begin{align}<br />
T_2(x)= 2x^2-1, &&& T_3(x)= 4x^3-3x, &&& T_4(x)=8x^4-8x^2+1<br />
\end{align}</math><br />
Man kann dann beweisen, dass jedes Polynom der Form <math>w_n</math> auf dem Intervall <math>[-1,1]</math> durch ein normiertes Tschebyschow-Polynom beschränkt bleibt. Diese Aussage kann dann mit der Transformation<br />
:<math>\begin{align}<br />
\xi\in[-1,1] &\rightsquigarrow x=\frac{a+b}{2}+\frac{b-a}{2}\xi &\in [a,b] \\<br />
x\in[a,b] &\rightsquigarrow \xi = \frac{2x-a-b}{b-a} &\in [-1,1]<br />
\end{align}</math><br />
auf den Fall eines allgemeinen Intervalls <math>[a,b]\subset\mathbb{R}</math> übertragen werden. Der Beweis liefert auch die Abschätzung<br />
:<math>\begin{align}<br />
\|w_n\|_{[a,b],\infty} =\max_{x\in[a,b]} |w_n(x)| =2\left(\frac{b-a}{4}\right)^{n+1}.<br />
\end{align}</math><br />
<br />
=== Runges Phänomen ===<br />
[[File:Interpolation der Runge-Funktion (n=5).svg|thumb|Interpolation der Rungefunktion bei 6 äquidistanten Stützstellen (rote Punkte)]]<br />
[[File:Myplot p2.svg|thumb|Interpolation der Rungefunktion bei 11 äquidistanten Stützstellen (rote Punkte)]]<br />
<br />
Verbessert sich die Interpolationsgüte, wenn mehr Stützpunkte hinzugefügt werden? Im Allgemeinen nicht: Bei hohem Grad des Polynoms kann es vorkommen, dass die Polynomfunktion kaum noch der zu interpolierenden Funktion ähnelt, was auch als ''[[Carl Runge|Runges]] Phänomen'' bekannt ist. Polynome streben im Grenzfall <math>x\to \pm \infty</math> gegen <math>\pm\infty</math>. Verhält sich die zu interpolierende Funktion anders, etwa periodisch oder asymptotisch konstant, treten starke Oszillationen in der Nähe der Intervallgrenzen auf. Für solche Funktionen sind Polynominterpolationen über das gesamte Intervall relativ ungeeignet.<br />
<br />
Tschebyschow-Stützstellen, die an den Intervallgrenzen dichter liegen, können zwar den Gesamtfehler der Interpolation verkleinern, dennoch empfiehlt sich ein Wechsel des Interpolationsverfahrens, etwa zur [[Spline-Interpolation]]. Runge gab für dieses Phänomen ein Beispiel an, die nach ihm benannte Runge-Funktion:<br />
<br />
:<math>f(x)=\frac{1}{1+x^2}\,,\quad x\in[-5;5]</math><br />
<br />
=== Konvergenzverhalten ===<br />
Es gibt aber Bedingungen, unter denen sich die Interpolationsgüte mit steigender Anzahl von Stützpunkten verbessert: Wenn das Stützstellengitter immer „feiner“ wird und eine [[analytische Funktion]] interpoliert wird. Genauer: Sei <math>f</math> eine analytische Funktion auf dem Intervall <math>I=[a,b] \subset \R</math>. Für eine Intervallteilung<br />
<br />
:<math>\Delta_m = \{a=x_0^{(m)} < x_1^{(m)} < \dotsb < x_{n_m}^{(m)}=b\}, \qquad m\in \N</math><br />
<br />
sei ihre [[Norm (Mathematik)|Norm]] definiert durch<br />
<br />
:<math>\|\Delta_m\| = \max_i|x_{i+1}^{(m)} - x_i^{(m)}|.</math><br />
<br />
Zu jeder Intervallteilung <math>\Delta_m</math> gibt es ein eindeutig bestimmtes Polynom <math>P_{\Delta_m}</math>, das <math>f</math> an den Stützstellen <math>\Delta_m</math> interpoliert. Gilt für eine Folge von Intervallteilungen <math>\|\Delta_m\| \rightarrow 0</math>, so folgt <math>P_{\Delta_m} \rightarrow f</math> [[Gleichmäßige Konvergenz|gleichmäßig]].<br />
<br />
Allerdings lässt sich zu ''jeder'' Folge <math>\{\Delta_m\}_{m \in \N}</math> auch eine auf <math>I</math> stetige Funktion <math>f</math> finden, so dass <math>\{P_{\Delta_m}\}_{m \in \N}</math> ''nicht'' gleichmäßig gegen <math>f</math> konvergiert (Satz von [[Georg Faber|Faber]]<ref>{{Cite book<br />
| edition = 1<br />
| publisher = [[Birkhäuser Verlag|Birkhäuser]]<br />
| isbn = 3-7643-5845-9<br />
| last = [[Andrei Nikolajewitsch Kolmogorow|Kolmogorow]], et al.<br />
| first = Andrei Nikolajewitsch<br />
| title = Mathematics of the 19th Century<br />
| date = 1998<br />
| chapter = 4<br />
}}<br />
* Auch [http://books.google.de/books?id=Mw6JMdZQO-wC&pg=PA277&lpg=PA277&dq=satz+faber+1914+(1877-1966)&source=bl&ots=N-yWl0pxi2&sig=lBBUKHD9uQdvmUR_oJ9FicSKNAg&hl=de&ei=pu90TrzLJNHAtAbr3-mSCw&sa=X&oi=book_result&ct=result&resnum=5&ved=0CEIQ6AEwBA#v=onepage&q&f=false hier] ([[Google Bücher|Google Books]])</ref>).<br />
<br />
== Verallgemeinerung ==<br />
Bisher wurden die Stützstellen <math>x_i</math> des Interpolationspolynoms <math>P</math> als paarweise verschieden angenommen. Bei der [[Hermiteinterpolation]] ist das nicht der Fall. An mehrfach vorkommenden Stützstellen werden dabei nicht nur die Funktionswerte, sondern auch die Werte der Ableitungen des Interpolationspolynoms vorgegeben.<br />
<br />
== Literatur ==<br />
* Hans R. Schwarz, Norbert Köckler: ''Numerische Mathematik''. 5. Aufl. Teubner, Stuttgart 2004, ISBN 3-519-42960-8<br />
<br />
* {{Literatur <br />
|Autor=Stoer, Bulirsch<br />
|Titel=Numerische Mathematik 1<br />
|Auflage=10.<br />
|Verlag=Springer Verlag<br />
|Ort=Berlin, Heidelberg, New York<br />
|Datum=2007<br />
|ISBN=978-3-540-45389-5<br />
|Kapitel=2.1 Interpolation durch Polynome<br />
|Seiten=39-57<br />
|Kommentar=Behandelt die Verfahren nach Lagrange, Neville-Aitken und Newton, Hermite-Interpolation und Fehlerabschätzung jeweils mit Beispielen und Beweisen.}}<br />
* {{Literatur <br />
|Autor=Press, Teukolsky, Vetterling, Flannery<br />
|Titel=Numerical Recipes<br />
|TitelErg=The Art of Scientific Computing<br />
|Auflage=3.<br />
|Verlag=Cambridge University Press<br />
|Ort=Cambridge<br />
|Datum=2007<br />
|ISBN=978-0-521-88407-5<br />
|Kapitel=3.2 Polynomial Interpolation and Extrapolation<br />
|Seiten=118-120<br />
|Kommentar=Neville-Aitken-Algorithmus mit C++-Implementation}}<br />
* {{Literatur<br />
|Autor=Carl Runge<br />
|Hrsg=<br />
|Titel=Über empirische Funktionen und die Interpolation zwischen äquidistanten Ordinaten<br />
|Sammelwerk=Zeitschrift für Mathematik und Physik<br />
|Band=46<br />
|Verlag=B. G. Teubner<br />
|Ort=Leipzig<br />
|Datum=1901<br />
|Seiten=224–243<br />
|Kommentar=Runge-Phänomen<br />
|Online=http://iris.univ-lille1.fr/handle/1908/2014}}<br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik|Dividierte Differenzen & Horner-Schema|Implementierungen in der Algorithmensammlung}}<br />
* [http://www.mathe-online.at/materialien/Andreas.Pester/files/applets/Interpolation/ Seite zu Newton, Lagrange und Cubic Spline] mit Java-Applet<br />
* [http://matheplanet.com/default3.html?call=article.php?sid=977 Erläuterungen und Beispiel zur Lagrange-Interpolation]<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Theorie der Polynome]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Diskussion:Funktion_(Mathematik)&diff=168720181Diskussion:Funktion (Mathematik)2017-09-02T20:22:01Z<p>HerrHartmuth: Neuer Abschnitt /* Stückweise Definition */</p>
<hr />
<div>{{Diskussionsseite}}<br />
{{Autoarchiv-Erledigt|Alter=20|Ziel='Diskussion:Funktion (Mathematik)/Archiv/3'|Mindestbeiträge=2|Klein=Ja|Mindestabschnitte=2|Frequenz=ständig}}<br />
{{Autoarchiv|Alter=365|Frequenz=monatlich|Ziel='Diskussion:Funktion (Mathematik)/Archiv/3'|Mindestbeiträge=1|Mindestabschnitte=3}}<br />
{{Archivübersicht|<br />
* [[/Archiv/1|2005 bis 2012]]<br />
* [[/Archiv/2|2013 und 2014]]<br />
* [[/Archiv/3|ab 2015]]<br />
}}<br />
<br />
== Noch einmal f=(G(f),A,B) ==<br />
<br />
<br />
Ich verstehe es nicht, wie man solchen Unsinn belassen kann. Auf meiner Diskussionsseite findet man Ausführungen dazu, sowie zur Einleitung und zum Kapitel „Definition“. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 15:45, 27. Nov. 2016 (CET)<br />
<br />
== Kann jemand den Begriff '''Funktion''' mit Hilfe des Prädikatenkalküls definieren? ==<br />
<br />
Unter Verwendung der Prädikate <math>\mathfrak{M}</math> für Menge, <math>\mathfrak{P}</math> für geordnetes Paar und den Operatoren <math>\lambda</math> und <math>\rho</math> für linke bzw. rechte Komponente eines Paars.<br />
<br />
::<math>\mathfrak{Fkt}(f)~\Longleftrightarrow_\text{def}~\cdots</math><br /><br />
--[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 16:38, 10. Dez. 2016 (CET)<br />
<br />
== Formale Definition ==<br />
<br />
Bevor ich etwas Mathematisches schreibe, verschaffe ich mir, um Ungereimtheiten zu vermeiden, Klarheit über die zu beschreibenden Begriffe, indem ich diese zunächst im Prädikatenkalkül beschreibe. Ich habe es für das im Artikel '''Definition''' stehende getan. Als Quelle für die Begriffsinhalte diente mir ''Allgemeine Mengenlehre'' von A.Oberschelp.<br />
<br />
Eine Übertragung in Artikeltext findet sich auf meiner Diskussionsseite. Dort bilden die ersten beiden der nachstehenden Definitionen die Einleitung. <br />
<br />
Nachstehend Verwendetes:<br /><br />
<sup>L</sup>x,<sup>R</sup>x = linke, rechte Komponente des Paars x<br /><br />
Kmp(i,x) = i-te Komponente des Tupels x<br /><br />
"ise" steht für "ist/sei ein/eine"<br /><br />
----<br />
----<br />
*<math>f\text{ ise Funktion }\Leftrightarrow_\text{def}~\mathfrak{Fkt}(f)~\Leftrightarrow_\text{def}~\mathfrak{Klasse}(f)\land(\forall x,y\in f\colon \mathfrak{Paar}(x) \wedge (x\not=y \Longrightarrow{}^\text{L}\!x\not={}^\text{L}\!y))</math><br />
*<math>f\text{ ise injektive Funktion }\Leftrightarrow_\text{def}~^\text{inj}\mathfrak{Fkt}(f)~\Leftrightarrow_\text{def}~\mathfrak{Fkt}(f)\land(\forall x,y\in f\colon (x\not=y \Longrightarrow{}^\text{R}\!x\not={}^\text{R}\!y))</math><br />
<br />
<math>\mathfrak{Fkt}(f)::</math><br />
*<math>f\text{ ordnet dem Objekt }a\text{ das Objekt }b\text{ zu}~=_\text{def}~f\colon a\mapsto b~=_\text{def}~(a,b)\in f</math><br />
*<math>\text{Definitionsbereich von }f~=_\text{def}~\text{D}\!_f~=_\text{def}~\{{}^\text{L}\!x\mid x\in f\}</math><br />
*<math>\text{Wertebereich von }f~=_\text{def}~\text{W}\!_f~=_\text{def}~\{{}^\text{R}\!x\mid x\in f\}</math><br /><br />
Sei <math>x\in\text{D}_f::</math><br />
*<math>\text{Funktionswert von }f\text{ für das Argument }x~=_\text{def}f(x)~=_\text{def}~\boldsymbol\iota\, y\colon\,f\!:\!x\!\mapsto\!y</math><br />
----<br />
----<br />
<math>~\mathfrak{Klasse}(A,B)::</math><br />
*<math>f\text{ ise Funktion aus }A\text{ in }B~\Leftrightarrow_\text{def}~f\colon A\longrightarrow B~\Leftrightarrow_\text{def}~\mathfrak{Fkt}(f)\wedge \text{D}\!_f\!\subseteq\! A\land\text{W}\!_f\!\subseteq\! B</math><br />
*<math>f\text{ ise totale Funktion aus }A\text{ in }B~\Leftrightarrow_\text{def}~f\colon A-\!\!\text{t}\!\!\to B~\Leftrightarrow_\text{def}~f\colon A\longrightarrow B\wedge \text{D}\!_f=A</math><br />
*<math>f\text{ ise surjektive Funktion aus }A\text{ in }B~\Leftrightarrow_\text{def}~f\colon A-\!\!\text{s}\!\!\to B~\Leftrightarrow_\text{def}~f\colon A\longrightarrow B\wedge \text{W}\!_f=B</math><br />
*<math>f\text{ ise injektive Funktion aus }A\text{ in }B~\Leftrightarrow_\text{def}~f\colon A-\!\!\text{i}\!\!\to B~\Leftrightarrow_\text{def}~f\colon A\longrightarrow B\land{}^\text{inj}\mathfrak{Fkt}(f)</math><br />
*<math>f\text{ ise bijektive Funktion aus }A\text{ in }B~\Leftrightarrow_\text{def}~f\colon A-\!\!\text{b}\!\!\to B~\Leftrightarrow_\text{def}~f\colon A-\!\!\text{s}\!\!\to B\land f\colon A-\!\!\text{i}\!\!\to B</math><br />
----<br />
----<br />
<br />
<br />
*<math>t\text{ ise Tripelfunktion }\Leftrightarrow_\text{def}~\mathfrak{Tfkt}(t)~\Leftrightarrow_\text{def}~\exist f,A,B\colon(\mathfrak{Menge}(f,A,B)\wedge f\colon A\longrightarrow B\wedge t=(f,A,B))</math><br />
<br />
<math>\mathfrak{Tfkt}(t)::</math><br />
*<math>\text{Graph von }t=_\text{def}\text{G}_t=_\text{def}~\text{Kmp}(1,t)</math><br />
*<math>t\text{ ordnet dem Objekt }a\text{ das Objekt }b\text{ zu}~=_\text{def}~t\colon a\mapsto b~=_\text{def}~\text{G}_t\colon a\mapsto b</math><br />
*<math>\text{Definitionsbereich von }t=_\text{def}\text{D}_t=_\text{def}\text{D}_{\text{G}_t}</math><br />
*<math>\text{Wertebereich von }t=_\text{def}\text{W}\!_t=_\text{def}\text{W}\!_{\text{G}_t}</math><br />
<br />
Sei <math>x\in\text{D}_t::</math><br />
*<math>\text{Funktionswert von }t\text{ für das Argument }x~=_\text{def}t(x)~=_\text{def}\text{G}_t(x)</math><br /><br />
--[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 11:46, 16. Dez. 2016 (CET)<br />
<br />
:Wir schreiben hier eine nach Möglichkeit allgemeinverständliche Enzyklopädie und kein Fachbuch über axiomatische Mengenlehre. --[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 16:48, 16. Dez. 2016 (CET)<br />
<br />
::Lieber Digamma, du hast wohl meinen ersten Satz oben überlesen, Gruß --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 07:37, 17. Dez. 2016 (CET)<br />
<br />
:::Ja anscheinend. Also alles OK. --[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 10:23, 17. Dez. 2016 (CET)<br />
<br />
::::Es würde mich deine Meinung über meine Übertragung der oben formal beschriebenen Begriffe in einen Artikeltext interessieren, du findest diese auf meiner Diskussionsseite. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 10:48, 17. Dez. 2016 (CET)<br /><br />
<br />
----<br />
''Hierher kopiert von [[Benutzer Diskussion:HilberTraum]]''<br />
<br />
=== Totalität von Funktionen ===<br />
<br />
Hallo HilberTraum! Ich habe eine Frage, die ich schon anderen Benutzern im Portal Mathematik stellte ohne bisher Antwort zu erhalten: Im Kapitel "Definition" des Funktionsartikels werden die mit "Funktion" bezeichneten mathematischen Objekte als rechtseindeutige Paarmengen definiert. Mich irritiert der in Definition stehende Satz: ''f ist also linkstotal''. Ich kann z.B. in der Funktion f={(0,0)} keine Linkstotalität erkennen. Sind Funktionen mehr als nur rechtseindeutige Paarmengen? --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 12:50, 19. Dez. 2016 (CET)<br />
<br />
: Laut unserem Artikel sind Funktionen per Definition rechtseindeutig ''und'' linkstotal. Wenn also f={(0,0)} eine Funktion (bzw. der Graph einer Funktion) im Sinne des Artikels ist, dann muss die Definitionsmenge D = {0} sein. Grüße -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 14:05, 19. Dez. 2016 (CET)<br />
<br />
:: Ok! Aber warum hat man rechtseindeutigen Paarmengen das Attribut "linkstotal" angehängt? Oder sollte es (im vorliegenden konkreten Fall) heißen: '''"{(0,0)} ist linkstotal <big><big>in Bezug auf</big></big> {0}"''' und nicht lediglich '''"{(0,0)} ist linkstotal"''' --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 19:00, 19. Dez. 2016 (CET)<br />
::: „linkstotal in Bezug auf“ kommt mir ungewöhnlich vor, aber ich hab jetzt mal „f ist eine Relation“ ergänzt zu „f ist eine Relation zwischen D und Z“. Dann dürfte die Sprechweise ungefähr so wie in [[Relation (Mathematik)]] sein. Besser? -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 20:12, 19. Dez. 2016 (CET)<br />
<br />
:::: Du sagst es kommt dir ungewöhnlich vor. Das glaub ich dir aber nicht: Du kennst doch sicher die Redewendung: „f ist eine Funktion aus A in B“, was so viel besagt wie: D(f) ist Teilmenge oder gleich A und W(f) ist Teilmenge oder gleich B, kurz (f:A⟶B) und auch wirst du die Wendung kennen: „f ist eine '''totale''' Funktion aus A in B“, was so viel besagt wie (f:A⟶B) und D(f)=A. In diesem und keinem anderen Sinne ist das Wort „total“ zu gebrauchen. Entsprechendes gilt für „surjektiv“ in Bezug auf B. Hier ist f nichts anderes als eine Paarmenge, also eine Funktion. Der Umweg über Relation ist unnötig und schwerfällig. Du wirst es mir sicher nicht verübeln, wenn ich dir meine Vorstellungen unterbreite. Grüße --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 00:45, 20. Dez. 2016 (CET)<br />
::::: Also normalerweise ist doch mit „Funktion“ eine totale Funktion gemeint und der Fall, dass D(f) eine Teilmenge von A ist, heißt dann [[partielle Funktion]]. Ich habe es zwar glaub ich im Zusammenhang mit der theoretischen Informatik auch schon anders herum gesehen, aber in der Mathematik wird bei einer Funktion eigentlich immer D(f) = A angenommen. -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 17:21, 20. Dez. 2016 (CET)<br />
<br />
=== Indexmenge einer Folge ===<br />
<br />
Auch wenn du mich als aufdringlich empfindest magst, HilberTraum, frage ich: Folgen sind, wie ich es aus dem Artikel entnehme, Funktionen, deren Definitionsmengen man Indexmengen nennt. Es sind bei endlichen Folgen die Mengen I(m,n):={i|i∈N∧m≤i≤n}, für m≤n. Meine Frage: welche Indexmengen haben die Folgen f:=(a<sub>0</sub>,...a<sub>5</sub>) und g:=(b<sub>1</sub>,...b<sub>6</sub>)?<br />
<br />
: Du bist doch nicht aufdringlich, ich weiß nur bei deinen Fragen nicht immer genau, ob das neutrale Fragen sind, oder ob du auf ein bestimmtes allgemeines Problem hinauswillst ;-) Meine Meinung zu der konkreten Frage: Normalerweise müsste man wohl bei Folgen immer genau die Indexmenge mitangeben oder sich halt z. B. einheitlich auf m=0 oder m=1 einigen. Die beiden Folgen f und g sehen zwar so aus, als ob die Indexmengen {0,…,5} bzw. {1,…6} wären (und alles anderer wäre verwirrend), aber theoretisch könnte ja auch g z. B. die Indexmenge {0,…,5} haben und das 0-te Element von g ist b<sub>1</sub>. Grüße -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 17:32, 20. Dez. 2016 (CET)<br />
<br />
::Du siehst es schon richtig dass ich immer auf ein Problem hinauswill und ich bin zufrieden, wenn mir jemand, der im Portal Mathematik maßgeblich ist, zuhört.<br /><br />
::Zu Deiner letzten Antwort in der total-Diskussion: ich bin mit dem Funktionsartikel sehr unzufrieden, insbesondere wegen des Umwegs über Relation und logisch unrichtigen Formeln im Kapitel Definition. Meine Vorstellung kannst du auf meiner Diskseite finden.<br /><br />
::Zum Folgenproblem: Im Artikel werden Semantik und Syntax vermengt: Die Darstellung einer Folge ist nicht die dargestellte Folge.<br />
::Guts Nächtle! --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 21:38, 20. Dez. 2016 (CET)<br />
::: Zu deiner Version auf deiner Diskseite: Da ist sicher einiges Bedenkenswertes enthalten, aber das sollte vielleicht besser in einem größeren Kreis als zwischen uns beiden diskutiert werden. Allerdings müsste erstmal eine Quelle her, in der partielle Funktionen nur als „Funktionen“ bezeichnet werden. Und der Begriff „Tripelfunktion“ scheint mir nach einer kurzen Recherche gar nicht zu existieren, hast du dir den ausgedacht? -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 16:49, 21. Dez. 2016 (CET)<br />
<br />
::::Gerne bin ich bereit, in einem größeren Kreis zu diskutieren, kannst du es Initiieren? Auf der Diskseite des Funktionsartikels habe ich eine formale Definition abgelegt und dort als Quelle ''Allgemeine Mengenlehre'' von A.Oberschelp erwähnt. Ich verstehe nicht, was du mit ''partielle Funktionen nur als „Funktionen“'' meinst. Tripelfunktionen finden sich auch bei Oberschelp, er spricht von "Funktion (im Sinne eines Tripels)". Ich habe es zu "Tripelfunktion" vereinfacht um es deutlich von "Funktion" abzugrenzen. Ich halte es für nicht gut, diesen Begriff im Artikel zu belassen. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 18:33, 21. Dez. 2016 (CET)<br />
<br />
''Ende der Kopie''<br />
----<br />
::::: Den Oberschelp kann ich hier leider nicht einsehen, evtl. morgen. Ich denke aber, wenn dort „Funktion (im Sinne eines Tripels)“ steht, dann geht „Tripelfunktion“ als gefetteter Begriff in einer Definition in Richtung Begriffsetablierung. Mit ''partielle Funktionen nur als „Funktionen“'' meinte ich die Frage, ob der Begriff „Funktion f von X nach Y“ ohne weitere Zusätze und Erklärungen den Fall miteinschließt, dass die Definitionsmenge von f auch eine echte Teilmenge von X sein kann. -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 19:56, 21. Dez. 2016 (CET)<br /><br />
<br />
:::::Ich habe meine Version leicht verändert, insbesondere "partielle Funktion" herausgenommen und Tripelfunktion nicht mehr als solche benannt. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 11:26, 22. Dez. 2016 (CET)<br />
<br />
== Enleitung und Definition der Basisbegriffe ==<br />
<br />
Kritik an der Einleitung<br />
*Der Verweis auf Relation könnte den unbedarften Leser veranlassen, sich erst einmal mit dem Relationsbegriff zu beschäftigen, was jedoch unnötig ist.<br />
*In der modernen Mathematik ist der Funktionsbegriff nicht auf Mengen beschränkt.<br />
*Die Angaben: "unabhängige Variable, abhängige Variable" sind logisch inkorrekt.<br />
*Mit den Angaben "parametrische Kurven, Skalar- und Vektorfelder, Transformationen, Operationen, Operatoren" können nur mathematisch versiertere etwas anfangen, für diese ist der Funktionsartikel aber nicht bestimmt.<br /><br />
<br />
<br />
Einleitung<br />
----<br />
----<br />
Eine '''Funktion''', auch spricht man von '''Abbildung''', ordnet mathematischen Objekten mathematische Objekte zu, zum Beispiel jeder Zahl deren Quadrat oder jeder Menge die Menge ihrer Teilmengen. Funktionen sind eindeutige Zuordnungen, das heißt, keinem Objekt wird mehr als ein Objekt zugeordnet. Wenn darüber hinaus kein Objekt mehr als einem Objekt zugeordnet ist, dann nennt man die Funktion '''eineindeutig''' oder '''injektiv''' (das zweite Beispiel ist eine injektive Funktion). <br /><br />
<br />
Funktionen nehmen in der Mathematik eine zentrale Stellung ein, in vielen mathematischen Disziplinen sind deren Objekte Funktionen.<br /> <br />
<br />
<small>Nachstehendes nach A.Obershelp: ''Alllgemeine Mengenlehre''. Alle Definitionen sind mengen-klassen-neutral formuliert</small><br /><br />
'''<big>Definition der Basisbegriffe</big>''' <br /><br />
<br />
Funktionen bestehen aus geordneten Paaren: ordnet eine Funktion <math>f</math> dem Objekt <math>a</math> das Objekt <math>b</math> zu, dann ist <math>(a,b)</math> Element von <math>f</math> und man schreibt anstelle <math>(a,b)\!\in\!f</math> auch <math>f\!:\!a\mapsto b</math> und nennt <math>b</math> '''Funktionswert von''' <math>f</math> '''für das Argument''' <math>a</math>, so notiert: <math>f(a)</math>. Die Gesamtheit der linken sowie die der rechten Komponenten der Elemente von <math>f</math> heißt ihr '''Definitionsbereich:''' <math>\text{D}\!_f</math> respektive '''Wertebereich:''' <math>\text{W}\!_f</math>.<br /><br />
<br />
Man nennt <math>f</math> eine '''Funktion aus <math>A</math> in <math>B</math>''', formal <math>f\!:\!A\!\longrightarrow\! B</math>, wenn <math>\text{D}\!_f\!\subseteq\! A</math> und <math>\text{W}\!_f\!\subseteq\! B</math>, insbesondere nennt man sie '''totale Funktion aus <math>A</math> in <math>B</math>''' oder kurz '''Funktion <u>von</u> <math>A</math> in''' <math>B</math>, formal <math>f\!:\!A\!\to\! B</math>, wenn <math>\text{D}\!_f\!=\! A</math> und '''surjektive Funktion aus/von <math>A</math> in <math>B</math>''' oder kurz '''Funktion aus/von <math>A</math> <u>auf</u> <math>B</math>''', formal <math>f\!:\!A-\!\!\!\twoheadrightarrow\!\!/\!\!\twoheadrightarrow\! B</math>, wenn <math>\text{W}\!_f\!=\!B</math>. Ist die Funktion injektiv, dann setzt man eine Feder vor den Pfeil, zum Beispiel steht <br />
<math>f\colon\!A\twoheadrightarrow\!\!\!\!\!\!\!\rightarrowtail\! B</math> für "''<math>f</math> ist eine injektive Funktion von <math>A</math> auf <math>B\,</math>''". Für das Attributepaar "''injektiv'',''surjektiv''" sagt man auch '''''bijektiv'''''.<br /><br />
<br />
Gleichbedeutend mit der Aussage <math>f\!:\!A\!\longrightarrow\! B</math> ist das auch "Funktion" genannte Tripel <math>(f,A,B)</math>. Die erste Komponente so einer Funktion, <math>t</math>, heißt ihr '''Graph:''' <math>\text{G}_t</math> und man schreibt (inkorrekter Weise unter Gefahr von Missverständnissen!) statt <math>\text{G}_t(x)</math> einfach <math>t(x)</math>, entsprechend <math>(x,y)\!\in\!t,~t\!:\!x\mapsto y,~D_t,~W_t</math>.<br /><br />
--[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 11:58, 22. Dez. 2016 (CET)<br />
: Was hat es am Schluss mit dem Wechsel von f zu t auf sich? Ist das ein Schreibfehler oder etwas, was ich nicht verstehe? Insgesamt sehe ich noch nicht recht, worin genau die Verbesserung bzgl. der Verständlichkeit liegt. Gerade den vorderen Teil mit „Objekt … Objekt … Objekt … usw.“ finde ich ziemlich anstrengend. In der Definition müsste wohl nochmal stehen, dass jedem Objekt <math>a</math> höchstens ein Objekt <math>b</math> zugeordnet wird, oder? -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 20:07, 22. Dez. 2016 (CET)<br />
: Weitere Kritik: Die gegebenen Formulierungen sehen den Satz vom ausgeschlossenen Dritten als gegeben (betrifft Injektivität; Funktionsbegriff nicht). Diese Einschränkung der Verwendbarkeit ist unnötig. Die Angabe, woraus Funktionen "bestehen" ist auch sinnlos einschränkend. Mir scheint, hier wird Mathematik mit gängige-Mengenlehre-auf-klassischer-Logik verwechselt. "<math>f\colon A \to B</math>" ist auch nicht unbedingt sinnvoll als "Aussage" zu sehen. --[[Benutzer:Daniel5Ko|Daniel5Ko]] ([[Benutzer Diskussion:Daniel5Ko|Diskussion]]) 21:09, 22. Dez. 2016 (CET)<br />
<br />
::@Hilbertraum: In meinem Vorschlag ist durchgehend f für Funktion als Paarklasse verwendet, Funktionen als Tripel sind andersartige Objekte. Würde statt t der Buchstabe f verwendet, dann implizierte es, dass f das Tripel (f,A,B) bezeichnet, was natürlich ebenso mathematisch unhaltbar wäre wie das von mir wiederholt beanstandete f=(G<sub>f</sub>,A,B). Ich halte die seltener in der Literatur anzutreffende Tripelversion für problematisch: z.B. ist für f=((a,b,c),{1,2,3},{a,b,c}) als Paarklassenfunktion f(2)= {1,2,3}, als Tripelfunktion f(2)=b. Ich würde es begrüßen, Funktionen als Tripel nicht im Artikel zu belassen.<br />
::Deiner Kritik an „Objekt … Objekt … Objekt … usw.“ stimme ich zu, es ist für viele schwer zu lesen. Ich habe sehr mit der Formulierung gerungen, vielleicht könntest du es leichter lesbar ausdrücken?<br />
<br />
::@Daniel5Ko: Der Mathematiker, der mit den Grundlagen des Prädikatenkalküls vertraut ist, weiß, das "<math>f\colon A \to B</math>" ein Aussage ist und nichts anderes. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 11:08, 23. Dez. 2016 (CET)<br />
:::: Und wer sich etwas besser auskennt, weiß, dass das keine besonders gute Sicht auf die Dinge ist. Natürlich kann man die Sichtweise einnehmen, aber sie als die einzig wahre zu verkaufen, ist Unfug. --[[Benutzer:Daniel5Ko|Daniel5Ko]] ([[Benutzer Diskussion:Daniel5Ko|Diskussion]]) 22:51, 23. Dez. 2016 (CET)<br />
<br />
::::Ich empfehle dir, lieber Daniel, dich mit der Sprache der Mathematik, dem Prädikatenkalkül, vertraut zu machen. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 09:55, 24. Dez. 2016 (CET) <br />
::::: Das wäre redundant. Ich empfehle dir, dich mit modernen Entwicklungen in der Logik vertraut zu machen. --[[Benutzer:Daniel5Ko|Daniel5Ko]] ([[Benutzer Diskussion:Daniel5Ko|Diskussion]]) 22:53, 24. Dez. 2016 (CET)<br />
<br />
:::Ich habe in meinem obigen Vorschlag den zweiten Absatz im Abschnitt "Definition der Basisbegriffe" die Definitionen den Definitionen bei Oberschelp genauer angepasst.--[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 12:50, 23. Dez. 2016 (CET)<br />
<br />
== @Hilbertraum Nachtrag ==<br />
<br />
Wiederholung von Eindeutigkeit halte ich für überflüssig, denn sie ist mit großer Klarheit schon in der Einleitung dargelegt und man kann voraussetzen, dass der Leser zunächst die Einleitung aufmerksam liest. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 08:00, 24. Dez. 2016 (CET)<br />
: Wenn z. B. ich persönlich einen mathematischen Begriff nachschlage, lese ich meistens ''nur'' die Definition, denn ich weiß ja meist schon, um was es ungefähr geht, habe aber nur die genaue Definition nicht parat. Darum sollten mMn Definitionen schon immer für sich alleine stehen können. -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 20:43, 24. Dez. 2016 (CET)<br />
<br />
::Ja, lieber Hilbert, ich verstehe deine Argumentation und schließe mich (ungern) an, die Überarbeitung meines Vorschlags nachstehend. Zunächst aber komme ich auf eine frühere Anfrage hinsichtlich Partiellität zurück:<br />
::<math>f\!:\!\R\!\longrightarrow\!\Q,x\mapsto x^2</math> beschreibt die Funtion <math>\{y\mid y=x\dot{} x\land y\in\Q\}</math> mit <math>\text{D}_f\subset\R</math>. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 17:42, 25. Dez. 2016 (CET)<br />
<br />
==Überarbeiteter Vorschlag==<br />
Einleitung<br />
----<br />
----<br />
Eine '''Funktion''', auch spricht man von '''Abbildung''', ordnet mathematischen Objekten mathematische Objekte zu, zum Beispiel jeder Zahl deren Quadrat oder jeder Menge die Menge ihrer Teilmengen. Funktionen sind eindeutige Zuordnungen, das heißt, keinem Objekt wird mehr als ein Objekt zugeordnet. <br />
Sie nehmen in der Mathematik eine zentrale Stellung ein, in vielen mathematischen Disziplinen sind deren Objekte Funktionen.<br /><br />
<br />
==Definition der Basisbegriffe==<br />
Funktionen sind ''rechteindeutige'' Klassen geordneter Paare, das heißt, sie haben keine verschiedenen Elemente mit gleicher linker Komponente. Ist eine Funktion, <math>f</math>, auch linkseindeutig, dann nennt man sie '''eineindeutig''' oder '''injektiv''' oder eine '''Injektion''' und bezeichnet mit <math>f^{-1}</math> ihre '''Inverse''', das ist die aus <math>f</math> durch Austausch der Komponenten in ihren Elementen hervorgehende Funktion. Zum Beispiel ist <math>\{(1,2),(3,4)\}^{-1}=\{(2,1),(4,3)\}</math>.<br /><br />
<br />
Die Gesamtheit der linken sowie die der rechten Komponenten der Elemente von <math>f</math> heißt ihr '''Definitionsbereich:''' <math>\text{D}\!_f</math> respektive '''Wertebereich:''' <math>\text{W}\!_f</math>.<br /><br />
<br />
Für <math>(a,b)\!\in\!f</math> schreibt man auch <math>f\!:\!a\mapsto b</math> und sagt: "''<math>f</math> ordnet dem Objekt <math>a</math> das Objekt <math>b</math> zu''", und nennt <math>b</math> '''Funktionswert von <math>f</math> für das Argument <math>a</math>''', formal: <math>f(a)</math>.<br /><br />
<br />
===Funktionsarten===<br />
Man nennt <math>f</math> eine '''Funktion aus <math>A</math> in <math>B</math>''', formal <math>f\!:\!A\!\longrightarrow\! B</math>, wenn <math>\text{D}\!_f\!\subseteq\! A</math> und <math>\text{W}\!_f\!\subseteq\! B</math>, insbesondere nennt man sie '''totale Funktion aus <math>A</math> in <math>B</math>''' oder kurz '''Funktion <u>von</u> <math>A</math> in''' <math>B</math>, formal <math>f\!:\!A\!\to\! B</math>, wenn <math>\text{D}\!_f\!=\! A</math> und '''surjektive Funktion aus/von <math>A</math> in <math>B</math>''' oder kurz '''Funktion aus/von <math>A</math> <u>auf</u> <math>B</math>''', formal <math>f\!:\!A-\!\!\!\twoheadrightarrow\!\!/\!\!\twoheadrightarrow\! B</math>, wenn <math>\text{W}\!_f\!=\!B</math>.<br /><br />
Ist <math>f</math> injektiv, dann setzt man die Feder <math>\rightarrowtail\!\!\!\!\!\!\!{\color{White}{\bullet\!\!\bullet}}\!\!\!\!\!</math> vor den Pfeil, zum Beispiel steht <br />
<math>f\colon\!A\twoheadrightarrow\!\!\!\!\!\!\!\rightarrowtail\! B</math> für "''<math>f</math> ist eine injektive Funktion von <math>A</math> auf <math>B\,</math>''" . Für das Attributepaar "''injektiv'',''surjektiv''" sagt man auch '''''bijektiv'''''.<br /><br />
<br />
===Funktion als Tripel===<br />
Gleichbedeutend mit der Aussage <math>f\!:\!A\!\longrightarrow\! B</math> ist das auch "Funktion" genannte Tripel <math>(f,A,B)</math>. Die erste Komponente so eines Tripels, <math>t</math>, heißt sein '''Graph:''' <math>\text{G}_t</math> und man schreibt statt <math>\text{G}_t(x)</math> einfach <math>t(x)</math>, entsprechend <math>(x,y)\!\in\!t,~t\!:\!x\mapsto y,~\text{D}_t,~\text{W}\!_t</math>.<br /><br />
<br />
-- [[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 10:36, 26. Dez. 2016 (CET)<br />
<br />
== Nochmals einen überarbeiteter Vorschlag ==<br />
<br />
Einleitung<br />
----<br />
----<br />
Eine '''Funktion''', auch spricht man von '''Abbildung''', ordnet mathematischen Objekten mathematische Objekte zu, zum Beispiel jeder Zahl deren Quadrat oder jeder Menge die Menge ihrer Teilmengen. Funktionen sind eindeutige Zuordnungen, das heißt, keinem Objekt wird mehr als ein Objekt zugeordnet. <br />
Sie nehmen in der Mathematik eine zentrale Stellung ein, in vielen mathematischen Disziplinen sind deren Objekte Funktionen.<br/><br />
<br />
==Definition der Basisbegriffe==<br />
Funktionen sind ''rechteindeutige'' Klassen geordneter Paare<ref name="AO">A.Oberschelp: ''Allgemeine Mengenlehre''</ref>, das heißt, sie haben keine verschiedenen Elemente mit gleicher linker Komponente. Ist eine Funktion, <math>f</math>, auch linkseindeutig, dann nennt man sie '''eineindeutig''' oder '''injektiv''' oder eine '''Injektion''' und bezeichnet mit <math>f^{-1}</math> ihre '''Inverse''', das ist die aus <math>f</math> durch Austausch der Komponenten in ihren Elementen hervorgehende Funktion. Zum Beispiel ist <math>\{(1,2),(3,4)\}^{-1}=\{(2,1),(4,3)\}</math>.<br/><br />
<br />
Die Gesamtheit der linken sowie die der rechten Komponenten der Elemente von <math>f</math> heißt ihr '''Definitionsbereich:''' <math>\text{D}\!_f</math> respektive '''Wertebereich:''' <math>\text{W}\!_f</math>.<br/><br />
<br />
Für <math>(a,b)\!\in\!f</math> schreibt man auch <math>f\!:\!a\mapsto b</math> und sagt: "''<math>f</math> ordnet dem Objekt <math>a</math> das Objekt <math>b</math> zu''", und nennt <math>b</math> '''Funktionswert von <math>f</math> für das Argument <math>a</math>''', formal: <math>f(a)</math>.<br />
===Funktionsarten===<br />
{| <br />
|-<br />
|Man schreibt<br />
||<math>f\!:\!A\!\longrightarrow\! B\;</math><br />
||wenn<br />
||<math>\text{D}\!_f\!\subseteq\! A</math> und <math>\text{W}\!_f\!\subseteq\! B\;</math><br />
||und sagt<ref name="?">mir ist keine Quelle bekannt</ref>:<br />
||'''<math>f</math> ist eine'''<br />
||'''Funktion von <math>A</math> nach <math>B.\;</math>''' Auch sagt man oft<ref name="AO"/>:||<br />
||'''<math>f</math> bildet'''<br />
||'''<math>A</math> partiell in <math>B</math> ab'''<br />
|-<br />
|<br />
||<math>f\!:\!A\!\to\! B</math>||<br />
|| <math>\text{D}\!_f\!=\! A</math> und <math>\text{W}\!_f\!\subseteq\! B</math>||||'''<math>f</math> ist eine'''<br />
||'''totale Funktion von <math>A</math> nach <math>B</math>'''|| ||'''<math>f</math> bildet'''<br />
||'''<math>A</math> in <math>B</math> ab'''<br />
|-<br />
|<br />
||<math>f\!:\!A-\!\!\!\twoheadrightarrow\! B</math>||<br />
|| <math>\text{D}\!_f\!\subseteq\! A</math> und <math>\text{W}\!_f\!=\!B</math>||||'''<math>f</math> ist eine'''<br />
||'''surjektive Funktion von <math>A</math> nach <math>B</math>'''|| ||'''<math>f</math> bildet'''<br />
||'''<math>A</math> partiell auf <math>B</math> ab'''<br />
|-<br />
|<br />
||<math>f\!:\!A\!\twoheadrightarrow\! B</math>||<br />
|| <math>\text{D}\!_f\!=\! A</math> und <math>\text{W}\!_f\!=\!B</math>||||'''<math>f</math> ist eine'''<br />
||'''totale, surjektive Funktion von <math>A</math> nach <math>B</math>'''|| ||'''<math>f</math> bildet'''<br />
||'''<math>A</math> auf <math>B</math> ab'''<br />
|}<br />
Ist <math>f</math> injektiv, dann setzt man die Feder <math>\rightarrowtail\!\!\!\!\!\!\!{\color{White}{\bullet\!\!\bullet}}\!\!\!\!\!</math> vor den Pfeil, zum Beispiel steht <br />
<math>f\colon\!A\operatorname{\twoheadrightarrow\!\!\!\!\!\!\!\!\!\!\;\;\rightarrowtail}\! B</math> für "''<math>f</math> ist eine totale,surjektive,injektive Funktion von <math>A</math> nach <math>B\,</math>''" . Für das Attributepaar "''surjektiv'',''injektiv''" sagt man auch '''''bijektiv'''''. Demnach steht <br />
<math>f\colon\!A\operatorname{\twoheadrightarrow\!\!\!\!\!\!\!\!\!\!\;\;\rightarrowtail}\! B</math> auch für "''<math>f</math> ist eine totale,bijektive Funktion von <math>A</math> nach <math>B\,</math>''" .<br/><br />
<br />
===Funktion als Tripel===<br />
Gleichbedeutend mit der Aussage <math>f\!:\!A\!\longrightarrow\! B</math> ist das ebenfalls "Funktion" genannte Tripel <math>(f,A,B)</math><ref name="?"/>, auch so geschrieben: <math>(A,f,B)</math><ref name="AO"/><br />
. Die erste respektive zweite Komponente so eines Tripels, <math>t</math>, heißt sein '''Graph:''' <math>\text{G}_t</math> und man schreibt statt <math>\text{G}_t(x)</math> einfach <math>t(x)</math>, entsprechend <math>(x,y)\!\in\!t,~~</math><math>t\!:\!x\mapsto y,~~</math><math>\text{D}_t,~~</math><math>\text{W}\!_t</math>.<br/><br />
<br />
===Quellen===<br />
<references/><br />
<br /><br />
<br />
Ich werde in diesem Artikel nicht mehr aktiv sein, denn ich verspüre, dass meine Art Mathematik zu sehen bei den Verantwortlichen in diesem Portal keinen Anklang findet. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 01:00, 31. Dez. 2016 (CET)<br />
<br />
Dein Vorschlag klingt so, als ob die Position von Oberschelp, die sicherlich interessant ist, weil sie sehr allgemein ist, gängig wäre. Das ist sie nicht, denn die dort vorkommenden differenzierten Pfeile sind sonst nicht geläufig. Er ist nämlich äußerst kreativ im Erfinden von Symbolen. Das macht seinen Ansatz nicht gerade zum Vorbild, das ein Artikel aufgreifen müsste. Er muss sich schon an das Normale halten. Oberschelp ist ja dort irgendwo vermerkt, so dass Interessenten an dieser Verallgemeinerung sich an der angegebenen Quelle orientieren können.--[[Benutzer:Wilfried Neumaier|Wilfried Neumaier]] ([[Benutzer Diskussion:Wilfried Neumaier|Diskussion]]) 14:42, 12. Jan. 2017 (CET)<br />
<br />
Ich fand die Pfeile im Kapitel [[Funktion (Mathematik) #Symbolik]] und erst später bei Oberschelp wieder. Ich verwende Pfeile mit Buchstaben, z.B. <math>A-\!\!\text{ts}\!\!\to B</math> für total, surjektiv, allerdings kenne ich dafür keine Quelle. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 08:37, 14. Jan. 2017 (CET)<br />
<br />
:Die Unterscheidung zwischen dem langen Pfeil für (partielle) Funktion und kurzem Pfeil (Abbildung) ist mir auch nicht bekannt. Wohlbekannt ist mir das im französischen Sprachraumen "fonction" i.allg. die (partielle) Funktion und "application" die (überall wohldefiniere) Abbildung bezeichnet (wobei aber viele Lehrer und Professoren oft unpräzise sind und "fonction" wie "application" benutzen und später aber vom Definitionsbereich sprechen...), schade dass dies im Deutschen nicht so allgemeingültig ist (und im Englischen manchmal sogar umgekehrt? "domain of the mapping" kommt mir fast geläufiger vor als "domain of the function"...). --- Ich dachte jedoch dass der einfache Pfeil (&rarr;, \to in TeX) international eine (partielle!) Funktion (oder teilweise sogar eine allgemeinere, evtl. nicht funktionale, Relation) bezeichnet. &mdash; [[Benutzer_Diskussion:MFH|MFH]] 18:05, 7. Feb. 2017 (CET)<br />
<br />
== Nochmals das sinnlose "f=(G<sub>f</sub>,Z)" ==<br />
<br />
Der Prädikatenkalkül ist ein Textverarbeitungssystem das im Wesentlichen so funktioniert: Ist T ein Text der die Variable v als freie Variable enthält und ist diese an einen Text S gebunden, dann ist T gleichbedeutend mit demjenigen Text, der aus T hervorgeht, indem v durch S ersetzt wird. Variablenbindungen erfolgen u.a. in der Form "v:=S" oder laxer "v=S".<br /><br />
<br />
Beispiel: ("G[f]" steht für "G<sub>f</sub>") Der Term "(G([f],Z)" hat zwei freie Variablen, f und Z. Schreibt man "f=(G([f],Z)", dann ist f gebunden mit "(G([f],Z)" und<br />
:"(G([f],Z)" ist gleichbedeutend mit "(G[(G[(G[(G[(G[...<sub>∞mal</sub>],Z)],Z)],Z)],Z...<sub>∞mal</sub>)", was sinnlos ist. --[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 11:49, 6. Mai 2017 (CEST)<br />
<br />
:Mathematische Sprache ist kein Prädikatenkalkül. --[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 11:53, 6. Mai 2017 (CEST)<br />
: @Lothario: Ich glaube, ich habe jetzt zum allerersten Mal verstanden, was dich stört: Dass „f“ die Bezeichnung für die Funktion ist und gleichzeitig als Index am G steht, oder? Das halte ich aber schon für in Ordnung, man muss sich G nur als einen Operator vorstellen, der der als geordnetes Paar definierten Funktion f die erste Komponente des Paars, also den Graphen von f zuordnet. -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 17:38, 6. Mai 2017 (CEST)<br />
<br />
::Um das etwas deutlicher zu machen, ein analoges Beispiel: Der Punkt <math>P</math> hat in einem zweidimensionalen kartesischen Koordinatensystem die Koordinaten <math>x_P</math> und <math>y_P</math>, ein anderer Punkt <math>Q</math> entsprechend die Koordinaten <math>x_Q</math> und <math>y_Q</math>. Damit gilt <math>P = (x_P, x_Q)</math> und <math>Q = (x_Q, y_Q)</math>. --[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 18:11, 6. Mai 2017 (CEST)<br />
<br />
:::@Digamma,HilberTraum: Eure letzten gut gemeinten Ausführungen kommentiere ich nicht, verweise im besagten Zusammenhang hierauf: [[Benutzer:Hederich/Funktion]].<br />
:::--[[Benutzer:Hederich|Lothario Hederich]] ([[Benutzer Diskussion:Hederich|Diskussion]]) 10:59, 18. Jun. 2017 (CEST)<br />
<br />
== Stückweise Definition ==<br />
<br />
Oft kommt es in der Praxis( und auch in der Lehre) vor, dass Funktionen stückweise definiert werden.<br />
Ich finde, dass das auch explizit erklärt werden sollte.<br />
Entweder hier als (unter-)Kapitel oder in einem eigenen Beitrag.<br />
<br />
Man könnte sich auch vom englischen Artikel [[:en:Piecewise]] inspirieren lassen. [[Benutzer:HerrHartmuth|HerrHartmuth]] ([[Benutzer Diskussion:HerrHartmuth|Diskussion]]) 22:22, 2. Sep. 2017 (CEST)</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Hermiteinterpolation&diff=168563271Hermiteinterpolation2017-08-28T15:59:33Z<p>HerrHartmuth: /* Hermite-Genocchi-Formel */ Simplexdefinitions verdeutlicht</p>
<hr />
<div>In der [[Numerik|numerischen Mathematik]] ist die '''Hermiteinterpolation''' (benannt nach [[Charles Hermite]]) ein [[Interpolation (Mathematik)|Interpolationsverfahren]] zur [[Polynominterpolation]], das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.<br />
<br />
== Vorbereitung ==<br />
=== Motivation ===<br />
[[Datei:Hermite.svg|mini|200px|Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den „Knick“ bei <math>x=0{,}5</math>]]<br />
<br />
Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition der Polynominterpolation führt, ihren Fehler also drastisch erhöht.<ref>A. H. Turetskii: ''The bounding of polynomials prescribed at equally distributed points.'' In: ''Proc. Pedag. Inst.'' Vitebsk; 3; 1940.<br />Siehe auch [[Runges Phänomen]]</ref><br />
<br />
In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die [[Spline-Interpolation|Splineinterpolation]], bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.<br />
<br />
[[Datei:Hermite interpolation.svg|links|mini|200px|Splineinterpolation mit Berücksichtigung der Steigung]]<br />
<br />
Wählt man dabei den „naiven“, [[Polynominterpolation#Newtonscher Algorithmus|Newtonschen Ansatz]], stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht [[Differentialrechnung#Definition|(stetig) differenzierbar]]. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.<br />
<br />
Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.<br />
<br />
Diese Aufgabe lässt sich analog zur [[Polynominterpolation#Problemstellung|Problemstellung in der klassischen Polynominterpolation]] schriftlich lösen. Als Beispiel dient hier die Aufgabe,<br />
:<math>f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0</math> in <math>\mathcal{P}_2</math> zu interpolieren.<br />
Man definiert<br />
: <math>p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2</math> und leitet ab zu <math>p'(x) := a_1 + a_2 \cdot 2x</math>.<br />
Das Gleichungssystem wird damit zu<br />
:<math>\begin{pmatrix}<br />
1 & -1 & 1 \\<br />
0 & 1 & -2 \\<br />
1 & 2 & 4<br />
\end{pmatrix}<br />
\cdot \begin{pmatrix}<br />
a_0 \\<br />
a_1 \\<br />
a_2<br />
\end{pmatrix} =<br />
\begin{pmatrix}<br />
-1 \\<br />
0 \\<br />
0<br />
\end{pmatrix}.<br />
</math><br />
Lösen nach <math>a = (a_0,a_1,a_2)^T</math> bringt die gesuchten Koeffizienten.<br />
<br />
Dieser Lösungsansatz hat den Nachteil, dass er in der [[O-Notation#Anwendung in der Komplexitätstheorie|Komplexitätsklasse]] <math>\mathcal{O}(n^3)</math> liegt und damit langsam ist. Es wäre wünschenswert, die [[Polynominterpolation#Ansatz: Newton-Basis|Newton-Basis]] von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.<br />
<br />
=== Hermite-Genocchi-Formel ===<br />
Die '''Hermite-Genocchi-Formel''' bildet die Grundlage der Hermiteinterpolation.<br />
Die Voraussetzung des Satzes sind:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>k</math>-mal stetig differenzierbar]]: <math>f \in C^k([a,b]), \quad k \in \N</math><br />
* <math>k+1</math> Stützstellen: <math>x_0, \ldots, x_k \in [a,b].</math><br />
Nun liefert die Formel eine Integraldarstellung für die [[Dividierte Differenzen|dividierten Differenzen]] aus dem Newtonalgorithmus der Polynominterpolation:<br />
:<math>f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,</math><br />
mit dem k-dimensionalen [[Simplex_(Mathematik)|Einheitssimplex]]:<br />
:<math> \;\Sigma^k = \left\{s\in \R^k \bigg | \, (\forall i: s_i \ge 0 ) \, \wedge \sum_{i=1}^k s_i \le 1 \right\}.</math><br />
<br />
Man beweist diese Identität durch vollständige Induktion.<ref>{{Literatur<br />
| Autor=Ralf Kornhuber, Christof Schütte<br />
| Titel=Einführung in die Numerische Mathematik<br />
| Ort=Freie Universität Berlin<br />
| Herausgeber=AG Numerische Mathematik<br />
| Jahr=2008<br />
| Monat=April<br />
| Kapitel=3.1.1 Hermite-Interpolation und Taylor’sche Formel<br />
| Seiten=39–45<br />
| Kommentar=Vorlesungsskript<br />
| Online=[https://dms-numerik.mi.fu-berlin.de/knowledgeTree/login.php?action=login&username=guest&password=guest&redirect=action.php%3fkt_path_info=ktcore.actions.document.view%26fDocumentId=13168 PDF, 2.4 MB]<br />
}}</ref><br />
<br />
Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x^*), \quad \mathrm{falls} \quad x_0=\ldots=x_k=x^*</math><br />
dar, lässt sich diese Identität einfach beweisen.<br />
<br />
Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.<br />
<br />
Also gilt der folgende Satz:<br />
<br />
== Hermiteinterpolation ==<br />
Es gelte:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>n</math>-mal stetig differenzierbar]]: <math>f \in C^n([a,b]), \quad n \in \N</math><br />
* <math>n+1</math> Stützstellen: <math>x_0, \ldots, x_n \in [a,b]</math><br />
* die Häufigkeit der Wiederholung der Stützstelle <math>x_i</math> sei mit <math>m_i \in \N</math> gegeben.<br />
Dann erfüllt das [[Polynominterpolation#Newtonscher_Algorithmus|Newton-Polynom]]:<br />
:<math>p(x) := f(x_0) + \sum_{i=1}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)</math><br />
die '''Hermiteschen Interpolationsbedingungen''':<br />
:<math>f^{(k)}(x_i) = p^{(k)}(x_i) \quad \forall \, i=0,\ldots,n \ \forall k=0,\ldots,m_i-1 .</math><br />
Darüber hinaus ist diese Lösung eindeutig.<br />
<br />
== Fehlerabschätzung ==<br />
Für den Fehler der Hermiteinterpolierten <math>p</math> gibt es eine explizite Darstellung.<br />
<br />
Sei dafür <math>f \in C^{n+1}([a,b])</math>.<br><br />
Dann existiert für jedes <math>x\in[a,b]</math> ein <math>\xi \in [a,b]</math>, sodass<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
gilt. <ref>{{Literatur<br />
| Autor=Wolfgang Dahmen und ArnoldReusken<br />
| Titel=Numerik für Ingenieure und Naturwissenschaftler<br />
| Herausgeber=Springer-Verlag<br />
| Jahr=2006<br />
| Seiten=281<br />
}}</ref><br />
<br><br />
Im Falle des Gitters<br />
:<math>x_0 = \ldots = x_k < x_{k+1} < \dots < x_n </math><br />
gilt:<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i).</math><br />
<br />
=== Tschebyscheff-Abszissen ===<br />
Der zweite Faktor der Fehlerformel hängt nur von den Stützstellen ab und kann wie folgt abgeschätz werden.<br />
<br />
Seien <math>x_0, \ldots, x_n \in I:=[-1,1]</math> beliebig. <br><br />
Nun gilt die Abschätzung:<br />
:<math>\max_{x\in I} \prod_{i=0}^n |x-x_i| \geq 2^{-n}.</math><br />
<br />
Diese Schranke wird angenommen mittels einer speziellen Wahl der Stützstellen – den sogenannten ''Tschebyscheff-Abszissen'':<br />
:<math><br />
\begin{align}<br />
x_j &:= \cos \left ( \frac{2j+1}{n+1}\frac{\pi}{2} \right )<br />
, \quad <br />
j = 0 , \ldots , n<br />
\\<br />
\Rightarrow \max_{x\in I} \prod_{i=0}^n |x-x_i| &= 2^{-n}.<br />
\end{align}<br />
</math><br />
<br />
== Berechnung der Interpolierten ==<br />
Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der [[Dividierte Differenzen|dividierten Differenzen]].<br />
<br />
Im Fall <math>x_0 = x_1 = \ldots = x_k</math> muss anstatt der dort verwendeten Formel<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)</math><br />
berechnet werden.<br />
<br />
Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei <math>x_0 = \ldots = x_i = \ldots = x_k = \ldots =x_n</math>:<br />
* Statt <math>f[x_i,\ldots,x_k]</math> muss man die dividierte Differenz <math>f[x_0,\ldots,x_{k-i}]</math> berechnen<br />
* Taucht in der Rekursion <math>f[x_i]</math> auf, berechnet man stattdessen <math>f[x_0]</math><br />
* In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes <math>x_i</math> durch <math>x_0</math>.<br />
<br />
=== Pseudocode ===<br />
Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.<br />
''xvals'' ← Stützstellen<br />
''yvals'' ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten<br />
''zvals'' ← { f(xvals[i]) | i ∈ 1..#xvals }<br />
<br />
'''for''' ''i'' ← #''xvals''..1 '''do'''<br />
'''for''' ''j'' ← ''i''..#''xvals'' '''do'''<br />
'''if''' ''i'' = ''j'' '''then'''<br />
''[xi..xj]f'' ← ''zvals''[''i'']<br />
'''else''' '''if''' ''xvals''[''i''] = ''xvals''[''j''] '''then'''<br />
''index'' ← Index des ersten Vorkommens von ''xvals''[''i''] in ''xvals''<br />
''[xi..xj]f'' ← ''yvals''[''j'' - ''i'' + ''index''] / (''j''-''i'')!<br />
'''else'''<br />
''[xi..xj]f'' ← (''[xi+1..xj]f'' - ''[xi..xj-1]f'') / (''xvals''[''j''] - ''xvals''[''i''])<br />
<br />
== Historie ==<br />
Erstmals veröffentlichte Hermite seine Untersuchungen zur Hermiteinterpolation 1878 in: ''Sur la formule d'interpolation de Lagrange'', [[Journal für die reine und angewandte Mathematik]], Band 84, Seite 70-79<ref name="Cheney" /><br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik: Hermiteinterpolation|Hermiteinterpolation|Implementierungen in der Algorithmensammlung}}<br />
<br />
== Literatur ==<br />
* Richard L. Burden, J. Douglas Faires: ''Numerische Methoden''. Spektrum, Akad. Verlag, Heidelberg/ Berlin/ Oxford 2000, ISBN 3-8274-0596-3.<br />
<br />
== Einzelnachweise ==<br />
<references><br />
<ref name="Cheney">Elliot Ward Cheney: ''Introduction to Approximation Theory'', McGraw-Hill Book Company, 1966, [[Library of Congress Catalog Card Number]] 65-25916, ISBN 007-010757-2, Seite 225 + 242</ref><br />
</references><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Charles Hermite als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Hermiteinterpolation&diff=168498081Hermiteinterpolation2017-08-26T13:59:03Z<p>HerrHartmuth: /* Tschebyscheff-Abszissen */ Formeln korrigiert</p>
<hr />
<div>In der [[Numerik|numerischen Mathematik]] ist die '''Hermiteinterpolation''' (benannt nach [[Charles Hermite]]) ein [[Interpolation (Mathematik)|Interpolationsverfahren]] zur [[Polynominterpolation]], das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.<br />
<br />
== Vorbereitung ==<br />
=== Motivation ===<br />
[[Datei:Hermite.svg|mini|200px|Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den „Knick“ bei <math>x=0{,}5</math>]]<br />
<br />
Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition der Polynominterpolation führt, ihren Fehler also drastisch erhöht.<ref>A. H. Turetskii: ''The bounding of polynomials prescribed at equally distributed points.'' In: ''Proc. Pedag. Inst.'' Vitebsk; 3; 1940.<br />Siehe auch [[Runges Phänomen]]</ref><br />
<br />
In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die [[Spline-Interpolation|Splineinterpolation]], bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.<br />
<br />
[[Datei:Hermite interpolation.svg|links|mini|200px|Splineinterpolation mit Berücksichtigung der Steigung]]<br />
<br />
Wählt man dabei den „naiven“, [[Polynominterpolation#Newtonscher Algorithmus|Newtonschen Ansatz]], stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht [[Differentialrechnung#Definition|(stetig) differenzierbar]]. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.<br />
<br />
Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.<br />
<br />
Diese Aufgabe lässt sich analog zur [[Polynominterpolation#Problemstellung|Problemstellung in der klassischen Polynominterpolation]] schriftlich lösen. Als Beispiel dient hier die Aufgabe,<br />
:<math>f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0</math> in <math>\mathcal{P}_2</math> zu interpolieren.<br />
Man definiert<br />
: <math>p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2</math> und leitet ab zu <math>p'(x) := a_1 + a_2 \cdot 2x</math>.<br />
Das Gleichungssystem wird damit zu<br />
:<math>\begin{pmatrix}<br />
1 & -1 & 1 \\<br />
0 & 1 & -2 \\<br />
1 & 2 & 4<br />
\end{pmatrix}<br />
\cdot \begin{pmatrix}<br />
a_0 \\<br />
a_1 \\<br />
a_2<br />
\end{pmatrix} =<br />
\begin{pmatrix}<br />
-1 \\<br />
0 \\<br />
0<br />
\end{pmatrix}.<br />
</math><br />
Lösen nach <math>a = (a_0,a_1,a_2)^T</math> bringt die gesuchten Koeffizienten.<br />
<br />
Dieser Lösungsansatz hat den Nachteil, dass er in der [[O-Notation#Anwendung in der Komplexitätstheorie|Komplexitätsklasse]] <math>\mathcal{O}(n^3)</math> liegt und damit langsam ist. Es wäre wünschenswert, die [[Polynominterpolation#Ansatz: Newton-Basis|Newton-Basis]] von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.<br />
<br />
=== Hermite-Genocchi-Formel ===<br />
Die '''Hermite-Genocchi-Formel''' bildet die Grundlage der Hermiteinterpolation.<br />
Die Voraussetzung des Satzes sind:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>k</math>-mal stetig differenzierbar]]: <math>f \in C^k([a,b]), \quad k \in \N</math><br />
* <math>k+1</math> Stützstellen: <math>x_0, \ldots, x_k \in [a,b].</math><br />
Nun liefert die Formel eine Integraldarstellung für die [[Dividierte Differenzen|dividierten Differenzen]] aus dem Newtonalgorithmus der Polynominterpolation:<br />
:<math>f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,</math><br />
mit dem k-dimensionalen [[Simplex_(Mathematik)|Einheitssimplex]]:<br />
:<math> \;\Sigma^k = \left\{s\in \R^k,\, \forall i: s_i \ge 0, \sum_{i=1}^k s_i \le 1 \right\}.</math><br />
<br />
Man beweist diese Identität durch vollständige Induktion.<ref>{{Literatur<br />
| Autor=Ralf Kornhuber, Christof Schütte<br />
| Titel=Einführung in die Numerische Mathematik<br />
| Ort=Freie Universität Berlin<br />
| Herausgeber=AG Numerische Mathematik<br />
| Jahr=2008<br />
| Monat=April<br />
| Kapitel=3.1.1 Hermite-Interpolation und Taylor’sche Formel<br />
| Seiten=39–45<br />
| Kommentar=Vorlesungsskript<br />
| Online=[https://dms-numerik.mi.fu-berlin.de/knowledgeTree/login.php?action=login&username=guest&password=guest&redirect=action.php%3fkt_path_info=ktcore.actions.document.view%26fDocumentId=13168 PDF, 2.4 MB]<br />
}}</ref><br />
<br />
Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x^*), \quad \mathrm{falls} \quad x_0=\ldots=x_k=x^*</math><br />
dar, lässt sich diese Identität einfach beweisen.<br />
<br />
Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.<br />
<br />
Also gilt der folgende Satz:<br />
<br />
== Hermiteinterpolation ==<br />
Es gelte:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>n</math>-mal stetig differenzierbar]]: <math>f \in C^n([a,b]), \quad n \in \N</math><br />
* <math>n+1</math> Stützstellen: <math>x_0, \ldots, x_n \in [a,b]</math><br />
* die Häufigkeit der Wiederhoung der Stützstelle <math>x_i</math> sei mit <math>m_i \in \N</math> gegeben.<br />
Dann erfüllt das [[Polynominterpolation#Newtonscher_Algorithmus|Newton-Polynom]]:<br />
:<math>p(x) := f(x_0) + \sum_{i=1}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)</math><br />
die '''Hermiteschen Interpolationsbedingungen''':<br />
:<math>f^{(k)}(x_i) = p^{(k)}(x_i) \quad \forall \, i=0,\ldots,n \ \forall k=0,\ldots,m_i-1 .</math><br />
Darüber hinaus ist diese Lösung eindeutig.<br />
<br />
== Fehlerabschätzung ==<br />
Für den Fehler der Hermiteinterpolierten <math>p</math> gibt es eine explizite Darstellung.<br />
<br />
Sei dafür <math>f \in C^{n+1}([a,b])</math>.<br><br />
Dann existiert für jedes <math>x\in[a,b]</math> ein <math>\xi \in [a,b]</math>, sodass<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
gilt. <ref>{{Literatur<br />
| Autor=Wolfgang Dahmen und ArnoldReusken<br />
| Titel=Numerik für Ingenieure und Naturwissenschaftler<br />
| Herausgeber=Springer-Verlag<br />
| Jahr=2006<br />
| Seiten=281<br />
}}</ref><br />
<br><br />
Im Falle des Gitters<br />
:<math>x_0 = \ldots = x_k < x_{k+1} < \dots < x_n </math><br />
gilt:<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i).</math><br />
<br />
=== Tschebyscheff-Abszissen ===<br />
Der zweite Faktor der Fehlerformel hängt nur von den Stützstellen ab und kann wie folgt abgeschätz werden.<br />
<br />
Seien <math>x_0, \ldots, x_n \in I:=[-1,1]</math> beliebig. <br><br />
Nun gilt die Abschätzung:<br />
:<math>\max_{x\in I} \prod_{i=0}^n |x-x_i| \geq 2^{-n}.</math><br />
<br />
Diese Schranke wird angenommen mittels einer speziellen Wahl der Stützstellen – den sogenannten ''Tschebyscheff-Abszissen'':<br />
:<math><br />
\begin{align}<br />
x_j &:= \cos \left ( \frac{2j+1}{n+1}\frac{\pi}{2} \right )<br />
, \quad <br />
j = 0 , \ldots , n<br />
\\<br />
\Rightarrow \max_{x\in I} \prod_{i=0}^n |x-x_i| &= 2^{-n}.<br />
\end{align}<br />
</math><br />
<br />
== Berechnung der Interpolierten ==<br />
Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der [[Dividierte Differenzen|dividierten Differenzen]].<br />
<br />
Im Fall <math>x_0 = x_1 = \ldots = x_k</math> muss anstatt der dort verwendeten Formel<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)</math><br />
berechnet werden.<br />
<br />
Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei <math>x_0 = \ldots = x_i = \ldots = x_k = \ldots =x_n</math>:<br />
* Statt <math>f[x_i,\ldots,x_k]</math> muss man die dividierte Differenz <math>f[x_0,\ldots,x_{k-i}]</math> berechnen<br />
* Taucht in der Rekursion <math>f[x_i]</math> auf, berechnet man stattdessen <math>f[x_0]</math><br />
* In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes <math>x_i</math> durch <math>x_0</math>.<br />
<br />
=== Pseudocode ===<br />
Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.<br />
''xvals'' ← Stützstellen<br />
''yvals'' ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten<br />
''zvals'' ← { f(xvals[i]) | i ∈ 1..#xvals }<br />
<br />
'''for''' ''i'' ← #''xvals''..1 '''do'''<br />
'''for''' ''j'' ← ''i''..#''xvals'' '''do'''<br />
'''if''' ''i'' = ''j'' '''then'''<br />
''[xi..xj]f'' ← ''zvals''[''i'']<br />
'''else''' '''if''' ''xvals''[''i''] = ''xvals''[''j''] '''then'''<br />
''index'' ← Index des ersten Vorkommens von ''xvals''[''i''] in ''xvals''<br />
''[xi..xj]f'' ← ''yvals''[''j'' - ''i'' + ''index''] / (''j''-''i'')!<br />
'''else'''<br />
''[xi..xj]f'' ← (''[xi+1..xj]f'' - ''[xi..xj-1]f'') / (''xvals''[''j''] - ''xvals''[''i''])<br />
<br />
== Historie ==<br />
Erstmals veröffentlichte Hermite seine Untersuchungen zur Hermiteinterpolation 1878 in: ''Sur la formule d'interpolation de Lagrange'', [[Journal für die reine und angewandte Mathematik]], Band 84, Seite 70-79<ref name="Cheney" /><br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik: Hermiteinterpolation|Hermiteinterpolation|Implementierungen in der Algorithmensammlung}}<br />
<br />
== Literatur ==<br />
* Richard L. Burden, J. Douglas Faires: ''Numerische Methoden''. Spektrum, Akad. Verlag, Heidelberg/ Berlin/ Oxford 2000, ISBN 3-8274-0596-3.<br />
<br />
== Einzelnachweise ==<br />
<references><br />
<ref name="Cheney">Elliot Ward Cheney: ''Introduction to Approximation Theory'', McGraw-Hill Book Company, 1966, [[Library of Congress Catalog Card Number]] 65-25916, ISBN 007-010757-2, Seite 225 + 242</ref><br />
</references><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Charles Hermite als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Hermiteinterpolation&diff=168497879Hermiteinterpolation2017-08-26T13:53:01Z<p>HerrHartmuth: /* Fehlerabschätzung */ Quellenangabe und neues Unterkapitel: Tschebyscheff-Abszissen</p>
<hr />
<div>In der [[Numerik|numerischen Mathematik]] ist die '''Hermiteinterpolation''' (benannt nach [[Charles Hermite]]) ein [[Interpolation (Mathematik)|Interpolationsverfahren]] zur [[Polynominterpolation]], das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.<br />
<br />
== Vorbereitung ==<br />
=== Motivation ===<br />
[[Datei:Hermite.svg|mini|200px|Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den „Knick“ bei <math>x=0{,}5</math>]]<br />
<br />
Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition der Polynominterpolation führt, ihren Fehler also drastisch erhöht.<ref>A. H. Turetskii: ''The bounding of polynomials prescribed at equally distributed points.'' In: ''Proc. Pedag. Inst.'' Vitebsk; 3; 1940.<br />Siehe auch [[Runges Phänomen]]</ref><br />
<br />
In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die [[Spline-Interpolation|Splineinterpolation]], bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.<br />
<br />
[[Datei:Hermite interpolation.svg|links|mini|200px|Splineinterpolation mit Berücksichtigung der Steigung]]<br />
<br />
Wählt man dabei den „naiven“, [[Polynominterpolation#Newtonscher Algorithmus|Newtonschen Ansatz]], stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht [[Differentialrechnung#Definition|(stetig) differenzierbar]]. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.<br />
<br />
Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.<br />
<br />
Diese Aufgabe lässt sich analog zur [[Polynominterpolation#Problemstellung|Problemstellung in der klassischen Polynominterpolation]] schriftlich lösen. Als Beispiel dient hier die Aufgabe,<br />
:<math>f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0</math> in <math>\mathcal{P}_2</math> zu interpolieren.<br />
Man definiert<br />
: <math>p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2</math> und leitet ab zu <math>p'(x) := a_1 + a_2 \cdot 2x</math>.<br />
Das Gleichungssystem wird damit zu<br />
:<math>\begin{pmatrix}<br />
1 & -1 & 1 \\<br />
0 & 1 & -2 \\<br />
1 & 2 & 4<br />
\end{pmatrix}<br />
\cdot \begin{pmatrix}<br />
a_0 \\<br />
a_1 \\<br />
a_2<br />
\end{pmatrix} =<br />
\begin{pmatrix}<br />
-1 \\<br />
0 \\<br />
0<br />
\end{pmatrix}.<br />
</math><br />
Lösen nach <math>a = (a_0,a_1,a_2)^T</math> bringt die gesuchten Koeffizienten.<br />
<br />
Dieser Lösungsansatz hat den Nachteil, dass er in der [[O-Notation#Anwendung in der Komplexitätstheorie|Komplexitätsklasse]] <math>\mathcal{O}(n^3)</math> liegt und damit langsam ist. Es wäre wünschenswert, die [[Polynominterpolation#Ansatz: Newton-Basis|Newton-Basis]] von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.<br />
<br />
=== Hermite-Genocchi-Formel ===<br />
Die '''Hermite-Genocchi-Formel''' bildet die Grundlage der Hermiteinterpolation.<br />
Die Voraussetzung des Satzes sind:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>k</math>-mal stetig differenzierbar]]: <math>f \in C^k([a,b]), \quad k \in \N</math><br />
* <math>k+1</math> Stützstellen: <math>x_0, \ldots, x_k \in [a,b].</math><br />
Nun liefert die Formel eine Integraldarstellung für die [[Dividierte Differenzen|dividierten Differenzen]] aus dem Newtonalgorithmus der Polynominterpolation:<br />
:<math>f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,</math><br />
mit dem k-dimensionalen [[Simplex_(Mathematik)|Einheitssimplex]]:<br />
:<math> \;\Sigma^k = \left\{s\in \R^k,\, \forall i: s_i \ge 0, \sum_{i=1}^k s_i \le 1 \right\}.</math><br />
<br />
Man beweist diese Identität durch vollständige Induktion.<ref>{{Literatur<br />
| Autor=Ralf Kornhuber, Christof Schütte<br />
| Titel=Einführung in die Numerische Mathematik<br />
| Ort=Freie Universität Berlin<br />
| Herausgeber=AG Numerische Mathematik<br />
| Jahr=2008<br />
| Monat=April<br />
| Kapitel=3.1.1 Hermite-Interpolation und Taylor’sche Formel<br />
| Seiten=39–45<br />
| Kommentar=Vorlesungsskript<br />
| Online=[https://dms-numerik.mi.fu-berlin.de/knowledgeTree/login.php?action=login&username=guest&password=guest&redirect=action.php%3fkt_path_info=ktcore.actions.document.view%26fDocumentId=13168 PDF, 2.4 MB]<br />
}}</ref><br />
<br />
Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x^*), \quad \mathrm{falls} \quad x_0=\ldots=x_k=x^*</math><br />
dar, lässt sich diese Identität einfach beweisen.<br />
<br />
Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.<br />
<br />
Also gilt der folgende Satz:<br />
<br />
== Hermiteinterpolation ==<br />
Es gelte:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>n</math>-mal stetig differenzierbar]]: <math>f \in C^n([a,b]), \quad n \in \N</math><br />
* <math>n+1</math> Stützstellen: <math>x_0, \ldots, x_n \in [a,b]</math><br />
* die Häufigkeit der Wiederhoung der Stützstelle <math>x_i</math> sei mit <math>m_i \in \N</math> gegeben.<br />
Dann erfüllt das [[Polynominterpolation#Newtonscher_Algorithmus|Newton-Polynom]]:<br />
:<math>p(x) := f(x_0) + \sum_{i=1}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)</math><br />
die '''Hermiteschen Interpolationsbedingungen''':<br />
:<math>f^{(k)}(x_i) = p^{(k)}(x_i) \quad \forall \, i=0,\ldots,n \ \forall k=0,\ldots,m_i-1 .</math><br />
Darüber hinaus ist diese Lösung eindeutig.<br />
<br />
== Fehlerabschätzung ==<br />
Für den Fehler der Hermiteinterpolierten <math>p</math> gibt es eine explizite Darstellung.<br />
<br />
Sei dafür <math>f \in C^{n+1}([a,b])</math>.<br><br />
Dann existiert für jedes <math>x\in[a,b]</math> ein <math>\xi \in [a,b]</math>, sodass<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
gilt. <ref>{{Literatur<br />
| Autor=Wolfgang Dahmen und ArnoldReusken<br />
| Titel=Numerik für Ingenieure und Naturwissenschaftler<br />
| Herausgeber=Springer-Verlag<br />
| Jahr=2006<br />
| Seiten=281<br />
}}</ref><br />
<br><br />
Im Falle des Gitters<br />
:<math>x_0 = \ldots = x_k < x_{k+1} < \dots < x_n </math><br />
gilt:<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i).</math><br />
<br />
=== Tschebyscheff-Abszissen ===<br />
Der zweite Faktor der Fehlerformel hängt nur von den Stützstellen ab und kann wie folgt abgeschätz werden.<br />
<br />
Seien <math>x_0, \ldots, x_n \in I:=[-1,1]</math> beliebig. <br><br />
Nun gilt die Abschätzung:<br />
:<math>\max_{x\in I} \prod_{i=0}^n (x-x_i) \geq 2^{-n}.</math><br />
<br />
Diese Schranke wird angenommen mittels einer speziellen Wahl der Stützstellen – den sogenannten ''Tschebyscheff-Abszissen'':<br />
:<math><br />
\begin{align}<br />
x_j &:= \cos \left ( \frac{2j+1}{n+1}\frac{\pi}{2} \right )<br />
, \quad <br />
j = 0 , \ldots , n<br />
\\<br />
\Rightarrow \max_{x\in I} \prod_{i=0}^n (x-x_i) &= 2^{-n}.<br />
\end{align}<br />
</math><br />
<br />
== Berechnung der Interpolierten ==<br />
Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der [[Dividierte Differenzen|dividierten Differenzen]].<br />
<br />
Im Fall <math>x_0 = x_1 = \ldots = x_k</math> muss anstatt der dort verwendeten Formel<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)</math><br />
berechnet werden.<br />
<br />
Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei <math>x_0 = \ldots = x_i = \ldots = x_k = \ldots =x_n</math>:<br />
* Statt <math>f[x_i,\ldots,x_k]</math> muss man die dividierte Differenz <math>f[x_0,\ldots,x_{k-i}]</math> berechnen<br />
* Taucht in der Rekursion <math>f[x_i]</math> auf, berechnet man stattdessen <math>f[x_0]</math><br />
* In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes <math>x_i</math> durch <math>x_0</math>.<br />
<br />
=== Pseudocode ===<br />
Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.<br />
''xvals'' ← Stützstellen<br />
''yvals'' ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten<br />
''zvals'' ← { f(xvals[i]) | i ∈ 1..#xvals }<br />
<br />
'''for''' ''i'' ← #''xvals''..1 '''do'''<br />
'''for''' ''j'' ← ''i''..#''xvals'' '''do'''<br />
'''if''' ''i'' = ''j'' '''then'''<br />
''[xi..xj]f'' ← ''zvals''[''i'']<br />
'''else''' '''if''' ''xvals''[''i''] = ''xvals''[''j''] '''then'''<br />
''index'' ← Index des ersten Vorkommens von ''xvals''[''i''] in ''xvals''<br />
''[xi..xj]f'' ← ''yvals''[''j'' - ''i'' + ''index''] / (''j''-''i'')!<br />
'''else'''<br />
''[xi..xj]f'' ← (''[xi+1..xj]f'' - ''[xi..xj-1]f'') / (''xvals''[''j''] - ''xvals''[''i''])<br />
<br />
== Historie ==<br />
Erstmals veröffentlichte Hermite seine Untersuchungen zur Hermiteinterpolation 1878 in: ''Sur la formule d'interpolation de Lagrange'', [[Journal für die reine und angewandte Mathematik]], Band 84, Seite 70-79<ref name="Cheney" /><br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik: Hermiteinterpolation|Hermiteinterpolation|Implementierungen in der Algorithmensammlung}}<br />
<br />
== Literatur ==<br />
* Richard L. Burden, J. Douglas Faires: ''Numerische Methoden''. Spektrum, Akad. Verlag, Heidelberg/ Berlin/ Oxford 2000, ISBN 3-8274-0596-3.<br />
<br />
== Einzelnachweise ==<br />
<references><br />
<ref name="Cheney">Elliot Ward Cheney: ''Introduction to Approximation Theory'', McGraw-Hill Book Company, 1966, [[Library of Congress Catalog Card Number]] 65-25916, ISBN 007-010757-2, Seite 225 + 242</ref><br />
</references><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Charles Hermite als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Hermiteinterpolation&diff=168496551Hermiteinterpolation2017-08-26T13:12:21Z<p>HerrHartmuth: /* Fehlerabschätzung */ Voraussetzungen präzisiert</p>
<hr />
<div>In der [[Numerik|numerischen Mathematik]] ist die '''Hermiteinterpolation''' (benannt nach [[Charles Hermite]]) ein [[Interpolation (Mathematik)|Interpolationsverfahren]] zur [[Polynominterpolation]], das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.<br />
<br />
== Vorbereitung ==<br />
=== Motivation ===<br />
[[Datei:Hermite.svg|mini|200px|Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den „Knick“ bei <math>x=0{,}5</math>]]<br />
<br />
Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition der Polynominterpolation führt, ihren Fehler also drastisch erhöht.<ref>A. H. Turetskii: ''The bounding of polynomials prescribed at equally distributed points.'' In: ''Proc. Pedag. Inst.'' Vitebsk; 3; 1940.<br />Siehe auch [[Runges Phänomen]]</ref><br />
<br />
In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die [[Spline-Interpolation|Splineinterpolation]], bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.<br />
<br />
[[Datei:Hermite interpolation.svg|links|mini|200px|Splineinterpolation mit Berücksichtigung der Steigung]]<br />
<br />
Wählt man dabei den „naiven“, [[Polynominterpolation#Newtonscher Algorithmus|Newtonschen Ansatz]], stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht [[Differentialrechnung#Definition|(stetig) differenzierbar]]. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.<br />
<br />
Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.<br />
<br />
Diese Aufgabe lässt sich analog zur [[Polynominterpolation#Problemstellung|Problemstellung in der klassischen Polynominterpolation]] schriftlich lösen. Als Beispiel dient hier die Aufgabe,<br />
:<math>f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0</math> in <math>\mathcal{P}_2</math> zu interpolieren.<br />
Man definiert<br />
: <math>p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2</math> und leitet ab zu <math>p'(x) := a_1 + a_2 \cdot 2x</math>.<br />
Das Gleichungssystem wird damit zu<br />
:<math>\begin{pmatrix}<br />
1 & -1 & 1 \\<br />
0 & 1 & -2 \\<br />
1 & 2 & 4<br />
\end{pmatrix}<br />
\cdot \begin{pmatrix}<br />
a_0 \\<br />
a_1 \\<br />
a_2<br />
\end{pmatrix} =<br />
\begin{pmatrix}<br />
-1 \\<br />
0 \\<br />
0<br />
\end{pmatrix}.<br />
</math><br />
Lösen nach <math>a = (a_0,a_1,a_2)^T</math> bringt die gesuchten Koeffizienten.<br />
<br />
Dieser Lösungsansatz hat den Nachteil, dass er in der [[O-Notation#Anwendung in der Komplexitätstheorie|Komplexitätsklasse]] <math>\mathcal{O}(n^3)</math> liegt und damit langsam ist. Es wäre wünschenswert, die [[Polynominterpolation#Ansatz: Newton-Basis|Newton-Basis]] von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.<br />
<br />
=== Hermite-Genocchi-Formel ===<br />
Die '''Hermite-Genocchi-Formel''' bildet die Grundlage der Hermiteinterpolation.<br />
Die Voraussetzung des Satzes sind:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>k</math>-mal stetig differenzierbar]]: <math>f \in C^k([a,b]), \quad k \in \N</math><br />
* <math>k+1</math> Stützstellen: <math>x_0, \ldots, x_k \in [a,b].</math><br />
Nun liefert die Formel eine Integraldarstellung für die [[Dividierte Differenzen|dividierten Differenzen]] aus dem Newtonalgorithmus der Polynominterpolation:<br />
:<math>f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,</math><br />
mit dem k-dimensionalen [[Simplex_(Mathematik)|Einheitssimplex]]:<br />
:<math> \;\Sigma^k = \left\{s\in \R^k,\, \forall i: s_i \ge 0, \sum_{i=1}^k s_i \le 1 \right\}.</math><br />
<br />
Man beweist diese Identität durch vollständige Induktion.<ref>{{Literatur<br />
| Autor=Ralf Kornhuber, Christof Schütte<br />
| Titel=Einführung in die Numerische Mathematik<br />
| Ort=Freie Universität Berlin<br />
| Herausgeber=AG Numerische Mathematik<br />
| Jahr=2008<br />
| Monat=April<br />
| Kapitel=3.1.1 Hermite-Interpolation und Taylor’sche Formel<br />
| Seiten=39–45<br />
| Kommentar=Vorlesungsskript<br />
| Online=[https://dms-numerik.mi.fu-berlin.de/knowledgeTree/login.php?action=login&username=guest&password=guest&redirect=action.php%3fkt_path_info=ktcore.actions.document.view%26fDocumentId=13168 PDF, 2.4 MB]<br />
}}</ref><br />
<br />
Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x^*), \quad \mathrm{falls} \quad x_0=\ldots=x_k=x^*</math><br />
dar, lässt sich diese Identität einfach beweisen.<br />
<br />
Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.<br />
<br />
Also gilt der folgende Satz:<br />
<br />
== Hermiteinterpolation ==<br />
Es gelte:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>n</math>-mal stetig differenzierbar]]: <math>f \in C^n([a,b]), \quad n \in \N</math><br />
* <math>n+1</math> Stützstellen: <math>x_0, \ldots, x_n \in [a,b]</math><br />
* die Häufigkeit der Wiederhoung der Stützstelle <math>x_i</math> sei mit <math>m_i \in \N</math> gegeben.<br />
Dann erfüllt das [[Polynominterpolation#Newtonscher_Algorithmus|Newton-Polynom]]:<br />
:<math>p(x) := f(x_0) + \sum_{i=1}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)</math><br />
die '''Hermiteschen Interpolationsbedingungen''':<br />
:<math>f^{(k)}(x_i) = p^{(k)}(x_i) \quad \forall \, i=0,\ldots,n \ \forall k=0,\ldots,m_i-1 .</math><br />
Darüber hinaus ist diese Lösung eindeutig.<br />
<br />
== Fehlerabschätzung ==<br />
Für den Fehler der Hermiteinterpolierten <math>p</math> gibt es eine explizite Darstellung.<br />
<br />
Sei dafür <math>f \in C^{n+1}([a,b])</math>.<br><br />
Dann existiert für jedes <math>x\in[a,b]</math> ein <math>\xi \in [a,b]</math>, sodass<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} \prod_{i=0}^n (x-x_i)</math><br />
gilt. <br><br />
Im Falle des Gitters<br />
:<math>x_0 = \ldots = x_k < x_{k+1} < \dots < x_n </math><br />
gilt:<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i).</math><br />
<br />
== Berechnung der Interpolierten ==<br />
Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der [[Dividierte Differenzen|dividierten Differenzen]].<br />
<br />
Im Fall <math>x_0 = x_1 = \ldots = x_k</math> muss anstatt der dort verwendeten Formel<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)</math><br />
berechnet werden.<br />
<br />
Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei <math>x_0 = \ldots = x_i = \ldots = x_k = \ldots =x_n</math>:<br />
* Statt <math>f[x_i,\ldots,x_k]</math> muss man die dividierte Differenz <math>f[x_0,\ldots,x_{k-i}]</math> berechnen<br />
* Taucht in der Rekursion <math>f[x_i]</math> auf, berechnet man stattdessen <math>f[x_0]</math><br />
* In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes <math>x_i</math> durch <math>x_0</math>.<br />
<br />
=== Pseudocode ===<br />
Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.<br />
''xvals'' ← Stützstellen<br />
''yvals'' ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten<br />
''zvals'' ← { f(xvals[i]) | i ∈ 1..#xvals }<br />
<br />
'''for''' ''i'' ← #''xvals''..1 '''do'''<br />
'''for''' ''j'' ← ''i''..#''xvals'' '''do'''<br />
'''if''' ''i'' = ''j'' '''then'''<br />
''[xi..xj]f'' ← ''zvals''[''i'']<br />
'''else''' '''if''' ''xvals''[''i''] = ''xvals''[''j''] '''then'''<br />
''index'' ← Index des ersten Vorkommens von ''xvals''[''i''] in ''xvals''<br />
''[xi..xj]f'' ← ''yvals''[''j'' - ''i'' + ''index''] / (''j''-''i'')!<br />
'''else'''<br />
''[xi..xj]f'' ← (''[xi+1..xj]f'' - ''[xi..xj-1]f'') / (''xvals''[''j''] - ''xvals''[''i''])<br />
<br />
== Historie ==<br />
Erstmals veröffentlichte Hermite seine Untersuchungen zur Hermiteinterpolation 1878 in: ''Sur la formule d'interpolation de Lagrange'', [[Journal für die reine und angewandte Mathematik]], Band 84, Seite 70-79<ref name="Cheney" /><br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik: Hermiteinterpolation|Hermiteinterpolation|Implementierungen in der Algorithmensammlung}}<br />
<br />
== Literatur ==<br />
* Richard L. Burden, J. Douglas Faires: ''Numerische Methoden''. Spektrum, Akad. Verlag, Heidelberg/ Berlin/ Oxford 2000, ISBN 3-8274-0596-3.<br />
<br />
== Einzelnachweise ==<br />
<references><br />
<ref name="Cheney">Elliot Ward Cheney: ''Introduction to Approximation Theory'', McGraw-Hill Book Company, 1966, [[Library of Congress Catalog Card Number]] 65-25916, ISBN 007-010757-2, Seite 225 + 242</ref><br />
</references><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Charles Hermite als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Hermiteinterpolation&diff=168491653Hermiteinterpolation2017-08-26T11:24:39Z<p>HerrHartmuth: /* Hermiteinterpolation */ Satz startk präzisiert</p>
<hr />
<div>In der [[Numerik|numerischen Mathematik]] ist die '''Hermiteinterpolation''' (benannt nach [[Charles Hermite]]) ein [[Interpolation (Mathematik)|Interpolationsverfahren]] zur [[Polynominterpolation]], das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.<br />
<br />
== Vorbereitung ==<br />
=== Motivation ===<br />
[[Datei:Hermite.svg|mini|200px|Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den „Knick“ bei <math>x=0{,}5</math>]]<br />
<br />
Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition der Polynominterpolation führt, ihren Fehler also drastisch erhöht.<ref>A. H. Turetskii: ''The bounding of polynomials prescribed at equally distributed points.'' In: ''Proc. Pedag. Inst.'' Vitebsk; 3; 1940.<br />Siehe auch [[Runges Phänomen]]</ref><br />
<br />
In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die [[Spline-Interpolation|Splineinterpolation]], bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.<br />
<br />
[[Datei:Hermite interpolation.svg|links|mini|200px|Splineinterpolation mit Berücksichtigung der Steigung]]<br />
<br />
Wählt man dabei den „naiven“, [[Polynominterpolation#Newtonscher Algorithmus|Newtonschen Ansatz]], stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht [[Differentialrechnung#Definition|(stetig) differenzierbar]]. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.<br />
<br />
Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.<br />
<br />
Diese Aufgabe lässt sich analog zur [[Polynominterpolation#Problemstellung|Problemstellung in der klassischen Polynominterpolation]] schriftlich lösen. Als Beispiel dient hier die Aufgabe,<br />
:<math>f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0</math> in <math>\mathcal{P}_2</math> zu interpolieren.<br />
Man definiert<br />
: <math>p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2</math> und leitet ab zu <math>p'(x) := a_1 + a_2 \cdot 2x</math>.<br />
Das Gleichungssystem wird damit zu<br />
:<math>\begin{pmatrix}<br />
1 & -1 & 1 \\<br />
0 & 1 & -2 \\<br />
1 & 2 & 4<br />
\end{pmatrix}<br />
\cdot \begin{pmatrix}<br />
a_0 \\<br />
a_1 \\<br />
a_2<br />
\end{pmatrix} =<br />
\begin{pmatrix}<br />
-1 \\<br />
0 \\<br />
0<br />
\end{pmatrix}.<br />
</math><br />
Lösen nach <math>a = (a_0,a_1,a_2)^T</math> bringt die gesuchten Koeffizienten.<br />
<br />
Dieser Lösungsansatz hat den Nachteil, dass er in der [[O-Notation#Anwendung in der Komplexitätstheorie|Komplexitätsklasse]] <math>\mathcal{O}(n^3)</math> liegt und damit langsam ist. Es wäre wünschenswert, die [[Polynominterpolation#Ansatz: Newton-Basis|Newton-Basis]] von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.<br />
<br />
=== Hermite-Genocchi-Formel ===<br />
Die '''Hermite-Genocchi-Formel''' bildet die Grundlage der Hermiteinterpolation.<br />
Die Voraussetzung des Satzes sind:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>k</math>-mal stetig differenzierbar]]: <math>f \in C^k([a,b]), \quad k \in \N</math><br />
* <math>k+1</math> Stützstellen: <math>x_0, \ldots, x_k \in [a,b].</math><br />
Nun liefert die Formel eine Integraldarstellung für die [[Dividierte Differenzen|dividierten Differenzen]] aus dem Newtonalgorithmus der Polynominterpolation:<br />
:<math>f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,</math><br />
mit dem k-dimensionalen [[Simplex_(Mathematik)|Einheitssimplex]]:<br />
:<math> \;\Sigma^k = \left\{s\in \R^k,\, \forall i: s_i \ge 0, \sum_{i=1}^k s_i \le 1 \right\}.</math><br />
<br />
Man beweist diese Identität durch vollständige Induktion.<ref>{{Literatur<br />
| Autor=Ralf Kornhuber, Christof Schütte<br />
| Titel=Einführung in die Numerische Mathematik<br />
| Ort=Freie Universität Berlin<br />
| Herausgeber=AG Numerische Mathematik<br />
| Jahr=2008<br />
| Monat=April<br />
| Kapitel=3.1.1 Hermite-Interpolation und Taylor’sche Formel<br />
| Seiten=39–45<br />
| Kommentar=Vorlesungsskript<br />
| Online=[https://dms-numerik.mi.fu-berlin.de/knowledgeTree/login.php?action=login&username=guest&password=guest&redirect=action.php%3fkt_path_info=ktcore.actions.document.view%26fDocumentId=13168 PDF, 2.4 MB]<br />
}}</ref><br />
<br />
Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x^*), \quad \mathrm{falls} \quad x_0=\ldots=x_k=x^*</math><br />
dar, lässt sich diese Identität einfach beweisen.<br />
<br />
Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.<br />
<br />
Also gilt der folgende Satz:<br />
<br />
== Hermiteinterpolation ==<br />
Es gelte:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>n</math>-mal stetig differenzierbar]]: <math>f \in C^n([a,b]), \quad n \in \N</math><br />
* <math>n+1</math> Stützstellen: <math>x_0, \ldots, x_n \in [a,b]</math><br />
* die Häufigkeit der Wiederhoung der Stützstelle <math>x_i</math> sei mit <math>m_i \in \N</math> gegeben.<br />
Dann erfüllt das [[Polynominterpolation#Newtonscher_Algorithmus|Newton-Polynom]]:<br />
:<math>p(x) := f(x_0) + \sum_{i=1}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)</math><br />
die '''Hermiteschen Interpolationsbedingungen''':<br />
:<math>f^{(k)}(x_i) = p^{(k)}(x_i) \quad \forall \, i=0,\ldots,n \ \forall k=0,\ldots,m_i-1 .</math><br />
Darüber hinaus ist diese Lösung eindeutig.<br />
<br />
== Fehlerabschätzung ==<br />
Für den Fehler der Hermiteinterpolierten gilt nach dem Fehler in der Taylorentwicklung die obere Schranke<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\zeta)}{(n+1)!} \prod_{i=0}^n (x-x_i),\;\zeta \in [\alpha,\beta] , \; f \in C^{n+1}</math><br />
Im Falle des Gitters<br />
:<math>x_0 = \dots = x_k < x_{k+1} < \dots < x_n </math><br />
gilt:<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\zeta)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i)</math><br />
<br />
== Berechnung der Interpolierten ==<br />
Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der [[Dividierte Differenzen|dividierten Differenzen]].<br />
<br />
Im Fall <math>x_0 = x_1 = \ldots = x_k</math> muss anstatt der dort verwendeten Formel<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)</math><br />
berechnet werden.<br />
<br />
Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei <math>x_0 = \ldots = x_i = \ldots = x_k = \ldots =x_n</math>:<br />
* Statt <math>f[x_i,\ldots,x_k]</math> muss man die dividierte Differenz <math>f[x_0,\ldots,x_{k-i}]</math> berechnen<br />
* Taucht in der Rekursion <math>f[x_i]</math> auf, berechnet man stattdessen <math>f[x_0]</math><br />
* In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes <math>x_i</math> durch <math>x_0</math>.<br />
<br />
=== Pseudocode ===<br />
Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.<br />
''xvals'' ← Stützstellen<br />
''yvals'' ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten<br />
''zvals'' ← { f(xvals[i]) | i ∈ 1..#xvals }<br />
<br />
'''for''' ''i'' ← #''xvals''..1 '''do'''<br />
'''for''' ''j'' ← ''i''..#''xvals'' '''do'''<br />
'''if''' ''i'' = ''j'' '''then'''<br />
''[xi..xj]f'' ← ''zvals''[''i'']<br />
'''else''' '''if''' ''xvals''[''i''] = ''xvals''[''j''] '''then'''<br />
''index'' ← Index des ersten Vorkommens von ''xvals''[''i''] in ''xvals''<br />
''[xi..xj]f'' ← ''yvals''[''j'' - ''i'' + ''index''] / (''j''-''i'')!<br />
'''else'''<br />
''[xi..xj]f'' ← (''[xi+1..xj]f'' - ''[xi..xj-1]f'') / (''xvals''[''j''] - ''xvals''[''i''])<br />
<br />
== Historie ==<br />
Erstmals veröffentlichte Hermite seine Untersuchungen zur Hermiteinterpolation 1878 in: ''Sur la formule d'interpolation de Lagrange'', [[Journal für die reine und angewandte Mathematik]], Band 84, Seite 70-79<ref name="Cheney" /><br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik: Hermiteinterpolation|Hermiteinterpolation|Implementierungen in der Algorithmensammlung}}<br />
<br />
== Literatur ==<br />
* Richard L. Burden, J. Douglas Faires: ''Numerische Methoden''. Spektrum, Akad. Verlag, Heidelberg/ Berlin/ Oxford 2000, ISBN 3-8274-0596-3.<br />
<br />
== Einzelnachweise ==<br />
<references><br />
<ref name="Cheney">Elliot Ward Cheney: ''Introduction to Approximation Theory'', McGraw-Hill Book Company, 1966, [[Library of Congress Catalog Card Number]] 65-25916, ISBN 007-010757-2, Seite 225 + 242</ref><br />
</references><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Charles Hermite als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Hermiteinterpolation&diff=168491148Hermiteinterpolation2017-08-26T11:03:37Z<p>HerrHartmuth: /* Hermite-Genocchi-Formel */ Voraussetzungen für die Hermite-Genocchi Formel, Simplex Interwiki-Link, Ableitungszusammenhang präzisiert</p>
<hr />
<div>In der [[Numerik|numerischen Mathematik]] ist die '''Hermiteinterpolation''' (benannt nach [[Charles Hermite]]) ein [[Interpolation (Mathematik)|Interpolationsverfahren]] zur [[Polynominterpolation]], das auch Ableitungen der zu interpolierenden Funktion berücksichtigt.<br />
<br />
== Vorbereitung ==<br />
=== Motivation ===<br />
[[Datei:Hermite.svg|mini|200px|Splineinterpolation ohne Berücksichtigung der Steigung. Man sieht klar den „Knick“ bei <math>x=0{,}5</math>]]<br />
<br />
Ein Ergebnis für die klassische Polynominterpolation besagt, dass äquidistante Stützstellen – also gleicher Abstand zwischen den bekannten Funktionswerten – zu einem exponentiellen Anstieg der Kondition der Polynominterpolation führt, ihren Fehler also drastisch erhöht.<ref>A. H. Turetskii: ''The bounding of polynomials prescribed at equally distributed points.'' In: ''Proc. Pedag. Inst.'' Vitebsk; 3; 1940.<br />Siehe auch [[Runges Phänomen]]</ref><br />
<br />
In der Praxis haben äquidistante Messpunkte aber gewisse Vorteile und sind manchmal auch unvermeidbar. Man benötigt daher ein Interpolationsverfahren, das auch für diesen Fall nur kleine Fehler erzeugt. Ein Ansatz ist die [[Spline-Interpolation|Splineinterpolation]], bei der das Gebiet, auf dem eine Funktion interpoliert werden soll, durch ein Gitter zerteilt und in jedem der entstandenen Intervalle eine Polynominterpolation durchgeführt wird.<br />
<br />
[[Datei:Hermite interpolation.svg|links|mini|200px|Splineinterpolation mit Berücksichtigung der Steigung]]<br />
<br />
Wählt man dabei den „naiven“, [[Polynominterpolation#Newtonscher Algorithmus|Newtonschen Ansatz]], stimmen die Ableitungen der Interpolierten an den Gitterpunkten nicht notwendigerweise überein – folglich ist die Interpolierte an diesen Punkten in der Regel nicht [[Differentialrechnung#Definition|(stetig) differenzierbar]]. Es muss nicht bei „Ecken“, wie im Beispiel rechts, bleiben. Es könnte zum Beispiel auch passieren, dass auf zwei benachbarten Intervallen die Interpolierten sich „von oben“ dem Gitterpunkt nähern und so tatsächlich eine – anschaulich – „Spitze“ entsteht.<br />
<br />
Da dieses Verhalten offensichtlich unerwünscht ist, versucht man, die Übergänge glatt zu gestalten, indem man neben den Funktionswerten in den Gitterpunkten weiterhin beliebig viele Ableitungen als bekannt voraussetzt und die Interpolationspolynome so wählt, dass die Ableitungen in dem gemeinsamen Punkt übereinstimmen. Praktisch reicht es, die erste Ableitung gleichzusetzen, um einen „glatt“ aussehenden Graphen zu erhalten.<br />
<br />
Diese Aufgabe lässt sich analog zur [[Polynominterpolation#Problemstellung|Problemstellung in der klassischen Polynominterpolation]] schriftlich lösen. Als Beispiel dient hier die Aufgabe,<br />
:<math>f(-1) = -1,\, f'(-1) = 0,\, f(2) = 0</math> in <math>\mathcal{P}_2</math> zu interpolieren.<br />
Man definiert<br />
: <math>p(x) := a_0 + a_1 \cdot x + a_2 \cdot x^2</math> und leitet ab zu <math>p'(x) := a_1 + a_2 \cdot 2x</math>.<br />
Das Gleichungssystem wird damit zu<br />
:<math>\begin{pmatrix}<br />
1 & -1 & 1 \\<br />
0 & 1 & -2 \\<br />
1 & 2 & 4<br />
\end{pmatrix}<br />
\cdot \begin{pmatrix}<br />
a_0 \\<br />
a_1 \\<br />
a_2<br />
\end{pmatrix} =<br />
\begin{pmatrix}<br />
-1 \\<br />
0 \\<br />
0<br />
\end{pmatrix}.<br />
</math><br />
Lösen nach <math>a = (a_0,a_1,a_2)^T</math> bringt die gesuchten Koeffizienten.<br />
<br />
Dieser Lösungsansatz hat den Nachteil, dass er in der [[O-Notation#Anwendung in der Komplexitätstheorie|Komplexitätsklasse]] <math>\mathcal{O}(n^3)</math> liegt und damit langsam ist. Es wäre wünschenswert, die [[Polynominterpolation#Ansatz: Newton-Basis|Newton-Basis]] von der klassischen Polynominterpolation übernehmen zu können. Dieser Ansatz schließt allerdings zusammenfallende Stützstellen aus und ist daher nicht ohne Modifikation anwendbar. Daher erweitert man ihn zum Hermitschen Interpolationsverfahren.<br />
<br />
=== Hermite-Genocchi-Formel ===<br />
Die '''Hermite-Genocchi-Formel''' bildet die Grundlage der Hermiteinterpolation.<br />
Die Voraussetzung des Satzes sind:<br />
* <math>f</math> ist [[Differenzierbarkeit#Stetige_Differenzierbarkeit_und_h.C3.B6here_Ableitungen| <math>k</math>-mal stetig differenzierbar]]: <math>f \in C^k([a,b]), \quad k \in \N</math><br />
* <math>k+1</math> Stützstellen: <math>x_0, \ldots, x_k \in [a,b].</math><br />
Nun liefert die Formel eine Integraldarstellung für die [[Dividierte Differenzen|dividierten Differenzen]] aus dem Newtonalgorithmus der Polynominterpolation:<br />
:<math>f[x_0,\ldots,x_k] = \int_{\Sigma^k}f^{(k)}\left(x_0+\sum_{i=1}^k s_i(x_i-x_0)\right)\,ds ,</math><br />
mit dem k-dimensionalen [[Simplex_(Mathematik)|Einheitssimplex]]:<br />
:<math> \;\Sigma^k = \left\{s\in \R^k,\, \forall i: s_i \ge 0, \sum_{i=1}^k s_i \le 1 \right\}.</math><br />
<br />
Man beweist diese Identität durch vollständige Induktion.<ref>{{Literatur<br />
| Autor=Ralf Kornhuber, Christof Schütte<br />
| Titel=Einführung in die Numerische Mathematik<br />
| Ort=Freie Universität Berlin<br />
| Herausgeber=AG Numerische Mathematik<br />
| Jahr=2008<br />
| Monat=April<br />
| Kapitel=3.1.1 Hermite-Interpolation und Taylor’sche Formel<br />
| Seiten=39–45<br />
| Kommentar=Vorlesungsskript<br />
| Online=[https://dms-numerik.mi.fu-berlin.de/knowledgeTree/login.php?action=login&username=guest&password=guest&redirect=action.php%3fkt_path_info=ktcore.actions.document.view%26fDocumentId=13168 PDF, 2.4 MB]<br />
}}</ref><br />
<br />
Im Gegensatz zu den dividierten Differenzen taucht im Integral in dieser Formel kein Quotient mit der Differenz zweier Stützstellen auf – rein rechnerisch ist es also möglich, konfluente (zusammenfallende) Stützstellen einzusetzen. Stellt man die Formel als<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x^*), \quad \mathrm{falls} \quad x_0=\ldots=x_k=x^*</math><br />
dar, lässt sich diese Identität einfach beweisen.<br />
<br />
Offensichtlich kann man folglich durch mehrfaches Verwenden von Stützstellen Ableitungen in der Interpolation berücksichtigen.<br />
<br />
Also gilt der folgende Satz:<br />
<br />
== Hermiteinterpolation ==<br />
Sei <math>f \in C^k([\alpha, \beta])</math> und seien <math>\alpha \le x_0 \le x_1 \le \cdots \le x_n \le \beta</math> reelle Stützstellen. Dann erfüllt das Polynom<br />
:<math>p(x) := \sum_{i=0}^{n} f[x_0,\ldots,x_i] \prod_{j=0}^{i-1}(x-x_j)</math><br />
die Interpolationsbedingungen<br />
:<math>f^{(\xi)}(x_i) = p^{(\xi)}(x_i) \,\forall x_i \quad (\xi\ \mathrel{\widehat{=}}\, \xi \text{te Wiederholung einer Stützstelle}).</math><br />
Darüber hinaus ist diese Lösung eindeutig.<br />
<br />
== Fehlerabschätzung ==<br />
Für den Fehler der Hermiteinterpolierten gilt nach dem Fehler in der Taylorentwicklung die obere Schranke<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\zeta)}{(n+1)!} \prod_{i=0}^n (x-x_i),\;\zeta \in [\alpha,\beta] , \; f \in C^{n+1}</math><br />
Im Falle des Gitters<br />
:<math>x_0 = \dots = x_k < x_{k+1} < \dots < x_n </math><br />
gilt:<br />
:<math>f(x) - p(x) = \frac{f^{(n+1)}(\zeta)}{(n+1)!} (x-x_0)^{k+1} \prod_{i=k+1}^n (x-x_i)</math><br />
<br />
== Berechnung der Interpolierten ==<br />
Zur praktischen Berechnung der Interpolierten verwendet man wie gehabt das Schema der [[Dividierte Differenzen|dividierten Differenzen]].<br />
<br />
Im Fall <math>x_0 = x_1 = \ldots = x_k</math> muss anstatt der dort verwendeten Formel<br />
:<math>f[x_0,\ldots,x_k] = \frac{1}{k!}f^{(k)}(x_0)</math><br />
berechnet werden.<br />
<br />
Zu beachten ist, dass ferner einige Umsortierungen notwendig sind. Im Folgenden sei <math>x_0 = \ldots = x_i = \ldots = x_k = \ldots =x_n</math>:<br />
* Statt <math>f[x_i,\ldots,x_k]</math> muss man die dividierte Differenz <math>f[x_0,\ldots,x_{k-i}]</math> berechnen<br />
* Taucht in der Rekursion <math>f[x_i]</math> auf, berechnet man stattdessen <math>f[x_0]</math><br />
* In allen Fällen, in denen die Formel aus dem ursprünglichen Neville-Aitken-Schema verwendet wird, ersetzt man jedes <math>x_i</math> durch <math>x_0</math>.<br />
<br />
=== Pseudocode ===<br />
Der Pseudocode soll verdeutlichen, wie man die verallgemeinerte Form der dividierten Differenzen berechnet. Listen werden im Folgenden als ab 1 indiziert angenommen.<br />
''xvals'' ← Stützstellen<br />
''yvals'' ← Funktionswerte f(x) und ggf. Ableitungen bei mehrfachen x-Werten<br />
''zvals'' ← { f(xvals[i]) | i ∈ 1..#xvals }<br />
<br />
'''for''' ''i'' ← #''xvals''..1 '''do'''<br />
'''for''' ''j'' ← ''i''..#''xvals'' '''do'''<br />
'''if''' ''i'' = ''j'' '''then'''<br />
''[xi..xj]f'' ← ''zvals''[''i'']<br />
'''else''' '''if''' ''xvals''[''i''] = ''xvals''[''j''] '''then'''<br />
''index'' ← Index des ersten Vorkommens von ''xvals''[''i''] in ''xvals''<br />
''[xi..xj]f'' ← ''yvals''[''j'' - ''i'' + ''index''] / (''j''-''i'')!<br />
'''else'''<br />
''[xi..xj]f'' ← (''[xi+1..xj]f'' - ''[xi..xj-1]f'') / (''xvals''[''j''] - ''xvals''[''i''])<br />
<br />
== Historie ==<br />
Erstmals veröffentlichte Hermite seine Untersuchungen zur Hermiteinterpolation 1878 in: ''Sur la formule d'interpolation de Lagrange'', [[Journal für die reine und angewandte Mathematik]], Band 84, Seite 70-79<ref name="Cheney" /><br />
<br />
== Weblinks ==<br />
{{Wikibooks|Algorithmensammlung: Numerik: Hermiteinterpolation|Hermiteinterpolation|Implementierungen in der Algorithmensammlung}}<br />
<br />
== Literatur ==<br />
* Richard L. Burden, J. Douglas Faires: ''Numerische Methoden''. Spektrum, Akad. Verlag, Heidelberg/ Berlin/ Oxford 2000, ISBN 3-8274-0596-3.<br />
<br />
== Einzelnachweise ==<br />
<references><br />
<ref name="Cheney">Elliot Ward Cheney: ''Introduction to Approximation Theory'', McGraw-Hill Book Company, 1966, [[Library of Congress Catalog Card Number]] 65-25916, ISBN 007-010757-2, Seite 225 + 242</ref><br />
</references><br />
<br />
[[Kategorie:Numerische Mathematik]]<br />
[[Kategorie:Charles Hermite als Namensgeber]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Diskussion:Polynom&diff=168490462Diskussion:Polynom2017-08-26T10:30:03Z<p>HerrHartmuth: Neuer Abschnitt /* Mengenschreibweise: Polynome und Polynome vom Grad n */</p>
<hr />
<div>== Reziproke Polynome ==<br />
<br />
Ich habe das Gefühl, hier wird zu viel in zu kurzer Form abgehandelt. Ein eigener Artikel [[Reziprokes Polynom]] scheint mir sinnvoll.--[[Benutzer Diskussion:Gunther|Gunther]] 11:20, 26. Mai 2005 (CEST)<br />
<br />
Darüber habe ich auch schon nachgedacht. Aber ich bin mir nicht sicher, ob es für einen eigenen Artikel reicht. [[Benutzer:Ralf Pfeifer|Ralf Pfeifer]] 11:41, 26. Mai 2005 (CEST)<br />
<br />
: Habe einen Artikel angelegt und die verschiedenen Varianten mit Minuszeichen klarer getrennt. Ich würde schon denken, dass das ausreichend Stoff ist, selbst wenn man die Varianten nicht in dieser Ausführlichkeit abhandelt. Weitere Kommentare vielleicht am besten dort.--[[Benutzer Diskussion:Gunther|Gunther]] 13:36, 26. Mai 2005 (CEST)<br />
<br />
: In dem Artikel [[Reziprokes Polynom]] ist ja doch eine ganze Menge zusammengekommen - das hätte ich jetzt nicht gedacht. Hat es eigentlich einen Grund, dass Du die Variable x imer in Großbuchstaben setzt? Ach ja, wer räumt jetzt hier auf? [[Benutzer:Ralf Pfeifer|Ralf Pfeifer]] 15:03, 26. Mai 2005 (CEST)<br />
<br />
Im Artikel wird der Grad des Nullpolynoms als minus unendlich defniert. Den Sinn dieser Definition sehe ich nicht ein. --[[Benutzer:Hanfried.lenz|Hanfried.lenz]] 12:26, 6. Nov. 2007 (CET).<br />
:: Das mit der Großschreibung ist ein technischer Punkt: <math>X</math> ist die Unbestimmte des Polynomrings, während <math>x</math> eine Variable ist und für eine konkrete Zahl steht. Ist das Aufräumen so ok? Ist jetzt etwas knapp, aber der wesentliche Punkt und der Link stehen da.--[[Benutzer Diskussion:Gunther|Gunther]] 20:10, 26. Mai 2005 (CEST)<br />
<br />
:: Ach ja, wichtiger Punkt: Von meiner Seite aus sind die Varianten Theoriefindung. Hattest Du da irgendwelche Quellen?--[[Benutzer Diskussion:Gunther|Gunther]] 20:20, 26. Mai 2005 (CEST)<br />
<br />
==Fundamentalsatz==<br />
Unter 1.3.1 steht zum Fundamentalsatz: "... dass ein Polynom vom Grad n höchstens n reelle und genau n komplexe Nullstellen hat ..."<br />
<br />
Aus dieser Aussage läßt sich der Schluß ableiten, das ein Polynom n-ten Grades bis zu 2n Nullsten haben kann, nämlich mindestens n komplexe plus die reellen, von denen es 0 bis n geben kann. Das scheint mir nicht richtig zu sein. Kann dass mal jemand nachprüfen? [[Benutzer:Ralf Pfeifer|Ralf Pfeifer]] 11:41, 26. Mai 2005 (CEST)<br />
<br />
: Jede reelle Nullstelle ist auch eine komplexe Nullstelle.--[[Benutzer Diskussion:Gunther|Gunther]] 11:45, 26. Mai 2005 (CEST)<br />
<br />
: Schon klar - aber ist die Formulierung so sauber? [[Benutzer:Ralf Pfeifer|Ralf Pfeifer]] 15:04, 26. Mai 2005 (CEST)<br />
<br />
:: Ich fand sie ok. Allerdings hat der erste Teil nichts mit dem Fundamentalsatz zu tun, deshalb habe ich ihn nach oben verschoben. Damit sollte die Formulierung jetzt unmissverständlich sein.--[[Benutzer Diskussion:Gunther|Gunther]] 20:10, 26. Mai 2005 (CEST)<br />
<br />
== Reell oder nicht? ==<br />
<br />
Man sollte eine Entscheidung treffen, ob man nur über reelle Polynome oder über den allgemeinen Fall spricht. Derzeit ist die Definition allgemein, aber beispielsweise die Aussagen über Nullstellen oder Wertebereich nehmen stillschweigend an, dass es sich um reelle Polynome handelt.--[[Benutzer Diskussion:Gunther|Gunther]] 12:12, 26. Mai 2005 (CEST)<br />
<br />
== Nullstellenschranken ==<br />
<br />
Ich habe bei den Nullstellenschranken ein ungutes Gefühl. Eine ergibt keinen Sinn:<br />
* <math>\min\{x\in\R_+: f^{(i)}\geq 0</math> für <math>i=1,\ldots,n\}</math> ist eine obere reelle Nullstellenschranke ('''Newton-Regel'''); <br />
denn die Rolle von <math>x</math> ist fragwürdig. Ich sehe auch keine Definition der in manchen Formeln auftretenden Menge <math>N</math>, wahrscheinlich ist <math>\{0,1,\ldots,n\}</math> oder <math>\{0,1,\ldots,n-1\}</math> gemeint. Aufrund dieser Ungereimtheiten ist mein Vertrauen in die restlichen Schranken nicht allzu groß. Kann das mal jemand nachkontrollieren?--[[Benutzer:MKI|MKI]] 12:14, 27. Sep 2005 (CEST)<br />
:Keine Angst, die Nullstellenschranken sind alle koscher. Aber du hast recht, die Definition von N (Menge aller Indizes von negativen Koeffizienten) wird erst bei der letzten aller Schranken definiert. Das ändere ich gleich ab.--[[Benutzer:JFKCom|JFKCom]] 22:46, 27. Sep 2005 (CEST)<br />
:: Ich verstehe es trotzdem nicht. Für <math>x^2-4</math> bekomme ich da 0 heraus.--[[Benutzer Diskussion:Gunther|Gunther]] 23:13, 27. Sep 2005 (CEST)<br />
::: O ja, die hat eine Macke. Die hatte ich vor einem Jahrzehnt entweder aus "Mignotte, M.: ''Mathematics for Computer Algebra'', Springer, Berlin 1992" oder aus "Mignotte, M.: Some Useful Bounds, ''Computing, Suppl. 4'', 259-263 (1982)" . Dummerweise komme ich jetzt nicht schnell an die beiden Quellen ran und weiss nicht mehr, wie die Definition richtig lautet. Vielleicht kann da jemand helfen. Ich such mal nach Alternativquellen. Die Newton-Regel ist jedenfalls eine der besten überhaupt bekannten Nullstellenschranken, nur wegen der komplizierten Berechnung in der Praxis fast wertlos.--[[Benutzer:JFKCom|JFKCom]] 23:30, 27. Sep 2005 (CEST)<br />
:::: Hm, die Regel sieht extrem merkwürdig aus. Mit <math>i\geq1</math> ist sie invariant unter Addition von Konstanten und damit automatisch falsch. Mit <math>i\geq0</math> wird sie irgendwie ziemlich trivial, weil man dann auch einfach <math>n=0,1</math> nehmen könnte: kurz unterhalb der größten positiven Nullstelle ist entweder das Polynom oder seine Ableitung negativ.--[[Benutzer Diskussion:Gunther|Gunther]] 23:41, 27. Sep 2005 (CEST)<br />
::::: Jetzt hab ich die Quelle [http://www-sop.inria.fr/coprin/logiciels/ALIAS/ALIAS-C++/node158.html] gefunden. Demnach muss ich einfach i=0 mit einschließen. Die Wahl <math>0\leq i \leq 1</math> wie von dir vorgeschlagen wäre aber nicht genügend, es könnte rechts davon durch Wendepunkte höherer Ordnung noch die x-Achse geschnitten werden.--[[Benutzer:JFKCom|JFKCom]] 00:27, 28. Sep 2005 (CEST)<br />
:::::: Ja, das war kompletter Unsinn.--[[Benutzer Diskussion:Gunther|Gunther]] 00:39, 28. Sep 2005 (CEST)<br />
:::::: Genauer gesagt: Ich dachte an <math>\min\{x\mid\forall x'\geq x\colon f^{(i)}(x')\geq0,\ i=0,1\}</math>, aber "kompletter Unsinn" ist trotzdem eine zutreffende Beschreibung.--[[Benutzer Diskussion:Gunther|Gunther]] 00:44, 28. Sep 2005 (CEST)<br />
:Auch in der veränderten Version bleibt die Newton-Schranke unklar. Heißt es ''für ein <math>i</math>'' oder ''für alle <math>i</math>''?--[[Benutzer:MKI|MKI]] 01:21, 28. Sep 2005 (CEST)<br />
:: Für alle. Heißt das eigentlich immer bei "für <math>i=0,\ldots,n</math>".--[[Benutzer Diskussion:Gunther|Gunther]] 01:42, 28. Sep 2005 (CEST)<br />
:::Vorzuziehen weil zweifelsfrei eindeutig ist meiner Meinung nach die Schreibweise "für alle <math>i\in\{0,\ldots,n\}</math>". Ich habe es im Artikel abgeändert.--[[Benutzer:MKI|MKI]] 02:34, 28. Sep 2005 (CEST)<br />
:::: Es ist nur unüblich, es so umständlich aufzuschreiben.--[[Benutzer Diskussion:Gunther|Gunther]] 10:07, 28. Sep 2005 (CEST)<br />
:::::Ich perönlich mag die Schreibweise <math>i=0,\ldots,n</math> nicht so gern, denn auf den beiden Seiten des Gleichheitszeichens steht nicht das gleiche. Das liegt daran, dass das Gleichheitszeichen hier eigentlich eine Element-Beziehung umschreibt (vergleiche <math>f=O(x)</math>). Aber da diese Schreibweise ja nicht unüblich ist, kann ich wohl nicht viel dagegen sagen. An Alternativen kenne ich noch <math>i\in\overline{0,n}</math> (prinzipiell schöner, aber nicht sehr verbreitet) und <math>i\in n+1</math> (sehr kompakt und nach dem Standard-Modell der natürlichen Zahlen in der Mengenlehre völlig korrekt, aber ziemlich missverständlich und unüblich.)--[[Benutzer:MKI|MKI]] 12:06, 28. Sep 2005 (CEST)<br />
:::::: Ja, mengentheoretisch korrekte Formeln sind so eine Sache. Ich würde auch nicht empfehlen, bei einem Vektorraum <math>V=\bigcup V/0</math> zu schreiben, auch wenn das richtig sein mag. Auch mathematische Sprache dient primär der Kommunikation.--[[Benutzer Diskussion:Gunther|Gunther]] 13:10, 28. Sep 2005 (CEST)<br />
<br />
<br />
<br />
Ich schaue mir die Schranken gerade auch an und habe doch meine Zweifel bzgl. der Richtigkeit. <br /><br />
1.: Bei der ersten Schranke (Cauchy-Regel) steht im Exponent <math>\frac{1}{n-i}</math> für <math>i \in N</math>. Da aber <math>n \in N </math> ist, so wie ich die Menge N verstanden habe, lautet der Exponent am Ende <math>\frac{1}{0}</math>, was aber nicht sein darf. Wo ist hier der Fehler?<br />
<br />
2.: Bei der dritten Schranke (mit <math>B \in \R_+</math>) geht die Summe ja bis <math>n-1</math>. Es kann aber ja auch gut <math>N = \{0\}</math> sei, dann ist die Summe = 0, aber <math>B^n</math> ergibt für jedes B 1, wodurch die Ungleichung dann immer erfüllt wäre, aber B nicht zwangsläufig eine Schranke darstellt. Was stimmt hier nicht? --[[Spezial:Beiträge/134.60.66.76|134.60.66.76]] 13:05, 25. Jan. 2012 (CET)<br />
<br />
:edit: Ich habe gemerkt, dass zwei verschiedene <math>n</math> gemeint sind. Man sollte im Text vielleicht deutlicher erwähnen, welches <math>n</math> jeweils gemeint ist. --[[Spezial:Beiträge/134.60.66.76|134.60.66.76]] 13:09, 25. Jan. 2012 (CET)<br />
<br />
In den Abschnitten über komplexe und reelle Nullstellenschranken werden die Ausdrücke <math>\R[X]</math> und <math>\Bbb C[X]</math> benutzt. Leider wird erst weiter unten im Abschnitt über Polynome in der abstrakten Algebra erklärt, was damit gemeint ist. Könnte man hier durch eine Vertauschung von Abschnitten oder einen Verweis mehr Klarheit schaffen ? Ein Link wie [[Polynomring|<math>\R[X]</math>]] scheint leider nicht gut zu funktionieren. --[[Benutzer:BannSaenger|BannSaenger]] ([[Benutzer Diskussion:BannSaenger|Diskussion]]) 01:41, 19. Nov. 2014 (CET)<br />
<br />
:Ich habe <math>\R[X]</math> und <math>\Bbb C[X]</math> hier jetzt einfach herausgenommen, besser? -- [[Benutzer:HilberTraum|HilberTraum]] (''[[BD:HilberTraum|d]], [[P:M|m]]'') 20:41, 19. Nov. 2014 (CET)<br />
<br />
== Lösungsformel Binome ==<br />
<br />
Auf mich wirkt die Lösungsformel für Binome X^n+c irgendwie falsch.--[[Benutzer:JFKCom|JFKCom]] 17:31, 2. Dez 2005 (CET)<br />
: [[WP:SM]]! Vor allem ist das i rechts nicht dasselbe wie das i links :-) --[[Benutzer Diskussion:Gunther|Gunther]] 18:15, 2. Dez 2005 (CET)<br />
<br />
== Sortierung von Polynomgliedern ==<br />
<br />
Gibt es eine allgemein anerkannte Konvention, wie man Polynomglieder von Polynomen mit zwei Variablen sortiert? --[[Benutzer:RokerHRO|RokerHRO]] 08:47, 25. Apr 2006 (CEST)<br />
<br />
:Ich nehme an, du meinst den Fall, dass beide Variablen "gleichberechtigt" sind. Dann wird wohl üblicherweise nach dem totalen Grad der einzelnen Summanden sortiert; für die Sortierung aller Monome mit gleichem totalen Grad sortiert man dann nach dem Grad in einer ausgewählten von den beiden Variablen. Beispiel: <math>x^2+xy+y^2+x+y+1</math>. Wie weit diese Konvention "allgemein anerkannt" ist, kann ich nicht sagen.--[[Benutzer:JFKCom|JFKCom]] 09:02, 25. Apr 2006 (CEST)<br />
:: [[Monomordnung]] nennt sich sowas, braucht man für [[Gröbner-Basis|Gröbner-Basen]].--[[Benutzer Diskussion:Gunther|Gunther]] 12:02, 25. Apr 2006 (CEST)<br />
<br />
<br />
== Faktor der mehrfachen Ableitung bis zur Konstante ==<br />
<br />
Wenn man von z.B. n*x^3 ([[Monom]]) oder auch ein Polynom mit diesem Monom als erstem Term mehrfach die Ableitung bildet bis man zu einer Konstanten kommt ergeben sich die Schritte<br />
<br />
<math><br />
y = n*x^3<br />
</math><br />
<br />
<math><br />
y' = n*3*x^2<br />
</math><br />
<br />
<math><br />
y'' = n*3*2*x<br />
</math><br />
<br />
<math><br />
y''' = n*3*2*1<br />
</math><br />
<br />
Dies lässt sich generalisieren durch die allgemeine Formel:<br />
<br />
<math><br />
y = n*x^m<br />
</math><br />
<br />
<math><br />
y'^m = n*(m!)<br />
</math><br />
<br />
Gib es für diesen Wert: Also y so oft abgeleittet bis es eine Konstante ergibt (m = Hochzahl mal) eigentlich einen Namen ?<br />
<br />
[[User:kraftb|Bernhard Kraft]] 21:00, 19 May 2006 (CET) [www.think-open.at]<br />
:Meines Wissens nicht; es ist ja einfach Leitkoeffizient * (Grad !). Gruß, [[Benutzer:Wasseralm|Wasseralm]] 22:17, 10. Apr. 2007 (CEST)<br />
<br />
== Polynomringe in der abstrakten Algebra ==<br />
<br />
===Polynomringe in einer Variablen===<br />
<br />
Mathematisch ist es nicht besonders schön, ein formales Symbol <math>X</math> einzuführen und dann zu sagen, dass ein Polynom eine Linearkombination von "abstrakten" Potenzen dieses Symbols ist. Normalerweise wird der Polynomring in einer Variablen über einem kommutativen (!!!) Ring <math>R</math> als Menge <math>P</math> aller Folgen<br />
:<math>( a_i )_{i \in \mathbb{N}_0}</math> mit nur endlich vielen von 0 verschiedenen Komponenten <br />
definiert, wobei <math>\mathbb{N}_0 := \mathbb{N} \cup \{ 0 \}</math>. Man definiert dann eine Addition auf <math>P</math> durch<br />
:<math>( ( a_i )_{i \in \mathbb{N}_0} + ( b_i )_{i \in \mathbb{N}_0} )_k = a_k + b_k</math><br />
und eine Multiplikation durch<br />
:<math>( ( a_i )_{i \in \mathbb{N}_0} \cdot ( b_i )_{i \in \mathbb{N}_0} )_k<br />
= \sum_{j=0}^k a_j b_{k-j}</math>.<br />
Natürlich lässt sich dann zeigen, dass <math>P</math> somit ein Ring ist. Es ist <math>( 0, 0, \dots )</math> das neutrale Element der Addition, und <math>( 1, 0, \dots )</math> ist das neutrale Element der Multiplikation. Setzt man nun<br />
:<math>X := ( 0, 1, 0, \dots )</math>,<br />
so sieht man leicht, dass <math>X^2 = ( 0, 0, 1, 0, \dots )</math> gilt und so weiter. Entsprechend<br />
nennt man dann<br />
:<math>R[ X ] := P</math><br />
den '''Polynomring in einer Variablen''' über <math>R</math>.<br />
<br />
:Sehr schön, diesen Zugang habe ich in dem Artikel vermisst! [[Benutzer:DrLemming|DrLemming]] 17:00, 12. Jul 2006 (CEST)<br />
<br />
<br />
Die Frage ist, was bedeutet es, zu sagen, ein mathematisches Objekt ''ist ...''. Bestimmt man es durch seine Eigenschaften (und das ist der typische Zugang in der abstrakten Algebra), oder dadurch, wie es sich mengentheoretisch realisieren lässt (das ist Dein Zugang)? Ich halte es mit dem ersten. --[[Benutzer:Digamma|Digamma]] 11:53, 28. Jan. 2007 (CET)<br />
<br />
===Polynomringe in beliebig vielen Variablen===<br />
<br />
Ich denke, hier sollte die Definition so allgemein wie möglich gehalten werden. Warum soll man sich auf die Definition eines Polynomringes in endlich vielen oder gar abzählbar vielen Variablen beschränken. Natürlich wird es schwierig eine sinnvolle und vor allem mathematisch korrekte Definition eines Polynomringes in beliebig vielen Variablen so zu formulieren, dass sie allgemein verständlich ist. Deshalb schlage ich vor, dass zwar die abstrakte Definition verwendet, dann aber mit Bespielen von Polynomringen in endlich oder abzählbar vielen Variablen ergänzt wird. Die Frage ist, ob man Wikipedia im Bereich Mathematik zu einem vollwertigen Fachlexikon ausbauen soll oder nicht. Polynomringe sind extrem wichtige Objekte im Bereich der abstrakten Algebra, und es gibt bereits Artikel, die den Begriff des Polynomrings in mehreren Variablen benutzen, wie zum Beispiel der Artikel über [[quadratische Form|quadratische Formen]] (Na ja, dieser Artikel sollte auch noch einmal grundlegend überarbeitet werden. Das, was da als quadratische Form bezeichnet wird, ist auch nur ein winziger Spezialfall der algebraischen Definition quadratischer Formen.). Deshalb denke, ich dass es durchaus sinnvoll ist eine so allgemein wie möglich gehaltene Definition in diesen Artikel aufzunehmen. Wenn niemand etwas gegenteiliges äußert, werde ich in ein paar Tagen den Artikel entsprechend überarbeiten. --[[Benutzer:Ktruehl|Ktruehl]] 18:11, 10. Mai 2006 (PST)<br />
<br />
: Die Idee ist, dass dieser Artikel hier elementar ist und die abstrakte Sichtweise in [[Polynomring]] steht. Dort steht zwar auch nichts über Polynome in unendlich vielen Veränderlichen, aber es dürfte ein karger Verweis genügen wie: "Analog ist für eine beliebige Menge <math>I</math> der Polynomring <math>R[X_i\mid i\in I]</math> definiert als der [[Monoidring]] <math>R[\N_0^{(I)}]</math>; dabei bezeichnet <math>\N_0^{(I)}</math> die [[direkte Summe]]. Die Notation von Polynomen ist wie im Fall endlich vieler Variablen."--[[Benutzer Diskussion:Gunther|Gunther]] 09:52, 11. Mai 2006 (CEST)<br />
: Ach ja, zu Deinen drei Ausrufezeichen: Ich sehe nicht, wieso der Grundring kommutativ sein müsste.--[[Benutzer Diskussion:Gunther|Gunther]] 09:55, 11. Mai 2006 (CEST)<br />
<br />
: Danke für die Antwort. Das macht Sinn. Ich habe mir den Artikel über Polynomringe nicht genau angesehen. Wegen dem "kommutativ". Könnte es sein, dass man über nichtkommutativen Ringen Probleme mit der Multiplikation bekommt? Ich weiß nicht, ob Du den Wittring kennst? Da geht es ja auch um Multiplikation von homogenen Polynomen. Bisher ist es jedenfalls (soweit ich weiß) nicht einmal gelungen den Wittring über Schiefkörpern vernünftig zu definieren. Die Definition eines Polynomringes habe ich jedenfalls bisher nur über kommutativen Ringen gesehen. Ich habe da einfach mal meiner ehemaligen Professorin vertraut. --[[Benutzer:Ktruehl|Ktruehl]] 20:24, 12. Mai 2006 (CEST)<br />
:: Ich kenne den Wittring als das K<sub>0</sub> für quadratische Formen oder als Ring von Wittvektoren, aber ich sehe für keine der beiden Möglichkeiten so recht, was das direkt mit Polynomringen zu tun hat. (Auch nicht, was man für nichtkommutative Grundringe tun könnte.)<br />
:: Für Polynome über einem nichtkommutativen Ring kann man schlicht formal Polynome hinschreiben und miteinander multiplizieren; dabei kommutieren Unbestimmte mit Ringelementen, dann geht das problemlos. In der Faltungsdefinition muss man ja auch nirgendwo irgendwelche Faktoren vertauschen.--[[Benutzer Diskussion:Gunther|Gunther]] 20:45, 12. Mai 2006 (CEST)<br />
:: Ich sehe da auch keine Probleme, habe es mir aber angewöhnt sehr vorsichtig zu sein. Im Artikel über Polynomringe wird auch ein kommutativer Grundring vorausgesetzt. Zum Wittring: Ursprünglich wurde der Wittring als Menge von (gewissen) Äquivalenzklassen von quadratischen Formen definitiert (ich werde dazu noch einen Artikel mit der genauen Definition schreiben; deshalb habe ich auch den Artikel über homogene Polynome geschrieben). Über kommutativen Ringen ist dieser Ring isomorph zu <math>K_0</math>. Da ich über K-Theorie nicht allzu viel weiß, wäre es natürlich gut, wenn Du den entsprechenden Text an den zukünftigen Artikel anfügen könntest. --[[Benutzer:Ktruehl|Ktruehl]] 21:29, 12. Mai 2006 (CEST)<br />
<br />
== "reelles"/"komplexes" Polynom ==<br />
<br />
Ich komme mit der Definition am Anfang des Artikels nicht wirklich klar: Es wird gesagt dass rein reelles Polynom relle Koeffizienten und reelle Veränderliche besitzt und ein komplexes eben komplexe Koeffizienten und komplexe Veränderliche;<br />
In allen Lehrbüchern, die ich benutze versteht man unter einem reelen Polynom aber ein Polynom mit reellen Koeffizienten und ''komplexen'' Veränderlichen; Diese Spezifikation ist meiner Meinung nach auch Wichtig (und hier gibt es keinen Namen dafür), da bestimmte Sachverhalte nur für solche Polynome gelten wie beispielsweise die Aussage, dass Nullstellen dessen Imaginärteil ungleich Null ist, immer paarweise auftreten. --[[Benutzer Diskussion:Δελτα|Δελτα]] 9:56, 2. November 2006 (CEST)<br />
<br />
:Hi, natürlich ist ein reelles Polynom auch ein komplexes Polynom, man kann den Grundring immer durch einen erweiterten, größeren Ring ersetzen. Der Fundamentalsatz wird auch üblicherweise für komplexe Polynome formuliert, die Struktur der Nullstellen reeller Polynome ist dann eine Folgerung.--[[Benutzer:LutzL|LutzL]] 12:52, 2. Nov. 2006 (CET)<br />
: Das ist i.w. das Problem der Unterscheidung zwischen Polynom und Polynomfunktion. Beim Polynom ist die Unbestimmte lediglich ein Symbol, das keinen Wertebereich hat. Man ''kann'' reelle oder komplexe Zahlen dafür einsetzen, aber z.B. auch Matrizen. Formal: Ein reelles Polynom (d.h. mit reellen Koeffizienten) definiert eine Polynomfunktion auf jeder <math>\R</math>-Algebra.--[[Benutzer Diskussion:Gunther|Gunther]] 12:56, 2. Nov. 2006 (CET)<br />
<br />
== Ganzrationale Funktionen ==<br />
<br />
In der Schulmathematik heißen die Poynomfunktionen "ganzrationale Funktionen". Sollte man dies hier irgendwo erwähnen?<br />
<br />
Im Text des Artikels wird der Grad des Nullpolynoms als minus Unendlich defniert. Den Sinn dieser "Definition" verstehe ich nicht. --[[Benutzer:Hanfried.lenz|Hanfried.lenz]] 12:32, 6. Nov. 2007 (CET).<br />
<br />
:Das macht man (nicht immer) so, damit die Gradbeziehungen für Produkt und Summe von Polynomen auch für das Nullpolynom richtig sind, d.h. es soll insbesondere <math>{}^{\deg(0\cdot p(X))=\deg(0)+\deg(p(X))}</math> gelten, was nur minus Unendlich als deg(0) zuläßt.--[[Benutzer:LutzL|LutzL]] 15:07, 6. Nov. 2007 (CET)-Edit/Korrektur--10:35, 7. Nov. 2007 (CET)<br />
<br />
::Die richtige Ungleichung lautet <math>\deg(0\cdot p(X))\le\deg(0)+ \deg(p(X))</math>. Und mit der Definition, dass das Nullpolynom den Grad minus unendlich hat, wird daraus, wenn ich mich nicht täusche, sogar eine Gleichung, wenn man vereinbart, dass die Summe einer Zahl mit minus Unendlich wieder minus Unendlich ergibt.--[[Benutzer:Digamma|Digamma]] 18:20, 6. Nov. 2007 (CET)<br />
<br />
::Stimmt, habe ich mit der Ungleichung in <math>{}^{\deg(p+q)\le \max(\deg p,\deg q)}</math> verwechselt. Diese UG ist „echt“, da man q=-p wählen kann.--[[Benutzer:LutzL|LutzL]] 10:35, 7. Nov. 2007 (CET)<br />
<br />
== Endlichkeit von n. ==<br />
<br />
Kann ''n'' ([http://de.wikipedia.org/wiki/Polynom#Definition Polynom: Definition]) auch unendlich sein? [[Benutzer:Feldkurat Katz|Feldkurat Katz]] sagte, es sei so definiert, aber ich finde diese Definition nirgends. --[[Benutzer:Xjs|Xjs]] 23:18, 9. Jan. 2008 (CET)<br />
:Wenn ''n'' unendlich wäre, dann wäre das Gebilde kein Polynom mehr, sondern eine [[formale Potenzreihe]]. Insbesondere könnte dann nicht mehr ohne weitere Einschränkungen eine Polynomfunktion definiert werden.--[[Benutzer:LutzL|LutzL]] 23:35, 9. Jan. 2008 (CET)<br />
<br />
== Lösungsformeln ==<br />
<br />
In der Encarta habe ich mal gelesen, dass es bis zum Grad 5 Lösungsformeln aufgrund ihrer Koeffizienten gibt. Ich dachte, dass dort bis einschließlich Grad 5 gemeint ist.<br />
<br />
mfg --[[Spezial:Beiträge/91.5.186.215|91.5.186.215]] 20:49, 19. Jan. 2008 (CET)<br />
: Oja, das meine ich aber auch, das war doch eins der Ergebnisse von Galois, dass ''einschließlich'' 5. Grad stets Wurzelterme für die Lösung existieren, oder? Würd ich aber mit meinem Halbwissen ungern in den Artikel einbauen --[[Benutzer:Xario|<big>''χ''</big>ario]] 01:39, 20. Jan. 2008 (CET)<br />
<br />
::Nein, ab Grad 5 gibt es nur noch in Spezialfällen Lösungsformeln. Ein Beispiel eines Spezialfall ist die primitive 17. Einheitswurzel, die von Gauß zur geometrischen Konstruktion des regulären 17-Ecks bestimmt wurde. (Das 5-Eck zählt hier nicht, da man es auf ein symmetrisches Polynom 4. Grades reduzieren kann.)--[[Benutzer:LutzL|LutzL]] 10:52, 21. Jan. 2008 (CET)<br />
::: Bist du da ganz sicher? (No offence :-)) Könnstest du mir ne Lit-Empfehlung zu Galois und Lösungen von Polynomen geben? Würd ich mich gern mal etwas reinlesen. --[[Benutzer:Xario|<big>''χ''</big>ario]] 21:12, 21. Jan. 2008 (CET)<br />
<br />
:::: Im Artikel [[Niels Henrik Abel]] findest du das Buch „Abels Beweis“. Dieses Buch ist angenehm zu lesen und gibt einen guten Überblick. Es ist ein Einführungsbuch, das kein Wissen in Gruppentheorie voraussetzt. --[[Benutzer:Stefan Birkner|Stefan Birkner]] 07:12, 22. Jan. 2008 (CET)<br />
::::: Danke für den Tip! --[[Benutzer:Xario|<big>''χ''</big>ario]] 12:36, 24. Jan. 2008 (CET)PS: Im von dir verlinkten Artikel steht auch das, was LutzL gesagt hat. Damit dürfte sich das hier auf alle Fälle erledigt haben. Ich werds mir merken :-) --[[Benutzer:Xario|<big>''χ''</big>ario]] 12:39, 24. Jan. 2008 (CET)<br />
<br />
== der grund warum ich den laden nicht mag ==<br />
<br />
wofür mache ich mir die mühe, wenn irgend so ein profi anfängt begriffe aufzuzählen ohne sie zu erklären?<br />
<br />
"Der Koeffizient a0 heißt Absolutglied. a1x wird als lineares Glied bezeichnet, a2x2 als quadratisches Glied und a3x3 als kubisches."<br />
<br />
was soll das?<br />
<br />
:Da wird einfach nur gesagt, wie die einzelnen Dinge heißen - was gibt's da zu erklären???--[[Spezial:Beiträge/91.65.208.71|91.65.208.71]] 19:41, 25. Jan. 2010 (CET)<br />
<br />
== Unterschied zwischen elementarer und abstrakter Algebra ==<br />
<br />
Daß der Artikel zwei unterschiedliche (!) Polynomdefinitionen (Polynom in der elementaren und in der abstrakten Algebra) enthält, ist nicht nur unsinnig, sondern auch faktisch unsinnig. Ein Polynom ist ein Polynom, eine Polynomfunktion ist eine Polynomfunktion. Empfehle daher, den Abschnitt über das "elementare Polynom" in einen Abschnitt über Polynomfunktionen umzuwandeln und den Abschnitt über das "abstrakte Polynom" den Begriff Polynom definieren zu lassen.[[Benutzer:Nieper|Nieper]] 17:59, 2. Okt. 2008 (CEST)<br />
<br />
<br />
: Zitat:'''In der elementaren Algebra ist eine Polynomfunktion oder kurz Polynom eine Funktion P(x) der Form [...] wobei als Definitionsbereich für die Variable x jede beliebige R-Algebra in Frage kommt, wenn R der Wertebereich der Koeffizienten ist (siehe unten).'''<br />
Ich weiss nicht, welche elementare Algebra hier gemeint ist, aber in der Schule hatten unsere Polynome keine R-Algebren...<br />
Dass es grundsaetzlich gut ist, die beiden Begriffe zu trennen, ist nicht schlecht, damit Schueler auch was ueber Polynome lernen koennen, ohne vorher Ringe, Koerper, Moduln verstanden haben zu muessen. Aber so richtig geklappt hat die Trennung hier wohl nicht :(<br />
<br />
== Zweifelhafte Nullstellenschranke ==<br />
<br />
::die beiden Lösungen der folgenden quadratischen Gleichung bilden ein Paar aus einer unteren und einer oberen reellen Nullstellenschranke:<br />
::::<math> n \cdot x^2 + 2 \cdot a_{n-1} \cdot x + 2 \cdot (n-1) \cdot a_{n-2} - (n-2) \cdot a_{n-1}^2 = 0 </math><br />
Das würde bedeuten, dass jedes Polynom <math>x^n\pm x^{n-2}+a_{n-3}x^{n-1}+\dots+a_0</math> unabhängig von den Werten der unspezifizierten Koeffizienten nur reelle Nullstellen zwischen <math>\pm\sqrt{\frac{2(n-1)}{n}}</math> habe dürften. Im Falle des positiven Vorzeichens darf es sogar gar keine Nullstelle geben. Das erscheint absurd, betrachtet man z.B. das Polynom <math>x^4+x^2-100</math>. Gibt es eine Quelle dazu mit einer korrekteren Version dieser Schranke? Ich nehme diesen Abschnitt vorerst aus dem Artikel raus.--[[Benutzer:LutzL|LutzL]] 12:10, 3. Nov. 2008 (CET)<br />
:In [[Diskussion:Nullstelle]] wurde nun eine korrekte Version dieses Kriteriums gefunden. Es gilt, wenn alle ''n'' Nullstellen des Polynoms reell sind. Sowas könnte mit Sturmschen Ketten an sehr viel größeren Schranken geprüft werden. Der Nachweis ist eher eine Übungsaufgabe zu Extrema mit Nebenwerten. Wenn jemand eine Literaturstelle dazu findet, kann es auch wieder mit korrekten Voraussetzungen in den Artikel eingebaut werden. Hat das Kriterium irgendwelche praktischen Anwendungen?--[[Benutzer:LutzL|LutzL]] 09:42, 24. Mär. 2009 (CET)<br />
<br />
== Frage ==<br />
<br />
Was bedeutet dieser Pfeil → wie z.B. bei x→f(x) {{unsigned|85.182.38.154}}<br />
<br />
:Das bezeichnet die Funktion, die jedem x den Wert f(x) zuordnet. Beispielsweise ist <math>x \mapsto x^2</math> die Quadratfunktion. --[[Benutzer:Tolentino|Tolentino]] 17:26, 17. Dez. 2008 (CET)<br />
<br />
== WAS ist ein Polynom wird nicht erklärt ==<br />
Es wird zwar die übliche Fachsprache genutzt um zu zeigen, dass man nur Definitionen weiß, aber WAS ein polynom ist wird nicht im geringsten erklärt. (Damit hier jetzt keine falschen Fachkommentare auftauchen: Ich bin vom Fach!)<br />
<br />
Es geht mir darum, das man Polynom doch erklären können muss. Und zwar abseitz der Definitionen wie Ein Polynom ist eine Summe von Monomen. Diese Sätze sagen eigentlich soviel, das derjenige nichts verstanden hat, sondern nur Zusammenhänge ohne bedeutung auswendig kann. So wie fast alle Mathematiker.<br />
<br />
Also an die Mathematiker: Was ist ein Polynom? ich mache mal einen Anfang: Ein Polynom ist die Summe der Inhalte von beliebigdimensionalen Körpern (Hyperwürfeln). Ein Polynom 3ten grades ist somit das Volumen eines Würfels plus der Fläche eines Quadrates plus einer Länge meist in abhängigkeit einer variablen.<br />
[[Spezial:Beiträge/77.134.178.91|77.134.178.91]] 20:40, 19. Mär. 2009 (CET)<br />
<br />
:Bitte die chronologische Reihenfolge der Diskussion nicht unnötig durcheinanderbringen. Und was hat ein Polynom über einem endlichen Körper mit irgendwelchen Volumina zu tun? Oder ein Polynom mit komplexen Koeffizienten? Die mathematisch exakte Definition findet sich unter [[Polynomring]], das sollte aus dem Artikel auch hervorgehen.--[[Benutzer:LutzL|LutzL]] 10:54, 20. Mär. 2009 (CET)<br />
<br />
::Ich vermute meine Frage wurde nicht ganz verstanden. Ich möchte einfach eine weltliche anschauliche bildhafte Beschreibung, was ein Polynom ist. Die Beschreibung, das es eine Funktion in einem Koordiantensystem ist reicht nicht, die diese Beschreibung nichts beschreibt.<br />
::Ich suche da ehen nach soetwas: Ein Monom 0-ten grades ist ja einfach eine Anzahl. Ein Monom 1-ten Grades ist dann schon eine Linie im 1-dimensionalen Raum. Ein Monom 2-ten Grades ist eine Fläche. Ein Monom 3-ten Grades ist das Volumen eines gleichseitigen Würfels. usw. Wenn ich jetzt aber ein Polynom beispielsweise 2*x^3+4*x+14*x+1 derart betrachte, dann ergibt das zwar eine Menge an Punkten (Funktion) aber ich kann mir eine geometrische Representation nicht mehr Vorstellen. [[Spezial:Beiträge/77.134.119.32|77.134.119.32]] 23:17, 20. Mär. 2009 (CET)<br />
::::Eben. Dieser Interpretationsversuch ist eine Sackgasse. Bitte eine wenigstens etwas seriöse Literaturquelle angeben, wenn diese Diskussion weitergeführt werden soll. Dies ist nicht der Ort für philosophische Spekulation, sondern für Diskussionen zur Artikelverbesserung. Und das geht in dieser Richtung nicht ohne zitierbare Quellen.<br />
<br />
::::Ansonsten bleibt ein Polynom einfach eine besonders einfach exakt und in endlicher Zeit auswertbare Funktion. Rechenoperationen mit Polynomen können von den Funktionswerten (d.h. der Verknüpfung von möglicherweise unendlich vielen Punkten der Funktionsgraphen) auf die Koeffizientenfolgen (also endliche Objekte und endliche Rechnungen) zurückgeführt werden, was die Faszination der algebraischen Behandlung von Polynomen begründet.--[[Benutzer:LutzL|LutzL]] 10:51, 21. Mär. 2009 (CET)<br />
<br />
:::::Ich denke "LutzL" hat die Frage nicht verstanden, da auf die Frage mit der Art geantwortet wurde, die der Fragende ausgeschlossen hat. Ein Polynom ist eine Menge an Wörtern aus der regulären Sprache "Mathematik". Sprache braucht der Mensch, um zu Kommunizieren, d.h. Repräsentationen in zwei oder mehr neuronalen Netzwerken miteinander zu verbinden (seriell über Wörter einer SPrache). Somit bezeichnen die Wörter der Wortklasse "Polynom" komplexe Zusammenhänge zwischen Mengen von Elementen in dieser Welt. Polynome sind Wörter, die vielfache Zusammenhänge in der Welt kompakt repräsentieren. Die Physik, mithilfe der Mathematik, versucht in der Welt den beobachtbaren Zusammenhängen Wörter zu geben, mit denen man rechnen kann. Rechnen heißt dann nichts anderes, als die Grammatik (Logik) dieser Welt auf die Wörter der Sprache Mathematik anzuwenden. Die Grammatik der Sprache Mathematik sagt somit, welche Symbole wie verschoben werden dürfen, damit es mit der beobachtbaren Welt übereinstimmt. In einer nichtdeterministischen, chaotischen oder stochastischen Welt wird das schwieriger bis unmöglich, da in einer chaotischen Welt per Definition keine Regeln exisitieren. (Ich habe soweit ausgeholt, weil es für das Verständnis von Polynomen meines erachtens entscheidend ist.)[[Spezial:Beiträge/77.134.136.9|77.134.136.9]] 16:04, 21. Mär. 2009 (CET)<br />
:::::: </schwurbel><br />
:::::: Die Frage ist sinnlos, genauso wie die Frage "Was ist ein Vektor" oder die luftigen Überlegungen meines Vorposters. WAS Polynome sind, ist die Frage nach der exakten Definition. Sie sind per se nicht anschaulich. Es gibt viele verschiedene Anwendungen mit Polynomen, generell haben sie aber nix mit Volumina zu tun (das sind [[Determinante]]n). Es sind die allgemeinen Eigenschaften, die LutzL angeschnitten hat, die erklären, warum Polynome betrachtet werden: Sie sind einfacher zu handhaben als [[Potenzreihe]]n (= Polynome mit unendlich vielen Termen) und werden dadurch zu einem Grundpfeiler für algebraische, numerische und analytische Überlegungen. Das Wissen über endlich viele Punkte und den Grad des Polynoms reicht schon aus, um es eindeutig zu charakerisieren (über R und auch C). DAS ist was besonderes, was es für sonstige, ähnlich große Funktions-Familien nicht gibt. --[[Benutzer:Xario|<big>''χ''</big>ario]] 17:05, 21. Mär. 2009 (CET)<br />
<br />
Wenn ich etwas definiere, erkläre ich dann auch, was es ist? Der Mathematiker braucht da keine Gewissheit, denn er definiert und schliesst dann logisch daraus. Der Jurist würde sofort entgegnen: Ist die Prämisse falsch sind alle Schlüsse daraus falsch. In der Mathematik ist es hilfreich einen Fixpunkt zu setzen ("wenn, dann"), generell Bedarf es doch ein wenig mehr?[[Spezial:Beiträge/77.134.136.9|77.134.136.9]] 19:56, 21. Mär. 2009 (CET)<br />
<br />
: Ja, wenn du etwas definierst, erklärst du damit was es ist, es muss halt nicht anschaulich sein. Und nein, der Mathematiker würde genau das Gleiche sagen wie der Jurist, Mathematik ist die Wissenschaft der Folgerungen, Axiome werden hingenommen und dann geht die Mathematik los. Das ändert nichts an der Tatsache, dass Axiome auch diskutiert werden und dass es normalerweise eine anschauliche Herleitung oder Motivation zu einer abstrakten Definition gibt. Nur ist die Polynom-Definition nicht sonderlich abstakt: endliche Summen deren Summanden Variablen in natürlicher Potenz enthalten, jeweils mit festen [[Koeffizient]]en. In einem gewissen Sinn ist das einfach der nächste Schritt nach [[Linearkombination]]en. Ein Polynom kann als Potenzgleichung gesehen werden, somit die Verallgemeinerung einer [[lineare Gleichung|linearen Gleichung]]. Hilft das was? --[[Benutzer:Xario|<big>''χ''</big>ario]] 20:29, 21. Mär. 2009 (CET)<br />
<br />
::Ja das hilft. Nur dann frage ich mich, warum ein Polynom "muss halt nicht anschaulich sein", wenn man im Artikel "Lösen von Gleichungen" genau das macht (das Bild mit der Waage).[[Spezial:Beiträge/77.134.136.9|77.134.136.9]] 21:11, 21. Mär. 2009 (CET)<br />
<br />
::: Das hab ich nicht ganz verstanden, die Motivation für das [[Lösen von Gleichungen]] kommt natürlich direkt ausm täglichen Leben! Polynome als Menge und ihre generellen Eigenschaften zu betrachten, ist schon ein etwas höherer Level an Abstraktion. Falls mir eine anschauliche Anwendung für Polynome einfallen sollte, die sich nicht nur auf eine bestimmte Sorte von Polynomen bezieht (wie Parabeln oder nur ein-variabliege) poste ich's hier :-) --[[Benutzer:Xario|<big>''χ''</big>ario]] 20:38, 23. Mär. 2009 (CET)<br />
<br />
:::: Ich bin 77.134.136.9 -> Vielen vielen Dank! <small>(''nicht [[Hilfe:Signatur|signierter]] Beitrag von'' [[Benutzer:77.134.77.74|77.134.77.74]] ([[Benutzer Diskussion:77.134.77.74|Diskussion]]&nbsp;|&nbsp;[[Spezial:Beiträge/77.134.77.74|Beiträge]]) 13:44, 25. Mär. 2009 (CET)) </small><br />
<br />
== Summe oder Differenz ==<br />
<br />
''„In der Mathematik ist ein Polynom („mehrnamig“ – von griech. πολύ/polý = „viel“ und lat. nomen = „Name“) eine Summe von Vielfachen von Potenzen mit natürlichzahligen Exponenten einer Variablen, die in den meisten Fällen mit x bezeichnet wird.“''<br />
<br />
Müsste es nicht „[...] eine Summe oder Differenz von Vielfachen von Potenzen [...]“ heißen? --[[Benutzer:Seth Cohen|Seth Cohen]] 23:54, 26. Okt. 2009 (CET)<br />
<br />
:In der höheren Arithmetik können die Faktoren, die die Vielfachheit ausdrücken, auch negativ sein, so dass "Differenz" in "Summe von Vielfachen" schon enthalten ist.--[[Benutzer:LutzL|LutzL]] 11:07, 27. Okt. 2009 (CET)<br />
<br />
== Abschnitt Polynomfunktion ==<br />
<br />
<math>X^3-\bar3X^2+\bar2X=X^3-X</math><br />
<br />
das ist aber doch wohl ein Fehler, oder? --[[Benutzer:Iwoelbern|seismos]] 17:52, 27. Okt. 2009 (CET)<br />
:Nein, die Koeffizienten sind Restklassen modulo 3. Diese Gleichheit gilt also auch für die Polynome, d.h. die Koeffizientenfolgen. Als Polynomfunktionen sind beide Ausdrücke identisch zum Nullpolynom, d.h. wenn man eine Restklasse für X einsetzt, kommt immer die Nullrestklasse raus, d.h. etwas durch 3 teilbares.--[[Benutzer:LutzL|LutzL]] 09:54, 28. Okt. 2009 (CET)<br />
<br />
::Ah... --[[Benutzer:Iwoelbern|seismos]] 11:01, 28. Okt. 2009 (CET)<br />
<br />
== nicht gerade gut geeignet für Schüler... lieber eigenen Artikel für ganzrationale Funktionen anlegen? ==<br />
<br />
Hallo,<br />
ich bin Mathelehrer und wollte mir mal anschauen, was Wikipedia so zu ganzrationalen Funktionen sagt. Und wo gerate ich hin? Auf eine Seite, die Polynome allgemein und an vielen Stellen reichlich abstrakt erklärt; das für die Schüler wichtige kommt zwar zwischendrin auch irgendwo vor, wird von diesen aber sicher nicht gefunden werden, weil sie es schon nach den ersten paar Zeilen entnervt aufgeben.<br />
<br />
Vorschlag zur Sache: einen eigenen Artikel zu "ganzrationalen Funktionen" anlegen, die evtl. auf den Artikel "Polynome" verweist, aber nicht einfach dahin umleitet. Auf die Seite zu den ganzrationalen Funktionen könnte man dann noch einiges schreiben, was im Polynom-Artikel eher fehl am Platz wäre wie z. B. die Vielfachheit von Nullstellen und deren Bedeutung für den Graph, wie man das Verhalten für x gegen plus minus unendlich oder für x gegen 0 herausbekommt, die maximale Anzahl von Extrem- und Wendestellen usw.<br />
<br />
Ich würde eine solchen Artikel auch selber versuchen zu gestalten, habe aber nicht viel Erfahrung mit Wikipedia - wäre also für etwas Hilfe dankbar. Vorausgesetzt natürlich, dieser Vorschlag wird überhaupt allgemein akzeptiert...<br />
--[[Spezial:Beiträge/91.65.208.71|91.65.208.71]] 19:41, 25. Jan. 2010 (CET)<br />
<br />
<br />
:Ich kann meinem Vorredner nur beipflichten. Insbesondere vermisse ich Quellenangaben, die die Unterscheidung zwischen elementarer und abstrakter Algebra rechtfertigen. In welchem (für Mathematiker geschriebenen) Mathematik-Buch gibt es diese Unterscheidung? Dass es prinzipiell auch die Möglichkeit gibt, Polynome als Funktionen zu definieren, kann schon sein, und dass es mindestens ein Buch gibt, in dem das so gemacht wird, wird bestimmt auch stimmen. (Ich persönlich wundere mich allerdings über diese komplizierte Definition, da von den Funktionen die Definitions- und Wertemenge ja festgelegt werden müssen, und das schränkt dann die Allgemeinheit sehr ein. Oder ist ein Polynom definiert als eine Klasse von Abbildungen, für jede R-Algebra eine, wobei jedes Element der Klasse jeweils von einer R-Algebra in sich selbst abbildet?) Aber erstens sollten diese Bücher bei den Quellen dann auch genannt und darauf genau verwiesen werden und zweitens Frage ich mich, ob dies dann wirklich ein Unterschied zwischen "Elementarer" und "Abstrakter" Algebra ist. Im Studium bin ich dieser Unterscheidung von "Elementarer Algebra" und "Abstrakter Algebra" nicht begegnet (Das muss natürlich nichts heißen!) und kenne daher selbst keine geeignete Quelle, dies zu belegen.<br />
:Eine Lösung wäre es aber vielleicht tatsächlich, im Artikel über Polynome nur zu erwähnen, dass Polynome auch als Funktionen definiert werden können, und auf den - inzwischen existierenden - Artikel über Polynomfunktionen bzw. ganzrationale Funktionen über <math>\R</math> zu verlinken. --[[Benutzer:Henning1000|henning1000]] 14:08, 21. Jul. 2011 (CEST)<br />
<br />
::Hi, könntet ihr mal bei [[Polynomfunktion]] nachschauen, ob das nicht schon euren Erwartungen näher kommt?--[[Benutzer:LutzL|LutzL]] 14:44, 21. Jul. 2011 (CEST) -- Sorry, Daten und Links nicht näher angeschaut. Polynomfunktion leitet ja schon auf ganzrationale Funktion weiter. [[Polynomring]] sollte ganz der algebraischen Sicht dienen, Polynomfunktion der analytischen und das hier könnte eigentlich ein kurzer Übersichtsartikel mit Verweisen sein. Quellen gibt es so spärlich, weil das eigentlich in jedem Algebra- bzw. Analysisbuch drinsteht. (Wer ist eigentlich auf die Idee gekommen, diesen absolut verkorksten Begriff "ganzrational" in der Schulmathematik zu verankern?)--[[Benutzer:LutzL|LutzL]] 14:52, 21. Jul. 2011 (CEST)<br />
:::Wieso findest du den Begriff "absolut verkorkst"? Ist halt eine Analogie zu den ganzen Zahlen - die kann man alle als Produkt von Primzahlen darstellen. Ebenso kann man jede ganzrationale Funktion (na ja, zumindest im Komplexen) als Produkt von Linearfaktoren darstellen. Die gebrochenrationalen Funktionen dagegen kann man als Quotient zweier ganzrationaler Funktionen darstellen, genauso wie man einen Bruch als Quotient zweier ganzer Zahlen darstellen kann. Begeisternd finde ich den Begriff zwar auch nicht - aber eine gewisse Logik steckt schon dahinter...--BFeuerbacher 16:19, 23. Jul. 2011 (CEST)<br />
<br />
:::Also bei Polynomfunktion/ganzrationale Funktion steht inzwischen auch meiner Meinung nach eigentlich das Gewünschte. Die Informationen zu Polynomen stehen schon in vielen Büchern, aber wie sieht das mit der Unterscheidung zwischen den Begriffen "Elementare Algebra" und und "Abstrakter Algebra" und der hier in diesem Artikel behaupteten unterschiedlichen Definition von Polynomen in diesen beiden Fachgebieten aus? Wo steht das, dass das in diesen unterschiedlichen Fachgebieten so gehandhabt wird? Könnte man nicht hier jeweils eine Quelle angeben, also eine Quelle aus der "elementaren Algebra" mit der entsprechenden Definition von Polynomen und eine aus der "abstrakten Algebra". Ich habe die hier so genannte "abstrakte Algebra" einfach als "Algebra" kennengelernt. Eine Quelle hierfür wäre im Prinzip ja dann jedes beliebige Buch, auf dem Algebra steht, z. B. der Falko Lorenz oder der Serge Lang. Ein Buch über "Elementare Algebra" kenne ich nicht.--[[Benutzer:Henning1000|henning1000]] 18:07, 23. Jul. 2011 (CEST)<br />
<br />
::::Ich denke, dass es sich hier eher um eine ad-hoc-Begriffsbildung handelt. Es gibt keine verschiedenen Fachgebiete "elementare Algebra" und "abstrakte Algebra", aber verschiedene Zugänge zur Algebra. Unter "elementarer Algebra" ist wohl das zu verstehen, was man in der Schule unter "Algebra" versteht. "Elementar" ist der Zugang, Terme als äquivalent zu bezeichnen, wenn sie bei jeder Einsetzung denselben Wert liefern, wenn also die durch sie definierten reellen Funktionen übereinstimmen. -- [[Benutzer:Digamma|Digamma]] 20:51, 23. Jul. 2011 (CEST)<br />
<br />
=== ganzrational ===<br />
:::Ich muss mich revidieren, ganzrational in "ganzrationale algebraische Funktion" ist ein altehrwürdiger Begriff, der den lateinischen Ausdruck "functiones algebraicae integrae" wie u.a. von Gauß 1799 verwendet, ins deutsche übersetzt. Diese Übersetzung gibt es aber in keiner anderen Sprache, weshalb die Frage, ob dieser deutsche Sonderweg nach 1850 noch angebracht ist, bestehen bleibt. Gauss selbst verwendet in seiner deutschen Festrede 1849 ausschließlich "algebraische Function" oder "Funktion" oder "Funktion ... Grades". Weierstraß 1889 verwendet "(ganze (rationale)) Function". -- "Polynom" im Sinne von Summe algebraischer Terme war sporadisch seit Vieta 1591 in Gebrauch, nachdem vorher ca. 1585 Stevin den Begriff "Multinom" für die Verallgemeinerung von "Binom" und "Trinom" prägte. "Polynom" im heutigen Sinne scheint aus der Diskussion von Taylorreihen und -polynomen Anfang des 19. Jh. zu stammen (Quelle: Cajori (1919): A History of Mathematics" und (1928): A History of Mathematical Notations). -- Die Weiterleitung zu "rationale Funktion" ist nicht ganz korrekt, wenn man dem originalen Sprachgebrauch folgt. Dann steht "algebraisch" für die Verwendung von ausschließlich Wurzeln und Potenzen und "ganz (rational)" schränkt auf natürliche Exponenten ein. Irgendwann um 1900, vor Noether 1908, fand dann die Fixierung auf den heutigen Sprachgebrauch auf, dass ganze rationale Funktionale algebraisch ganze Koeffizienten haben müssen und Polynome mit rationalen Koeffizienten zu den gebrochen-rationalen Funktionalen gehören.--[[Benutzer:LutzL|LutzL]] ([[Benutzer Diskussion:LutzL|Diskussion]]) 13:51, 29. Okt. 2013 (CET)<br />
::::Den letzten Satz verstehe ich nicht. Meines Wissens ist der heutige Sprachgebrauch, dass bei ganzrationalen Funktionen die Koeffizienten beliebige reelle Zahlen sein dürfen. --[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 14:52, 29. Okt. 2013 (CET)<br />
<br />
:::::Das meinte ich ja ursprünglich. Das heutige "ganzrational" ist ein Neologismus, der von jeglicher Sprachlogik Lichtjahre entfernt ist. Von Gauß ausgehend wäre "ganzalgebraische Funktion" zulässig, Noether nannte ein Polynom (einen Bruch von Polynomen) "ganze rationale Funktion", wenn es Lösung einer Polynomgleichung mit algebraisch ganzen Koeffizienten ist. Ab diesem Zeitpunkt hätte "ganz" wie in anderen Sprachen auch für über einem Ring algebraisch ganze Elemente oder Elemente eines Ganzheitsringes reserviert bleiben können, und Polynome einzig als "Polynom" bezeichnet worden sein. Aber irgendwer hat die (lateinische) Begrifflichkeit von Gauß wieder rausgekramt, evtl. im Zusammenhang der 1000 Jahre, und das eigentlich bestimmende "algebraisch" wegfallen lassen gegen das bei Gauß bis Weierstraß selten gebrauchte "rational". Wobei damals "rational" wohl eher weniger mit Brüchen zu tun hatte als mit der direkten Übersetzung "vernünftig" oder "begreifbar".--[[Benutzer:LutzL|LutzL]] ([[Benutzer Diskussion:LutzL|Diskussion]]) 16:15, 29. Okt. 2013 (CET)<br />
<br />
::::::Da kann ich wenig dazu sagen, da ich deine Quellen nicht kenne und selbst keine geschichtlichen Quellen habe. Als rationale Funktionen kenne ich aber auf jeden Fall aus der Algebra die Quotienten von Polynomen (Körper der rationalen Funktionen). Aus der Funktionentheorie kenne ich die auf ganz \C definierten holomorphen Funktionen als "ganze Funktionen". --[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 16:32, 29. Okt. 2013 (CET)<br />
<br />
:::::::Eben. Rationale Funktionen sind Brüche von Polynomen. Und von dem Körper der rationalen Funktionen kann man den Ganzheitsring betrachten und landet wieder bei den Polynomen.Und gibt es in irgendeinem Zusammenhang mehr (oder weniger) als Polynome im Ganzheitsring rationaler Funktionen? Wenn man für die rationalen Funktionen rationale Koeffizienten verwendet <math>\Q(X)</math>, dann haben die Polynome im Ganzheitsring ganze Koeffizienten <math>\Z[X]</math>. Aber das ist Universitätsalgebra. Was hat diese Begrifflichkeit in der allgemeinen Schulbildung zu suchen? Gibt es da irgendwelche Texte, die die pädagogischen Vor- und Nachteile von "Polynom" und "ganzrationale Funktion" vergleichen?--[[Benutzer:LutzL|LutzL]] ([[Benutzer Diskussion:LutzL|Diskussion]]) 09:39, 30. Okt. 2013 (CET)<br />
::::::::Ich kenne keine didaktische Literatur dazu. "Polynom" bezeichnet aber für mich eher den Term als die Funktion. Ich würde dann eher von "Polynomfunktion" sprechen. "Ganzrational" drückt für mich eher aus, dass man den Funktionswert aus dem Argument durch wiederholtes Anwenden von Addition und Multiplikation erhält, bei "Polynom" denke ich eher an die Normalform. Das ist aber meine persönliche Einschätzung. Zu Beginn meiner Lehrerlaufbahn hatte ich auch Probleme mit dem Begriff "ganzrationale Funktion", weil ich bei "rational" immer automatisch an "gebrochen-rational" dachte, inzwischen habe ich mich daran gewöhnt. --[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 15:46, 30. Okt. 2013 (CET)<br />
:::::::::Ja eben, um mal ganz in die Plauderei abzugleiten, Du brauchtest das Studium und die ersten Lehrerjahre, um Dich an diesen Begriff zu gewöhnen. Schülern verlangt man ein Verständnis dieses Leerbegriffs zum Abitur ab. Und ja, das Gegenstück zu "g.-rat. Fkt." ist dann Polynomfunktion, "Polynom" bezeichnet die algebraische Entität, das Element eines Polynomrings.--[[Benutzer:LutzL|LutzL]] ([[Benutzer Diskussion:LutzL|Diskussion]]) 19:11, 30. Okt. 2013 (CET)<br />
<br />
;Quellen: ([[Benutzer:LutzL|LutzL]] ([[Benutzer Diskussion:LutzL|Diskussion]]) 16:50, 29. Okt. 2013 (CET))<br />
<br />
* Florian Cajori (1919): A History of Mathematics https://archive.org/details/ahistorymathema03cajogoog<br />
* Florian Cajori (1928): A History of Mathematical Notations https://archive.org/details/historyofmathema031756mbp<br />
* Emmy Noether (1915): Die allgemeinsten Bereiche aus ganzen transzendenten Zahlen http://link.springer.com/article/10.1007/BF01456823<br />
* dasselbe in "Collected Papers" http://books.google.de/books?id=bsm5lmprAQQC&pg=PA195<br />
<br />
== Definition ==<br />
<br />
Ich halte die kürzlich von Benutzer [[89.0.128.117]] gemachte Änderung bzgl der Definition in <math>P(x) = \sum_{i=0}^n a_{n-i}x^{n-i} = a_nx^n + a_{n-1}x^{n-1} + \dotsb + a_2x^2 + a_1x + a_0, n \ge 0</math> für zwar richtig aber verwirrend gerade für Schüler_Innen. <math>\sum_{i=0}^n a_{n-i}x^{n-i}</math> ist mathematisch gleichbedeutend mit <math>\sum_{i=0}^n a_{i}x^{i}</math>, zäumt die Summe bloß nur von der anderen Richtung auf. Wäre für Revert. --[[Benutzer:Skygazer|Skygazer]] ([[Benutzer Diskussion:Skygazer|Diskussion]]) 13:22, 2. Jun. 2012 (CEST)<br />
:Offenbar erledigt. --[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 16:36, 2. Jun. 2012 (CEST)<br />
{{erledigt|--[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 16:36, 2. Jun. 2012 (CEST)}}<br />
<br />
== univariat - multivariat ==<br />
<br />
Die Definition in [[en:Polynomial|en:Polynomial]] benutzt gleich mehrere Variablen und erwähnt die Attribute ''univariate'' und ''multivariate''. Mm Deutschen erscheinen die multivariaten Polynome erst weit unten und nicht besonders explizit. Wenn niemand etwas dagegen hat, würde ich diese Attribute mehr herausstellen und auch Redirects [[univariates Polynom]] und [[multivariates Polynom]] in die [[Liste spezieller Polynome]] einfügen. --[[Benutzer:Gfis|Gfis]] ([[Benutzer Diskussion:Gfis|Diskussion]]) 12:02, 20. Aug. 2015 (CEST)<br />
<br />
== Binome ==<br />
<br />
Im Artikel heißt es<br />
:" ''Binome'' haben die Form <math> f(x) = x^n + c\, </math> ".<br />
Das ist im allgemeinen falsch. Z.B. nach www.zeno.org/Zeno/0/Suche?q=binom&k=Bibliothek und dictionary.reference.com/browse/binomial?s=t können Binome auch ganz anders aussehen. Wenn man sich auf Ausdrücke der Form <math>P(x) = \sum_{i=0}^n a_ix^i</math> beschränkt, also nur Polynome in einem engeren Sinne betrachtet, sollten eigentlich auch z.B. x²+x und x^7+x^3 Binome sein. -[[Spezial:Beiträge/84.161.19.32|84.161.19.32]] 01:07, 22. Dez. 2015 (CET)<br />
<br />
==Grad eines Polynoms==<br />
<br />
Bsp.: x^3+(xy)^2 <br />
Hat das Binom den Grad 3 oder den Grad 4? Das wird aus dem Artikel nicht deutlich. [[Benutzer:Ronny Michel|Ronny Michel]] ([[Benutzer Diskussion:Ronny Michel|Diskussion]]) 14:01, 17. Mai 2016 (CEST)<br />
:Das Polynom hat den Grad 4. Warum meinst du, dass dies aus dem Artikel nicht deutlich wird? Weil der vor allem Poynome in einer Unbestimmten behandelt? Im Abschnitt "Verallgemeinerung" werden die Polynome mit mehreren Unbestimmten behandelt. Dort steht:<br />
<br />
::Allgemein versteht man jede Summe von [[Monom]]en der Form <math>a_{i_1,\dotsc,i_n}X_1^{i_1}\dotsm X_n^{i_n}</math> als Polynom (in mehreren Unbestimmten):<br />
:::<math>P(X_1, \dotsc, X_n) = \sum_{i_1,\dotsc,i_n}a_{i_1,\dotsc,i_n}X_1^{i_1}\dotsm X_n^{i_n}</math><br />
:::<small>Lies: ''„Groß-p von Groß-x-1 bis Groß-x-n (ist) gleich die Summe über alle i-1 bis i-n von a-i-1-bis-i-n mal Groß-x-1 hoch i-1 bis Groß-x-n hoch i-n“''</small><br />
<br />
::Die Größe <math>i_1+\dotsb+i_n</math> heißt der ''Totalgrad'' eines Monoms <math>X_1^{i_1}\dotsm X_n^{i_n}</math>. Haben alle (nichtverschwindenden) Monome in einem Polynom denselben Totalgrad, so heißt es [[Homogenes Polynom|homogen]]. Der maximale Totalgrad aller nichtverschwindenden Monome ist der ''Grad des Polynoms.''<br />
<br />
:--[[Benutzer:Digamma|Digamma]] ([[Benutzer Diskussion:Digamma|Diskussion]]) 16:19, 17. Mai 2016 (CEST)<br />
<br />
Sorry, ich hätte aufmerksamer lesen müssen. Danke für den schnellen Hinweis. [[Benutzer:Ronny Michel|Ronny Michel]] ([[Benutzer Diskussion:Ronny Michel|Diskussion]]) 17:32, 17. Mai 2016 (CEST)<br />
<br />
== Mengenschreibweise: Polynome und Polynome vom Grad n ==<br />
<br />
Man sollte meiner Meinung nach eine einheitliche Schreibweise einführen für die Mange aller Polynome und auch für Polynome vom maximalen Grad <math>n</math>.<br />
Vor allem sollten auch noch die gebräuchlichen Abkürzungen genannt werden, denn oft wird später nur noch so etwas wie <math>\mathcal{P}_2</math> geschrieben und keine Erläuterung bzw. Link auf diesen Artikel mit angegeben (s. [[Hermiteinterpolation#Motivation]]).<br />
<br />
Meine Vorschläge: <math>P[X],P_n[X],P,P_n</math>.<br />
[[Benutzer:HerrHartmuth|HerrHartmuth]] ([[Benutzer Diskussion:HerrHartmuth|Diskussion]]) 12:30, 26. Aug. 2017 (CEST)</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Knudsen-Zahl&diff=166778695Knudsen-Zahl2017-06-27T19:38:20Z<p>HerrHartmuth: Richtiges Typesetting der Konstante (!) "Kn"</p>
<hr />
<div>Die '''Knudsen-Zahl''' <math>\mathrm{Kn}</math> (nach dem [[Dänemark|dänischen]] Naturwissenschaftler [[Martin Knudsen]]) ist eine [[dimensionslose Kennzahl]] zur Abschätzung des Strömungsverhaltens einer [[Gas]][[strömung]]. Sie zeigt das Verhältnis der [[Mittlere freie Weglänge|mittleren freien Weglänge]] <math>\lambda</math> der Gas[[molekül]]e zu einer [[charakteristische Länge|charakteristischen Länge]] <math>l</math> des Strömungsfeldes (z.&nbsp;B. Durchmesser eines durchströmten Rohres). <br />
<br />
:<math>\mathrm{Kn} = \frac{\lambda}{l} </math><br />
<br />
Für ein [[ideales Gas]], das der [[Maxwell-Boltzmann-Verteilung]] genügt, gilt<br />
<br />
:<math>\mathrm{Kn} = \frac {k_\mathrm B \cdot T}{\sqrt{2}\cdot \pi \cdot \sigma^2 \cdot p \cdot l} </math><br />
<br />
mit<br />
* <math>l</math> : [[charakteristische Länge]] der Strömung<br />
* <math>k_\mathrm{B}</math> : [[Boltzmannkonstante|Boltzmann-Konstante]] (1,38·10<sup>−23</sup>&nbsp;[[Joule|J]]&nbsp;·&nbsp;[[Kelvin|K]]<sup>−1</sup>)<br />
* <math>T</math> : [[Temperatur]] (in&nbsp;K)<br />
* <math>\sigma</math> : Durchmesser der Moleküle<br />
* <math>p</math> : absoluter [[Druck (Physik)|Druck]] <br />
<br />
Für <math>\mathrm{Kn} \gg 1</math> gelten die [[Kinetische Gastheorie|kinetischen Gesetze der Gastheorie]] stark verdünnter Medien (nahe am [[Vakuum]]), während für <math>\mathrm{Kn} \ll 1</math> die Gesetze der [[Gasdynamik]] [[Kontinuum (Physik)|kontinuierlicher Medien]] gelten.<br />
<br />
{|<br />
| 2 || <math>\le</math> || <math>\mathrm{Kn}</math> || || || freie [[Molekularströmung]] ([[Knudsen-Gas]])<br />
|-<br />
| 0,1 || <math>\le</math> || <math>\mathrm{Kn}</math> || <math>\le</math> || 2 || Übergangs- oder [[Knudsenströmung]] (<math>\lambda \approx l</math>)<br />
|-<br />
| 0,01 || <math>\le</math> || <math>\mathrm{Kn}</math> || <math>\le</math> || 0,1 || Gleitströmung<br />
|-<br />
| || || <math>\mathrm{Kn}</math> || <math>\le</math> || 0,01 || [[Kontinuumsströmung]]<br />
|}<br />
<br />
== Literatur ==<br />
*{{Literatur<br />
| Autor= Dieter Hänel<br />
| Titel= Molekulare Gasdynamik<br />
| Verlag= Springer<br />
| Ort= Berlin<br />
| Jahr= 2004<br />
| ISBN= 3540442472<br />
}}<br />
<br />
[[Kategorie:Statistische Physik]]<br />
[[Kategorie:Kennzahl (Chemie)]]<br />
[[Kategorie:Kennzahl (Strömungsmechanik)]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Newtonverfahren&diff=164269965Newtonverfahren2017-04-05T14:12:11Z<p>HerrHartmuth: /* Das Newton-Verfahren im Mehrdimensionalen */ Herleitung verdeutlicht und Text umstrukturiert</p>
<hr />
<div>Das '''Newton-Verfahren''', auch '''Newton-Raphson-Verfahren''', (benannt nach Sir [[Isaac Newton]] 1669 und [[Joseph Raphson]] 1690) ist in der [[Mathematik]] ein Standardverfahren zur [[Numerische Mathematik|numerischen]] Lösung von [[Nichtlineare Gleichung|nichtlinearen Gleichungen]] und Gleichungssystemen. Im Falle einer Gleichung mit einer Variablen lassen sich zu einer gegebenen [[Stetigkeit|stetig]] [[Differenzierbarkeit|differenzierbaren]] [[Funktion (Mathematik)|Funktion]] <math> f\colon \mathbb{R} \to \mathbb{R} </math> Näherungswerte zu Lösungen der Gleichung <math> f(x)=0</math>, d. h. Näherungen der [[Nullstelle]]n dieser Funktion finden. Die grundlegende Idee dieses Verfahrens ist, die Funktion in einem Ausgangspunkt zu linearisieren, d. h. ihre [[Tangente]] zu bestimmen, und die Nullstelle der Tangente als verbesserte Näherung der Nullstelle der Funktion zu verwenden. Die erhaltene Näherung dient als Ausgangspunkt für einen weiteren Verbesserungsschritt. Diese [[Iteration]] erfolgt, bis die Änderung in der Näherungslösung eine festgesetzte Schranke unterschritten hat. Das Iterationsverfahren konvergiert im günstigsten Fall asymptotisch mit quadratischer [[Konvergenzordnung]], die Zahl der korrekten Dezimalstellen verdoppelt sich dann in jedem Schritt.<br />
<br />
Formal ausgedrückt wird ausgehend von einem [[Startwert]] <math>x_0</math> die Iteration<br />
:<math>x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)}</math><br />
wiederholt, bis eine hinreichende Genauigkeit erzielt wird.<br />
<br />
== Newton-Verfahren für reelle Funktionen einer Veränderlichen ==<br />
<br />
=== Historisches über das Newton-Verfahren ===<br />
<br />
Isaac Newton verfasste im Zeitraum 1664 bis 1671 die Arbeit ''„Methodus fluxionum et serierum infinitarum“'' (latein für: ''Von der Methode der Fluxionen und unendlichen Folgen''). Darin erklärt er einen neuen Algorithmus zum Lösen einer polynomialen Gleichung am Beispiel <math>y^3-2y-5=0</math>. Dazu kann man leicht den Punkt <math>y=2</math> als erste Näherung raten. Newton machte den Ansatz <math>y=2+p</math> mit einem als „klein“ angenommenen <math> p </math> und setzte diesen in die Gleichung ein:<br />
<br />
Nach den [[Binomische Formel|binomischen Formeln]] gilt<br />
:: <math> y^3 = (2+p)^3 = 8+12p+6p^2+p^3\ </math><br />
:: <math>\ 2y = 2(2+p) = 4+2p</math><br />
: <math> \Rightarrow\ 0 = y^3-2y-5 = -1+10p+6p^2+p^3 </math>.<br />
Da <math> p </math> „klein“ sein soll, können die Terme höherer Ordnung gegenüber den linearen und konstanten vernachlässigt werden, womit <math> 10p-1 = 0 </math> bzw. <math> p = 0{,}1 </math> übrig bleibt. Wir können nun dieses Vorgehen wiederholen und <math> p = 0{,}1+q </math> ansetzen, in die zweite Gleichung einsetzen, höhere Terme weglassen und <math> q = -0{,}061/11{,}23 = -0{,}0054\dots </math> erhalten.<br />
<br />
Joseph Raphson beschrieb 1690 in der Arbeit ''„Analysis Aequationum universalis“'' diesen Rechenprozess formal und illustrierte den Formalismus an der allgemeinen Gleichung 3. Grades, wobei er die nachfolgende Iterationsvorschrift fand.<ref>[http://numbers.computation.free.fr/Constants/Algorithms/newton.html Xavier Gourdon]: ''Newton’s method and high order iterations'', fehlerfreie Darstellung in der [http://numbers.computation.free.fr/Constants/Algorithms/newton.ps Postscript-Datei]</ref><br />
<br />
Die abstrakte Form des Verfahrens mit Benutzung der Ableitung <math>x_{n+1}=x_n-\frac{f(x_n)}{f'(x_n)}</math> stammt von [[Thomas Simpson (Mathematiker)|Thomas Simpson]].<br />
<br />
=== Konstruktion am Graphen ===<br />
<br />
[[Datei:NewtonIteration Ani.gif|rechts|Animation: Iteration mit dem newtonschen Verfahren]]<br />
Anschaulich gelangt man wie folgt zu diesem Verfahren: Sei <math> f\colon \mathbb{R} \to \mathbb{R} </math> eine stetig [[Differenzierbarkeit|differenzierbare]] reelle Funktion, von der wir eine Stelle <math> x_n </math> im [[Definitionsbereich]] mit „kleinem“ Funktionswert kennen. Wir wollen einen Punkt <math> x_{n+1} </math> nahe <math> x_n </math> finden, der eine verbesserte Näherung der Nullstelle darstellt. Dazu linearisieren wir die Funktion <math> f </math> an der Stelle <math> x_n </math>, d. h. wir ersetzen sie durch ihre [[Tangente]] im Punkt <math> P(x_n\,;\,f(x_n)) </math> mit Anstieg <math> f^\prime(x_n) </math>.<br />
<br />
Die Tangente ist durch die Funktion <math> t(x_n+h):=f(x_n)+f^\prime(x_n)h </math> gegeben. Setzen wir <math> h=x-x_n </math> ein, so erhalten wir<br />
:<math>t(x):=f(x_n)+f^\prime(x_n) (x-x_n)</math>.<br />
Wir wählen als <math>x_{n+1} </math> die einzige Nullstelle dieser linearen Funktion,<br />
:<math><br />
0=t(x_{n+1})=f(x_n)+f^\prime(x_n) (x_{n+1}-x_n)<br />
\quad\Rightarrow\quad<br />
x_{n+1}=x_n-f(x_n)/f'(x_n)<br />
</math>.<br />
<br />
Wenden wir diese Konstruktion mehrfach an, so erhalten wir aus einer ersten Stelle <math> x_0</math> eine unendliche [[Folge (Mathematik)|Folge]] von Stellen <math>(x_n)_{n\in\mathbb N}</math>, die durch die [[Rekursion]]svorschrift<br />
::<math>x_{n+1}:=N_f(x_n):=x_n-\frac{f(x_n)}{f'(x_n)}</math><br />
definiert ist. Diese Vorschrift wird auch als ''Newton-[[Iteration]]'' bezeichnet, die Funktion <math> N_f </math> als ''Newton-Operator''. Die Newton-Iteration ist ein spezieller Fall einer [[Fixpunktiteration]], falls die Folge gegen <math>\xi=\lim_{n\to\infty} x_n\,</math> [[Konvergenz (Mathematik)|konvergiert]], so gilt <math>\xi=N_f(\xi)=\xi-f(\xi)/f'(\xi)</math> und daher <math>f(\xi)=0</math>.<br />
<br />
Die Kunst der Anwendung des Newton-Verfahrens besteht darin, geeignete Startwerte <math> x_0 </math> zu finden. Je mehr über die Funktion <math> f </math> bekannt ist, desto kleiner lässt sich die notwendige Menge von Startwerten gestalten.<br />
<br />
Viele nichtlineare Gleichungen haben mehrere Lösungen, so hat ein [[Polynom]] <math> n </math>-ten Grades bis zu <math> n </math> Nullstellen. Will man alle Nullstellen in einem bestimmten Bereich <math> D \subseteq \R </math> ermitteln, so muss zu jeder Nullstelle ein passender Startwert in <math> D </math> gefunden werden, für den die Newton-Iteration konvergiert. Dazu könnte man z. B. per [[Bisektion]] genügend kleine isolierende Intervalle zu jeder Nullstelle bestimmen.<br />
<br />
=== Erstes Beispiel ===<br />
<br />
Die Quadratwurzel einer Zahl <math> a>0 </math> ist die positive Nullstelle der Funktion <math> f(x)=1-a/x^2 </math>. Diese Funktion hat die Ableitung <math> f^\prime(x)=2a/x^3 </math>, die Newton-Iteration erfolgt also nach der Vorschrift<br />
:<math><br />
x_{n+1}:=N_f(x_n)=x_n-\frac{1-a/x_n^2}{2a/x_n^3}=x_n-\frac{x_n^3}{2a}+\frac{x_n}{2}<br />
=\frac{x_n}{2}\left(3-\frac{x_n^2}{a}\right)<br />
</math><br />
Der Vorteil dieser Vorschrift gegenüber dem Wurzelziehen nach [[Heron von Alexandria|Heron]] (siehe unten) ist, dass es divisionsfrei ist, sobald einmal der Kehrwert von <math> a</math> bestimmt wurde. Als Startwert wurde in der Tabelle <math> x_0:=(1+a)/2</math> gewählt. Die Iterierten wurden an der ersten ungenauen Stelle abgeschnitten. Es ist zu erkennen, dass nach wenigen Schritten die Anzahl gültiger Stellen schnell wächst.<br />
<br />
<div style="font-size:83%"><br />
{| border="1" cellspacing="0" cellpadding="5" style="border-collapse:collapse;"<br />
|bgcolor=ececec|n ||bgcolor=ececec| <math> x_n </math> bei <math>a=2</math> ||bgcolor=ececec| <math> x_n </math> bei <math>a=3</math> ||bgcolor=ececec| <math> x_n </math> bei <math>a=5</math><br />
|-<br />
|bgcolor=ececec|0 || <math>1{,}5</math>|| <math>2</math>|| <math>3</math><br />
|-<br />
|bgcolor=ececec|1 || <math>1{,}40</math>|| <math>1{,}6</math>|| <math>1{,}8</math><br />
|-<br />
|bgcolor=ececec|2 || <math>1{,}414</math>|| <math>1{,}72</math>|| <math>2{,}1</math><br />
|-<br />
|bgcolor=ececec|3 || <math>1{,}414213514</math>|| <math>1{,}73203</math>|| <math>2{,}22</math><br />
|-<br />
|bgcolor=ececec|4 || <math>1{,}41421356237309502</math>|| <math>1{,}7320508074</math>|| <math>2{,}23601</math><br />
|-<br />
|bgcolor=ececec|5 || <math>1{,}414213562373095048801688724209697</math> || <math>1{,}73205080756887729351</math>|| <math>2{,}236067975</math><br />
|-<br />
|bgcolor=ececec|6 || <math>1{,}414213562373095048801688724209698</math> || <math>1{,}7320508075688772935274463415058723669426</math> || <math>2{,}236067977499789692</math><br />
|-<br />
|bgcolor=ececec|7 || <math>1{,}414213562373095048801688724209698</math> || <math>1{,}7320508075688772935274463415058723669428 </math>|| <math>2{,}23606797749978969640917366873127622</math><br />
|-<br />
|bgcolor=ececec|8 || <math>1{,}414213562373095048801688724209698</math> || <math>1{,}7320508075688772935274463415058723669428</math> || <math>2{,}23606797749978969640917366873127623</math><br />
|-<br />
|}<br />
</div><br />
<br />
Betrachten wir die Differenz <math>x_{n+1}-\sqrt a</math> zum Grenzwert im <math> (n+1)</math>-ten Schritt, so kann mittels der binomischen Formeln die Differenz im <math> n </math>-ten Schritt zweimal abgespalten werden:<br />
:<math>x_{n+1}-\sqrt a<br />
=\frac{3}{2}x_n-\frac{x_n^3}{2a}-\frac{3}{2}\sqrt a+\frac{\sqrt{a}^3}{2a}<br />
=(x_n-\sqrt a)\cdot\left(\frac32-\frac{x_n^2+x_n\sqrt a+a}{2a}\right)</math><br />
:::<math>=(x_n-\sqrt a)\cdot\frac{a-x_n^2+a-x_n\sqrt a}{2a}=-(x_n-\sqrt a)^2\cdot(x_n+2\sqrt a)</math><br />
Nach der [[Ungleichung vom arithmetischen und geometrischen Mittel]] gilt <math>0<\sqrt a\le \frac{1+a}2</math>,<br />
so dass der zweite Faktor sinnvoll durch <math> 3/2(1+a) </math> beschränkt werden kann. Ist die Differenz im <math> n </math>-ten Schritt eine kleine Zahl, so ist die Differenz im <math> (n+1)</math>-ten Schritt proportional zum Quadrat davon, also wesentlich kleiner. So entsteht durch Quadrieren eines Fehlers <math>10^{-m}</math> eine Fehlerabschätzung proportional zu <math>10^{-2m}</math>. Deshalb spricht man davon, dass sich die Anzahl der gültigen Stellen in jedem Schritt der Newton-Iteration in etwa verdoppelt.<br />
<br />
== Konvergenzbetrachtungen ==<br />
<br />
[[Datei:Julia-set N z3-1.png|mini|220px|Das Newton-Verfahren für das Polynom <math>z^3-1</math> über den komplexen Zahlen konvergiert für Startwerte aus den roten, den grünen und den blauen Bereichen jeweils zu einer der drei Nullstellen des Polynoms. Für Startwerte aus der hellen Struktur – dem Newton-Fraktal – konvergiert das Verfahren nicht.]]<br />
Das Newton-Verfahren ist ein so genanntes lokal [[Konvergenz (Mathematik)|konvergentes]] Verfahren. Konvergenz der in der ''Newton-Iteration'' erzeugten [[Folge (Mathematik)|Folge]] zu einer Nullstelle ist also nur garantiert, wenn der Startwert, d. h. das ''0''-te Glied der Folge, schon „ausreichend nahe“ an der Nullstelle liegt. Ist der Startwert zu weit entfernt, ist das Konvergenzverhalten nicht festgelegt, das heißt, es ist sowohl eine Divergenz der Folge möglich als auch eine Oszillation (bei der sich endlich viele Funktionswerte abwechseln) oder eine Konvergenz gegen eine andere Nullstelle der betrachteten Funktion.<br />
<br />
[[Datei:Newton z3-2z+2 iterates R.png|220px|mini|Dynamik des Newton-Verfahrens für die Funktion <math>x^3-2x+2</math> mit Startwerten zwischen −4 und 4: Jede farbcodierte Zeile zeigt das Resultat eines Schritts des Verfahrens, angewandt auf die jeweils darüberliegende Zeile. Die Startwerte befinden sich in der obersten Zeile. Viele Startwerte konvergieren gegen die (einzige reellwertige) Nullstelle des Polynoms bei ca. −1,769, deren Farbe Mittelblau ist. Es gibt jedoch auch viele Startwerte, für welche das Verfahren nicht konvergiert und zwischen null (schwarz) und eins (rot) hin- und herpendelt. Die Menge dieser nicht zur Nullstelle führenden Startwerte enthält offene Intervalle, ist also eine Menge von positivem Maß und damit insbesondere keine [[Nullmenge]].]]<br />
Ist der Startwert <math>x_0</math> so gewählt, dass das Newton-Verfahren konvergiert, so ist die Konvergenz allerdings quadratisch, also mit der [[Konvergenzgeschwindigkeit|Konvergenzordnung]] 2 (falls die Ableitung an der Nullstelle nicht verschwindet). Die Menge der Startpunkte, für die das Newton-Verfahren gegen eine bestimmte Nullstelle konvergiert, bildet den Einzugsbereich dieser Nullstelle. Färbt man für eine [[Polynom]]funktion, mit reellen oder komplexen Koeffizienten, die Einzugsbereiche verschiedener Nullstellen in der komplexen Ebene verschieden ein, so ergibt sich ein [[Newton-Fraktal]]. In diesem ist zu erkennen, dass die Einzugsbereiche Bassins, d. h. Kreisscheiben um die Nullstellen enthalten, aus welchen heraus die Newton-Iteration stabil gegen die Nullstelle im Zentrum konvergiert. Aber es ist auch zu erkennen, dass die Ränder der Einzugsbereiche „ausgefranst“ sind, sie haben sogar eine [[fraktal]]e Struktur. Geringe Abweichungen im Startpunkt können also zu verschiedenen Nullstellen führen.<br />
Falls es jedoch im Intervall <math>I=]a,b[</math> genau eine Nullstelle gibt, in <math>I</math> durchweg <math>f'>0</math> sowie <math>f''<0</math> gilt und der Startwert <math>x_0\in I</math> links von der Nullstelle <math>\xi\in I</math> gewählt wird, dann konvergiert die Folge im Newton-Verfahren stets, und zwar streng monoton wachsend (siehe Abbildung unten bzw. die Tabelle oben ab <math>n=1</math>).<br />
<br />
=== Beispiele für Nicht-Konvergenz ===<br />
<br />
#Oszillierendes Verhalten ergibt sich u.a. für das Polynom <math> f(x):=x^3-2x+2 </math><ref>[http://www.math.sunysb.edu/~scott/ J. H. Hubbard, D. Schleicher, S. Sutherland]: ''How to Find All Roots of Complex Polynomials by Newton’s Method'' Preprint (2000), [[Inventiones Mathematicae]] vol. 146 (2001)</ref> mit <math> f^\prime(x)=3x^2-2 </math>. Der Punkt <math> x=0 </math> mit <math> f(0)=2 </math> und <math> f^\prime(0)=-2 </math> wird durch den Newton-Operator auf den Punkt <math> N(0)=0-2/(-2)=1 </math> abgebildet, der Punkt <math> x=1 </math> wiederum, mit <math> f(1)=1 </math> und <math> f^\prime(1)=1 </math>, wird auf <math> N(1)=1-1/1=0 </math> abgebildet, so dass die Newton-Iteration mit einem dieser Punkte als Startwert eine [[periodische Folge]] ergibt, diese beiden Punkte wechseln sich zyklisch ab. Des Weiteren ist dieser Zyklus stabil, er bildet einen [[Attraktor]] der Newton-Iteration. Das bedeutet, um beide Punkte gibt es Umgebungen, so dass Startpunkte aus diesen Umgebungen gegen den Zyklus konvergieren und somit je einen der Punkte ''0'' und ''1'' als Grenzwert der Teilfolge mit geradem Index und der mit ungeradem Index haben.<br />
#Divergenz bzw. beliebig weites Entfernen vom Startpunkt ergibt sich für <math> f(x)=\sin(x) </math> mit <math> f^\prime(x)=\cos(x) </math> und <math> N(x)=x-\tan(x) </math>. Es gibt eine Stelle <math> x_0 \isin \lbrack -\pi /2,0 \rbrack </math> mit <math>\tan(x_0)=-2\pi </math> d.&nbsp;h. <math>x_0=\arctan(-2\pi)=-1{,}412965136506737759\dots </math> Man überzeugt sich, dass dann <math> x_n =x_0+2\pi n</math> gilt. Dieses Verhalten ist nicht stabil, denn bei leichter Variation des Anfangswertes, wie sie zum Beispiel durch die numerische Berechnung entsteht, entfernt sich die Newton-Iteration immer weiter von der idealen divergierenden Folge. Selbst bei schließlicher Konvergenz wird die gefundene Nullstelle sehr weit vom Startwert entfernt sein.<br />
<br />
=== Lokale quadratische Konvergenz ===<br />
<br />
Sei <math>f</math> eine zweimal stetig differenzierbare reelle Funktion und <math>a</math> eine einfache Nullstelle von <math>f</math>, in welcher die Ableitung somit keine Nullstelle hat. Das bedeutet, dass der Graph der Funktion transversal, d. h. nicht-berührend, die <math>x</math>-Achse schneidet. Sei <math>x</math> ein Punkt nahe bei <math>a</math>. Dann kann die Taylor-Formel zweiten Grades (mit [[Taylor-Formel#Restgliedformeln|Lagrange-Restglied]])<br />
:<math>0=f(a)=f(x)+f'(x)(a-x)+\tfrac12 f''(\xi)(a-x)^2,\qquad \xi</math> liegt zwischen <math>x</math> und <math>a</math>,<br />
nach der Differenz <math>(x-a)</math> umgestellt werden,<br />
:<math>x-a=\frac{f(x)}{f'(x)}+\frac{f''(\xi)}{2\,f'(x)}(x-a)^2</math>.<br />
Es wird nun so umgestellt, dass der Newton-Operator auf der rechten Seite erscheint,<br />
:<math>N_f(x)-a=x-\frac{f(x)}{f'(x)}-a=\frac{f''(\xi)}{2\,f'(x)}(x-a)^2</math>.<br />
Seien <math>I</math> ein Intervall um <math>a</math> ohne Nullstelle der Ableitung <math>f'(x)</math> und <math>m_1=\min_{x\in I}|f'(x)|</math> sowie <math>M_2=\max_{x\in I}|f''(x)|</math> Schranken der Ableitungen von <math>f</math>. Dann folgt für alle <math>x\in I</math> die<br />
Abschätzung<br />
:<math>\Bigl|N_f(x)-a\Bigr|\le\frac{M_2}{2m_1}|x-a|^2</math>.<br />
<br />
Mit <math>K=\tfrac{M_2}{2m_1}</math> sei der konstante Faktor bezeichnet. In jedem Schritt <math>n</math> der Newtoniteration wird die Größe <math>d_n=K\,|x_n-a|</math> kleiner sein als das Quadrat derselben Größe im vorhergehenden Schritt, <math>d_n\le K\cdot K|x_{n-1}-a|^2=d_{n-1}^2</math>. Nach [[Induktion (Mathematik)|vollständiger Induktion]] ergibt sich<br />
:<math>K\,|x_n-a|=d_n\le d_{n-1}^2\le d_{n-2}^4\le\dotsb\le d_0^{2^n}=(K\,|x_0-a|)^{2^n}</math>.<br />
Kann also für den Startpunkt der Iteration die Abschätzung <math> |x_0-a |<\tfrac1K</math> garantiert werden, z. B. indem die Intervalllänge von <math>I</math> kleiner als <math>1/K</math> ist, so konvergiert die Folge <math>(x_n)</math> der Newton-Iteration gegen die Nullstelle <math>a</math>, denn die Folge <math>(d_n)_{n\in\N} </math> und damit <math>(x_n=\tfrac1K d_n)_{n\in\N} </math> ist nach der angegebenen Abschätzung eine [[Nullfolge]]. Die Verkürzung des Intervalls kann durch einige Iterationen eines langsameren Verfahrens zur Nullstelleneinschränkung erreicht werden, z. B. des [[Bisektionsverfahren]]s oder der [[Regula falsi]].<br />
<br />
Die aus dieser Abschätzungen folgende [[Konvergenzgeschwindigkeit]] wird als ''quadratisch'' bezeichnet, die (logarithmische) Genauigkeit bzw. Anzahl gültiger Stellen verdoppelt sich in jedem Schritt. Die Abschätzung des Abstands <math> |x_n -a| </math> zur Nullstelle wird oft linear in <math> | x_0- a|</math> angegeben, so gilt z. B.<br />
* <math>|x_n-a|\le \left(\tfrac12\right)^{2^n-1}\cdot |x_0-a|</math>, falls die Länge des Intervalls <math>I</math> kleiner als <math>\tfrac{1}{2K}</math> ist. Dies ergibt eine Abschätzung der gültigen Stellen im Binärsystem.<br />
* <math>|x_n-a|\le \left(\tfrac1{10}\right)^{2^n-1}\cdot |x_0-a|</math>, falls die Länge des Intervalls <math>I</math> kleiner als <math>\tfrac{1}{10K}</math> ist, d. h. nahe genug an der Nullstelle ergibt sich eine Verdopplung der gültigen Dezimalstellen in jedem Schritt.<br />
<br />
=== Lokale quadratische Konvergenz bei mehrfacher Nullstelle durch Modifikation ===<br />
<br />
Für den Fall, dass <math> f </math> bei <math> a </math> eine mehrfache Nullstelle endlichen Grades besitzt, lässt sich ebenfalls die Konvergenzgeschwindigkeit abschätzen und durch eine geringfügige Modifikation wieder quadratische Konvergenz erzwingen.<br />
<br />
Hat <math>f</math> bei <math>a</math> eine <math>k</math>-fache Nullstelle, lässt sich <math> f</math> schreiben als <math>f(x)=(x-a)^k\cdot g(x)</math> mit <math>g(a) \ne 0</math> .<br />
<br />
Dann ist nach der Produktregel <math>f'(x)=k\cdot (x-a)^{k-1}\cdot g(x)+(x-a)^k\cdot g'(x)</math> und damit der Ausdruck<br />
<br />
:<math>\frac{f(x)}{f'(x)}=\frac{(x-a)^k\cdot g(x)}{k\cdot (x-a)^{k-1}\cdot g(x)+(x-a)^k\cdot g'(x)} = (x-a)\frac{g(x)}{k\cdot g(x)+(x-a)\cdot g'(x)}</math>.<br />
<br />
Setzt man dies nun in die Iteration ein, so erhält man<br />
<br />
:<math>x_\text{neu} = x - \frac{f(x)}{f'(x)}=x - (x-a)\frac{g(x)}{k\cdot g(x)+(x-a)\cdot g'(x)}</math><br />
<br />
und daraus nach beidseitiger Subtraktion von <math>a</math> den Iterationsfehler<br />
<br />
:<math>(x_\text{neu} - a) = (x-a) - (x-a)\frac{g(x)}{k\cdot g(x)+(x-a)\cdot g'(x)}= (x-a) \left[ 1- \frac{g(x)}{k\cdot g(x)+(x-a)\cdot g'(x)}\right]</math> . <math>(*)</math><br />
<br />
Wenn nun der Ausdruck <math>(x-a)</math> sehr klein geworden ist, wird der Summand <math>(x-a)\cdot g'(x)</math> im Nenner viel kleiner als <math>k\cdot g(x)</math>, so dass sich die hintere Klammer in <math>(*)</math> immer mehr dem Wert <math>s =1- \tfrac{1}{k}</math> nähert. Für die einfache Nullstelle mit <math>k = 1</math> hat man einen kleinen Wert <math>s</math>, der fast 0 wird, so dass <math>(x_\text{neu} - a) = (x - a) \cdot s</math> wird. Für <math>k = 2</math> wird <math>s</math> ungefähr 0,5, so dass sich der Abstand zur Nullstelle von Schritt zu Schritt nur etwa halbiert und man nach etwa 10 Schritten die Genauigkeit nur in weiteren 3 Dezimalstellen erhöht hat. Bei <math>k = 3</math> wird <math>s</math> etwa 0,67, so dass erst nach etwa 16 Schritten die Genauigkeit um weitere 3 Dezimalstellen steigt usw.<br />
<br />
Man kann daher am Konvergenzverhalten die Vielfachheit der Nullstelle abschätzen, falls man sie nicht aus anderen Gründen weiß, und – wie nun noch beschrieben – das Verfahren optimieren.<br />
<br />
Bei einer <math>k</math>-fachen Nullstelle modifiziert man das newtonsche Näherungsverfahren mit einem Faktor <math>k</math>:<br />
<br />
:<math>x_\text{neu} = x - k\cdot \frac{f(x)}{f'(x)}</math> (Newton-Verfahren bei <math>k</math>-facher Nullstelle)<br />
<br />
Damit wird dann <math>(*)</math> zu<br />
<br />
:<math>\begin{align}<br />
(x_\text{neu} - a) &= (x-a) \left[ 1- \frac{k\cdot g(x)}{k\cdot g(x)+(x-a)\cdot g'(x)}\right] \\<br />
&= (x-a) \left[\frac{k\cdot g(x)+(x-a)\cdot g'(x)}{k\cdot g(x)+(x-a)\cdot g'(x)} - \frac{k\cdot g(x)}{k\cdot g(x)+(x-a)\cdot g'(x)}\right] \\<br />
&= (x-a) \frac{(x-a)\cdot g'(x)}{k\cdot g(x)+(x-a)\cdot g'(x)} \\<br />
&= (x-a)^2 \frac{g'(x)}{k\cdot g(x)+(x-a)\cdot g'(x)}<br />
\end{align}</math><br />
<br />
Ist nun <math>(x-a)</math> wieder sehr klein, so wird im Nenner der Summand <math>(x-a)\cdot g'(x)</math> viel kleiner als <math>k\cdot g(x)</math> , und man erhält<br />
<br />
:<math>(x_\text{neu} - a) = (x-a)^2 \frac{g'(x)}{k\cdot g(x)}</math>,<br />
<br />
wobei der rechte Faktor wegen <math>g(a)\ne 0</math> gegen einen festen Wert konvergiert. Wie man sieht, liegt nun auch hier quadratische Konvergenz vor.<br />
<br />
Ein Beispiel zeigt das Konvergenzverhalten sehr schön. Die Funktion <math>f(x) = x^2 - 2</math> hat die einfache Nullstelle <math>\sqrt{2}</math>. Die linke Spalte der Tabelle zeigt die rasche Konvergenz für den Startwert 1, nach 4 Schritten lässt sich die Genauigkeit in Excel nicht mehr steigern, beim Fehler verdoppelt sich die Anzahl der Nullen hinterm Komma (mindestens). Quadriert man nun die Funktion (mittlere Spalte), wird die Nullstelle eine doppelte, und nun zeigt sich das oben erläuterte Verhalten, dass sich ohne Modifikation der Fehler in jedem Schritt nur etwa halbiert. Modifiziert man dann diesen Fall mit dem Faktor <math>k = 2</math>, so stellt sich dasselbe Verhalten wie bei der einfachen Nullstelle ein (rechte Spalte).<br />
<br />
<div style="font-size:83%"><br />
{| border="1" cellspacing="0" cellpadding="5" style="border-collapse:collapse;"<br />
|bgcolor=ececec|n ||bgcolor=ececec| <math> x_n </math> für <math>f(x) = x^2 - 2</math> ||bgcolor=ececec|Fehler||bgcolor=ececec| <math> x_n </math> für <math>f(x) = (x^2 - 2)^2 </math> ohne Faktor <math>k</math> ||bgcolor=ececec|Fehler ||bgcolor=ececec| <math> x_n </math> für <math>f(x) = (x^2 - 2)^2 </math> mit Faktor <math>k = 2</math> ||bgcolor=ececec|Fehler<br />
|-<br />
|bgcolor=ececec|0 || <math>1</math>||<math>-0{,}4142135</math>||<math>1</math>|| <math>-0{,}4142135</math>|| <math>1</math> || <math>-0{,}4142135</math><br />
|-<br />
|bgcolor=ececec|1 || <math>1{,}5</math>||<math>0{,}0857864</math>|| <math>1{,}25</math>||<math>-0{,}1642135</math>|| <math>1{,}5</math> || <math>0{,}0857864</math><br />
|-<br />
|bgcolor=ececec|2 || <math>1{,}41666667</math>||<math>0{,}0024531</math>|| <math>1{,}3375</math>|| <math>-0{,}07671356</math>||<math>1{,}41666667</math> || <math>0{,}0024531</math><br />
|-<br />
|bgcolor=ececec|3 || <math>1{,}41421569</math>||<math>0{,}0000021</math>|| <math>1{,}37695678</math>|| <math>-0{,}03725679</math>||<math>1{,}41421569</math> || <math>0{,}0000021</math><br />
|-<br />
|bgcolor=ececec|4 || <math>1{,}41421356</math>|| <math>0</math>||<math>1{,}39583719</math>|| <math>-0{,}01837638</math>||<math>1{,}41421356</math> || <math>0</math><br />
|-<br />
|bgcolor=ececec|5 || <math>1{,}41421356</math> || <math>0</math>||<math>1{,}40508586</math>|| <math>-0{,}00912771</math>||<math>1{,}41421356</math> || <math>0</math><br />
|-1<br />
|bgcolor=ececec|6 || <math>1{,}41421356</math> || <math>0</math>||<math>1{,}40966453</math> || <math>-0{,}00454903</math>||<math>1{,}41421356</math> || <math>0</math><br />
|-<br />
|bgcolor=ececec|7 || <math>1{,}41421356</math> || <math>0</math>||<math>1{,}41194272 </math>|| <math>-0{,}00227084</math>||<math>1{,}41421356</math> || <math>0</math><br />
|-<br />
|bgcolor=ececec|8 || <math>1{,}41421356</math> || <math>0</math>||<math>1{,}41307905</math> || <math>-0{,}00113451</math>||<math>1{,}41421356</math> || <math>0</math><br />
|-<br />
|bgcolor=ececec|9 || <math>1{,}41421356</math> || <math>0</math>||<math>1{,}41364654</math> || <math>-0{,}00056703</math>||<math>1{,}41421356</math> || <math>0</math><br />
|-<br />
|bgcolor=ececec|10 || <math>1{,}41421356</math> || <math>0</math>||<math>1{,}41393011</math> || <math>-0{,}00014171</math>||<math>1{,}41421356</math> || <math>0</math><br />
|-<br />
|}<br />
</div><br />
<br />
=== Bemerkungen ===<br />
<br />
* Der lokale Konvergenzbeweis kann auch auf die gleiche Weise im mehrdimensionalen Fall geführt werden, allerdings ist er dann technisch etwas schwieriger, da mit zwei- und dreistufigen Tensoren für die erste bzw. zweite Ableitung gearbeitet wird. Im Wesentlichen ist die Konstante ''K'' durch <math>K=\tfrac12\,\sup_{x\in U}\|f'(x)^{-1}\|_{(1,1)}\,\sup_{x\in U}\|f''(x)\|_{(1,2)}</math> zu ersetzen, mit geeigneten induzierten [[Operatornorm]]en.<br />
* Der lokale Konvergenzbeweis setzt voraus, dass ein eine Nullstelle enthaltendes Intervall bekannt ist. Aus seinem Beweis ergibt sich aber keine Möglichkeit, dies schnell zu testen. Ein Konvergenzbeweis, der auch hierfür ein Kriterium liefert, wurde zuerst von [[Leonid Witaljewitsch Kantorowitsch|Leonid Kantorowitsch]] geführt und ist als ''[[Satz von Kantorowitsch]]'' bekannt.<br />
* Um einen geeigneten Startpunkt zu finden, verwendet man gelegentlich andere („gröbere“) Verfahren. Beispielsweise kann man mit dem ''[[Gradientenverfahren]]'' eine ungefähre Lösung ermitteln und diese dann mit dem Newton-Verfahren verfeinern.<br />
* Bei unbekanntem Startpunkt kann man mittels einer [[Homotopie]] die Funktion <math> f </math>, von der man eine Nullstelle sucht, zu einer einfacheren Funktion <math> g </math> deformieren, von der (mindestens) eine Nullstelle bekannt ist. Man durchläuft dann die Deformation rückwärts in Form einer endlichen Folge sich nur „wenig“ unterscheidender Funktionen. Von der ersten Funktion <math> g </math> kennt man eine Nullstelle. Als Startwert der Newton-Iteration zur gerade aktuellen Funktion der Folge verwendet man die Näherung einer Nullstelle der in der Folge vorhergehenden Funktion. Zum genauen Vorgehen siehe [[Homotopieverfahren]].<br />
::Als Beispiel mag die „Flutungshomotopie“ dienen: mit einem willkürlichen <math> z </math> bilden wir die Ausgangsfunktion <math> g(x)= f_0(x):= f(x)-f(z) </math> mit bekannter Nullstelle <math> z </math> . Wir haben den „Wasserspiegel“ vom „Nullpegel“ auf die Höhe <math> f(z) </math> geflutet. Nun senken wir schrittweise den Wasserstand, <math> f_n(x):= f(x)-(f(z)-n\cdot h\cdot f(z))</math>, <math> h=1/N </math>, <math> n=1\dots N </math>. In jedem Schritt wird eine Näherung <math> \xi^{(n)} </math> einer Nullstelle bestimmt, wobei <math> x_0 := \xi^{(n-1)} </math> gesetzt wird. Es ist <math> f_N=f </math> und somit <math> \xi ^{(N)}</math> eine der gesuchten Näherungslösungen.<br />
<br />
[[Datei:Newtonsches Näherungsverfahren.png|mini|zentriert|Das Newtonsche Näherungsverfahren]]<br />
<br />
== Abbruchkriterien ==<br />
<br />
Mögliche Abbruchkriterien bezüglich einer Restgröße (zum Beispiel Rechner-Arithmetik) sind:<br />
<br />
<center><math>\| f(x_n)\|< \varepsilon_1\qquad\mathrm{oder}\qquad<br />
\| x_{n+1}-x_n\|<\varepsilon_2</math></center><br />
<br />
Wobei <math> \varepsilon_1,\varepsilon_2\in\mathbb{R}^+ </math> die Qualität der „Nullstelle“ bestimmt.<br />
In beiden Fällen kann es vorkommen, dass das Abbruchkriterium zu einem „schlechten“ Zeitpunkt erfüllt ist.<br />
<br />
== Weitere Anwendungsbeispiele ==<br />
<br />
=== Berechnung der Quadratwurzel ===<br />
<br />
Ein Spezialfall des Newtonschen Näherungsverfahrens ist das [[Babylonisches Wurzelziehen|Babylonische Wurzelziehen]], auch bekannt als Heronverfahren nach [[Heron von Alexandria]]:<br />
<br />
Wendet man die Iterationsformel zur Nullstellenbestimmung auf die Funktion<br />
:<math>f(x) = x^2 - a</math><br />
an, so erhält man wegen der Ableitungsfunktion <math>f'(x) = 2x</math> für die Lösung <math>\sqrt{a}</math> das Näherungsverfahren<br />
<br />
:<math><br />
x_{n+1}:=x_n-\frac{x_n^2 - a}{2x_n}=\frac12 \left(x_n + \frac{a}{x_n}\right)<br />
</math>.<br />
<br />
Dieses Verfahren konvergiert für jedes <math>a\geq0</math> und für jeden beliebigen Anfangswert <math>x_0 \neq 0</math>.<br />
<br />
=== Berechnung der Kubikwurzel ===<br />
<br />
Wendet man die Iterationsformel zur Nullstellenbestimmung auf die Funktion<br />
:<math>f(x) = x^3 - a</math><br />
an, so erhält man wegen der Ableitungsfunktion <math>f'(x) = 3x^2</math> für die Lösung <math>\sqrt[3]{a}</math> das Näherungsverfahren<br />
<br />
:<math>x_{n+1}:=x_n-\frac{x_n^3 - a}{3 x_n^2} = x_n - \frac{1}{3} \left( x_n - \frac{a}{x_n^2}\right)=\frac13\left(2x_n+\frac{a}{x_n^2}\right)<br />
</math>.<br />
<br />
Für negative Radikanden empfiehlt sich die Umrechnung mit <math>\sqrt[3]{x} = - \sqrt[3]{-x}</math>.<br />
<br />
Dieses Verfahren konvergiert für <math>a</math> und Anfangswert <math>x_0 \neq 0</math>, wenn <math>a</math> und <math>x_0</math> gleiches Vorzeichen haben.<br />
<br />
=== Schnittpunkt zweier Funktionen ===<br />
<br />
Auf ähnliche Weise lässt sich auch der <math> x </math> -Wert des Schnittpunktes zweier Funktionen <math> g(x) </math> und <math> f(x) </math> bestimmen:<br />
<br />
Da man die beiden Funktionen zur Lösung des Problems gleichsetzt, lässt sich immer durch Umformung folgende Form, auf die das Newtonsche Näherungsverfahren angewendet werden kann, bestimmen:<br />
<br />
:<math>f(x) - g(x) = 0</math><br />
<br />
=== Gemischt-goniometrische Funktion ===<br />
<br />
Gesucht sei die positive Lösung eines Problems <math>x</math>, wobei <math> \cos(x) = x^3 </math>. Das Problem kann umformuliert werden als <math>\cos (x) - x^3 = 0</math>. Gesucht werden also Nullstellen von <math> f(x) = \cos(x) - x^3 </math>.<br />
<br />
Wir haben nun <math> f'(x) = -\sin(x) - 3x^2 </math>. Da <math> \cos(x) \leq 1 </math> für alle <math> x </math> gilt und <math> x^3 > 1 </math> für <math> x>1 </math>, wissen wir, dass die Nullstelle zwischen 0 und 1 liegt. Wir starten die Iteration mit dem Wert <math> x_0 = 0{,}5 </math> .<br />
<br />
:<math>\begin{matrix}<br />
x_1 & = & x_0 - \frac{f(x_0)}{f'(x_0)} & = & 0{,}5 - \frac{\cos(0{,}5) - 0{,}5^3}{-\sin(0{,}5) - 3 \cdot 0{,}5^2} & \approx & 1{,}11214163710 \\<br />
x_2 & = & x_1 - \frac{f(x_1)}{f'(x_1)} & & \vdots & \approx & 0{,}909672693736 \\<br />
x_3 & & \vdots & & \vdots & \approx & 0{,}867263818209 \\<br />
x_4 & & \vdots & & \vdots & \approx & 0{,}865477135298 \\<br />
x_5 & & \vdots & & \vdots & \approx & 0{,}865474033111 \\<br />
x_6 & & \vdots & & \vdots & \approx & 0{,}865474033101 \\<br />
x_7 & & \vdots & & \vdots & \approx & 0{,}865474033102<br />
\end{matrix}<br />
</math><br />
<br />
Damit sind die ersten zwölf Ziffern der Nullstelle bekannt.<br />
<br />
== Das Newton-Verfahren im Mehrdimensionalen ==<br />
<br />
Das Newton-Verfahren kann auch benutzt werden, um Nullstellen von mehrdimensionalen Funktionen <math>f\colon\mathbb{R}^{n} \to \mathbb{R}^{n}</math> zu bestimmen. Ein konkreter Anwendungsfall ist die Kombination mit der Gaußschen Fehlerquadratmethode im [[Gauß-Newton-Verfahren]]. Für den allgemeinen Fall ist der Ausgangspunkt eine [[Taylorreihe#Mehrdimensionale_Taylorreihe|Taylorentwicklung]] der Funktion <math>f</math>:<br />
:<math><br />
\begin{align}<br />
f( \mathbf{x}+\mathbf{h} ) = f(\mathbf{x}) + J(\mathbf{x}) \cdot \mathbf{h} + \mathcal{O}(\| \mathbf{h} \|^2), \quad \text{für} \quad \mathbf{x} , \mathbf{h} \in \R^n<br />
\end{align}<br />
</math><br />
wobei <math>J(\mathbf{x})=f'(\mathbf{x})= \frac{\partial f}{\partial \mathbf{x}}(\mathbf{x})</math> die [[Jacobi-Matrix]], also die Matrix der [[Partielle Ableitung|partiellen Ableitungen]] von <math>f(\mathbf{x})\,</math>, ist:<br />
:<math> <br />
J(\mathbf{x}):= \left(\frac{\partial f_i}{\partial x_j}( \mathbf{x})\right)_{ij}<br />
=\begin{pmatrix}<br />
\frac{\partial f_1}{\partial x_1} & \frac{\partial f_1}{\partial x_2} & \ldots & \frac{\partial f_1}{\partial x_n} \\<br />
\frac{\partial f_2}{\partial x_1} & \frac{\partial f_2}{\partial x_2} & \ldots & \frac{\partial f_2}{\partial x_n} \\<br />
\vdots & \vdots & \ddots & \vdots \\<br />
\frac{\partial f_n}{\partial x_1} & \frac{\partial f_n}{\partial x_2} & \ldots & \frac{\partial f_n}{\partial x_n}\end{pmatrix}.<br />
</math><br />
<br />
Anstatt nach Nullstellen der nicht-linearen Funktion <math>f</math> zu suchen, sucht man nach Nullstellen der ''lineare Anpassung'' von <math>f</math> im Punkt <math>\mathbf{x}</math>:<br />
:<math><br />
\tilde{f}(\mathbf{h}) := f(\mathbf{x}) + J(\mathbf{x}) \cdot \mathbf{h} \overset{!}{=} 0.<br />
</math><br />
<br />
Für <math>\mathbf{x}=\mathbf{x_n}</math> und <math>\mathbf{h}=\mathbf{x_{n+1}}-\mathbf{x_n}</math> inspiriert dies das '''Newton-Verfahren''':<br />
:<math><br />
\mathbf{x}_{n+1}:=N_f(\mathbf{x}_n)=\mathbf{x}_{n}-(J(\mathbf{x}_{n}))^{-1}f(\mathbf{x}_{n}).<br />
</math><br />
<br />
Da das Lösen von<br />
:<math>\Delta \mathbf{x}_{n} := -(J(\mathbf{x}_{n}))^{-1}f(\mathbf{x}_{n})\;,</math><br />
über die Berechnung der [[Inverse Matrix|Inversen einer Matrix]] und anschließender Multiplikation mit <math>f(\mathbf{x}_{n})</math> aufwändiger und numerisch ungünstiger ist, wird stattdessen das [[Lineares Gleichungssystem|lineare Gleichungssystem]]<br />
:<math>J(\mathbf{x}_{n})\;\Delta \mathbf{x}_n = -f(\mathbf{x}_{n})</math><br />
gelöst. Danach erhält man <math>\mathbf{x}_{n+1}</math> aus:<br />
<br />
:<math>\mathbf{x}_{n+1}=\mathbf{x}_{n}+\Delta \mathbf{x}_{n}.</math><br />
<br />
Zum Lösen des Systems existieren verschiedene Lösungsverfahren (siehe [[Liste numerischer Verfahren]]). Ist die Jacobimatrix in der Nullstelle invertierbar und in einer Umgebung der Nullstelle [[Lipschitz-Stetigkeit|Lipschitz-stetig]] so konvergiert das Verfahren lokal quadratisch.<br />
<br />
== Varianten des Newton-Verfahrens ==<br />
<br />
Das größte Problem bei der Anwendung des Newton-Verfahrens liegt darin, dass man die erste Ableitung der Funktion benötigt. Deren Berechnung ist meist aufwändig, und in vielen Anwendungen ist eine Funktion auch nicht analytisch gegeben, sondern beispielsweise nur durch ein Computerprogramm (siehe auch [[Automatisches Differenzieren]]). Im Eindimensionalen ist dann die [[Regula falsi]] vorzuziehen, bei der die Sekante und nicht die Tangente benutzt wird. Im Mehrdimensionalen muss man andere Alternativen suchen. Hier ist das Problem auch dramatischer, da die Ableitung eine Matrix mit <math>n^2</math> Einträgen ist, der Aufwand der Berechnung steigt also quadratisch mit der Dimension.<br />
<br />
=== Vereinfachtes Newton-Verfahren ===<br />
<br />
Statt die Ableitung in jedem Newton-Schritt auszurechnen, ist es auch möglich, sie nur in jedem n-ten Schritt zu berechnen. Dies senkt die Kosten für einen Iterationsschritt drastisch, der Preis ist ein Verlust an Konvergenzgeschwindigkeit. Die Konvergenz ist dann nicht mehr quadratisch, es kann aber weiterhin superlineare Konvergenz erreicht werden.<br />
<br />
=== Inexakte Newton-Verfahren ===<br />
<br />
Eine ähnliche Idee besteht darin, in jedem Schritt eine [[Approximation]] der Ableitung zu berechnen, beispielsweise über finite Differenzen. Eine quantitative Konvergenzaussage ist in diesem Fall schwierig, als Faustregel lässt sich jedoch sagen, dass, je schlechter die Approximation der Ableitung ist, desto schlechter die Konvergenz wird. Ein Beispiel für ein solches Verfahren ist das [[Sekantenverfahren]].<br />
<br />
=== Newton-Krylow-Verfahren ===<br />
<br />
Für die numerische Lösung nichtlinearer [[Partielle Differentialgleichung|partieller Differentialgleichungen]] bietet sich prinzipiell das Newton-Verfahren als Grundlöser an. Die entsprechende [[Jacobi-Matrix]] ist immer [[Dünnbesetzte Matrix|dünnbesetzt]] und so bieten sich [[Krylow-Unterraum-Verfahren]] zur Lösung der linearen Gleichungssysteme an. Man spricht dann von Newton-Krylow-Verfahren. Im Krylow-Verfahren selbst tritt die [[Jacobi-Matrix]] nur in Matrix-Vektorprodukten auf, welche als Richtungsableitungen interpretiert werden können. Approximiert man diese durch Finite Differenzen, so erhält man komplett matrixfreie Verfahren.<br />
<br />
== Literatur ==<br />
<br />
* P. Deuflhard, A. Hohmann: ''Numerische Mathematik I. Eine algorithmisch orientierte Einführung.'' 3. überarbeitete und erweiterte Auflage. de Gruyter, Berlin, New York 2002, ISBN 3-11-017182-1<br />
* P. Deuflhard: ''Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms.'', Springer, Berlin 2004, ISBN 3-540-21099-7 (Reihe: ''Springer Series in Computational Mathematics'', Vol. 35)<br />
* J. M. Ortega, W. C. Rheinboldt: ''Iterative Solution of Nonlinear Equations in Several Variables.'', Society for Industrial & Applied Mathematics, 2000, ISBN 0-89871-461-3 (Reihe ''Classics in Applied Mathematics'')<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{Lesenswert}}<br />
<br />
[[Kategorie:Algorithmus]]<br />
[[Kategorie:Numerische Mathematik]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=Givens-Rotation&diff=163936120Givens-Rotation2017-03-25T11:43:51Z<p>HerrHartmuth: /* QR-Zerlegung mittels Givens-Rotationen */ Algorithmuskaptiel hinzugefügt: Algorithmus der QR-Zerlegung präzise und allgemein definiert.</p>
<hr />
<div>In der [[lineare Algebra|linearen Algebra]] ist eine '''Givens-Rotation''' (nach [[Wallace Givens]]) eine [[Drehung]] in einer Ebene, die durch zwei Koordinaten-Achsen aufgespannt wird. Manchmal wird dies auch als '''Jacobi-Rotation''' (nach [[Carl Gustav Jacobi]]) bezeichnet.<br />
<br />
== Beschreibung ==<br />
<br />
Die Transformation lässt sich durch eine [[orthogonale Matrix]] der Form<br />
<br />
:<math>G(i, k, \theta) = <br />
\begin{bmatrix} 1 & \cdots & 0 & \cdots & 0 & \cdots & 0 \\<br />
\vdots & \ddots & \vdots & & \vdots & & \vdots \\<br />
0 & \cdots & c & \cdots & s & \cdots & 0 \\<br />
\vdots & & \vdots & \ddots & \vdots & & \vdots \\<br />
0 & \cdots & -s & \cdots & c & \cdots & 0 \\<br />
\vdots & & \vdots & & \vdots & \ddots & \vdots \\<br />
0 & \cdots & 0 & \cdots & 0 & \cdots & 1<br />
\end{bmatrix}</math><br />
<br />
beschreiben, wobei <math>c = \cos(\theta)</math> und <math>s = \sin(\theta)</math> in der <math>i</math>-ten und <math>k</math>-ten Zeile und Spalte erscheinen. Eine solche Matrix heißt Givens-Matrix. Formaler ausgedrückt:<br />
<br />
:<math>G(i, k, \theta)_{j, l} = \begin{cases} \cos\theta & \mbox{ falls } j = i, l = i \mbox{ oder } j = k, l = k \\<br />
\sin\theta & \mbox{ falls } j = i, l = k \\<br />
-\sin\theta & \mbox{ falls } j = k, l = i \\<br />
1 & \mbox{ falls } j = l \\<br />
0 & \mbox{ sonst. }<br />
\end{cases}</math><br />
<br />
Das [[Matrix-Vektor-Produkt]] <math>G^T(i, k, \theta) x</math> stellt eine Drehung des Vektors <math>x</math> um einen Winkel <math>\theta</math> in der <math>(i,k)</math>-Ebene dar, diese wird Givens-Rotation genannt.<br />
<br />
Die Hauptanwendung der Givens-Rotation liegt in der [[Numerische lineare Algebra|numerischen linearen Algebra]], um Nulleinträge in Vektoren und Matrizen zu erzeugen.<br />
Dieser Effekt kann beispielsweise bei der Berechnung der [[QR-Zerlegung]] einer Matrix ausgenutzt werden. Außerdem werden solche Drehmatrizen beim [[Jacobi-Verfahren (Eigenwerte)|Jacobi-Verfahren]] benutzt.<br />
<br />
== QR-Zerlegung mittels Givens-Rotationen ==<br />
<br />
* Das Verfahren ist sehr stabil. [[Pivotisierung]] ist nicht erforderlich.<br />
* Flexible Berücksichtigung von schon vorhandenen 0-Einträgen in strukturierten (insbesondere [[Dünnbesetzte Matrix|dünnbesetzten]]) Matrizen.<br />
* Die Idee besteht darin, sukzessiv die Elemente unterhalb der [[Hauptdiagonale]]n auf Null zu setzen, indem man die Matrix von links mit Givens-Rotationen multipliziert. Zunächst bearbeitet man die erste Spalte von oben nach unten und dann nacheinander die anderen Spalten ebenfalls von oben nach unten.<br />
* Man muss also <math>\mathcal{O}(m\,n)</math> [[Matrizenmultiplikation]]en durchführen. Da sich jeweils pro Multiplikation höchstens 2n Werte verändern, beträgt der Aufwand für eine QR-Zerlegung einer vollbesetzten m x n-Matrix insgesamt <math>\mathcal{O}(m\,n^2)</math>. Für dünn besetzte Matrizen ist der Aufwand allerdings erheblich niedriger.<br />
* Will man den Eintrag an der Matrixposition <math>(i,j)</math> zu null transformieren, so setzt man <math>c = a_{jj} / \rho</math> und <math>s = a_{ij} / \rho</math>, wobei <math>\rho = \sgn(a_{jj}) \sqrt{a_{jj}^2 + a_{ij}^2}</math>.<br />
<br />
=== Beispiel ===<br />
:<math>G_{2,4} \cdot G_{1,4} \cdot<br />
\begin{bmatrix} 3 & 5\\<br />
0 & 2\\<br />
0 & 0\\<br />
4 & 5<br />
\end{bmatrix}<br />
=<br />
<br />
G_{2,4}\cdot <br />
\begin{bmatrix} 5 & 7\\<br />
0 & 2\\<br />
0 & 0\\<br />
0 & -1<br />
\end{bmatrix}<br />
=<br />
\begin{bmatrix} 5 & 7\\<br />
0 & \sqrt{5}\\<br />
0 & 0\\<br />
0 & 0<br />
\end{bmatrix}<br />
</math><br />
<br />
mit<br />
<br />
:<math>G_{1,4}= <br />
\begin{bmatrix} \frac{3}{5} & 0 & 0 & \frac{4}{5} \\<br />
0 & 1 & 0 & 0 \\<br />
0 & 0 & 1 & 0 \\<br />
\frac{-4}{5} & 0 & 0 & \frac{3}{5}<br />
\end{bmatrix}</math>, <math>G_{2,4} = <br />
\begin{bmatrix} 1 & 0 & 0 & 0 \\<br />
0 & \frac{2}{\sqrt{5}} & 0 & -\frac{1}{\sqrt{5}} \\<br />
0 & 0 & 1 & 0 \\<br />
0 & \frac{1}{\sqrt{5}} & 0 & \frac{2}{\sqrt{5}} \\<br />
\end{bmatrix}</math><br />
<br />
Man erhält schließlich die QR-Zerlegung:<br />
<br />
:<math>Q = (G_{2,4}\cdot G_{1,4})^{T} = (G_{1,4}^T \cdot G_{2,4}^{T}) =<br />
\begin{bmatrix} \frac{3}{5} & \frac{4}{5 \sqrt{5}} & 0 & -\frac{8}{5\sqrt{5}} \\<br />
0 & \frac{2}{\sqrt{5}} & 0 & \frac{1}{\sqrt{5}} \\<br />
0 & 0 & 1 & 0 \\<br />
\frac{4}{5} & -\frac{3}{5\sqrt{5}} & 0 & \frac{6}{5\sqrt{5}}<br />
\end{bmatrix},\quad<br />
R = <br />
\begin{bmatrix} 5 & 7\\<br />
0 & \sqrt{5}\\<br />
0 & 0\\<br />
0 & 0<br />
\end{bmatrix},\quad<br />
Q \cdot R = \begin{bmatrix} 3 & 5\\<br />
0 & 2\\<br />
0 & 0\\<br />
4 & 5<br />
\end{bmatrix}<br />
</math><br />
<br />
=== Algorithmus ===<br />
<br />
Zur Berechnung einer [[QR-Zerlegung]] einer Matrix <math>A=\left(a_{i,j} \right)_{i,j} \in\R^{m \times n}, m\geq n</math> geht man wie folgt vor.<br />
<br />
Drehe die erste Spalte <math>a_{-,1}</math> der Matrix <math>A</math> auf einen Vektor mit einer Null als letzten Eintrag:<br />
:<math><br />
G_{1,m} A = <br />
\begin{bmatrix}<br />
* & \cdots & \cdots & * \\<br />
\vdots & \ddots & \ddots & \vdots \\<br />
* & \cdots & \cdots & * \\<br />
0 & * & \cdots & *<br />
\end{bmatrix}<br />
</math><br />
wobei <math>c,s,\rho</math> für <math>G_{1,m}</math> wie oben beschrieben gewählt werden müssen:<br />
:<math><br />
\rho = \sgn(a_{1,1}) \sqrt{a_{1,1}^2 + a_{m,1}^2}, \; c = \frac{a_{1,1}}{\rho} , \; s = \frac{a_{m,1}}{\rho}.<br />
</math><br />
<br />
Nun geht man analog mit den nächsten Einträgen der ersten Spalte vor und speichert sich alle Umformungsmatrizen <math>G_{1,i},i=2,\ldots,m</math> in der Matrix <math>G_1</math>:<br />
:<math><br />
\begin{align}<br />
G_1 A =& <br />
\begin{bmatrix}<br />
* & \cdots & \cdots & * \\<br />
0 & * & \ddots & \vdots \\<br />
\vdots & \vdots & \ddots & \vdots \\<br />
0 & * & \cdots & *<br />
\end{bmatrix} \\<br />
\text{mit} \quad G_1 :=& G_{1,2} \cdot \ldots \cdot G_{1,m}.<br />
\end{align}<br />
</math><br />
Dabei muss unbedingt darauf geachtet werden, dass sich die einzelnen Einträge <math>(c,s,\rho)</math> der Matrizen <math>G_{1,i}</math> nicht mehr auf die ursprüngliche Matrix <math>A</math> beziehen, sondern auf die schon umgeformte Matrix: <math>G_{1,i+1} \cdot \ldots \cdot G_{1,m} A</math>.<br />
<br />
Nun muss man die folgenden Spalten analog bearbeiten und somit Umformungsmatrizen <math>G_i,i=2,\ldots,n</math> finden, welche jeweils die <math>i</math>-te Spalte der Matrix <math>G_{i-1} \cdot \ldots \cdot G_1 A</math> auf einen Vektor mit Nulleinträgen unterhalb des <math>i</math>-ten Elements transformiert.<br />
<br />
Schlussendlich ergibt sich die [[QR-Zerlegung]] mittels:<br />
:<math><br />
Q := G_1^T \cdot \ldots \cdot G_n^T \quad \text{und} \quad R := G_n \cdot \ldots \cdot G_1 A.<br />
</math><br />
<br />
== Literatur ==<br />
<br />
* Gene H. Golub, Charles F. van Loan: ''Matrix Computations''. 2nd Edition. The Johns Hopkins University Press, 1989.<br />
* Martin Hermann: ''Numerische Mathematik'', 2., überarbeitete und erweiterte Auflage, Oldenbourg Verlag, München und Wien 2006, ISBN 3-486-57935-5, pp.155-159<br />
* W. Dahmen, A. Reusken: ''Numerik für Ingenieure und Naturwissenschaftler''. Springer-Verlag Berlin Heidelberg, 2006, ISBN 3-540-25544-3<br />
[[Kategorie:Numerische lineare Algebra]]</div>HerrHartmuthhttps://de.wikipedia.org/w/index.php?title=QR-Zerlegung&diff=163934459QR-Zerlegung2017-03-25T10:41:36Z<p>HerrHartmuth: /* Definition */ InterWiki-Links gesetzt, präzisere Formulierungen in der Definition</p>
<hr />
<div>Die '''QR-Zerlegung''' oder '''QR-Faktorisierung''' ist ein Begriff aus den [[Teilgebiete der Mathematik|mathematischen Teilgebieten]] der [[Lineare Algebra|linearen Algebra]] und [[Numerik]]. Man bezeichnet damit die Zerlegung einer [[Matrix (Mathematik)|Matrix]] <math>A</math> in das [[Matrizenprodukt|Produkt]]<br />
:<math> A = Q\cdot R</math><br />
<br />
zweier anderer Matrizen, wobei <math>Q</math> eine [[Orthogonale Matrix|orthogonale]] (<math>QQ^T=I</math>) bzw. [[unitäre Matrix]] (<math>QQ^{\ast}=I</math>) und <math>R</math> eine obere [[Dreiecksmatrix]] ist. Die QR-Zerlegung ist ein Spezialfall der [[Iwasawa-Zerlegung]].<br />
<br />
Eine solche Zerlegung existiert stets und kann mit verschiedenen [[Algorithmus|Algorithmen]] berechnet werden. Die bekanntesten davon sind <br />
<br />
*[[Householdertransformation]]en<br />
*[[Givens-Rotation]]en <br />
*[[Gram-Schmidtsches Orthogonalisierungsverfahren]]. <br />
<br />
Das letztere wird üblicherweise in der linearen Algebra benutzt, ist aber in seiner Standardform numerisch instabil. Man kann das Verfahren aber erweitern und numerisch stabilisieren.<br />
<br />
== Definition ==<br />
<br />
Eine Matrix <math>A \in \R^{m\times n}</math>, <math>m \geq n</math> besitzt eine (fast – siehe weiter unten) eindeutige ''reduzierte QR-Zerlegung''<br />
<br />
:<math>A=\hat{Q}\cdot\hat{R}</math><br />
<br />
als Produkt einer in den Spalten [[Orthogonale_Matrix|orthogonalen Matrix]]<br />
<math>\hat{Q} \in \R^{m\times n}</math> <br />
und einer oberen [[Dreiecksmatrix]] <br />
<math>\hat{R} \in \R^{n\times n}.</math><br />
<br />
Diese Lösung ist erweiterbar zu einer ''vollständigen QR-Zerlegung''<br />
<br />
:<math>A = Q\cdot R</math>,<br />
<br />
indem man <math>\hat{Q}</math> mit weiteren orthogonalen Spalten <math>\tilde{Q}</math> zu einer quadratischen <math>m \times m</math>-Matrix erweitert, und an <math>\hat{R}</math> unten Nullzeilen anfügt, so dass als Produkt eine <math>m\times n</math>-Matrix entsteht:<br />
:<math><br />
Q\cdot R <br />
= \begin{pmatrix} \hat{Q} & \tilde{Q} \end{pmatrix} \cdot \begin{pmatrix} \hat{R} \\ 0 \end{pmatrix} <br />
= \hat{Q}\cdot\hat{R}.<br />
</math><br />
<br />
Die QR-Zerlegung ist eindeutig für <math>m \geq n</math> und <math>\operatorname{Rang}(A)=n</math>, wenn man die [[Vorzeichen (Zahl)|Vorzeichen]] der Diagonalelemente von <math>R, \hat{R}</math> vorgibt – üblicherweise wählt man alle positiv.<br />
<br />
== Anwendung ==<br />
<br />
Die QR-Zerlegung spielt in vielen Verfahren der [[Numerische Mathematik|numerischen Mathematik]] eine wichtige Rolle, beispielsweise um eine orthogonale oder unitäre Basis zu bestimmen oder um lineare Ausgleichsprobleme zu behandeln. Sie ist integraler Bestandteil des [[QR-Algorithmus]] und der [[Unterraumiteration]] zur Berechnung von [[Eigenwert]]en einer Matrix.<br />
<br />
=== Lösung regulärer oder überbestimmter Gleichungssysteme ===<br />
<br />
Um die Lösung <math>x\in\R^n</math> eines [[Lineares Gleichungssystem|linearen Gleichungssystems]] mit Matrix <math>A\in\R^{m\times n},\ m\ge n</math>, <br />
:<math>Ax = b</math> von vollem Rang zu bestimmen, sind folgende drei Schritte durchzuführen:<br />
# Bestimme eine QR-Zerlegung der Matrix <math>A</math>.<br />
# Berechne <math>z = Q^Tb\in\R^n</math>, üblicherweise unter Benutzung der Faktorisierung von <math>Q</math> aus Schritt 1.<br />
# Löse <math>Rx = z</math> durch Rückwärtseinsetzen.<br />
<br />
Für <math>m=n</math> ist dies eine Alternative zur [[LR-Zerlegung]], sie hat den doppelten Aufwand der LR-Zerlegung, ist aber möglicherweise numerisch stabiler.<br />
<br />
Im Fall <math>m>n</math> gibt es im Gleichungssystem mehr Gleichungen als Variablen und es liegt ein [[überbestimmtes Gleichungssystem]] vor. Hier wird <math>x</math> durch Lösung des Ausgleichproblems nach der [[Methode der kleinsten Quadrate]] (s. auch [[Regressionsanalyse]]) bestimmt:<br />
:Minimiere <math>\|Ax-b\|^2=\sum_{j=1}^m\left(\sum_{k=1}^n a_{jk}x_k-b_j\right)^2</math>.<br />
In diesem Fall ist <math>A^+=R^{+}Q^T</math> die Moore-Penrose-[[Pseudoinverse]] von <math>A</math> und für die berechnete Kleinste-Quadrate-Lösung <math>x</math> gilt die Beziehung <math>x=A^+b</math>, die die übliche Darstellung <math>x=A^{-1}b</math> des regulären Falls <math>m=n</math> verallgemeinert.<br />
<br />
=== Lösung unterbestimmter Gleichungssysteme ===<br />
Für <math>m<n</math> hat die Matrix <math>A</math> einen nichttrivialen [[Kern (Algebra)|Kern]]. Bei vollem Rang von <math>A</math> bilden die Lösungen des Gleichungssystems <math>Ax=b</math> daher einen [[Affiner Unterraum|affinen Unterraum]]. Diejenige Lösung mit kleinster [[Norm (Mathematik)|Norm]] liegt im orthogonalen Komplement des [[Kern (Algebra)|Kerns]] und man bekommt sie mit Hilfe einer QR-Zerlegung von <math>A^T</math>:<br />
# Bestimme eine QR-Zerlegung der Matrix <math>A^T=QR</math>.<br />
# Löse <math>R^T z = b\in\R^m</math> durch Vorwärtseinsetzen.<br />
# Berechne <math>x = Qz\in\R^n</math>.<br />
<br />
Auch hier ist wieder <math>A^+=Q(R^T)^{+}</math> die Moore-Penrose-[[Pseudoinverse]] von <math>A</math> und für die berechnete Lösung kleinster Norm gilt die Beziehung <math>x=A^+b</math>.<br />
<br />
== Weblinks ==<br />
* [http://matrizen-rechner.de/qrzerlegung.htm QR-Zerlegungs-Rechner]: Berechnet die QR-Zerlegung einer Matrix mittels Householdertransformation<br />
* [http://lp.uni-goettingen.de/get/text/1029 LP: QR-Zerlegung für lineare Ausgleichsprobleme], Georg-August-Universität Göttingen<br />
* [http://taramath.de/tools/qr taramath Online-Tool] zur Berechnung der QR-Zerlegung reeller Matrizen.<br />
<br />
{{DEFAULTSORT:Qr-Zerlegung}}<br />
[[Kategorie:Numerische lineare Algebra]]</div>HerrHartmuth