„Differentialrechnung“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
Keine Bearbeitungszusammenfassung |
Succu (Diskussion | Beiträge) |
||
Zeile 1: | Zeile 1: | ||
[[Datei:Tangent dynamic.gif|mini|[[Funktionsgraph|Graph]] einer Funktion (blau) und einer [[Tangente]] an den Graphen (rot). Die [[Steigung]] der Tangente ist die Ableitung der Funktion an dem markierten Punkt.]] |
|||
Die '''Differentialrechnung''', auch '''Differenzialrechnung''' geschrieben, ist ein [[Teilgebiete der Mathematik|Teilgebiet der Mathematik]]. |
|||
Die Differentialrechnung ist eng verwandt mit der [[Integralrechnung]], mit der sie unter der Bezeichnung [[Infinitesimalrechnung]] zusammengefasst wird, und ist ein wesentlicher Bestandteil der [[Analysis]]. |
|||
Die '''Differential-''' oder '''Differenzialrechnung''' ist ein wesentlicher Bestandteil der [[Analysis]] und damit ein Gebiet der [[Mathematik]]. Zentrales Thema der Differentialrechnung ist die Berechnung lokaler Veränderungen von [[Funktion (Mathematik)|Funktionen]]. Während eine [[stetige Funktion]] ihren Eingabewerten kontinuierlich gewisse Ausgangswerte zuordnet, wird durch die Differentialrechnung ermittelt, wie stark sich die Ausgabewerte nach sehr kleinen Veränderungen der Eingabewerte ändern. Sie ist eng verwandt mit der [[Integralrechnung]], mit der sie gemeinsam unter der Bezeichnung [[Infinitesimalrechnung]] zusammengefasst wird. |
|||
Zentrales Thema der Differentialrechnung ist die Berechnung von lokalen Veränderungen von [[Funktion (Mathematik)|Funktionen]]. Hierzu dient die '''Ableitung''', deren geometrische Entsprechung die [[Steigung]] ist. Die Ableitung ist der [[proportional|Proportionalitätsfaktor]] zwischen verschwindend kleinen (''infinitesimalen'') Änderungen des Eingabewertes und den daraus resultierenden, ebenfalls infinitesimalen Änderungen des Funktionswertes. Existiert ein solcher Proportionalitätsfaktor, so nennt man die Funktion '''differenzierbar'''. Äquivalent wird die Ableitung in einem Punkt als diejenige ''lineare'' Abbildung definiert, die unter allen linearen Abbildungen die Änderung der Funktion lokal am besten approximiert. Entsprechend wird die Ableitung auch die Linearisierung der Funktion genannt. |
|||
Die '''Ableitung''' einer Funktion dient der Darstellung lokaler Veränderungen einer Funktion und ist gleichzeitig Grundbegriff der Differentialrechnung. Anstatt von der Ableitung spricht man auch vom '''Differentialquotienten''', dessen geometrische Entsprechung die [[Steigung|Tangentensteigung]] ist. Die Ableitung ist nach der Vorstellung von [[Gottfried Wilhelm Leibniz|Leibniz]] der [[Proportionalität]]sfaktor zwischen ''infinitesimalen'' Änderungen des Eingabewertes und den daraus resultierenden, ebenfalls ''infinitesimalen'' Änderungen des Funktionswertes. Eine Funktion wird als [[Differenzierbarkeit|differenzierbar]] bezeichnet, wenn ein solcher Proportionalitätsfaktor existiert. [[Logische Äquivalenz|Äquivalent]] wird die Ableitung in einem Punkt als die Steigung derjenigen [[Lineare Funktion|linearen Funktion]] definiert, die unter allen linearen Funktionen die Änderung der Funktion am betrachteten Punkt lokal am besten [[Approximation|approximiert]]. Entsprechend wird mit der Ableitung in dem Punkt eine lineare Näherung der Funktion gewonnen. Die [[Linearisierung]] einer möglicherweise komplizierten Funktion hat den Vorteil, dass eine einfacher behandelbare Funktion entsteht als die ursprüngliche Funktion. |
|||
Die Differentialrechnung ist zur Bildung von [[Mathematisches Modell|mathematischen Modellen]], die versuchen die Wirklichkeit abzubilden, sowie deren nachfolgender Analyse in vielen Fällen ein unverzichtbares Hilfsmittel. Die Entsprechung der Ableitung im untersuchten Sachverhalt ist häufig die [[momentane Änderungsrate]], in den Wirtschaftswissenschaften spricht man auch häufig von Grenzraten (z.B. Grenzkosten, Grenzproduktivität eines Produktionsfaktors etc.). |
|||
In vielen Fällen ist die Differentialrechnung ein unverzichtbares Hilfsmittel zur Bildung [[Mathematisches Modell|mathematischer Modelle]], die die Wirklichkeit möglichst genau abbilden sollen, sowie zu deren nachfolgender Analyse. |
|||
Dieser Artikel erklärt außerdem die Begriffe '''Differenzenquotient''', '''Differentialquotient''', '''Differentiation''', '''stetig differenzierbar''', '''glatt''', '''partielle Ableitung''' und '''totale Ableitung'''. |
|||
* Das Verhalten von Bauelementen mit nicht-linearer [[Kennlinie]] wird bei kleinen Signaländerungen in der Umgebung eines Bezugspunktes durch ihr [[Kleinsignalverhalten]] beschrieben; dieses basiert auf dem Verlauf der Tangente an die Kennlinie im Bezugspunkt. |
|||
* Die Ableitung nach der Zeit ist im untersuchten Sachverhalt die [[momentane Änderungsrate]]. So ist beispielsweise die Ableitung der Orts- beziehungsweise Weg-Zeit-Funktion eines Teilchens nach der Zeit seine [[Momentangeschwindigkeit]], und die Ableitung der Momentangeschwindigkeit nach der Zeit liefert die momentane Beschleunigung. |
|||
* In den Wirtschaftswissenschaften spricht man auch häufig von Grenzraten anstelle der Ableitung, zum Beispiel [[Grenzkosten]] oder Grenzproduktivität eines Produktionsfaktors. |
|||
In der Sprache der [[Geometrie]] ist die Ableitung eine verallgemeinerte Steigung. Der geometrische Begriff Steigung ist ursprünglich nur für [[Lineare Abbildung|lineare Funktionen]] definiert, deren [[Funktionsgraph]] eine Gerade ist. Die Ableitung einer beliebigen Funktion an einer Stelle <math>x_0</math> kann man als die Steigung der [[Tangente]] im Punkt <math>(x_0,f(x_0))</math> des [[Funktionsgraph|Graphen]] von <math>f</math> definieren. |
|||
== Einleitung == |
|||
In der Sprache der [[Arithmetik]] schreibt man <math>f'(x)</math> für die Ableitung einer Funktion <math>f</math> an der Stelle <math>x</math>. Sie gibt an, um welchen Faktor von <math>\Delta x</math> sich <math>f(x)</math> ungefähr ändert, wenn sich <math>x</math> um einen „kleinen“ Betrag <math>\Delta x</math> ändert. Für die exakte Formulierung dieses Sachverhalts wird der Begriff ''[[Grenzwert (Funktion)|Grenzwert]]'' oder ''Limes'' verwendet. |
|||
Der Grundbegriff der Differentialrechnung ist die ''Ableitung'' einer Funktion. |
|||
== Einführung == |
|||
In geometrischer Sprache ist die Ableitung eine verallgemeinerte Steigung. Der geometrische Begriff Steigung ist ursprünglich nur für [[Glossar mathematischer Attribute#linear|lineare]] Funktionen definiert, deren [[Funktionsgraph]] eine Gerade ist. Die Ableitung einer beliebigen Funktion definiert man als die Steigung einer [[Tangente]], die man an den Funktionsgraphen anlegt – wobei dieser Graph in der Regel an verschiedenen Stellen verschiedene Tangenten hat. |
|||
=== Heranführung anhand eines Beispiels === |
|||
Fährt ein Auto auf einer Straße, so kann anhand dieses Sachverhalts eine Tabelle erstellt werden, in der zu jedem Zeitpunkt die Strecke, die seit dem Beginn der Aufzeichnung zurückgelegt wurde, eingetragen wird. In der Praxis ist es zweckmäßig, eine solche Tabelle nicht zu engmaschig zu führen, d. h. zum Beispiel in einem Zeitraum von 1 Minute nur alle 3 Sekunden einen neuen Eintrag zu machen, was lediglich 20 Messungen erfordern würde. Jedoch kann eine solche Tabelle theoretisch beliebig engmaschig gestaltet werden, wenn jeder Zeitpunkt berücksichtigt werden soll. Dabei gehen die vormals [[diskret]]en, also mit einem Abstand behafteten, abzählbaren Daten in ein [[Kontinuum (Physik)|Kontinuum]] über. Die ''Gegenwart'' wird dann als Zeit''punkt'', d. h. als ein unendlich kurzer Zeitabschnitt, interpretiert. Gleichzeitig hat das Auto aber zu jedem Zeitpunkt eine theoretisch bekannte Strecke zurückgelegt, und wenn es nicht bis zum Stillstand abbremst oder gar zurück fährt, wird die Strecke kontinuierlich ansteigen, also zu keinem Zeitpunkt dieselbe sein wie zu einem anderen. |
|||
<gallery mode="packed" widths="320" heights="200"> |
|||
In arithmetischer Sprache gibt die Ableitung einer Funktion ''f'' für jedes ''x'' an, wie sich ''f''(''x'') verändert, wenn sich ''x'' um einen ''infinitesimal'' kleinen Betrag ''dx'' ändert. |
|||
AutoTabelle1.svg|<br />Exemplarische Darstellung einer Tabelle, alle 3 Sekunden wird eine neue Messung eingetragen. Unter solchen Voraussetzungen können lediglich durchschnittliche Geschwindigkeiten in den Zeiträumen 0 bis 3, 3 bis 6 usw. Sekunden berechnet werden. Da die zurückgelegte Strecke stets zunimmt, scheint der Wagen nur vorwärts zu fahren. |
|||
AutoTabelle2.svg|<br />Übergang zu einer beliebig engmaschigen Tabelle, die nach Eintragung aller Punkte die Gestalt einer Kurve annimmt. ''Jedem'' Zeitpunkt zwischen 0 und 60 Sekunden wird ein Punkt auf der Kurve zugeordnet. Regionen, innerhalb derer die Kurve steiler nach oben verläuft, entsprechen Zeitabschnitten, in denen eine größere Strecke pro Zeitspanne zurückgelegt wird. In Regionen mit nahezu gleich bleibender Strecke, zum Beispiel im Bereich 15–20 Sekunden, fährt das Auto langsam und die Kurve verläuft flach. |
|||
</gallery> |
|||
Die Motivation hinter dem Begriff der ''Ableitung'' einer Weg-Zeit-Kurve oder -Funktion ist, dass nun angegeben werden kann, ''wie schnell'' sich das Auto zu einem momentanen Zeitpunkt bewegt. Aus einem Weg-Zeit-Verlauf soll also der passende Geschwindigkeit-Zeit-Verlauf ''abgeleitet'' werden. Hintergrund ist, dass die Geschwindigkeit ein Maß dafür ist, ''wie stark'' sich die zurückgelegte Strecke im Laufe der Zeit ''ändert''. Bei einer hohen Geschwindigkeit ist ein starker Anstieg in der Kurve zu sehen, während eine niedrige Geschwindigkeit zu wenig Veränderung führt. Da ''jedem'' Messpunkt auch eine Strecke zugeordnet wurde, sollte eine solche Analyse grundsätzlich möglich sein, denn mit dem Wissen über die zurückgelegte Strecke <math>\Delta s</math> innerhalb eines Zeitintervalls <math>\Delta t</math> gilt für die Geschwindigkeit |
|||
In einer klassischen physikalischen Anwendung liefert die Ableitung der Orts- oder Weg-Zeit-Funktion nach der Zeit die Momentangeschwindigkeit eines Teilchens. |
|||
: <math>v=\frac{\Delta s}{\Delta t}.</math> |
|||
Die Aufgabenstellung der Differentialrechnung war als ''Tangentenproblem'' seit der Antike bekannt. Der naheliegende Lösungsansatz war die Approximation der Tangente als [[Sekante]] über einem endlichen (''endlich'' heißt hier: größer als Null), aber beliebig kleinen [[Intervall (Mathematik)|Intervall]]. Die technische Schwierigkeit bestand darin, mit einer solchen '''infinitesimal''' kleinen Intervallbreite zu rechnen. |
|||
Sind also <math>t_0</math> und <math>t_1</math> zwei unterschiedliche Zeitpunkte, so lautet „die Geschwindigkeit“ des Autos im Zeitintervall zwischen diesen |
|||
Ende des [[17. Jahrhundert]]s gelang es [[Isaac Newton]] und [[Gottfried Wilhelm Leibniz]], widerspruchsfrei funktionierende Kalküle zu entwickeln (zur Entdeckungsgeschichte und zum Prioritätsstreit siehe den Artikel [[Infinitesimalrechnung]]). Ihre Arbeiten erlaubten das Abstrahieren von rein geometrischer Vorstellung und werden deshalb als Beginn der Analysis betrachtet. Die heute bekannten Ableitungsregeln basieren vor allem auf den Werken von [[Leonard Euler]], der den Funktionsbegriff prägte. Seit Anfang des [[19. Jahrhundert]]s ([[Augustin Louis Cauchy]]) wird die Ableitung in der heute üblichen, logisch strengen Weise als [[Limes (Mathematik)|Grenzwert]] von Sekantensteigungen ("Differenzenquotienten") definiert. Die heute benutzte Definition des Grenzwerts wurde schließlich von [[Karl Weierstraß]] Ende des 19. Jahrhunderts gegeben. |
|||
: <math>v=\frac{s(t_1) - s(t_0)}{t_1 - t_0}.</math> |
|||
Die Differenzen in Zähler und Nenner müssen gebildet werden, da man sich nur für die innerhalb eines bestimmten Zeitintervalls <math>t_1-t_0</math> zurückgelegte Strecke <math>s(t_1)-s(t_0)</math> interessiert. Dennoch liefert dieser Ansatz kein vollständiges Bild, da zunächst nur Geschwindigkeiten für Zeitintervalle mit auseinander liegendem Anfangs- und Endpunkt gemessen wurden. Eine ''momentane'' Geschwindigkeit, vergleichbar mit einem [[Geschwindigkeitskontrolle|Blitzerfoto]], hingegen bezöge sich auf ein ''unendlich kurzes Zeitintervall''. Dementsprechend ist der oben stehende Begriff „Geschwindigkeit“ durch „durchschnittliche Geschwindigkeit“ zu präzisieren. Auch wenn mit echten Zeitintervallen, also diskreten Daten, gearbeitet wird, vereinfacht sich das Modell insofern, als für ein Auto innerhalb der betrachteten Intervalle keine schlagartige Ortsänderung und keine schlagartige Geschwindigkeitsänderung möglich ist. (Auch eine Vollbremsung benötigt Zeit, und zwar länger als die Zeit, in der die Reifen quietschen.) Damit ist auch in der Zeichnung der stillschweigend ''durchgehend'' eingetragene Kurvenzug ohne Sprung und ohne Knick gerechtfertigt. |
|||
[[Datei:AutoTabelle3.svg|mini|360px|Zum Zeit''punkt'' 25 Sekunden bewegt sich das Auto momentan mit ca. 7,6 Metern pro Sekunde, umgerechnet 27 km/h. Dieser Wert entspricht der Steigung der Tangente der Weg-Zeit-Kurve an der entsprechenden Stelle. Weitere detailliertere Erklärungen zu dieser ''geometrischen Interpretation'' werden weiter unten gegeben.]] |
|||
Soll hingegen zu einem „perfekt passenden“ Geschwindigkeit-Zeit-Verlauf übergegangen werden, so muss der Terminus „durchschnittliche Geschwindigkeit in einem Zeitintervall“ durch „Geschwindigkeit zu einem Zeitpunkt“ ersetzt werden. Dazu muss zunächst ein Zeitpunkt <math>t_0</math> gewählt werden. Die Idee ist nun, „ausgedehnte Zeitintervalle“ in einem ''Grenzwertprozess'' gegen ein unendlich kurzes Zeitintervall laufen zu lassen und zu studieren, was mit den betroffenen durchschnittlichen Geschwindigkeiten passiert. Obwohl der Nenner <math>t_1-t_0</math> dabei gegen 0 strebt, ist dies anschaulich kein Problem, da sich das Auto in kürzer werdenden Zeitabschnitten bei [[Stetige Funktion|stetigem]] Verlauf immer weniger weit bewegen kann, womit sich Zähler und Nenner gleichzeitig verkleinern, und im Grenzprozess ein unbestimmter Ausdruck „<math>\tfrac00</math>“ entsteht. Dieser kann unter Umständen als Grenzwert Sinn ergeben, beispielsweise drücken |
|||
== Definition == |
|||
: <math>\tfrac{5\ \mathrm{Meter}}{\mathrm{Sekunde}}\ \text{ und }\ \tfrac{5\ \mathrm{Millimeter}}{\mathrm{Millisekunde}}\ \text{ und }\ \tfrac{5\ \mathrm{Nanometer}}{\mathrm{Nanosekunde}}\ \text{ usw.}</math> |
|||
=== Hinführung === |
|||
Ausgangspunkt für die Definition der Ableitung ist die Näherung der Tangentensteigung durch eine Sekantensteigung. Gesucht sei die Steigung einer Funktion ''x''→''f''(''x'') in einem Punkt <math>x_0</math>. Man berechnet zunächst die Steigung der [[Sekante]] an ''f'' über einem endlichen [[Intervall]] <math>[x_0, x_0 + \Delta x]</math>: |
|||
:Sekantensteigung = <math> \frac{f(x_0+\Delta x)-f(x_0)}{(x_0+ \Delta x)-x_0}</math>. |
|||
Die Sekantensteigung ist also der Quotient zweier Differenzen; sie wird deshalb auch '''Differenzenquotient''' genannt. Mit der Kurznotation <math>y</math> für <math>f(x)</math> kann man die Sekantensteigung abgekürzt als <math>\frac{\Delta y}{\Delta x}</math> schreiben. |
|||
exakt ''dieselben'' Geschwindigkeiten aus. Nun gibt es zwei Möglichkeiten beim Studium der Geschwindigkeiten. Entweder, sie lassen in dem betrachteten Grenzwertprozess ''keine'' Tendenz erkennen, sich einem bestimmten endlichen Wert anzunähern. In diesem Fall kann der Bewegung des Autos ''keine zum Zeitpunkt <math>t_0</math> gültige Geschwindigkeit'' zugeordnet werden, d. h., der Ausdruck „<math>\tfrac00</math>“ hat hier keinen eindeutigen Sinn. Gibt es hingegen eine zunehmende Stabilisierung in Richtung auf einen festen Wert, so ''existiert'' der [[Grenzwert (Folge)|Grenzwert]] |
|||
: [[Bild:Ableitung.PNG|Ableitung einer Funktion]] |
|||
: <math>\frac{\mathrm ds}{\mathrm dt} (t_0) := \lim_{t_1 \to t_0} \frac{s(t_1) - s(t_0)}{t_1 - t_0} = \lim_{\Delta t \to 0} \frac{s(t_0+\Delta t) - s(t_0)}{\Delta t}</math> |
|||
Differenzenquotienten sind aus dem täglichen Leben wohlbekannt, zum Beispiel als Durchschnittsgeschwindigkeit: |
|||
:"auf der Fahrt von Augsburg nach Flensburg war ich um 9:43 Uhr (<math>x_0</math>) am Kreuz Biebelried (Tageskilometerstand <math>f(x_0)</math> = 198 km); um 11:04 Uhr (''x''<sub>0</sub> +Δ''x'') war ich am Dreieck Hattenbach (Tageskilometerstand ''f''(''x''<sub>0</sub> +Δ''x'')=341 km); in 1 Stunde und 21 Minuten ' (Δ''x'') habe ich somit 143 km (Δ''y'') zurückgelegt; meine Durchschnittsgeschwindigkeit auf dieser Teilstrecke betrug somit 143 km/1,35 h = 105,9 km/h (Δ''y''/Δ''x'')." |
|||
und drückt die exakt im Zeitpunkt <math>t_0</math> bestehende Geschwindigkeit aus. Der unbestimmte Ausdruck „<math>\tfrac00</math>“ nimmt in diesem Fall einen eindeutigen Wert an. Die dabei entstehende Momentangeschwindigkeit wird auch als Ableitung von <math>s</math> an der Stelle <math>t_0</math> bezeichnet; für diese wird häufig das Symbol <math>s'(t_0)</math> benutzt. Mit dem Grenzwert wird die Momentangeschwindigkeit zu einem beliebigen Zeitpunkt definiert als |
|||
Um eine Tangentensteigung (im genannten Anwendungsbeispiel also eine Momentangeschwindigkeit) zu berechnen, muss man die beiden Punkte, durch die die Sekante gezogen wird, immer weiter aneinander rücken. Dabei gehen sowohl Δ''x'' als auch Δ''y'' gegen Null; der Quotient Δ''y''/Δ''x'' aber bleibt im Normalfall endlich. Auf diesem [[Limes (Mathematik)|Grenzübergang]] beruht die folgende Definition: |
|||
:<math>v=\frac{\mathrm ds}{\mathrm dt}.</math> |
|||
=== Prinzip der Differentialrechnung === |
|||
=== Differenzierbarkeit und Ableitung in einem Punkt: Formale Definition und Notation === |
|||
[[Datei:DifferentialExample02.svg|mini|hochkant=1.5|Schaubild der Zeit-Strecke-Funktion <math>s(t) = 2t</math> (in Blau). Verstreicht eine Sekunde (in Rot), so nimmt die zurückgelegte Strecke um 2 Meter zu (in Orange). Daher bewegt sich das Auto mit „2 Meter pro Sekunde“. Die Geschwindigkeit entspricht der [[Steigung]]. Das [[Steigungsdreieck]] lässt sich beliebig verkleinern, ohne dass sich an der Proportion von Höhe und Grundseite etwas ändert.]] |
|||
Eine Funktion, die ein [[Offene Menge|offenes]] Intervall ''U'' auf die reellen Zahlen abbildet (<math>f:U \to \mathbb{R}</math>), heißt '''differenzierbar''' an der Stelle <math>x_0 \in U</math>, falls der [[Limes (Mathematik)|Grenzwert]] |
|||
: <math> \lim_{x \rightarrow x_0} \frac {f(x) - f(x_0)} {x - x_0} = \lim_{h \rightarrow 0} \frac {f(x_0 +h) - f(x_0)} {h}</math> |
|||
existiert. Dieser Grenzwert heißt '''Differentialquotient''' oder '''Ableitung''' von ''f'' nach ''x'' an der Stelle ''x''<sub>0</sub> und wird als |
|||
: <math>\frac{{\rm d}f}{{\rm d}x}</math> oder <math>\frac{{\rm d}f(x_0)}{{\rm d}x}</math> oder <math>f'(x_0) \, \!</math> |
|||
notiert. |
|||
Das Beispiel des letzten Abschnitts ist dann besonders einfach, wenn die Zunahme der zurückgelegten Strecke mit der Zeit ''gleichförmig'', also linear verläuft. Dann liegt speziell eine [[Proportionalität]] zwischen der ''Veränderung'' der Strecke und der ''Veränderung'' der Zeit vor. Die ''relative Veränderung'' der Strecke, also ihre Zunahme im Verhältnis zur Zunahme der Zeit, ist bei dieser Bewegung immer gleichbleibend. Die ''mittlere'' Geschwindigkeit ist zu jedem Zeitpunkt auch die ''momentane'' Geschwindigkeit. Beispielsweise legt das Auto zwischen 0 und 1 Sekunden eine gleich lange Strecke zurück wie zwischen 9 und 10 Sekunden und die zehnfache Strecke zwischen 0 und 10 Sekunden. Als Proportionalitätsfaktor über den ganzen Weg gilt die konstante Geschwindigkeit <math>v</math>, wobei sie im nebenstehenden Bild <math>v=2\,\mathrm{m/s}</math> beträgt. Die zwischen beliebig weit auseinanderliegenden Zeitpunkten <math>t</math> und <math>t+\Delta t</math> zurückgelegte Strecke beträgt |
|||
Die Terme d''x'' und d''y'' heißen [[Differential (Mathematik)|Differential]]e. Sie stellen ''infinitesimal'' kleine Zahlenwerte dar (vgl. Einleitung); in manchen Anwendungen ([[Kettenregel]], Integration mancher [[Differentialgleichung]]en, Integration durch Substitution) rechnet man mit ihnen fast wie mit "normalen" Variablen. Ein Differential ist auch Teil der üblichen Notation für [[Integralrechnung|Integrale]]. |
|||
:<math>\Delta s=s(t+\Delta t)-s(t) =v\cdot(t+\Delta t) -v\cdot t =v\cdot\Delta t</math>. |
|||
Die Notation einer Ableitung als Quotient zweier Differentiale wurde von Leibniz eingeführt; Newton benutzte einen Punkt über der abzuleitenden Größe, was in der Physik für Zeitableitungen bis heute üblich geblieben ist. Die Notation mit Apostroph (<math>f \, '</math>) geht auf [[Joseph Louis Lagrange|Lagrange]] zurück, der sie 1797 in seinem Buch ''Théorie des fonctions analytiques'' einführte. |
|||
Allgemein bewegt sich das Auto in der Zeitspanne <math>\Delta t</math> um die Strecke <math>\Delta s=v\,\Delta t</math> vorwärts. Speziell bei <math>\Delta t =5\,\mathrm s</math> ergibt sich ein Wegstück <math>\Delta s =v\,\Delta t =2\,\mathrm{\tfrac ms\cdot 5\,s =10\,m}</math>. |
|||
Im Laufe der Zeit wurde folgende gleichwertige Definition gefunden, die sich im allgemeineren Kontext komplexer oder mehrdimensionaler Funktionen als leistungsfähiger erwiesen hat: Eine Funktion heißt in einem Punkt <math>x_0</math> differenzierbar, falls eine konstante <math>L</math> existiert, so dass |
|||
: <math>\lim_{h \to 0} \frac{f(x_{0}+h)-f(x_0)-Lh}{h}=0</math>. |
|||
Falls der Startwert bei <math>t=0</math> nicht <math>s(0)=0</math> sondern <math>s(0) = c\neq 0</math> beträgt, ändert dies nichts, da sich in der Beziehung <math>s=v\,t+c</math> die Konstante <math>c</math> durch die [[Subtraktion#Sprachregelungen, Grundeigenschaften und Notation|Differenzbildung]] aus <math>\Delta s</math> stets heraussubtrahiert. Auch anschaulich ist dies bekannt: Die Startposition des Autos ist unerheblich für seine Geschwindigkeit. |
|||
Der Zuwachs der Funktion ''f'', wenn man sich von <math>x_0</math> nur wenig entfernt, lässt sich also durch ''Lh'' sehr gut approximieren, man nennt die Ableitung ''L'' deswegen auch die ''Linearisierung'' von ''f''. |
|||
Werden statt der [[Variable (Mathematik)|Variablen]] <math>t</math> und <math>s</math> allgemein die Variablen <math>x</math> und <math>y</math> betrachtet, so lässt sich also festhalten: |
|||
=== Ableitung als eine Funktion === |
|||
Nun soll die allgemeine Ableitung für alle Stellen einer Funktion ermittelt und als Ableitungsfunktion ''f´''(x) dargestellt werden. |
|||
Eine Funktion ist genau dann differenzierbar (eine Ableitung kann ermittelt werden), wenn sie an jeder Stelle ihres [[Definitionsbereich]]s differenzierbar ist (wenn also an jedem Punkt des Graphen von ''f'' eine eindeutige Tangente existiert). |
|||
* ''Lineare Funktionen'': Bei [[Linearität (Mathematik)|Linearität]] hat die betrachtete Funktion die Gestalt <math>y=f(x) = mx+c</math>. (Für eine lineare Funktion ist nicht notwendig eine [[Ursprungsgerade]] erforderlich!) Als Ableitung gilt hieran die ''relative Veränderung'', mit einem anderen Wort der [[Differenzenquotient]] <math>\tfrac{\Delta y}{\Delta x}</math>. Sie hat in jedem Punkt denselben Wert <math>m</math>. Die Ableitung lässt sich aus dem Ausdruck <math>mx+c</math> direkt ablesen. Insbesondere hat jede [[konstante Funktion]] <math>f(x) = c</math> die Ableitung <math>\tfrac{\Delta y}{\Delta x} = 0</math>, da sich mit einer Änderung des Eingabewertes nichts am Ausgabewert ändert. |
|||
Die Funktion der Differentialquotienten an allen Stellen von ''f'' nennt man die '''Ableitungsfunktion''' '''''f´''''' – oder kurz '''Ableitung''' – von ''f''. ''f´''<math>(x_0)</math> nennt man die Ableitung von ''f'' an der Stelle <math>x_0</math>. Sie entspricht der Steigung des Graphen der Funktion an der Stelle <math>x_0</math>. |
|||
Schwieriger wird es, wenn eine Bewegung ''nicht gleichförmig'' verläuft. Dann ist das Diagramm der Zeit-Strecken-Funktion nicht geradlinig. Für derartige Verläufe muss der Ableitungsbegriff erweitert werden. Denn es gibt keinen Proportionalitätsfaktor, der ''überall'' die lokale relative Veränderung ausdrückt. Als einzig mögliche Strategie ist die Gewinnung einer [[Lineare Näherung|linearen Näherung]] für die nicht-lineare Funktion gefunden worden, zumindest an einer interessierenden Stelle. (Im nächsten Bild ist das die Stelle <math>x = 1</math>.) Damit wird das Problem auf eine wenigstens an dieser Stelle lineare Funktion zurückgeführt. Die Methode der [[Linearisierung]] ist die Grundlage für den eigentlichen [[Kalkül]] der Differentialrechnung. Sie ist in der [[Analysis]] von sehr großer Bedeutung, da sie dabei hilft, komplizierte Vorgänge lokal auf leichter verständliche Vorgänge, nämlich lineare Vorgänge, zu reduzieren.<ref>Herbert Amann, [[Joachim Escher (Mathematiker)|Joachim Escher]]: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 316.</ref> |
|||
Eine differenzierbare Funktion ist immer stetig. Die Umkehrung gilt jedoch überraschender Weise überhaupt nicht. Noch Anfang des [[19. Jahrhundert]]s war man überzeugt, dass eine stetige Funktion höchstens an wenigen Stellen nicht differenzierbar sein könne (wie die Betragsfunktion). [[Bernhard Bolzano]] konstruierte dann als erster Mathematiker tatsächlich eine Funktion, die überall stetig, aber nirgendwo differenzierbar ist; [[Karl Weierstraß]] veröffentlichte [[1861]] als erster eine derartige Funktion. Ein bekanntes Beispiel für eine stetige, nicht differenzierbare Funktion ist die von [[Helge von Koch]] [[1904]] vorgestellte [[Koch-Kurve]]. |
|||
{| class="wikitable float-right" style="text-align:center" |
|||
Ist die Ableitung [[Stetigkeit|stetig]], dann heißt ''f'' '''stetig differenzierbar'''. In Anlehnung an die Bezeichnung <math>C(\Omega)</math> des Raums der auf der Menge <math>\Omega</math> stetigen Funktionen wird der Raum der stetig differenzierbaren Funktionen mit <math>C^1(\Omega)</math> abgekürzt. |
|||
|- |
|||
! <math>x</math> |
|||
|0,5||0,9||0,99||0,999||1||1,001||1,01||1,1||1,5||2 |
|||
|- |
|||
! <math>f=x^2</math> |
|||
|0,25||0,81||0,9801||0,998001||1||1,002001||1,0201||1,21||2,25||4 |
|||
|- |
|||
! <math>g=2x-1</math> |
|||
|0||0,8||0,98||0,998||1||1,002||1,02||1,2||2||3 |
|||
|- |
|||
| <math>g(x)-f(x)</math>||−0,25||−0,01||−0,0001||−0,000001|| 0||−0,000001||−0,0001||−0,01||−0,25||−1 |
|||
|- |
|||
| <math>\Big|\tfrac{g(x)-f(x)}{x-1}\Big|</math> ||50 %||10 %||1 %||0,1 %|| ||0,1 %||1 %||10 %||50 %||100 % |
|||
|} |
|||
[[Datei:DifferentialExample01.svg|mini|hochkant=1.5|Graphische Darstellung der Approximation von <math>f(x) = x^2</math> an der Stelle <math>x = 1</math> durch <math>g(x) = 2x-1</math>. Letztere ist die Gleichung der [[Tangente]] von <math>f</math> an dieser Stelle.]] |
|||
Die Strategie soll exemplarisch an der nicht-linearen Funktion <math>f(x) = x^2</math> erläutert werden.<ref>Serge Lang: ''A First Course in Calculus''. Fifth Edition. Springer, S. 59–61.</ref> Die Tabelle zeigt Werte für diese Funktion und für ihre Näherungsfunktion an der Stelle <math>x=1</math>, das ist <math>g(x)=2x-1</math>. Darunter enthält die Tabelle die Abweichung der Näherung von der ursprünglichen Funktion. (Die Werte sind negativ, weil in diesem Fall die Gerade immer ''unter'' der Kurve liegt – außer im Berührpunkt.) In der letzten Zeile steht der Betrag der ''relativen Abweichung'', das ist die Abweichung bezogen auf die Entfernung der Stelle <math>x</math> vom Berührpunkt bei <math>x=1</math>. Diese kann am Berührpunkt nicht berechnet werden. Aber die Werte in der Umgebung zeigen, wie sich die relative Abweichung einem Grenzwert nähert, hier dem Wert null. Diese Null bedeutet: Selbst wenn sich <math>x</math> ein wenig ([[infinitesimal]]) vom Berührpunkt entfernt, entsteht noch kein Unterschied zwischen <math>g(x)</math> und <math>f(x)</math>. |
|||
=== [[Komplexe Differenzierbarkeit]] === |
|||
Bisher wurde nur von [[reelle Zahlen|reellen]] Funktionen gesprochen. Für Differenzierbarkeit von Funktionen mit [[Komplexe Zahlen|komplexen]] Argumenten wird einfach die Definition mit der Linearisierung verwandt. Überraschenderweise ist die Bedingung hier viel einschränkender als im reellen: so ist beispielsweise die Betragsfunktion nirgendwo komplex differenzierbar. Gleichzeitig ist jede in einer Umgebung einmal komplex differenzierbare Funktion automatisch beliebig oft differenzierbar, es existieren also alle höheren Ableitungen. |
|||
Die lineare Funktion <math>g(x)</math> ahmt das Verhalten von <math>f(x)</math> nahe der Stelle <math>x=1</math> gut nach (besser als jede andere lineare Funktion). Die relative Veränderung <math>\tfrac{\Delta g}{\Delta x}</math> hat überall den Wert <math>m=2</math>. Die nicht so einfach zu ermittelnde relative Veränderung <math>\tfrac{\Delta f}{\Delta x}</math> stimmt aber im Berührpunkt mit dem Wert <math>m=2</math> überein. |
|||
== Berechnung von Ableitungen == |
|||
Es lässt sich also festhalten: |
|||
Wenn man die Ableitung einer Funktion berechnet, sagt man, man '''differenziert''' diese Funktion; diese Tätigkeit heißt '''Differentiation'''. |
|||
* ''Nicht-lineare Funktionen'': Soll die relative Veränderung einer nicht-linearen Funktion in einem bestimmten Punkt ermittelt werden, so wird sie (wenn möglich) dort linear genähert. Die Steigung der linearen Näherungsfunktion ist die an dieser Stelle vorliegende Steigung der betrachteten nicht-linearen Funktion, und es gilt dieselbe Anschauung wie bei Ableitungen linearer Funktionen. Dabei ist nur zu beachten, dass sich die relative Veränderung einer nicht-linearen Funktion von Punkt zu Punkt ändert. |
|||
:Während im Beispiel oben (Fahrzeugbewegung) für die durchschnittliche Geschwindigkeit die Zeitspanne <math>\Delta t</math> angemessen willkürlich gewählt werden kann, ist die momentane Geschwindigkeit, wenn sie veränderlich ist, nur für ''kleine'' <math>\Delta t</math> angebbar. Wie klein <math>\Delta t</math> gewählt werden muss, hängt ab von der Anforderung an die Qualität der Näherung. In mathematischer Perfektion wird sie infinitesimal. Bei dieser wird für die relative Veränderung (wie schon oben angegeben) anstelle des Differenzenquotienten <math>\tfrac{\Delta y}{\Delta x}</math> der ''Differenzialquotient'' <math>\tfrac{\mathrm dy}{\mathrm dx}</math> geschrieben (in vereinfachter Schreibweise <math>y'</math> oder <math>f'</math>). |
|||
Um die Ableitung elementarer Funktionen (z. B. ''x''<sup>''n''</sup>, sin(''x'') ...) zu berechnen, hält man sich eng an die oben angegebene Definition, berechnet explizit einen Differenzenquotient und lässt dann Δ'''x'' gegen Null gehen. Allerdings vollzieht der typische Mathematikanwender diese Berechnung nur ein paar wenige Male in seinem Leben nach; später kennt er die Ableitungen der wichtigsten elementaren Funktionen auswendig und schlägt Ableitungen nicht ganz so geläufiger Funktionen in einem Tabellenwerk (z. B. im [[Bronstein-Semendjajew]] oder unserer [[Tabelle von Ableitungs- und Stammfunktionen]]) nach. |
|||
Die Gewinnung der linearen Näherung einer nicht-linearen Funktion an einer bestimmten Stelle ist zentrale Aufgabe des Kalküls der Differentialrechnung. Bei einer mathematisch angebbaren Funktion (im Beispiel war das <math>f(x) = x^2</math>) sollte sich die Ableitung ''ausrechnen'' lassen. Im Idealfall ist diese Berechnung sogar so allgemein, dass sie auf alle Punkte des Definitionsbereichs angewendet werden kann. Im Falle von <math>f(x) = x^2</math> besitzt jede Stelle <math>x</math> als beste lineare Näherung die Steigung <math>m = 2x</math>. Mit der Zusatzinformation, dass die lineare Funktion mit der Kurve im Punkt <math>(x_0, f(x_0))</math> übereinstimmen muss, kann dann die vollständige Funktionsgleichung der linearen Näherungsfunktion aufgestellt werden. |
|||
=== Beispiel für die elementare Berechnung einer Ableitungsfunktion === |
|||
Gesucht sei die Ableitung von <math> f(x) = x^3</math>. |
|||
Dann berechnet man den Differenzenquotienten als |
|||
: <math> \frac{\Delta y}{\Delta x} |
|||
= \frac{f(x_0+\Delta x) - f(x_0)}{\Delta x} |
|||
= \frac{(x_0+\Delta x)^3 - (x_0)^3}{\Delta x} </math> |
|||
Der Ansatz zur Bestimmung des Differentialquotienten liegt in der Berechnung des Grenzwerts (wie oben bei der momentanen Geschwindigkeit): |
|||
:: <math> |
|||
: <math> \lim_{\Delta x\to 0} \frac{f(x_0 + \Delta x) - f(x_0)}{\Delta x} = f'(x_0)\quad</math> oder in anderer Schreibweise <math>\quad \lim_{h\to 0} \frac{f(x + h) - f(x)}h = f'(x).</math> |
|||
Bei einigen elementaren Funktionen wie [[Potenzfunktion]], [[Exponentialfunktion]], [[Logarithmusfunktion]] oder [[Sinusfunktion]] ist jeweils der Grenzwertprozess durchgeführt worden. Dabei ergibt sich jeweils eine [[#Ableitungen elementarer Funktionen|Ableitungsfunktion]]. Darauf aufbauend sind [[#Ableitungsregeln|''Ableitungsregeln'']] für die elementaren und auch für weitere Funktionen wie [[Summe]]n, [[Produkt (Mathematik)|Produkte]] oder [[Komposition (Mathematik)|Verkettungen elementarer Funktionen]] aufgestellt worden. |
|||
:: <math> |
|||
= \frac{(3 x_0 ^2 \Delta x + 3 x_0 \Delta x ^2 + \Delta x^3)}{\Delta x} </math> |
|||
Damit werden die Grenzübergänge nicht in jeder Anwendung neu vollzogen, sondern für die Rechenpraxis werden Ableitungsregeln angewendet. Die „Kunst“ der Differentialrechnung besteht „nur“ darin, kompliziertere Funktionen zu strukturieren und auf die Strukturelemente die jeweils zutreffende Ableitungsregel anzuwenden. Ein Beispiel folgt [[#Zusammengesetzte Funktion|weiter hinten]]. |
|||
:: <math> |
|||
= 3 x_0^2 + 3 x_0 \Delta x + \Delta x^2 </math> |
|||
=== {{Anker|Exemplarische Berechnung der Ableitung}} Berechnung von Grenzwerten === |
|||
und erhält im Limes Δ''x''→0 die Ableitung |
|||
Jeder Differenzialquotient an einer vorgesehenen Stelle erscheint als unbestimmter Ausdruck vom Typ „<math>\tfrac00</math>“. Zu seiner Berechnung wird vom ''Differenzenquotient'' ausgegangen, und dessen Verhalten in der Umgebung der vorgesehenen Stelle wird untersucht, ob er die Tendenz hat, einen bestimmten Wert anzunehmen. Einige Grenzwerte, die für Ableitungsregeln benötigt werden, werden nachfolgend hergeleitet. Selbstverständlich dürfen dazu keine Regeln der Differenzialrechnung verwendet werden, da diese erst nach der Kenntnis der Grenzwerte aufgestellt werden können. |
|||
;Ein einfacher Fall 1 <math>\quad f(x)=x^2</math> |
|||
Ausgangspunkt ist der Differenzenquotient für die vorgesehene Funktion. |
|||
= \lim_{\Delta x \to 0}(3 x_0^2 + 3 x_0 \Delta x + \Delta x^2) |
|||
= |
: <math>\frac{\Delta f}{\Delta x} =\frac{f(x+h) - f(x)}{(x+h)-x} = \frac{(x+h)^2 - x^2}{h}</math> |
||
Wird die [[binomische Formel]] <math>(x+h)^2 = x^2 + 2xh + h^2</math> eingesetzt, so kürzt sich ein Summand heraus. |
|||
: <math>\frac{\Delta f}{\Delta x} =\frac{x^2 + 2xh + h^2 - x^2}h =\frac{2xh + h^2}h</math> |
|||
Für <math>h=0</math> ist dieser Bruch unbestimmt. Aber für <math>h\neq 0</math> (dann und nur dann!) können Zähler und Nenner durch <math>h</math> dividiert werden. |
|||
: <math>\frac{\Delta f}{\Delta x} =2x + h</math> |
|||
Für jedes <math>h\neq0</math> ist dieser Ausdruck bestimmt, auch wenn man dem Wert <math>h=0</math> nahe kommt. Er strebt im Grenzübergang gegen |
|||
: <math>\lim_{h \to 0}\frac{\Delta f}{\Delta x} =2x</math> |
|||
Im Weiteren werden hier nur Grenzwerte berechnet, und ihre Einsetzung in Differenzenquotienten erfolgt weiter hinten im Abschnitt [[#Ableitungsberechnung|Ableitungsberechnung]]. |
|||
=== Beispiel für eine nicht differenzierbare Funktion === |
|||
''f''(''x'') = |''x''| ist an der Stelle 0 nicht differenzierbar, denn es gilt: |
|||
[[Datei:Grenzübergang sinxx.png|mini|Veranschaulichung zur Grenzwertableitung am [[Einheitskreis]]]] |
|||
Wenn ''x'' > 0 gilt ''f''(''x'')= ''x'' und damit |
|||
;Fall 2 <math>\quad\frac{\sin h}h</math> |
|||
:<math> |
|||
Für <math>h=0</math> ist dieser Bruch unbestimmt. Zur Berechnung bei <math>h>0</math> wird die Fläche eines [[Kreissektor]]s mit dem Bogen <math>h</math> verglichen mit den Flächen eines innen liegenden und eines außen liegenden Dreiecks gemäß der Zeichnung. Im gezeigten Quadranten gilt offensichtlich<ref>Fritz Wicke: ''Einführung in die Höhere Mathematik: unter besonderer Berücksichtigung der Bedürfnisse des Ingenieurs.'' Band 1. Springer, 1927, Seite 103.</ref> |
|||
\lim_{x \rightarrow 0+} \frac {f(x) - f(0)} {x - 0} |
|||
: <math>\frac12\sin h\cdot\cos h <\pi\cdot\frac h{2\pi} <\frac12\tan h\cdot1</math> |
|||
= \lim_{x \rightarrow 0+}\frac {x-0}{x-0} = 1 |
|||
Bei <math>\sin h\neq 0</math> kann diese Ungleichung mit <math>\frac2{\sin h}</math> multipliziert werden. |
|||
</math> |
|||
: <math>\cos h <\frac h{\sin h} <\frac1{\cos h}</math> |
|||
und wenn ''x'' < 0 gilt ''f''(''x'') = -''x'' und damit |
|||
Für <math>h\to 0</math> streben sowohl der linke als auch der rechte Ausdruck gegen eins. Damit muss auch der dazwischen liegende Ausdruck gegen eins streben. Für seinen Kehrwert gilt das ebenfalls. Für <math>h>0</math> strebt er im Grenzübergang nach |
|||
:<math> |
|||
: <math>\lim_{h \to 0} \frac{\sin h}h =1</math> |
|||
= \lim_{x \rightarrow 0-}\frac {-x-0}{x-0} = -1 |
|||
</math> |
|||
;Zwischenüberlegung <math>\quad \left(1+\frac1n\right)^n</math> |
|||
Da der linkseitige und der rechtsseitige Grenzwert nicht übereinstimmen, existiert kein beidseitiger Grenzwert. ''f'' ist somit an der betrachteten Stelle nicht differenzierbar (an allen anderen Stellen aber sehr wohl!). |
|||
Der Logarithmus dieses Ausdrucks, das ist <math>n\cdot\log(1+\frac1n)</math>, strebt für <math>n\to\infty</math> gegen „<math>\infty\cdot0</math>“. Dieser Logarithmus ist dort unbestimmt und damit auch der Ausdruck selber. Es ist aber bewiesen, dass |
|||
: <math>\lim_{n\to\infty} \left(1+\frac1n\right)^n</math> |
|||
einen bestimmten endlichen Wert annimmt, der als [[Eulersche Zahl]] <math>\mathrm e</math> bezeichnet wird. Dieses wird unter dem verlinkten Stichwort behandelt und hier als bekannt vorausgesetzt. |
|||
;Fall 3 <math>\quad \frac{a^h-1}h</math> |
|||
: [[Bild:Abs_x.PNG]] |
|||
Für <math>h=0</math> ist dieser Bruch unbestimmt. Aber für <math>a>1</math> und <math>h>0</math> ist die [[Substitution (Mathematik)|Substitution]]<ref>Carl Spitz: ''Erster Cursus der Differential- und Integralrechnung.'' C. F. Winter’sche Verlagshandlung, 1871, Seite 15</ref> |
|||
: <math>a^h-1=\frac1z</math>, <math>\quad a^h=1+\frac1z</math> |
|||
zulässig. Aufgelöst nach <math>h</math> unter Verwendung des [[Natürlicher Logarithmus|natürlichen Logarithmus]] ergibt das |
|||
: <math>h=\frac{\ln(1+\frac1z)}{\ln a}</math> |
|||
: <math>\frac{a^h-1}h =\frac{\ln a}{z\,\ln(1+\frac1z)} =\frac{\ln a}{\ln\left(1+\frac1z\right)^z}</math> |
|||
Für <math>h\to 0</math> streben <math>z\to\infty</math> und der Nenner gegen <math>\ln\mathrm e =1</math>. Für jedes <math>h>0</math> ist dieser Ausdruck bestimmt, auch wenn man dem Wert <math>h=0</math> nahe kommt. Er strebt im Grenzübergang nach |
|||
: <math>\lim_{h \to 0} \frac{a^h-1}h =\ln a</math> |
|||
Als Voraussetzung für diese Herleitung muss <math>z</math> positiv sein. Für <math>0<a<1</math> ist dieses erfüllt mit negativem <math>h</math>. Nähert man sich bei <math>0<a<1</math> dem Wert <math>h=0</math> von der Seite <math>h<0</math> her, so gilt derselbe Grenzübergang. |
|||
;Fall 4 <math>\quad \frac{\log(1+h)}h</math> |
|||
Betrachtet man den Graphen von ''f'', so kommt man zu der Erkenntnis, dass der Begriff der Differenzierbarkeit anschaulich bedeutet, dass der zugehörige Graph keine "Knicke" enthält. |
|||
Für <math>h=0</math> ist dieser Bruch unbestimmt. Aber für <math>h>0</math> ist die Substitution <math>h=\frac1z</math> zulässig.<ref>Carl Spitz: ''Erster Cursus der Differential- und Integralrechnung.'' C. F. Winter’sche Verlagshandlung, 1871, Seite 16</ref> |
|||
: <math>\frac{\log(1+h)}h =z\,\log\left(1+\frac1z\right) =\log\left(1+\frac1z\right)^z</math> |
|||
Für <math>h\to 0</math> strebt <math>z\to\infty</math>. Für jedes <math>h>0</math> ist dieser Ausdruck bestimmt, auch wenn man dem Wert <math>h=0</math> nahe kommt. Er strebt im Grenzübergang nach |
|||
: <math>\lim_{h \to 0} \frac{\log(1+h)}h =\log\mathrm e</math> |
|||
=== Einordnung der Anwendungsmöglichkeiten === |
|||
Ein typisches Beispiel für nirgends differenzierbare stetige Funktionen, deren Existenz zunächst schwer vorstellbar erscheint, sind fast alle Pfade der [[Wiener-Prozess|Brownschen Bewegung]]. Diese wird zum Beispiel zur Modellierung der Charts von [[Aktienkurs|Aktienkursen]] benutzt. |
|||
==== Extremwertprobleme ==== |
|||
{{Hauptartikel|Extremwertproblem}} |
|||
Eine wichtige Anwendung der Differentialrechnung besteht darin, dass mit Hilfe der Ableitung lokale Extremwerte einer Kurve bestimmt werden können. Anstatt also anhand einer Wertetabelle mechanisch nach Hoch- oder Tiefpunkten suchen zu müssen, liefert der Kalkül in einigen Fällen eine direkte Antwort. Liegt ein Hoch- oder Tiefpunkt vor, so besitzt die Kurve an dieser Stelle keinen „echten“ Anstieg, weshalb die optimale Linearisierung eine Steigung von 0 besitzt. Für die genaue Klassifizierung eines Extremwertes sind jedoch weitere lokale Daten der Kurve notwendig, denn eine Steigung von 0 ist nicht hinreichend für die Existenz eines Extremwertes (geschweige denn eines Hoch- oder Tiefpunktes). |
|||
=== Beispiel für eine nicht stetig differenzierbare Funktion === |
|||
[[Bild:N stetig diffb.png|thumb|300px]] |
|||
Beachte: Selbst wenn ''f'' überall differenzierbar ist, muss die Ableitung nicht stetig sein. Zum Beispiel ist die Funktion |
|||
In der Praxis treten Extremwertprobleme typischerweise dann auf, wenn Prozesse, zum Beispiel in der Wirtschaft, optimiert werden sollen. Oft liegen an den Randwerten jeweils ungünstige Ergebnisse, in Richtung „Mitte“ kommt es aber zu einer stetigen Steigerung, die dann irgendwo maximal werden muss. Zum Beispiel die optimale Wahl eines Verkaufspreises: Bei einem zu geringen Preis ist die Nachfrage nach einem Produkt zwar sehr groß, aber die Produktion kann nicht finanziert werden. Ist er andererseits zu hoch, so wird es im Extremfall gar nicht mehr gekauft. Daher liegt ein Optimum irgendwo „in der Mitte“. Voraussetzung dabei ist, dass der Zusammenhang in Form einer (stetig) differenzierbaren Funktion wiedergegeben werden kann. |
|||
Die Untersuchung einer Funktion auf Extremstellen ist Teil einer [[Kurvendiskussion]]. Die mathematischen Hintergründe sind im Abschnitt [[#Höhere Ableitungen|Anwendung höherer Ableitungen]] bereitgestellt. |
|||
==== Mathematische Modellierung ==== |
|||
In der [[Mathematische Modellierung|mathematischen Modellierung]] sollen komplexe Probleme in mathematischer Sprache erfasst und analysiert werden. Je nach Fragestellung sind das Untersuchen von [[Korrelation]]en oder [[Kausalität]]en oder auch das Geben von [[Prognose]]n im Rahmen dieses Modells zielführend. |
|||
Besonders im Umfeld sog. ''[[Differentialgleichung]]en'' ist die Differentialrechnung zentrales Werkzeug bei der Modellierung. Diese Gleichungen treten zum Beispiel auf, wenn es eine kausale Beziehung zwischen dem ''Bestand'' einer Größe und deren ''zeitlicher Veränderung'' gibt. Ein alltägliches Beispiel könnte sein: |
|||
: ''Je mehr Einwohner eine Stadt besitzt, desto mehr Leute wollen dort hinziehen.'' |
|||
Etwas konkreter ''könnte'' dies zum Beispiel heißen, dass bei <math>1 \, 000 \, 000</math> jetzigen Einwohnern durchschnittlich <math>1 \, 000 \, 000</math> Personen in den kommenden 10 Jahren zuziehen werden, bei <math>1 \, 000 \, 001</math> Einwohnern durchschnittlich <math>1 \, 000 \, 001</math> Personen in den kommenden 10 Jahren usw. – um nicht alle Zahlen einzeln ausführen zu müssen: Leben <math>n</math> Personen in der Stadt, so wollen so viele Menschen hinzuziehen, dass nach 10 Jahren weitere <math>n</math> hinzukommen würden. Besteht eine derartige Kausalität zwischen Bestand und zeitlicher Veränderung, so kann gefragt werden, ob aus diesen Daten eine Prognose für die Einwohnerzahl nach 10 Jahren abgeleitet werden kann, wenn die Stadt im Jahr 2020 zum Beispiel <math>1 \, 000 \, 000</math> Einwohner hatte. Es wäre dabei falsch zu glauben, dass dies <math>2 \, 000 \, 000</math> sein werden, da sich mit steigender Einwohnerzahl auch die Nachfrage nach Wohnraum wiederum zunehmend steigern wird. Der Knackpunkt zum Verständnis des Zusammenhangs ist demnach erneut dessen ''Lokalität'': Besitzt die Stadt <math>1 \, 000 \, 000</math> Einwohner, so wollen ''zu diesem Zeitpunkt'' <math>1 \, 000 \, 000</math> Menschen pro 10 Jahre hinzuziehen. Aber einen kurzen Augenblick später, wenn weitere Menschen hinzugezogen ''sind'', sieht die Lage wieder anders aus. Wird dieses Phänomen zeitlich beliebig engmaschig gedacht, ergibt sich ein „differentieller“ Zusammenhang. Allerdings eignet sich die kontinuierliche Herangehensweise in vielen Fällen auch bei diskreten Problemstellungen.<ref>T. Arens et al.: ''Mathematik''. Spektrum, S. 422.</ref> |
|||
Mit Hilfe der Differentialrechnung kann aus so einem kausalen Zusammenhang zwischen Bestand und Veränderung in vielen Fällen ein Modell hergeleitet werden, was den komplexen Zusammenhang ''auflöst'', und zwar in dem Sinne, dass zum Schluss eine Bestandsfunktion ''explizit angegeben werden kann''. Setzt man in diese Funktion dann zum Beispiel den Wert 10 Jahre ein, so ergibt sich eine Prognose für die Stadtbewohneranzahl im Jahr 2030. Im Falle oberen Modells wird eine Bestandsfunktion <math>B</math> gesucht mit <math>B(t) = B'(t)</math>, <math>t</math> in 10 Jahren, und <math>B(0) = 1 \, 000 \, 000</math>. Die Lösung ist dann |
|||
: <math>B(t) = 1 \, 000 \, 000 \, e^{t}</math> |
|||
mit der [[Natürliche Exponentialfunktion|natürlichen Exponentialfunktion]] (''natürlich'' bedeutet, dass der Proportionalitätsfaktor zwischen Bestand und Veränderung einfach gleich 1 ist) und für das Jahr 2030 lautet die geschätzte Prognose <math>B(1) \approx 2{,}718</math> Mio. Einwohner. Die Proportionalität zwischen Bestand und Änderungsrate führt also zu [[Exponentielles Wachstum|exponentiellem Wachstum]] und ist klassisches Beispiel eines [[Positive Rückkopplung|selbstverstärkenden Effektes]]. Analoge Modelle funktionieren beim [[Populationsdynamik|Populationswachstum]] (''Je mehr Individuen, desto mehr Geburten'') oder der Verbreitung einer ansteckenden Krankheit (''Je mehr Erkrankte, desto mehr Ansteckungen''). In vielen Fällen stoßen diese Modelle jedoch an eine Grenze, wenn sich der Prozess aufgrund natürlicher Beschränkungen (wie eine Obergrenze der Gesamtbevölkerung) nicht beliebig fortsetzen lässt. In diesen Fällen sind ähnliche Modelle, wie das [[Logistische Funktion|logistische Wachstum]], geeigneter.<ref>T. Arens et al.: ''Mathematik''. Spektrum, S. 170.</ref> |
|||
==== Numerische Verfahren ==== |
|||
Die Eigenschaft einer Funktion, differenzierbar zu sein, ist bei vielen Anwendungen von Vorteil, da dies der Funktion mehr Struktur verleiht. Ein Beispiel ist das Lösen von Gleichungen. Bei einigen mathematischen Anwendungen ist es notwendig, den Wert einer (oder mehrerer) Unbekannten <math>x</math> zu finden, die Nullstelle einer Funktion <math>f</math> ist. Es ist dann <math>f(x) = 0</math>. Je nach Beschaffenheit von <math>f</math> können Strategien entwickelt werden, eine Nullstelle zumindest näherungsweise anzugeben, was in der Praxis meist vollkommen ausreicht. Ist <math>f</math> in jedem Punkt differenzierbar mit Ableitung <math>f'</math>, so kann in vielen Fällen das [[Newton-Verfahren]] helfen. Bei diesem spielt die Differentialrechnung insofern eine direkte Rolle, als beim schrittweisen Vorgehen immer wieder eine Ableitung explizit berechnet werden muss.<ref>T. Arens et al.: ''Mathematik''. Spektrum, S. 292.</ref> |
|||
Ein weiterer Vorteil der Differentialrechnung ist, dass in vielen Fällen komplizierte Funktionen, wie Wurzeln oder auch Sinus und Kosinus, anhand einfacher Rechenregeln wie Addition und Multiplikation gut angenähert werden können. Ist die Funktion an einem benachbarten Wert leicht auszuwerten, ist dies von großem Nutzen. Wird zum Beispiel nach einem Näherungswert für die Zahl <math>\sqrt{26}</math> gesucht, so liefert die Differentialrechnung für <math>f(x) = \sqrt{x}</math> die Linearisierung |
|||
: <math> f(25 + h) \approx f(25) + hf'(25) = \sqrt{25} + \frac{h}{2\sqrt{25}} = 5 + \frac{h}{10},</math> |
|||
denn es gilt nachweislich <math>f'(x) = \tfrac{1}{2\sqrt{x}}</math>. Sowohl Funktion als auch erste Ableitung konnten an der Stelle <math>25</math> gut berechnet werden, weil es sich dabei um eine [[Quadratzahl]] handelt. Einsetzen von <math>h=1</math> ergibt <math>\sqrt{26} \approx 5 + \tfrac{1}{10} = 5{,}1</math>, was mit dem exakten Ergebnis <math>\sqrt{26} = 5{,}09901\dots</math> bis auf einen Fehler kleiner als <math>\tfrac{1}{1000}</math> übereinstimmt.<ref>Serge Lang: ''A First Course in Calculus''. Fifth Edition. Springer, S. 463–464.</ref> Unter Einbezug ''höherer'' Ableitungen kann die Genauigkeit solcher Approximationen zusätzlich gesteigert werden, da dann nicht nur linear, sondern ''quadratisch, kubisch'' usw. angenähert wird, siehe auch [[Taylor-Reihe]]. |
|||
==== Reine Mathematik ==== |
|||
[[Datei:Image Tangent-plane.svg|260px|mini|Tangentialebene, platziert an einem Punkt einer Kugeloberfläche]] |
|||
Auch in der [[Reine Mathematik|reinen Mathematik]] spielt die Differentialrechnung als ein Kern der Analysis eine bedeutende Rolle. Ein Beispiel ist die [[Differentialgeometrie]], die sich mit Figuren beschäftigt, die eine differenzierbare Oberfläche (ohne Knicke usw.) haben. Zum Beispiel kann auf eine [[Kugeloberfläche]] in jedem Punkt tangential eine [[Ebene (Mathematik)|Ebene]] platziert werden. Anschaulich: Steht man an einem Erdpunkt, so hat man das Gefühl, die Erde sei flach, wenn man seinen Blick in der [[Tangentialebene]] schweifen lässt. In Wahrheit ist die Erde jedoch nur ''lokal flach'': Die angelegte Ebene dient der (durch ''Linearisierung'') vereinfachten Darstellung der komplizierteren Krümmung. ''Global'' hat sie als Kugeloberfläche eine völlig andere Gestalt. |
|||
Die Methoden der Differentialgeometrie sind äußerst bedeutend für die [[theoretische Physik]]. So können Phänomene wie [[Krümmung]] oder [[Raumzeit]] über Methoden der Differentialrechnung beschrieben werden. Auch die Frage, was der kürzeste Abstand zwischen zwei Punkten auf einer gekrümmten Fläche (zum Beispiel der Erdoberfläche) ist, kann mit diesen Techniken formuliert und oft auch beantwortet werden. |
|||
Auch bei der Erforschung von Zahlen als solchen, also im Rahmen der [[Zahlentheorie]], hat sich die Differentialrechnung in der [[Analytische Zahlentheorie|analytischen Zahlentheorie]] bewährt. Die grundlegende Idee der analytischen Zahlentheorie ist die Umwandlung von bestimmten Zahlen, über die man etwas lernen möchte, ''in Funktionen''. Haben diese Funktionen „gute Eigenschaften“ wie etwa Differenzierbarkeit, so hofft man, über die damit einhergehenden Strukturen Rückschlüsse auf die ursprünglichen Zahlen ziehen zu können. Es hat sich dabei häufig bewährt, zur Perfektionierung der Analysis von den reellen zu den komplexen Zahlen überzugehen (siehe auch [[komplexe Analysis]]), also die Funktionen über einem größeren Zahlenbereich zu studieren. Ein Beispiel ist die Analyse der [[Fibonacci-Zahl]]en <math>0, 1, 1, 2, 3, 5, 8, 13, 21,\dots</math>, deren Bildungsgesetz vorschreibt, dass eine neue Zahl stets aus der Summe der beiden vorangehenden entstehen soll. Ansatz der analytischen Zahlentheorie ist die Bildung der [[Erzeugende Funktion|erzeugenden Funktion]] |
|||
: <math> F(x) = 0 + 1x + 1x^2 + 2x^3 + 3x^4 + 5x^5 + 8x^6 + 13x^7 + \dotsb,</math> |
|||
also eines „unendlich langen“ [[Polynom]]s (einer sog. [[Potenzreihe]]), dessen [[Koeffizient]]en genau die Fibonacci-Zahlen sind. Für hinreichend kleine Zahlen <math>x</math> ist dieser Ausdruck sinnvoll, weil die Potenzen <math>x^n</math> dann viel schneller gegen 0 gehen als die Fibonacci-Zahlen gegen Unendlich, womit sich langfristig alles bei einem endlichen Wert einpendelt. Es ist für diese Werte möglich, die Funktion <math>F</math> explizit zu berechnen durch |
|||
: <math> F(x) = \frac{x}{1-x-x^2}.</math> |
|||
Das Nennerpolynom <math>1-x-x^2</math> „spiegelt“ dabei genau das Verhalten <math>f_{n} - f_{n-1} - f_{n-2} = 0</math> der Fibonacci-Zahlen <math>f_n</math> „wider“ – es ergibt sich in der Tat <math>F(x) - xF(x) - x^2F(x) = x</math> durch termweises Verrechnen. Mit Hilfe der Differentialrechnung lässt sich andererseits zeigen, dass die Funktion <math>F</math> ausreicht, um die Fibonacci-Zahlen (ihre Koeffizienten) eindeutig zu charakterisieren. Da es sich aber um eine schlichte [[rationale Funktion]] handelt, lässt sich dadurch die für jede Fibonacci-Zahl <math>f_n</math> gültige ''exakte Formel'' |
|||
: <math> f_n = \frac{\Phi^n - \left(-\frac{1}{\Phi}\right)^n }{\sqrt{5}}</math> |
|||
mit dem [[Goldener Schnitt|goldenen Schnitt]] <math>\Phi = \tfrac{1+\sqrt{5}}{2}</math> herleiten, wenn <math>f_0 = 0, f_1 = 1</math> und <math>f_{n} = f_{n-1} + f_{n-2}</math> gesetzt wird. Die exakte Formel vermag eine Fibonacci-Zahl zu berechnen, ohne die vorherigen zu kennen. Der Schluss wird über einen sog. [[Koeffizientenvergleich]] gezogen und nutzt aus, dass das Polynom <math>x^2 + x - 1</math> als Nullstellen <math>-\Phi</math> und <math>\tfrac{1}{\Phi}</math> besitzt.<ref>[[John Stillwell]]: ''Mathematics and Its History'', Third Edition, Springer, S. 192–194.</ref> |
|||
=== Der höherdimensionale Fall === |
|||
Die Differentialrechnung kann auf den Fall „höherdimensionaler Funktionen“ verallgemeinert werden. Damit ist gemeint, dass sowohl Eingabe- als auch Ausgabewerte der Funktion nicht bloß Teil des eindimensionalen reellen [[Zahlenstrahl]]s, sondern auch Punkte eines höherdimensionalen Raums sind. Ein Beispiel ist die Vorschrift |
|||
: <math> \left( {x \atop y} \right) \mapsto \left( {x^2 + y^2 \atop x^2 - 2y} \right)</math> |
|||
zwischen jeweils zweidimensionalen Räumen. Das Funktionsverständnis als Tabelle bleibt hier identisch, nur dass diese mit „vier Spalten“ <math>(x,y,x^2+y^2,x^2-2y)</math> „deutlich mehr“ Einträge besitzt. Auch mehrdimensionale Abbildungen können in manchen Fällen an einem Punkt linearisiert werden. Allerdings ist dabei nun angemessen zu beachten, dass es sowohl mehrere Eingabedimensionen als auch mehrere Ausgabedimensionen geben kann: Der korrekte Verallgemeinerungsweg liegt darin, dass die Linearisierung in ''jeder Komponente'' der Ausgabe ''jede Variable'' auf ''lineare Weise'' berücksichtigt. Das zieht für obere Beispielfunktion eine Approximation der Form |
|||
: <math> |
: <math> |
||
f(x,y) := \left( {x^2 + y^2 \atop x^2 - 2y} \right) \approx \left( {m_1 (x-x_0) + m_2 (y-y_0) + c_1 \atop m_3(x-x_0) + m_4(y-y_0) + c_2} \right) |
|||
f(x) = |
|||
\begin{cases} |
|||
x^2\cos (1/x) & x\ne 0\\ |
|||
0 & x=0 |
|||
\end{cases} |
|||
</math> |
</math> |
||
nach sich. Diese ahmt dann die gesamte Funktion in der Nähe der Eingabe <math>(x_0,y_0)</math> sehr gut nach.<ref>Serge Lang: ''Calculus of Several Variables'', Third Edition, Springer, S. 439.</ref> In ''jeder'' Komponente wird demnach für jede Variable eine „Steigung“ angegeben – diese wird dann das lokale Verhalten der Komponentenfunktion bei kleiner Änderung in dieser Variablen messen. Diese Steigung wird auch als ''[[partielle Ableitung]]'' bezeichnet.<ref>Serge Lang: ''Calculus of Several Variables'', Third Edition, Springer, S. 434.</ref> Die korrekten konstanten Abschnitte <math>c_1, c_2</math> berechnen sich exemplarisch durch <math>c_1 = x_0^2 + y_0^2</math> bzw. <math>c_2 = x_0^2 - 2y_0</math>. Wie auch im eindimensionalen Fall hängen die Steigungen (hier <math>m_1, m_2, m_3, m_4</math>) stark von der Wahl des Punktes (hier <math>(x_0, y_0)</math>) ab, an dem abgeleitet wird. Die Ableitung ist demnach keine Zahl mehr, sondern ein Verband aus mehreren Zahlen – in diesem Beispiel sind es vier – und diese Zahlen sind im Regelfall bei allen Eingaben unterschiedlich. Es wird allgemein für die Ableitung auch |
|||
in jedem Punkt differenzierbar, aber die Ableitung |
|||
: <math>f'(x_0,y_0) = \begin{pmatrix} m_1 & m_2 \\ m_3 & m_4\end{pmatrix}</math> |
|||
: <math> |
|||
geschrieben, womit alle „Steigungen“ in einer sog. [[Matrix (Mathematik)|Matrix]] versammelt sind. Man bezeichnet diesen Term auch als ''[[Jacobi-Matrix]]'' oder ''Funktionalmatrix''.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 161.</ref> |
|||
f'(x) = |
|||
\begin{cases} |
|||
2x\cos (1/x) + \sin (1/x) & x\ne 0\\ |
|||
0 & x=0 |
|||
\end{cases} |
|||
</math> |
|||
<!-- Ich lasse die Schreibweise 1/x ohne frac wegen der Höhe. --> |
|||
ist im Punkt 0 nicht stetig. |
|||
'''Beispiel:''' Wird oben <math>(x_0,y_0) = (1,0)</math> gesetzt, so kann man zeigen, dass folgende lineare Approximation bei sehr kleinen Änderungen von <math>x</math> ''und'' <math>y</math> sehr gut ist: |
|||
=== Ableitungsregeln === |
|||
: <math> f(x,y) = \left( {x^2 + y^2 \atop x^2 - 2y} \right) \approx \left( {2x - 1 \atop 2x - 2y - 1} \right).</math> |
|||
Ableitungen zusammengesetzter Funktionen (z. B. sin(2''x''), ''x''<sup>2</sup>exp(-''x''<sup>2</sup>), ...) führt man mit Hilfe von '''Ableitungsregeln''' (siehe unten) auf die Differentiation elementarer Funktionen zurück. |
|||
Zum Beispiel gilt |
|||
: <math> f(1{,}003; 0{,}002) = \left( {1{,}006013 \atop 1{,}002009} \right)</math> |
|||
und |
|||
: <math> \left( {2 \cdot 1{,}003 - 1 \atop 2 \cdot 1{,}003 - 2\cdot 0{,}002 - 1} \right) = \left( {1{,}006 \atop 1{,}002} \right).</math> |
|||
Hat man im ganz allgemeinen Fall <math>n</math> Variablen und <math>m</math> Ausgabekomponenten, so gibt es kombinatorisch gesehen insgesamt <math>n\cdot m</math> „Steigungen“, also partielle Ableitungen. Im klassischen Fall <math>n = m = 1</math> gibt es wegen <math>1 \cdot 1 = 1</math> eine Steigung <math>f'(x_0)</math> und im oberen Beispiel <math>n = m = 2</math> sind es <math>2 \cdot 2 = 4</math> „Steigungen“.<ref>Serge Lang: ''Calculus of Several Variables'', Third Edition, Springer, S. 435–436.</ref> |
|||
Mit den folgenden Regeln kann man die Ableitung zusammengesetzter Funktionen auf Ableitungen einfacherer Funktionen zurückführen. Seien ''f'', ''g'' und ''h'' (im Definitionsbereich) differenzierbare, [[Reelle Zahlen|reelle]] Funktionen, ''n'' und ''a'' reelle Zahlen, dann gilt: |
|||
== Geschichte == |
|||
{| border="1" style="border-collapse:collapse" |
|||
[[Datei:Christoph Bernhard Francke - Bildnis des Philosophen Leibniz (ca. 1695).jpg|mini|Gottfried Wilhelm Leibniz]] |
|||
|valign="top"| <math>\bullet\;</math> [[konstant]]e Funktion: ||<math>\left(a\right)' = 0</math> |
|||
[[Datei:Sir Isaac Newton by Sir Godfrey Kneller, Bt.jpg|mini|Isaac Newton]] |
|||
{{Hauptartikel|Infinitesimalrechnung#Geschichte}} |
|||
Die Aufgabenstellung der Differentialrechnung bildete sich als ''Tangentenproblem'' ab dem 17. Jahrhundert heraus. Hierunter versteht man die Aufgabe, bei einer beliebigen Kurve in einem beliebigen Punkt die Tangente zu bestimmen.<ref>[[Hans Wußing]], [[Heinz-Wilhelm Alten]], Heiko Wesemüller-Kock, [[Eberhard Zeidler (Mathematiker)|Eberhard Zeidler]]: ''6000 Jahre Mathematik: Von den Anfängen bis Newton und Leibniz.'' Springer, 2008, S. 429.</ref> Ein naheliegender Lösungsansatz bestand darin, die Tangente an eine Kurve durch ihre [[Sekante]] über einem endlichen (''endlich'' heißt hier: größer als null), aber beliebig kleinen [[Intervall (Mathematik)|Intervall]] zu approximieren. Dabei war die technische Schwierigkeit zu überwinden, mit einer solchen ''infinitesimal'' kleinen Intervallbreite zu rechnen. Die ersten Anfänge der Differentialrechnung gehen auf [[Pierre de Fermat]] zurück. Er entwickelte um 1628 eine Methode, Extremstellen algebraischer Terme zu bestimmen und Tangenten an Kegelschnitte und andere Kurven zu berechnen. Seine „Methode“ war rein algebraisch. Fermat betrachtete keine Grenzübergänge und schon gar keine Ableitungen. Gleichwohl lässt sich seine „Methode“ mit modernen Mitteln der Analysis interpretieren und rechtfertigen, und sie hat Mathematiker wie Newton und Leibniz nachweislich inspiriert. Einige Jahre später wählte [[René Descartes]] einen anderen algebraischen Zugang, indem er an eine Kurve einen Kreis anlegte. Dieser schneidet die Kurve in zwei nahe beieinanderliegenden Punkten; es sei denn, er berührt die Kurve. Dieser Ansatz ermöglichte es ihm, für spezielle Kurven die Steigung der Tangente zu bestimmen.<ref>[[Thomas Sonar]]: ''3000 Jahre Analysis'', Springer, S. 247–248.</ref> |
|||
Ende des 17. Jahrhunderts gelang es [[Isaac Newton]] und [[Gottfried Wilhelm Leibniz]] mit unterschiedlichen Ansätzen unabhängig voneinander, widerspruchsfrei funktionierende Kalküle zu entwickeln. Während Newton das Problem physikalisch über das Momentangeschwindigkeitsproblem anging,<ref>Thomas Sonar: ''3000 Jahre Analysis'', Springer, S. 378.</ref> löste es Leibniz geometrisch über das Tangentenproblem. Ihre Arbeiten erlaubten das Abstrahieren von rein geometrischer Vorstellung und werden deshalb als Beginn der Analysis betrachtet. Bekannt wurden sie vor allem durch das Buch ''Analyse des Infiniment Petits pour l’Intelligence des Lignes Courbes''<ref>[[Guillaume François Antoine, Marquis de L’Hospital|Marquis de L’Hospital]]: ''Analyse des Infiniment Petits pour l’Intelligence des Lignes Courbes''. Preface, S. ix–x: « L’Étendue de ce calcul est immense: … »; {{archive.org |infinimentpetits1716lhos00uoft |Blatt=}}.</ref> des Adligen [[Guillaume François Antoine, Marquis de L’Hospital]], der bei [[Johann I Bernoulli]] Privatunterricht nahm und dessen Forschung zur Analysis so publizierte. Darin heißt es: |
|||
{{Zitat |
|||
|Text=Die Reichweite dieses Kalküls ist unermesslich: Er lässt sich sowohl auf mechanische als auch geometrische Kurven anwenden; Wurzelzeichen bereiten ihm keine Schwierigkeiten und sind oftmals sogar angenehm im Umgang; er lässt sich auf so viele Variablen erweitern, wie man sich nur wünschen kann; der Vergleich unendlich kleiner Größen aller Art gelingt mühelos. Und er erlaubt eine unendliche Zahl an überraschenden Entdeckungen über gekrümmte wie geradlinige Tangenten, Fragen ''De maximis & minimis'', Wendepunkte und Spitzen von Kurven, Evoluten, Spiegelungs- und Brechungskaustiken, &c. wie wir in diesem Buch sehen werden. |
|||
|ref=<!-- müsste es nicht "zitiert nach ..." heißen? --><ref>[[Ernst Hairer]], [[Gerhard Wanner (Mathematiker)|Gerhard Wanner]]: ''Analysis in historischer Entwicklung''. Springer, S. 87.</ref>}} |
|||
Die heute bekannten Ableitungsregeln basieren vor allem auf den Werken von [[Leonhard Euler]], der den Funktionsbegriff prägte. |
|||
Newton und Leibniz arbeiteten mit beliebig kleinen positiven Zahlen.<ref>John Stillwell: ''Mathematics and its history'', Third Edition, Springer, S. 157.</ref> Dies wurde bereits von Zeitgenossen als unlogisch kritisiert, beispielsweise von [[George Berkeley]] in der polemischen Schrift ''The analyst; or, a discourse addressed to an infidel mathematician.''<ref>Thomas Sonar: ''3000 Jahre Analysis'', Springer, S. 424–425.</ref> Erst in den 1960ern konnte [[Abraham Robinson]] diese Verwendung infinitesimaler Größen mit der Entwicklung der [[Nichtstandardanalysis]] auf ein mathematisch-axiomatisch sicheres Fundament stellen. Trotz der herrschenden Unsicherheit wurde die Differentialrechnung aber konsequent weiterentwickelt, in erster Linie wegen ihrer zahlreichen Anwendungen in der Physik und in anderen Gebieten der Mathematik. Symptomatisch für die damalige Zeit war das von der [[Königlich-Preußische Akademie der Wissenschaften|Preußischen Akademie der Wissenschaften]] 1784 veröffentlichte Preisausschreiben: |
|||
{{Zitat |
|||
|Text=… Die höhere Geometrie benutzt häufig unendlich große und unendlich kleine Größen; jedoch haben die alten Gelehrten das Unendliche sorgfältig vermieden, und einige berühmte Analysten unserer Zeit bekennen, dass die Wörter unendliche Größe widerspruchsvoll sind. Die Akademie verlangt also, dass man erkläre, wie aus einer widersprechenden Annahme so viele richtige Sätze entstanden sind, und dass man einen sicheren und klaren Grundbegriff angebe, welcher das Unendliche ersetzen dürfte, ohne die Rechnung zu schwierig oder zu lang zu machen … |
|||
|ref=<ref>Hans Wußing, Heinz-Wilhelm Alten, Heiko Wesemüller-Kock, Eberhard Zeidler: ''6000 Jahre Mathematik: Von Euler bis zur Gegenwart.'' Springer, 2008, S. 233.</ref>}} |
|||
Erst zum Anfang des 19. Jahrhunderts gelang es [[Augustin-Louis Cauchy]], der Differentialrechnung die heute übliche logische Strenge zu geben, indem er von den infinitesimalen Größen abging und die Ableitung als [[Grenzwert (Funktion)|Grenzwert]] von [[Sekantensteigung]]en ([[Differenzenquotient]]en) definierte.<ref>Thomas Sonar: ''3000 Jahre Analysis'', Springer, S. 506–514.</ref> Die heute benutzte Definition des Grenzwerts wurde schließlich von [[Karl Weierstraß]] im Jahr 1861 formuliert.<ref>Ernst Hairer, Gerhard Wanner: ''Analysis in historischer Entwicklung'', Springer, S. 91.</ref> |
|||
== Definition == |
|||
=== Sekanten- und Tangentensteigung === |
|||
Ausgangspunkt für die Definition der Ableitung ist die Näherung der Tangentensteigung durch eine Sekantensteigung (manchmal auch Sehnensteigung genannt). Gesucht sei die Steigung einer Funktion <math>f</math> in einem Punkt <math>(x_0,f(x_0))</math>. Man berechnet zunächst die Steigung der [[Sekante]] an <math>f</math> über einem endlichen [[Intervall (Mathematik)|Intervall]] <math>[x_0,x_0+\Delta x]</math> der Länge <math>\Delta x</math>: |
|||
: Sekantensteigung = <math>\frac{f(x_0+\Delta x)-f(x_0)}{(x_0+\Delta x)-x_0}=\frac{f(x_0+\Delta x)-f(x_0)}{\Delta x}</math>. |
|||
Die Sekantensteigung ist also der Quotient zweier Differenzen; sie wird deshalb auch ''[[Differenzenquotient]]'' genannt. Mit der Kurznotation <math>\Delta y</math> für <math>f(x_0+\Delta x)-f(x_0)</math> kann man die Sekantensteigung abgekürzt als <math>\tfrac{\Delta y}{\Delta x}</math> schreiben. Der Ausdruck <math>\Delta x</math> verdeutlicht also die beliebig klein werdende [[Subtraktion|Differenz]] zwischen der Stelle, an der abgeleitet werden soll, und einem benachbarten Punkt. In der Literatur wird jedoch, wie auch im Folgenden, in vielen Fällen aus Gründen der Einfachheit das Symbol <math>h</math> statt <math>\Delta x</math> verwendet. |
|||
[[Datei:Differencial quotient of a function.svg|600x600px|Differentialquotient einer Funktion]] |
|||
Um eine Tangentensteigung zu berechnen, muss man die beiden Punkte, durch die die Sekante gezogen wird, immer weiter aneinander rücken. Dabei gehen sowohl <math>\Delta x</math> als auch <math>\Delta y</math> gegen Null. Der Quotient <math>\tfrac{\Delta y}{\Delta x}</math> bleibt aber in vielen Fällen endlich. Auf diesem [[Grenzwert (Funktion)|Grenzübergang]] beruht die folgende Definition. |
|||
=== {{Anker|Differentialquotient|Strichnotation|Punktnotation}} Differenzierbarkeit === |
|||
[[Datei:Derivative GIF.gif|mini|300px|Definition der Ableitung über die ''h-''Methode: Zu den jeweiligen ''h-''Werten sind die dazugehörigen Sekanten eingezeichnet. Für <math>h\to 0</math> geht die Sekante in die Tangente und somit die Sekantensteigung (Differenzenquotient) in die Tangentensteigung (Ableitung) über.]] |
|||
[[Datei:Illustration of differential quotient 7.svg|mini|300px|Die Sekantensteigungen gehen für <math>x_n\to\tilde x</math> in die Steigung der Tangente (und damit in die Ableitung) an der Stelle <math>\tilde x</math> über. Es gilt <math>\lim_{x_n\to\tilde x} \frac{f(x_n)-f(\tilde x)}{x_n-\tilde x} = f'(\tilde x)</math>.]] |
|||
{{Hauptartikel|Differenzierbarkeit}} |
|||
Eine Funktion <math>f \colon U \to \mathbb{R}</math>, die ein [[offenes Intervall]] <math>U</math> in die reellen Zahlen abbildet, heißt [[Differenzierbarkeit|differenzierbar]] an der Stelle <math>x_0 \in U</math>, falls der [[Grenzwert (Funktion)|Grenzwert]] |
|||
: <math>\lim_{x\to x_0} \frac{f(x) - f(x_0)}{x - x_0} = \lim_{h\to 0} \frac{f(x_0+h) - f(x_0)}{h}</math> (mit <math>h = x - x_0</math>) |
|||
existiert. Dieser Grenzwert heißt ''Differentialquotient'' oder ''Ableitung'' von <math>f</math> nach <math>x</math> an der Stelle <math>x_0</math> und wird als |
|||
: <math>f'(x_0)</math> oder <math>\left.\frac{\mathrm df(x)}{\mathrm dx}\right|_{x=x_0}</math> oder <math>\frac{\mathrm df}{\mathrm dx}(x_0)</math> oder <math>\frac{\mathrm d}{\mathrm dx}f(x_0)</math> |
|||
notiert.<ref>T. Arens et al.: ''Mathematik''. Spektrum, S. 284.</ref><ref>[[Ilja Nikolajewitsch Bronstein|Bronstein]] et al.: ''[[Taschenbuch der Mathematik]]'', Verlag Harri Deutsch, S. 394.</ref> Gesprochen werden diese Notationen als „f Strich von x null“, „d f von x nach d x an der Stelle x gleich x null“, „d f nach d x von x null“ respektive „d nach d x von f von x null“. Im später folgenden Abschnitt [[#Notationen|Notationen]] werden noch weitere Varianten angeführt, um die Ableitung einer Funktion zu notieren. |
|||
Im Laufe der Zeit wurde folgende gleichwertige Definition gefunden, die sich im allgemeineren Kontext komplexer oder mehrdimensionaler Funktionen als leistungsfähiger erwiesen hat: Eine Funktion heißt an einer Stelle <math>x_0</math> differenzierbar, falls eine Konstante <math>L</math> existiert, sodass |
|||
: <math>\lim_{h \to 0} \frac{f(x_{0}+h)-f(x_0)-Lh}{h}=0.</math> |
|||
Der Zuwachs der Funktion <math>f</math>, wenn man sich von <math>x_0</math> nur wenig entfernt, etwa um den Wert <math>h</math>, lässt sich also durch <math>Lh</math> sehr gut approximieren. Man nennt deshalb die ''lineare'' Funktion <math>g\colon x\mapsto f(x_0)+L(x-x_0)</math>, für die also <math>g(x_0+h)=f(x_0)+Lh</math> für alle <math>h</math> gilt, auch die ''Linearisierung'' von <math>f</math> an der Stelle <math>x_0</math>.<ref name="AE318">Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 318.</ref> |
|||
Eine weitere Definition ist: Es gibt eine an der Stelle <math>x_0</math> [[stetige Funktion]] <math>r</math> mit <math>r(x_0)=0</math> und eine Konstante <math>L</math>, sodass für alle <math>x</math> gilt |
|||
: <math>f(x) = f(x_0) + L(x - x_0) + r(x)(x - x_0)</math>. |
|||
Die Bedingungen <math>r(x_0) = 0</math> und dass <math>r</math> an der Stelle <math>x_0</math> stetig ist, bedeuten gerade, dass das „Restglied“ <math>r(x)</math> für <math>x</math> gegen <math>x_0</math> gegen <math>0</math> konvergiert.<ref name="AE318" /> |
|||
In beiden Fällen ist die Konstante <math>L</math> eindeutig bestimmt und es gilt <math>f'(x_0) = L</math>. Der Vorteil dieser Formulierung ist, dass Beweise einfacher zu führen sind, da kein Quotient betrachtet werden muss. Diese Darstellung der besten linearen Approximation wurde schon von [[Karl Weierstraß]], [[Henri Cartan]] und [[Jean Dieudonné]] konsequent angewandt und wird auch [[Weierstraßsche Zerlegungsformel]] genannt. |
|||
Bezeichnet man eine Funktion als differenzierbar, ohne sich auf eine bestimmte Stelle zu beziehen, dann bedeutet dies die Differenzierbarkeit an jeder Stelle des Definitionsbereiches, also die Existenz einer eindeutigen Tangente für jeden Punkt des Graphen. |
|||
Jede differenzierbare Funktion ist [[Stetige Funktion|stetig]], die Umkehrung gilt jedoch nicht.<ref name="AE318" /> Noch Anfang des 19. Jahrhunderts war man überzeugt, dass eine stetige Funktion höchstens an wenigen Stellen nicht differenzierbar sein könne (wie die Betragsfunktion). [[Bernard Bolzano]] konstruierte dann als erster Mathematiker tatsächlich eine Funktion, die später [[Bolzanofunktion]] genannt wurde, die überall stetig, aber nirgends differenzierbar ist, was in der Fachwelt allerdings nicht bekannt wurde. Karl Weierstraß fand dann in den 1860er Jahren ebenfalls eine derartige Funktion (siehe [[Weierstraß-Funktion]]), was diesmal unter Mathematikern Wellen schlug. Ein bekanntes mehrdimensionales Beispiel für eine stetige, nicht differenzierbare Funktion ist die von [[Helge von Koch]] 1904 vorgestellte [[Koch-Kurve]].<ref>[[Jeremy Gray]]: ''The Real and the Complex: A History of Analysis in the 19th Century'', Springer, S. 271–272.</ref> |
|||
=== {{Anker|Ableitung als eine Funktion}} Ableitungsfunktion === |
|||
[[Datei:Tangent function animation.gif|mini|Die Ableitung an verschiedenen Stellen einer differenzierbaren Funktion]] |
|||
Die Ableitung der Funktion <math>f\colon U \to \mathbb{R}</math> an der Stelle <math>x_0</math>, bezeichnet mit <math>f'(x_0)</math>, beschreibt lokal das Verhalten der Funktion in der Umgebung der betrachteten Stelle <math>x_0</math>. In einigen Fällen ist es möglich, an ''jedem'' Punkt des [[Funktionsgraph]]en eine Linearisierung vorzunehmen. Dies erlaubt die Definition einer '''Ableitungsfunktion''' (oder kurz '''Ableitung''') <math>f'\colon U \to \mathbb{R}</math>, die jedem Element des Definitionsbereichs <math>U</math> der Ausgangsfunktion <math>f</math> die Steigung der dortigen Linearisierung zuordnet. Man sagt in diesem Falle, „<math>f</math> ist in <math>U</math> differenzierbar“.<ref>Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 323.</ref> |
|||
Beispielsweise hat die Quadratfunktion <math>f\colon \mathbb{R} \to \mathbb{R}</math> mit <math>f(x) = x^2</math> an einer beliebigen Stelle <math>x_0</math> die Ableitung <math>f'(x_0) = 2 x_0,</math> die Quadratfunktion ist also auf der Menge der reellen Zahlen differenzierbar. Die zugehörige Ableitungsfunktion <math>f'</math> ist gegeben durch <math>f'\colon \mathbb{R} \to \mathbb{R}</math> mit <math>f'(x) = 2x</math>. |
|||
Die Ableitungsfunktion ist im Normalfall eine andere Funktion als die ursprünglich betrachtete. Einzige Ausnahme sind die Vielfachen <math>x \mapsto k\cdot e^x</math> der natürlichen [[Exponentialfunktion]] mit beliebigem <math>k \in \mathbb{R}</math> – unter denen, wie die Wahl <math>k = e^{-a}</math> zeigt, auch alle Funktionen <math>x \mapsto e^{x-a}</math> mit beliebigem <math>a \in \mathbb{R}</math> enthalten sind (deren Graph aus dem der Exponentialfunktion <math>x \mapsto e^x</math> durch „seitliche“ [[Parallelverschiebung|Verschiebung]] um <math>a</math> entsteht und zu diesem daher kongruent ist). |
|||
Ist die Ableitung stetig, dann heißt <math>f</math> stetig differenzierbar. In Anlehnung an die Bezeichnung <math>C(U)</math> für die Gesamtheit (den [[Funktionenraum|Raum]]) der stetigen Funktionen mit Definitionsmenge <math>U</math> wird der Raum der auf <math>U</math> stetig differenzierbaren Funktionen mit <math>C^1(U)</math> abgekürzt.<ref name="AE324">Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 324.</ref> |
|||
=== Notationen === |
|||
Geschichtlich bedingt gibt es unterschiedliche Notationen, um die Ableitung einer Funktion darzustellen. |
|||
==== Lagrange-Notation ==== |
|||
In diesem Artikel wurde bisher hauptsächlich die Notation <math>f'</math> für die Ableitung von <math>f</math> verwendet. Diese Notation geht auf den Mathematiker [[Joseph-Louis Lagrange]] zurück, der sie 1797 einführte.<ref>{{Literatur |Hrsg=Guido Walz |Titel=Differentialrechnung |Sammelwerk=Lexikon der Mathematik |Auflage=1 |Verlag=Spektrum Akademischer Verlag |Ort=Mannheim/Heidelberg |Datum=2000 |ISBN=3-8274-0439-8}}</ref> Bei dieser Notation wird die [[#Höhere Ableitungen|zweite Ableitung]] von <math>f</math> mit <math>f''</math> und die <math>n</math>-te Ableitung mittels <math>f^{(n)}</math> bezeichnet. |
|||
==== Newton-Notation ==== |
|||
[[Isaac Newton]] – neben Leibniz der Begründer der Differentialrechnung – notierte die erste Ableitung von <math>x</math> mit <math>\dot x</math>, entsprechend notierte er die [[#Höhere Ableitungen|zweite Ableitung]] durch <math>\ddot x</math>.<ref>Ernst Hairer, Gerhard Wanner: ''Analysis in historischer Entwicklung'', Springer, S. 90.</ref> Heutzutage wird diese Schreibweise häufig in der Physik, insbesondere in der [[Mechanik]], für die [[Zeitableitung|Ableitung nach der Zeit]] verwendet.<ref>[[Harro Heuser]]: ''Lehrbuch der Analysis''. Teubner, Wiesbaden 2003, ISBN 3-519-62233-5, S. 269.</ref> |
|||
==== Leibniz-Notation ==== |
|||
[[Gottfried Wilhelm Leibniz]] führte für die erste Ableitung von <math>f</math> (nach der Variablen <math>x</math>) die Notation <math>\tfrac{\mathrm df(x)}{\mathrm dx}</math> ein.<ref>Thomas Sonar: ''3000 Jahre Analysis'', Springer, S. 408.</ref> Gelesen wird dieser Ausdruck als „d f von x nach d x“. Für die [[#Höhere Ableitungen|zweite Ableitung]] notierte Leibniz <math>\tfrac{\mathrm d^2f(x)}{\mathrm dx^2}</math> und die <math>n</math>-te Ableitung wird mittels <math>\tfrac{\mathrm d^nf(x)}{\mathrm dx^n}</math> bezeichnet.<ref>Lokenath Debnath: ''The Legacy of Leonhard Euler – A Tricentennial Tribute'', Imperial College Press, S. 26.</ref> Bei der Schreibweise von Leibniz handelt es sich nicht um einen Bruch. Die Symbole <math>\mathrm df(x)</math> und <math>\mathrm dx</math> werden „[[Differential (Mathematik)|Differentiale]]“ genannt, haben aber in der modernen Differentialrechnung (abgesehen von der Theorie der [[Differentialform]]en) eine lediglich symbolische Bedeutung, im Differentialquotienten. In manchen Anwendungen ([[Kettenregel]], Integration mancher [[Differentialgleichung]]en, [[Integration durch Substitution]]) rechnet man mit ihnen aber so, als wären sie gewöhnliche Terme. |
|||
==== Euler-Notation ==== |
|||
Die Notation <math>\mathrm Df</math> oder <math>\mathrm D_x f(x)</math> für die erste Ableitung von <math>f</math> geht auf [[Leonhard Euler]] zurück. Dabei wird die Ableitung als [[Linearer Operator|Operator]] – also als eine besondere Funktion, die selbst auf Funktionen arbeitet, aufgefasst. Diese Idee geht auf den Mathematiker [[Louis François Antoine Arbogast]] zurück. Die [[#Höhere Ableitungen|zweite Ableitung]] wird in dieser Notation mittels <math>\mathrm D^2f</math> oder <math>\mathrm D_x^2f(x)</math> und die <math>n</math>-te Ableitung durch <math>\mathrm D^nf</math> oder <math>\mathrm D_x^nf(x)</math> dargestellt.<ref>{{Literatur |Autor=Ali Mason |Titel=Advanced Differential Equations |Verlag=EDTECH |Datum=1019 |ISBN=1-83947-389-4 |Seiten=67}}</ref> |
|||
== Ableitungsberechnung == |
|||
Das Berechnen der Ableitung einer Funktion wird ''Differentiation'' oder ''Differenziation'' genannt; sprich, man ''differenziert'' diese Funktion. |
|||
Um die Ableitung [[Elementare Funktion|elementarer Funktionen]] (z. B. <math>x^n</math>, <math>\sin(x)</math>, …) zu berechnen, hält man sich eng an die oben angegebene Definition, berechnet explizit einen Differenzenquotienten und lässt dann <math>h</math> gegen Null gehen. Dieses Verfahren ist jedoch meistens umständlich. Bei der Lehre der Differentialrechnung wird diese Art der Rechnung daher nur wenige Male vollzogen. Später greift man auf bereits bekannte Ableitungsfunktionen zurück oder schlägt Ableitungen nicht ganz so geläufiger Funktionen in einem Tabellenwerk nach (z. B. im [[Bronstein-Semendjajew]], siehe auch [[Tabelle von Ableitungs- und Stammfunktionen]]) und berechnet die Ableitung zusammengesetzter Funktionen mit Hilfe der [[#Ableitungsregeln|Ableitungsregeln]]. |
|||
=== Ableitungen elementarer Funktionen === |
|||
Für die Berechnung der Ableitungsfunktion einer elementaren Funktion an einer vorgesehenen Stelle <math>x</math> wird der zugehörige Differenzenquotient gebildet, der in der Umgebung <math>x+h</math> mit <math>h\neq0</math> gültig ist, und dann wird der Grenzübergang <math>h \to 0</math> vollzogen. |
|||
==== Natürliche Potenzen ==== |
|||
Der Fall <math>f(x) = x^2</math> ist bereits weiter [[#Berechnung von Grenzwerten|oben]] behandelt worden. Der zugehörige Differenzenquotient ergibt sich zu |
|||
: <math>\frac{\Delta f}{\Delta x} =\frac{f(x+h) - f(x)}{(x+h)-x} =\frac{x^2 + 2xh + h^2 - x^2}h.</math> |
|||
Wenn <math>h\neq0</math> ist, lässt sich <math>h</math> kürzen, |
|||
: <math>\frac{\Delta f}{\Delta x} =2x+h,</math> |
|||
und die Annäherung <math>h\to 0</math> führt auf |
|||
: <math> f'(x) = \lim_{h \to 0} \frac{\Delta f}{\Delta x} = 2x.</math> |
|||
Allgemein für eine natürliche Zahl <math>n</math> mit <math>f(x) = x^n</math> wird der [[Binomischer Lehrsatz|binomische Lehrsatz]] herangezogen: |
|||
: <math> (x + h)^n = \sum_{k=0}^n \binom{n}{k} x^{n-k} h^k = x^n + nhx^{n-1} + h^2 g_n(x,h).</math> |
|||
: <math> \frac{\Delta f}{\Delta x} =\frac{(x + h)^n - x^n}{h} =\frac{x^n + nhx^{n-1} + h^2 g_n(x,h)- x^n}{h} =nx^{n-1} + hg_n(x,h).</math> |
|||
Wenn <math>(x+h)^n</math> für alle endlichen Werte von <math>h</math> endlich ist, ist auch <math>g_n(x,h)</math> endlich. Der in der letzten Gleichung vor <math>g_n(x,h)</math> stehende Faktor <math>h</math> führt auf <math>hg_n(x,h) \overset{h \to 0}{\longrightarrow}0</math>. Damit entsteht |
|||
: <math> f'(x) = \lim_{h \to 0} \frac{\Delta f}{\Delta x} =nx^{n-1}</math> |
|||
''Zwei Ergänzungen'': |
|||
# Ein konstanter Summand <math>m</math> in <math>\quad f(x) = x^n+m\quad</math> kürzt sich in <math>f(x+h)-f(x)</math> heraus, noch bevor der Grenzübergang vollzogen wird. |
|||
# Ein konstanter Faktor <math>m</math> in <math>\quad f(x) =m\,x^n\quad</math> kann in <math>f(x+h)-f(x)</math> ausgeklammert und vor den Bruch gezogen werden. |
|||
==== Exponentialfunktion ==== |
|||
[[Datei:Exp e.svg|mini|Graph der Exponentialfunktion <math>y=\mathrm e^x</math> (rot) mit der Tangente (der hellblau gestrichelten Linie) durch den Punkt (0,1)]] |
|||
Mit der [[Exponentialfunktion]] <math>f(x)=a^x =\exp_a x</math> ergibt sich der Differenzenquotient |
|||
: <math>\frac{\Delta f}{\Delta x} =\frac{f(x+h) - f(x)}{(x+h)-x} =\frac{a^{x+h}- a^x}h</math> |
|||
Für jedes <math>a > 0</math> gilt |
|||
: <math> a^{x+h} = a^x\cdot a^h.</math> |
|||
Damit kann im Zähler <math>a^x</math> ausgeklammert werden. |
|||
: <math>\frac{\Delta f}{\Delta x} =a^x\,\frac{a^h-1}h.</math> |
|||
Mit dem [[#Berechnung von Grenzwerten|oben]] hergeleiteten Grenzübergang |
|||
: <math> \lim_{h\to 0}\frac{a^h-1}h = \ln a</math> |
|||
entsteht |
|||
: <math> f'(x) = \lim_{h \to 0} \frac{\Delta f}{\Delta x} =a^x\,\ln a.</math> |
|||
Darin ist <math>\ln a =\log_\mathrm e a</math> der [[Natürlicher Logarithmus|natürliche Logarithmus]] von <math>a</math>. Speziell für die [[Eulersche Zahl]] <math>\mathrm e</math> ist <math>\ln \mathrm e=1</math>. Damit entsteht die auszeichnende Zusatzeigenschaft |
|||
: <math> \exp'_\mathrm e x =\exp_\mathrm e x.</math> |
|||
==== Logarithmus ==== |
|||
Mit der [[Logarithmusfunktion]] <math>f(x) = \log_a x</math> zur Basis <math>a>0,\ a\neq1</math> ergibt sich der Differenzenquotient |
|||
[[Datei:Naturliga-logaritmen.png|mini|Der Logarithmus von <math>x</math> (hier der natürliche Logarithmus <math>\ln x</math>) existiert nur bei <math>x>0</math>]] |
|||
: <math>\frac{\Delta f}{\Delta x} =\frac{\log_a(x+h) -\log_a x}{(x+h)-x} =\frac{\log_a\left(x\cdot(1 + \frac hx)\right) - \log_a x}h</math> |
|||
Für jedes <math>a>0</math> gilt |
|||
: <math>\log_a(u\cdot v) = \log_a u + \log_a v.</math> |
|||
: <math>\frac{\Delta f}{\Delta x} =\frac{\log_a x +\log_a(1 + \frac hx) -\log_a x}h =\frac{\log_a(1 + \frac hx)}{\frac hx\;x}.</math> |
|||
Mit dem [[#Berechnung von Grenzwerten|oben]] hergeleiteten Grenzübergang |
|||
: <math>\lim_{u \to 0} \frac{\log(1+u)}u =\log \mathrm e</math> |
|||
und mit der [[Logarithmus#Basisumrechnung|Basisumrechnung]] <math>\log_a \mathrm e = \frac1{\log_\mathrm ea}</math> entsteht |
|||
: <math>f'(x) =\lim_{h \to 0} \frac{\Delta f}{\Delta x} =\frac1x\,\log_a \mathrm e =\frac1{x\,\ln a}</math> |
|||
Dieses existiert nur für <math>x>0</math>. Für <math>x<0</math> existiert die Funktion <math>g(x) = \log_a (-x)</math>.<ref>Karl Bosch: ''Mathematik für Wirtschaftswissenschaftler.'' 14. Auflage, Oldenbourg, 2003, S. 77</ref> Mit der Substitution <math>z(x)=-x>0</math> und der [[Kettenregel]] ergibt ihre Ableitung |
|||
: <math>g'(x) =\frac{\mathrm dg}{\mathrm dz}\,\frac{\mathrm dz}{\mathrm dx} =\frac1{z\,\ln a} \cdot (-1) =\frac1{x\,\ln a}.</math> |
|||
Beide Ableitungen können zusammengefasst werden für <math>x\neq0</math> zu |
|||
: <math>\frac{\mathrm d\log_a|x|}{\mathrm dx} =\frac1{x\,\ln a}.</math> |
|||
Speziell für den natürlichen Logarithmus gilt |
|||
: <math> \ln'|x| = \frac1x.</math> |
|||
==== Sinus und Kosinus ==== |
|||
Mit der [[Sinusfunktion]] <math>f(x) =\sin x</math> ergibt sich der Differenzenquotient |
|||
: <math>\frac{\Delta f}{\Delta x} =\frac{\sin(x+h)-\sin x}{(x+h)-x}.</math> |
|||
Mit dem [[Formelsammlung Trigonometrie #Summen zweier trigonometrischer Funktionen (Identitäten)|Additionstheorem]] |
|||
: <math>\sin u-\sin v =2\cos\frac{u+v}2 \sin\frac{u-v}2</math> |
|||
gilt |
|||
: <math>\frac{\Delta f}{\Delta x} =2\frac{\cos\frac{2x+h}2 \sin\frac h2}h =\cos\tfrac{2x+h}2 \cdot\frac{\sin\frac h2}{\tfrac h2}.</math> |
|||
Mit dem [[#Berechnung von Grenzwerten|oben]] hergeleiteten Grenzübergang |
|||
: <math>\lim_{u \to 0} \frac{\sin u}u =1</math> |
|||
und mit <math>u=\tfrac h2</math> entsteht |
|||
: <math> f'(x) = \lim_{h \to 0} \frac{\Delta f}{\Delta x} =\cos\frac{2x}2\cdot1 =\cos x.</math> |
|||
Für die [[Kosinusfunktion]] führt eine entsprechende Rechnung mit |
|||
: <math>\cos u-\cos v=-2\sin \frac{u+v}2 \sin \frac{u-v}2</math> |
|||
auf <math>\quad\frac{\Delta f}{\Delta x} =\frac{\cos(x+h)-\cos x}{(x+h)-x} =-\sin\tfrac{2x+h}2 \cdot\frac{\sin\frac h2}{\tfrac h2}.</math> |
|||
: <math> f'(x) = \lim_{h \to 0} \frac{\Delta f}{\Delta x} =-\sin x.</math> |
|||
=== Weitere elementare Funktionen === |
|||
Mit den vorstehenden Ableitungen können Ableitungsfunktionen für weitere Funktionen aufgestellt werden. Dazu werden zusätzlich die Ableitungsregeln für die Grundrechenarten, die [[Kettenregel]] und die [[Umkehrregel]] benötigt. |
|||
==== Allgemeine Potenzen ==== |
|||
Die Funktion <math>f(x) = x^n</math> ist bisher nur für <math>n</math> als natürliche Zahl abgeleitet worden. Die Anwendbarkeit der zugehörigen Ableitungsregel lässt sich bei <math>x>0</math> auf reelle Exponenten erweitern. Mit der Substitution<ref>Klaus Hefft: ''Mathematischer Vorkurs zum Studium der Physik.'' 2. Auflage. Springer, 2018, S. 97.</ref> |
|||
: <math>z(x)=n\,\ln x</math> |
|||
ist <math>\;f(x) =x^n=\mathrm e^z.</math> |
|||
Wird dieses mit der Kettenregel differenziert, so entsteht das bekannte Ergebnis: |
|||
: <math>f'(x)= \frac{\mathrm df}{\mathrm dz}\,\frac{\mathrm dz}{\mathrm dx}= \mathrm e^z\cdot n\;\frac1x =n\;\frac fx =n\,x^{n-1}.</math> |
|||
Eine Anwendung ist die Ableitung der [[Wurzelfunktion]]. |
|||
Für <math>f(x) = \sqrt[m]{x} = x^{\frac1m}</math> gilt mit <math>n=\tfrac1m</math> |
|||
: <math>f'(x) = \frac1m\frac fx =\frac1m\; \frac{\sqrt[m]{x}}x.</math> |
|||
Der Fall <math>m=2</math> betrifft die [[Quadratwurzel]]: |
|||
Für <math>f(x) = \sqrt x\quad</math> gilt <math>\quad f'(x) = \frac1{2\sqrt x}.</math> |
|||
==== Tangens und Kotangens ==== |
|||
Mit Hilfe der [[Quotientenregel]] und den Ableitungsfunktionen für Sinus und Kosinus können auch die Ableitungsfunktionen für [[Tangens und Kotangens]] aufgestellt werden. Es gilt |
|||
: <math>\tan'x =\left(\frac{\sin x}{\cos x}\right)' = \frac{\sin'x\cos x-\cos'x\sin x}{\cos^2x} = \frac{\cos^2x+\sin^2x}{\cos^2x} = \frac1{\cos^2x} = 1 + \tan^2x.</math> |
|||
Dabei wurde die als „[[Trigonometrischer Pythagoras]]“ bezeichnete Formel <math>\sin^2x+\cos^2x =1</math> verwendet. Ebenso wird gewonnen |
|||
: <math>\cot'x = \frac{-\sin^2x-\cos^2x}{\sin^2x} = \frac{-1}{\sin^2x} = -1-\cot^2x.</math> |
|||
==== Arkussinus und Arkuskosinus ==== |
|||
[[Arkussinus und Arkuskosinus]] sind als Umkehrfunktionen von [[Sinus und Kosinus]] definiert. Die Ableitungen werden mittels der Umkehrregel berechnet. Setzt man <math>x = \sin y</math>, so folgt im Bereich <math>|x|<1</math> |
|||
: <math>\arcsin'x =\frac1{\sin'y} = \frac1{\cos y} =\frac1{\sqrt{1 -\sin^2y}} =\frac1{\sqrt{1-x^2}}.</math> |
|||
Für den Arkuskosinus ergibt sich mit <math>x = \cos y</math> ebenso |
|||
: <math>\arccos'x =\frac1{\cos'y} =\frac1{-\sin y} =-\frac1{\sqrt{1 -\cos^2y}} =-\frac1{\sqrt{1-x^2}}.</math> |
|||
==== Arkustangens und Arkuskotangens ==== |
|||
[[Arkustangens und Arkuskotangens]] sind als Umkehrfunktionen von [[Tangens und Kotangens]] definiert. Setzt man <math>x = \tan y</math>, so folgt mittels der Umkehrregel |
|||
: <math>\arctan'x = \frac{1}{\tan'y} = \frac{1}{1+\tan^2y} = \frac{1}{1+x^2}.</math> |
|||
Für den Arkuskotangens ergibt sich mit <math>x = \cot y</math> ebenso |
|||
: <math>\arccot'x = \frac1{\cot'y} = \frac1{-1-\cot^2y} = -\frac1{1+x^2}.</math> |
|||
=== Zusammengesetzte Funktion === |
|||
Zusammengesetzte Funktionen lassen sich so weit strukturieren, bis sich zu jedem Strukturelement die jeweils zutreffende elementare Ableitungsregel finden lässt. Dazu gibt es die [[Summenregel]], die [[Produktregel]], die [[Quotientenregel]] und die [[Kettenregel]]. Da diese in eigenen Artikeln erläutert werden, wird hier nur ein Beispiel vorgestellt. |
|||
:<math>f(x)= (1+\sin 2x)^2</math> |
|||
:{| |
|||
| <math>f(x)= f(u) =u^2 \quad</math> || mit <math>u=1+\sin 2x \quad</math> || <math>f(u)</math> ist ableitbar nach <math>u</math> als Potenz || <math>f'=2u</math> |
|||
|- |
|- |
||
| |
| <math>u=u(v) =1+v</math> || mit <math>v=\sin 2x</math> || <math>u(v)</math> ist ableitbar nach <math>v</math> als Summe mit einer Konstanten || <math>u'=1</math> |
||
|- |
|||
| <math>v=v(w) =\sin w</math> || mit <math>w=2x</math> || <math>v(w)</math> ist ableitbar nach <math>w</math> als trigonometrische Funktion || <math>v'=\cos w</math> |
|||
|- |
|||
| <math>w=w(x) =2x</math> || || <math>w(x)</math> ist ableitbar nach <math>x</math> als Potenz mit konstantem Faktor || <math>w'=2</math> |
|||
|} |
|||
Nach der Kettenregel ergibt sich |
|||
:<math>f'(x)= 4\,(1+\sin 2x)\,\cos 2x</math> |
|||
=== {{Anker|Ableitungsregeln}} Zusammenfassung === |
|||
Hier werden die Ableitungsregeln elementarer und zusammengesetzter Funktionen zusammengefasst. Eine ausführliche Liste findet sich unter [[Tabelle von Ableitungs- und Stammfunktionen]]. |
|||
{| class="wikitable" |
|||
|- |
|- |
||
! <math>f(x)</math> || <math>f'(x)</math> || Anmerkung |
|||
|- |
|- |
||
| <math> |
| <math>x</math> || <math>1</math> || '''Elementares''' |
||
|- |
|- |
||
| |
|<math>ax</math> || <math>a</math> || konstanter Faktor bleibt erhalten |
||
|- |
|- |
||
| |
|<math>x+a</math> || <math>1</math> || konstanter Summand verschwindet |
||
|- |
|- |
||
| <math>x^n</math> || <math>n\,x^{n-1}</math> || '''Potenzfunktion''' |
|||
|- |
|- |
||
| <math>\mathrm e^x</math> || <math>\mathrm e^x</math> || rowspan="2" | '''Exponentialfunktion''' |
|||
|- |
|- |
||
| <math>a^x</math> || <math>a^x\,\ln a\quad (a>0)</math> |
|||
|valign="top"| <math>\bullet\;</math> [[Umkehrregel]]: ||Ist ''f'' eine, an der Stelle ''x''<sub>0</sub> differenzierbare, [[bijektiv]]e Funktion mit ''f'' '(''x''<sub>0</sub>)≠0, und ihre [[Umkehrfunktion]] ''f''<sup> -1</sup> bei ''f''(''x''<sub>0</sub>) differenzierbar, dann gilt: |
|||
:<math>(f^{-1})'(f(x_0)) = \frac{1}{f'(x_0)}.</math> |
|||
(Spiegelt man einen Punkt ''P'' des [[Funktionsgraph|Graphen]] von ''f'' an der 1. [[Mediane]] und erhält damit ''P''* auf ''f''<sup> -1</sup>, so ist die Steigung von ''f''<sup> -1</sup> in ''P''* der [[Kehrwert]] der Steigung von ''f'' in ''P'') |
|||
|- |
|- |
||
| <math>\ln |x|</math> || <math>\frac 1x</math> || rowspan="2" | '''Logarithmusfunktion''' |
|||
|valign="top"| <math>\bullet\;</math> [[Logarithmische Ableitung]]: ||Aus der Kettenregel folgt für die Ableitung des natürlichen Logarithmus einer Funktion f: |
|||
:<math>(\ln(f))' = \frac{f'}{f}</math> |
|||
Ein Bruch der Form f '/ f wird logarithmische Ableitung genannt. |
|||
|- |
|- |
||
| <math>\log_a |x|</math> || <math>\frac1x\, \frac1{\ln a}</math> |
|||
|Um <math>\mathsf{}f(x) =g(x)^{h(x)}</math> abzuleiten, erinnert man sich, dass [[Potenz (Mathematik)|Potenzen]] mit reellen Exponenten auf dem Umweg über die [[Exponentialfunktion]] definiert sind: <math>\mathsf{}f(x) = \exp(h(x) \ln(g(x)))</math>. Anwendung der Kettenregel und – für die innere Ableitung – der Produktregel ergibt |
|||
:<math>f'(x) = \left(h'(x)\ln(g(x)) + h(x) \frac{g'(x)}{g(x)}\right) g(x)^{h(x)}</math>. |
|||
|- |
|- |
||
|<math>\sin x</math> || <math>\cos x</math> || rowspan="8" | '''Trigonometrische Funktionen''' |
|||
|valign="top"| <math>\bullet\;</math>Leibnizsche Regel |
|||
|- |
|||
|Ableitung ''n''-ter Ordnung für ein Produkt aus zwei Funktionen können mit <math>D^{(n)}=\frac{d}{dx}</math><br /><math>D^n(uv)=uD^nv+\frac{n}{1}DuD^{n-1}v+\frac{n(n-1)}{2}D^2uD^{n-2}v+\dots</math><br /><math>+\frac{n(n-1)\dots(n-m+1)}{m!}D^muD^{n-m}v+\dots+D^nuv</math><br />Vorausgesetzt ''D<sup>0</sup>u'' wird durch ''u'' und ''D<sup>0</sup>v'' wird durch v ersetzt, so erhält man eine entsprechende Struktur zum Binomischen Lehrsatz:<br /><math>D^n(uv)=\sum_{m=0}^n{n \choose m}D^muD^{n-m}v</math> |
|||
|<math>\cos x</math> || <math>-\sin x</math> |
|||
|- |
|||
|<math>\tan x</math> || <math>\frac1{\cos^2x}=1 +\tan^2x</math> |
|||
|- |
|||
|<math>\cot x</math> || <math>-\frac1{\sin^2x}=-(1 + \cot^2x)</math> |
|||
|- |
|||
| <math>\arcsin x</math> || <math>\frac1{\sqrt{1-x^2}} \quad (|x|<1)</math> |
|||
|- |
|||
| <math>\arccos x</math> || <math>\frac{-1}{\sqrt{1-x^2}} \quad (|x|<1)</math> |
|||
|- |
|||
| <math>\arctan x</math> || <math>\frac1{x^2+1}</math> |
|||
|- |
|||
| <math>\arccot x</math> || <math>\frac{-1}{x^2+1}</math> |
|||
|- |
|||
| <math>\sinh x</math> || <math>\cosh x</math> || rowspan="8"| '''Hyperbelfunktionen''' |
|||
|- |
|||
| <math>\cosh x</math> || <math>\sinh x</math> |
|||
|- |
|||
| <math>\tanh x</math> || <math>\frac1{\cosh^2 x} =1-\tanh^2 x</math> |
|||
|- |
|||
| <math>\coth x</math> || <math>\frac{-1}{\sinh^2 x} =1-\coth^2 x</math> |
|||
|- |
|||
| <math>\operatorname{arsinh} x</math> || <math>\frac1{\sqrt {x^2+1}}</math> |
|||
|- |
|||
| <math>\operatorname{arcosh} x</math> || <math>\frac1{\sqrt {x^2-1}} \quad (x>1)</math> |
|||
|- |
|||
| <math>\operatorname{artanh} x</math> || <math>\frac1{1-x^2} \quad (|x|<1)</math> |
|||
|- |
|||
| <math>\operatorname{arcoth} x</math> || <math>\frac{1}{1-x^2} \quad (|x|>1)</math> |
|||
|- |
|||
| <math>u(x)+v(x)</math> || <math>u'+v'</math> || '''[[Summenregel]]''' |
|||
|- |
|||
| <math>u(x)\cdot v(x)</math> || <math>u'v+v'u</math> || '''[[Produktregel]]''' |
|||
|- |
|||
| <math>u(x):v(x)</math> || <math>\frac{u'v-v'u}{v^2}</math> || '''[[Quotientenregel]]''' |
|||
|- |
|||
| <math>u[v(x)]</math> || <math>f'(u)\cdot u'(v)\cdot v'(x)</math><br />oder <math>\frac{\mathrm df}{\mathrm dx} =\frac{\mathrm df}{\mathrm du}\, \frac{\mathrm du}{\mathrm dv}\, \frac{\mathrm dv}{\mathrm dx}</math> || '''[[Kettenregel]]'''<br />mit <math>f=f(u), u=u(v), v=v(x)</math> |
|||
|- |
|||
| <math>f(x)</math> || <math>\frac1{(f^{-1})'(y)}</math><br /> oder <math>\frac{\mathrm dy}{\mathrm dx} = \frac1{\frac{\mathrm dx}{\mathrm dy}}</math> || '''[[Umkehrregel]]'''<br /> mit <math>y = f(x)</math> oder nach <math>x</math> aufgelöst<br /><math>\quad\ x=f^{-1}(y)</math> |
|||
|} |
|} |
||
== {{Anker|Höhere}} Höhere Ableitungen == |
|||
== Der Fundamentalsatz der Analysis == |
|||
Ist die Ableitung <math>f'</math> einer Funktion <math>f</math> wiederum differenzierbar, so lässt sich die zweite Ableitung von <math>f</math> als Ableitung der ersten definieren. Auf dieselbe Weise können dann auch dritte, vierte etc. Ableitungen definiert werden. Eine Funktion kann dementsprechend einmal differenzierbar, zweimal differenzierbar etc. sein. |
|||
Ist die erste Ableitung eines [[Weg (Physik)|Weges]] nach der Zeit eine [[Geschwindigkeit]], so kann die zweite Ableitung als [[Beschleunigung]] und die dritte Ableitung als [[Ruck]] interpretiert werden. |
|||
Die wesentliche Leistung von Leibniz war die Erkenntnis, dass [[Integralrechnung|Integration]] und Differentiation zusammenhängen. Diese formulierte er im [[Hauptsatz der Differential- und Integralrechnung]], auch ''Fundamentalsatz der Analysis'' genannt. Er besagt: |
|||
Wenn Politiker sich über den „Rückgang des Anstiegs der Arbeitslosenzahl“ äußern, dann sprechen sie von der zweiten Ableitung (Änderung des Anstiegs), um die Aussage der ersten Ableitung (Anstieg der Arbeitslosenzahl) zu relativieren. |
|||
Ist <math>I\subset\mathbb R</math> ein Intervall, <math>f:I\to\mathbb R</math> eine stetige Funktion und <math>a\in I</math> ein beliebiger Punkt, so ist die Funktion |
|||
: <math>F:I\to\mathbb R,\; x\mapsto \int_a^x f(t)\,dt</math> |
|||
stetig differenzierbar, und ihre Ableitung ist ''F<nowiki> '</nowiki> = f''. |
|||
Höhere Ableitungen können auf verschiedene Weisen geschrieben werden: |
|||
Hiermit ist also eine Anleitung zum Integrieren gegeben: Wir suchen eine Funktion, deren Ableitung der Integrand ist. Dann gilt: |
|||
: <math>\int_a^b f(x)\,dx = F(b)-F(a)</math>. |
|||
: <math>f'' = f^{(2)} = \frac{\mathrm d^2f}{\mathrm dx^2}, \quad f''' = f^{(3)} = \frac{\mathrm d^3f}{\mathrm dx^3}, \quad \ldots</math> |
|||
== [[Mittelwertsatz der Differentialrechnung]] == |
|||
oder im physikalischen Fall (bei einer Ableitung nach der Zeit) |
|||
Ein weiterer zentraler Satz der Differentialrechnung ist der Mittelwertsatz, der von Cauchy bewiesen wurde. |
|||
: <math>\ddot x(t)= \frac{\mathrm d^2 x}{\mathrm d t^2}, \quad \overset{...} x(t)= \frac{\mathrm d^3 x}{\mathrm d t^3}.</math> |
|||
Es sei <math>f: [a,b] \to \mathbb{R}</math> eine Funktion, die auf dem abgeschlossenen Intervall <math>[a,b]</math> (mit a < b) definiert und stetig ist. Außerdem sei die Funktion f im offenen Intervall <math>(a,b)</math> differenzierbar. Unter diesen Voraussetzungen gibt es mindestens ein <math>x_0 \in (a,b)</math>, sodass <math>f'(x_0) = \frac{f(b)-f(a)}{b-a}</math> gilt. |
|||
Für die formale Bezeichnung beliebiger Ableitungen <math>f^{(n)}</math> legt man außerdem <math>f^{(1)}=f'</math> und <math>f^{(0)}=f</math> fest. |
|||
== Mehrfache Ableitungen == |
|||
=== Höhere Differentialoperatoren === |
|||
Ist die Ableitung einer Funktion ''f'' wiederum differenzierbar, so lässt sich die zweite Ableitung von ''f'' als Ableitung der ersten definieren. Auf dieselbe Weise können dann auch dritte, vierte, etc. Ableitungen definiert werden. Eine Funktion kann dementsprechend einfach differenzierbar, zweifach differenzierbar, etc. sein. |
|||
{{Hauptartikel|Differentiationsklasse}} |
|||
Ist <math>n</math> eine natürliche Zahl und <math>U \subset \mathbb{R}</math> offen, so wird der Raum der in <math>U</math> <math>n</math>-mal stetig differenzierbaren Funktionen mit <math>C^n(U)</math> bezeichnet. Der [[Differentialoperator]] <math>\tfrac{\mathrm{d}}{\mathrm{d}x}</math> induziert damit eine Kette von [[Lineare Abbildung|linearen Abbildungen]] |
|||
Die zweite Ableitung kann geometrisch als die [[Krümmung]] eines Graphen interpretiert werden. Sie hat zahlreiche physikalische Anwendungen. Zum Beispiel ist die erste Ableitung des Orts '''s'''(''t'') nach der Zeit ''t'' die Momentangeschwindigkeit, die zweite Ableitung die [[Beschleunigung]]. |
|||
: <math> C^n(U) \, \, \, \, \overset{\tfrac{\mathrm{d}}{\mathrm{d}x}}{\longrightarrow} \, \, \, \, C^{n-1}(U) \, \, \, \, \overset{\tfrac{\mathrm{d}}{\mathrm{d}x}}{\longrightarrow} \, \, \, \, C^{n-2}(U) \, \, \, \, \overset{\tfrac{\mathrm{d}}{\mathrm{d}x}}{\longrightarrow} \, \, \, \, \cdots \, \, \, \, \overset{\tfrac{\mathrm{d}}{\mathrm{d}x}}{\longrightarrow} \, \, \, \, C^0(U),</math> |
|||
und damit allgemein für <math>k \leq n</math>: |
|||
: <math>C^n(U) \, \, \, \, \overset{\tfrac{\mathrm{d}^k}{\mathrm{d}x^k}}{\longrightarrow} \, \, \, \, C^{n-k}(U).</math> |
|||
Dabei bezeichnet <math>C^0(U)</math> den Raum der in <math>U</math> [[Stetige Funktion|stetigen Funktionen]]. Exemplarisch: Wird ein <math>f \in C^n(U)</math> durch Anwenden von <math>\tfrac{\mathrm{d}}{\mathrm{d}x}</math> einmal abgeleitet, kann das Ergebnis <math>f'</math> im Allgemeinen nur noch <math>(n-1)</math>-mal abgeleitet werden usw. Jeder Raum <math>C^k(U)</math> ist eine <math>\mathbb{R}</math>-[[Algebra über einem Körper|Algebra]], da nach der Summen- bzw. der Produktregel Summen und auch Produkte von <math>k</math>-mal stetig differenzierbaren Funktionen wieder <math>k</math>-mal stetig differenzierbar sind. Es gilt zudem die aufsteigende Kette von echten [[Teilmenge|Inklusionen]] |
|||
: <math> \cdots \, \, \, \, C^n(U) \, \, \, \, \subsetneq \, \, \, \, C^{n-1}(U) \, \, \, \, \subsetneq \, \, \, \, C^{n-2}(U) \, \, \, \, \subsetneq \, \, \, \, \cdots \, \, \, \, \subsetneq \, \, \, \, C^0(U),</math> |
|||
denn offenbar ist jede mindestens <math>n</math>-mal stetig differenzierbare Funktion auch <math>(n-1)</math>-mal stetig differenzierbar usw., jedoch zeigen die Funktionen |
|||
: <math> f_n(x) = \begin{cases} x^{n+1} \sin\left(\frac{1}{x}\right), & x \in U \setminus \{0\}, \\ 0, & x = 0,\end{cases}</math> |
|||
exemplarisch Beispiele für Funktionen aus <math>C^{n-1}(U)\setminus C^{n}(U)</math>, wenn – was [[ohne Beschränkung der Allgemeinheit]] möglich ist – <math>0 \in U</math> angenommen wird.<ref>Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 329.</ref> |
|||
=== Höhere Ableitungsregeln === |
|||
Wenn Politiker sich erfreut über den "Rückgang des Anstiegs der Arbeitslosenzahl" äußern, dann sprechen sie von der zweiten Ableitung (Änderung des Anstiegs), um die unangenehme Aussage der ersten Ableitung (Anstieg der Arbeitslosenzahl) zu relativieren. |
|||
; [[Produktregel#Höhere Ableitungen und Faktorenzahl|Leibnizsche Regel]] |
|||
Die Ableitung <math>n</math>-ter Ordnung für ein Produkt aus zwei <math>n</math>-mal differenzierbaren Funktionen <math>f</math> und <math>g</math> ergibt sich aus |
|||
: <math>(fg)^{(n)} = \sum_{k=0}^n {n \choose k} f^{(k)} g^{(n-k)}</math>. |
|||
Mehrfache Ableitungen können auf drei verschiedene Weisen geschrieben werden: |
|||
: <math>f'' = f^{(2)} = \frac{{\rm d}^2f}{{\rm d}x^2}</math>, <math>f''' = f^{(3)} = \frac{{\rm d}^3f}{{\rm d}x^3}</math>, ... |
|||
Die hier auftretenden Ausdrücke der Form <math>\tbinom{n}{k}</math> sind [[Binomialkoeffizient]]en. Die Formel ist eine Verallgemeinerung der Produktregel. |
|||
Naheliegenderweise wird die Multi-Apostroph-Schreibweise bei niedrigen, die eine oder andere Zahlen-Schreibweise bei hohen Ableitungen bevorzugt. Für die formale Bezeichnung beliebiger Ableitungen <math>f^{(i)}</math> legt man außerdem fest, dass <math>f^{(1)}=f'</math> und <math>f^{(0)}=f</math>. |
|||
; [[Formel von Faà di Bruno]] |
|||
== Taylor-Reihen und Glattheit == |
|||
Diese Formel ermöglicht die geschlossene Darstellung der <math>n</math>-ten Ableitung der Komposition zweier <math>n</math>-mal differenzierbarer Funktionen. Sie verallgemeinert die Kettenregel auf höhere Ableitungen. |
|||
=== Taylorformeln mit Restglied === |
|||
Ist f eine im Intervall ''I'' (''n''+1)-mal stetig differenzierbare Funktion, dann gilt für alle ''a'' und ''x'' aus ''I'' die Darstellung der sogenannten [[Taylor-Formel]]: |
|||
{{Hauptartikel|Taylorformel}} |
|||
: <math> f(x) = T_{n} (x) + R_{n+1} (x)</math> |
|||
mit dem so genannten ''n''-ten '''Taylorpolynom''' an der Entwicklungsstelle ''a'' |
|||
: <math> |
|||
T_{n}(x) |
|||
= |
|||
\sum_{k=0}^n \left( {f^{(k)}(a) \over k!}(x-a)^k \right) |
|||
= |
|||
f(a) + \frac{f'(a)}{1!}(x-a) + \frac{f''(a)}{2!}(x-a)^2 + \ldots |
|||
+ \frac{f^{(n)}(a)}{n!}(x-a)^n |
|||
</math> |
|||
und dem so genannten (''n''+1)-ten '''Restglied''' |
|||
: <math> |
|||
R_{n+1}(x) |
|||
= |
|||
\frac{1}{n!}\int_a^x (x-t)^n f^{(n+1)}(t) dt |
|||
</math>. |
|||
Ist <math>f</math> eine in einem Intervall <math>I</math> <math>(n+1)</math>-mal stetig differenzierbare Funktion, dann gilt für alle <math>a</math> und <math>x</math> aus <math>I</math> die sogenannte Taylorformel: |
|||
Eine beliebig oft differenzierbare Funktion wird [[glatte Funktion]] genannt. Da sie alle Ableitungen besitzt, kann die oben angegebene Taylor-Formel erweitert werden auf die [[Taylor-Reihe]] von ''f'' mit Entwicklungspunkt ''a'': |
|||
: <math> |
|||
f(a) |
|||
+ f'(a) (x-a) |
|||
+ \frac{f''(a)}{2} (x-a)^2 |
|||
+ \ldots |
|||
+ \frac{f^{(n)}(a)}{n!} (x-a)^n |
|||
+ \ldots |
|||
= \sum_{n=0}^\infty \frac{f^{(n)}(a)}{n!} (x-a)^n |
|||
</math>. |
|||
: <math>f(x) = T_n(a;x) + R_{n+1}(a;x)</math> |
|||
Es stellt sich allerdings heraus, dass die Existenz aller Ableitung nicht ergibt, dass ''f'' sich durch die Taylor-Reihe darstellen lässt. Anders ausgedrückt: Jede [[analytische Funktion]] ist glatt, aber nicht umgekehrt, wie das im Artikel [[Taylorreihe]] gegebene Beispiel einer nicht analytischen glatten Funktion zeigt. |
|||
mit dem <math>n</math>-ten ''Taylorpolynom'' an der Entwicklungsstelle <math>a</math> |
|||
Häufig findet man in mathematischen Betrachtungen den Begriff ''hinreichend glatt''. Hiermit ist gemeint, dass die Funktion so oft differenzierbar ist, wie nötig um den aktuellen Gedankengang durchzuführen. |
|||
: <math>\begin{align} |
|||
== Anwendung: Berechnung von Minima und Maxima == |
|||
T_n(a;x) &= \sum_{k=0}^n \frac{f^{(k)}(a)}{k!}(x-a)^k \\ |
|||
&= f(a) + \frac{f'(a)}{1!}(x-a) + \frac{f''(a)}{2!}(x-a)^2 + \dotsb + \frac{f^{(n)}(a)}{n!}(x-a)^n |
|||
\end{align}</math> |
|||
und dem <math>(n+1)</math>-ten ''Restglied'' |
|||
Eine der wichtigsten Anwendungen der Differentialrechnung ist die Bestimmung von Extremwerten, meist zur [[Optimierung]] von Prozessen. Diese befinden sich im Spezialfall [[Monotonie|monotoner]] Funktionen am Rand des Definitionsbereichs, im Allgemeinen jedoch an den Stellen, wo die Ableitung Null ist. In diesem Abschnitt nehmen wir das [[Polynom]] |
|||
: <math> { f(x) } = { 1 \over 3 } \cdot x^3 - 2 \cdot x^2 + 3 \cdot x </math> |
|||
als Beispiel. Die Abbildung zeigt den Verlauf von ''f''(''x''), ''f'' '(''x'') und ''f'' <nowiki>''</nowiki>(''x''). |
|||
: <math>R_{n+1}(a; x) = \frac{f^{(n+1)}(\xi)}{(n+1)!}(x-a)^{n+1}</math> |
|||
[[Bild:Einekurvendiskussionmod.png]] |
|||
mit einem <math>\xi = \xi(x) \in (\min\{a,x\}, \max\{a,x\}) \subset I</math>.<ref>Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. S. 358.</ref> Eine beliebig oft differenzierbare Funktion wird [[glatte Funktion]] genannt. Da sie alle Ableitungen besitzt, kann die oben angegebene Taylorformel zur [[Taylorreihe]] von <math>f</math> mit Entwicklungspunkt <math>a</math> erweitert werden: |
|||
=== Waagerechte Tangenten === |
|||
Besitzt eine Funktion <math>f(x):I \to \mathbb{R}</math> in einem inneren Punkt ''c'' des zusammenhängenden Intervalls ''I'' ihren größten oder kleinsten Wert, also für alle ''x'' dieses Intervalles gilt ''f(c)>f(x)'' oder ''f(c)<f(x)'' und existiert darüber hinaus die Ableitung im Punkt ''c'', so kann die Ableitung dort nur gleich Null sein ''f'(c)=0''. |
|||
: <math>\begin{align} |
|||
Geometrische Deutung dieses '''Satzes von Fermat''' ist, dass die Funktion eine parallel zur ''x''-Achse verlaufende Tangente, auch waagerechte Tangente genannt, besitzt. Folglich ist die Steigung Null an der Stelle ''x=c''. |
|||
(Tf)(a;x) &:= f(a) + f'(a) (x-a) + \frac{f''(a)}{2} (x-a)^2 + \dotsb + \frac{f^{(n)}(a)}{n!} (x-a)^n + \dotsb \\ |
|||
& = \sum_{n=0}^\infty \frac{f^{(n)}(a)}{n!} (x-a)^n. |
|||
\end{align}</math> |
|||
Es ist jedoch nicht jede glatte Funktion durch ihre Taylorreihe darstellbar, siehe unten. |
|||
=== Glatte Funktionen === |
|||
Lediglich die notwendige Bedingung für die Existenz eines Maximal- oder Minimalwertes einer Funktion in einem Intervall ist durch den Satz von Fermat gegeben. Deswegen kann es sich um einen Hochpunkt (lokales Maximum), einen Tiefpunkt (lokales Minimum) oder einen Sattelpunkt handeln. |
|||
{{Hauptartikel|Glatte Funktion}} |
|||
Funktionen, die an jeder Stelle ihres Definitionsbereichs ''beliebig oft'' differenzierbar sind, bezeichnet man auch als ''glatte Funktionen''. Die Menge aller in einer offenen Menge <math>U \subset \mathbb{R}</math> glatten Funktionen <math>f\colon U \to \mathbb{R}</math> wird meist mit <math>C^\infty(U)</math> bezeichnet. Sie trägt die Struktur einer <math>\mathbb{R}</math>-[[Algebra über einem Körper|Algebra]] (skalare Vielfache, Summen und Produkte glatter Funktionen sind wieder glatt) und ist gegeben durch |
|||
Wesentlich ist die Bedingung, der Differenzierbarkeit der Funktion im Punkt ''x=c'' für den Satz von Fermat. Eine Funktion kann einen Maximal- oder Minimalwert haben, ohne dass die Ableitung an dieser Stelle existiert. |
|||
: <math> C^\infty(U) = \bigcap_{n \in \N} C^n(U),</math> |
|||
wobei <math>C^n(U)</math> alle in <math>U</math> <math>n</math>-mal stetig differenzierbaren Funktionen bezeichnet.<ref name="AE324" /> Häufig findet man in mathematischen Betrachtungen den Begriff ''hinreichend glatt.'' Damit ist gemeint, dass die Funktion mindestens so oft differenzierbar ist, wie es nötig ist, um den aktuellen Gedankengang durchzuführen. |
|||
=== Analytische Funktionen === |
|||
{{Hauptartikel|Analytische Funktion}} |
|||
Der obere Begriff der Glattheit kann weiter verschärft werden. Eine Funktion <math>f\colon U \to \mathbb{R}</math> heißt reell analytisch, wenn sie sich in jedem Punkt lokal in eine Taylorreihe entwickeln lässt, also |
|||
: <math>f(x) = \sum_{n=0}^\infty \frac{f^{(n)}(a)}{n!} (x - a)^n</math> |
|||
für alle <math>a \in U</math> und alle hinreichend kleinen Werte von <math>|x - a|</math>. Analytische Funktionen haben starke Eigenschaften und finden besondere Aufmerksamkeit in der komplexen Analysis. Dort werden dementsprechend keine reell, sondern komplex analytischen Funktionen studiert. Ihre Menge wird meist mit <math>C^\omega(U)</math> bezeichnet und es gilt <math>C^\omega(U) \subsetneq C^\infty(U)</math>. Insbesondere ist jede analytische Funktion glatt, aber ''nicht umgekehrt''. Die Existenz aller Ableitungen ist also ''nicht hinreichend'' dafür, dass die Taylorreihe die Funktion ''darstellt'', wie das folgende Gegenbeispiel |
|||
: <math>f(x) = \begin{cases} |
|||
0 & \text{falls } x = 0 \\ |
|||
\mathrm{e}^{-1/x^2} & \text{falls } x \neq 0 |
|||
\end{cases}</math> |
|||
einer nicht analytischen glatten Funktion zeigt.<ref>Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 330–331.</ref> Alle reellen Ableitungen dieser Funktion verschwinden in 0, aber es handelt sich nicht um die Nullfunktion. Daher wird sie an der Stelle 0 nicht durch ihre Taylorreihe dargestellt. |
|||
=== Anwendungen === |
|||
[[Datei:Ableitungsss.svg|rechts|Kurvendiskussion]] |
|||
Eine wichtige Anwendung der Differentialrechnung in einer Variablen ist die Bestimmung von [[Extremwert]]en, meist zur [[Optimierung (Mathematik)|Optimierung]] von Prozessen, wie etwa im Kontext von Kosten, Material oder Energieaufwand.<ref>T. Arens et al.: ''Mathematik''. Spektrum, S. 304.</ref> Die Differentialrechnung stellt eine Methode bereit, Extremstellen zu finden, ohne dabei unter Aufwand numerisch suchen zu müssen. Man macht sich zu Nutze, dass an einer lokalen Extremstelle <math>x_0</math> notwendigerweise die erste Ableitung der Funktion <math>f</math> gleich 0 sein muss. Es muss also <math>f'(x_0) = 0</math> gelten, wenn <math>x_0</math> eine lokale Extremstelle ist. Allerdings bedeutet andersherum <math>f'(x_0) = 0</math> noch nicht, dass es sich bei <math>f(x_0)</math> um ein Maximum oder Minimum handelt. In diesem Fall werden mehr Informationen benötigt, um eine eindeutige Entscheidung treffen zu können, was meist durch Betrachten höherer Ableitungen bei <math>x_0</math> möglich ist. |
|||
Eine Funktion kann einen Maximal- oder Minimalwert haben, ohne dass die Ableitung an dieser Stelle existiert, jedoch kann in diesem Falle die Differentialrechnung nicht verwendet werden. Im Folgenden werden daher nur zumindest lokal differenzierbare Funktionen betrachtet. Als Beispiel nehmen wir die [[Polynom]]funktion <math>f</math> mit dem Funktionsterm |
|||
: <math>f(x) = \frac 13 x^3 - 2 x^2 + 3 x = \frac x3 (x-3)^2.</math> |
|||
Die Abbildung zeigt den Verlauf der Graphen von <math>f</math>, <math>f'</math> und <math>f''</math>. |
|||
==== Horizontale Tangenten ==== |
|||
Besitzt eine Funktion <math>f\colon (a,b) \to \mathbb{R}</math> mit <math>(a,b) \subset \mathbb{R}</math> an einer Stelle <math>x_0 \in (a,b)</math> ihren größten Wert, gilt also für alle <math>x</math> dieses Intervalls <math>f(x_0) \ge f(x)</math>, und ist <math>f</math> an der Stelle <math>x_0</math> differenzierbar, so kann die Ableitung dort nur gleich Null sein: <math>f'(x_0)=0</math>. Eine entsprechende Aussage gilt, falls <math>f</math> in <math>x_0</math> den kleinsten Wert annimmt. |
|||
Geometrische Deutung dieses ''Satzes von Fermat'' ist, dass der Graph der Funktion in lokalen Extrempunkten eine parallel zur <math>x</math>-Achse verlaufende Tangente, auch waagerechte Tangente genannt, besitzt. |
|||
Es ist somit für differenzierbare Funktionen eine [[notwendige Bedingung]] für das Vorliegen einer Extremstelle, dass die Ableitung an der betreffenden Stelle den Wert 0 annimmt: |
|||
: <math>f^{\prime}(x_0) = 0</math> |
|||
Umgekehrt kann aber daraus, dass die Ableitung an einer Stelle den Wert Null hat, noch nicht auf eine Extremstelle geschlossen werden, es könnte auch beispielsweise ein [[Sattelpunkt]] vorliegen. Eine Liste verschiedener hinreichender Kriterien, deren Erfüllung sicher auf eine Extremstelle schließen lässt, findet sich im Artikel [[Extremwert]]. Diese Kriterien benutzen meist die zweite oder noch höhere Ableitungen. |
|||
==== Bedingung im Beispiel ==== |
|||
Im Beispiel ist |
Im Beispiel ist |
||
: <math> { f ' (x) } = { x^2 - 4 \cdot x + 3 } </math> |
|||
: <math>f'(x) = x^2 - 4 \cdot x + 3 = (x - 1) \cdot (x - 3).</math> |
|||
Daraus folgt, dass <math>f^{\prime}(x)=0</math> genau für <math>x=1</math> und <math>x=3</math> gilt. Die Funktionswerte an diesen Stellen sind <math>f(1)=\tfrac43</math> und <math>f(3)=0</math>, d. h., die Kurve hat in den Punkten <math>(1,\tfrac43)</math> und <math>(3,0)</math> waagerechte Tangenten, und nur in diesen. |
|||
Die zweite Ableitung ''f'' <nowiki>''</nowiki>(''x'') beschreibt die Steigung von ''f'' '(''x''), also die Änderung der Steigung von ''f''(''x''). Ist ''f'' <nowiki>''</nowiki>(''x'')>0, so ändert sich ''f'' '(''x'') von negativen zu positiven Werten, also liegt ein lokales Minimum von ''f''(''x'') vor. Im Falle ''f'' <nowiki>''</nowiki>(''x'')<0 ändert sich die Steigung vom positiven zu negativen Werten, das bedeutet ein lokales Maximum von ''f''(''x''). Im Beispiel ist ''f'' <nowiki>''</nowiki>(1) = -2 und ''f'' <nowiki>''</nowiki>(3) = 2. |
|||
Da die Folge |
|||
Mit Hilfe der Ableitungen lassen sich noch weitere Eigenschaften der Funktion analysieren, wie [[Wendepunkt]]e, [[Sattelpunkt (Mathematik)|Sattelpunkte]], [[Konvexe Funktion|Konvexität]] oder die oben schon angesprochene Monotonie. Die Durchführung dieser Untersuchungen wird im Artikel [[Kurvendiskussion]] beschrieben. |
|||
: <math>f(0) = 0, \quad f(1) = \frac{4}{3}, \quad f(3) = 0, \quad f(4) = \frac{4}{3}</math> |
|||
== Ein Beispiel für angewandte Differentialrechnung == |
|||
abwechselnd aus kleinen und großen Werten besteht, muss in diesem Bereich ein Hoch- und ein Tiefpunkt liegen. Nach dem Satz von Fermat hat die Kurve in diesen Punkten eine waagerechte Tangente, es kommen also nur die oben ermittelten Punkte in Frage: Also ist <math>(1,\tfrac43)</math> ein Hochpunkt und <math>(3,0)</math> ein Tiefpunkt. |
|||
: [[Bild:Neokl.png|left|300px]] |
|||
In der [[Mikroökonomie]] werden beispielsweise verschiedene Arten von [[Produktionsfunktionen]] analysiert, um daraus Erkenntnisse für [[Makroökonomie|makroökonomische]] Zusammenhänge zu gewinnen. Hier ist vor allem das typische Verhalten einer Produktionsfunktion von Interesse: Wie reagiert die abhängige Variable [[Output]] y (produzierte Menge eines Gutes), wenn der [[Input]] x ([[Produktionsfaktor]], z.B. [[Arbeit]] oder [[Kapital]]) um eine (infinitesimal) kleine Einheit erhöht wird? |
|||
==== Kurvendiskussion ==== |
|||
Ein Grundtyp einer Produktionsfunktion ist etwa die [[Neoklassik|neoklassische]] Produktionsfunktion. Sie zeichnet sich dadurch aus, dass der Output bei jedem zusätzlichen Input steigt, dass aber die Zuwächse abnehmend sind. Es sei beispielsweise für einen Betrieb die Produktionsfunktion |
|||
{{Hauptartikel|Kurvendiskussion}} |
|||
: <math>y = f(x) = \sqrt{400x-4} \mbox{ fuer } x \ge 100</math> |
|||
maßgebend. Die erste Ableitung dieser Funktion ergibt unter Anwendung der Kettenregel |
|||
: <math>\frac{dy}{dx} = \frac{1}{2}({400x-4})^{-\frac{1}{2}} \cdot 400 = \frac{200}{\sqrt{400x-4}} </math>. |
|||
Mit Hilfe der Ableitungen lassen sich noch weitere Eigenschaften der Funktion analysieren, wie die Existenz von [[Wendepunkt|Wende-]] und [[Sattelpunkt]]en, die [[Konvexe Funktion|Konvexität]] oder die oben schon angesprochene [[Reelle monotone Funktion|Monotonie]]. Die Durchführung dieser Untersuchungen ist Gegenstand der Kurvendiskussion. |
|||
Da der Wurzelausdruck der ersten Ableitung nur positiv werden kann, sieht man, dass der Ertrag bei jedem zusätzlichen Input steigt. Die zweite Ableitung ergibt |
|||
: <math>\frac{d^2y}{dx^2} = 200 (-\frac{1}{2})({400x-4})^{-\frac{3}{2}} \cdot 400 = -\frac{40.000}{\sqrt{(400x-4)^3}} </math>. |
|||
==== Termumformungen ==== |
|||
Sie wird für alle Inputs negativ, also fallen die Zuwächse. Man könnte also sagen, das bei steigendem Input der Output unter[[proportional]] steigt. |
|||
Neben der Bestimmung der Steigung von Funktionen ist die Differentialrechnung durch ihren [[Kalkül]] ein wesentliches Hilfsmittel bei der [[Term#Algebraische Umformungen|Termumformung]]. Hierbei löst man sich von jeglichem Zusammenhang mit der ursprünglichen Bedeutung der Ableitung als Anstieg. Hat man zwei [[Term]]e als gleich erkannt, lassen sich durch Differentiation daraus weitere (gesuchte) Identitäten gewinnen. Ein Beispiel mag dies verdeutlichen: |
|||
Aus der bekannten Partialsumme |
|||
== Ableitungen von mehrdimensionalen Funktionen == |
|||
: <math>\sum_{k=0}^n x^k = 1 + x + x^2 + \dotsb + x^n = \frac {x^{n+1}-1}{x-1}</math> |
|||
Alle vorigen Ausführungen legten eine Funktion in ''einer'' Variablen (also mit einer reellen oder komplexen Zahl als Argument) zu Grunde. Funktionen, die [[Vektor (Mathematik)|Vektoren]] auf Vektoren oder Vektoren auf Zahlen abbilden, können ebenfalls eine Ableitung haben. Allerdings ist eine Tangente an die Funktion in diesen Fällen nicht mehr eindeutig bestimmt, da es viele verschiedene Richtungen gibt. Hier ist also eine Erweiterung des bisherigen Ableitungsbegriffs notwendig. |
|||
der [[Geometrische Reihe|geometrischen Reihe]] soll die Summe |
|||
=== Die Partielle Ableitung === |
|||
Wir betrachten zunächst eine Funktion, die von <math>\mathbb{R}^n\to\mathbb{R}</math> geht. Ein Beispiel ist die [[Temperatur]]funktion: Wir messen in Abhängigkeit vom Ort die Temperatur in unserem Zimmer, um zu beurteilen, wie effektiv die Heizung ist. Bewegen wir das Thermometer in eine bestimmte Richtung, bemerken wir eine Veränderung der Temperatur. Diese ist die sogenannte ''Richtungsableitung''. Die Richtungsableitungen in spezielle Richtungen, nämlich die der Koordinatenachsen, nennt man auch die [[Partielle Ableitung|partiellen Ableitungen]]. |
|||
: <math>\sum_{k=1}^n kx^{k-1} = 1 + 2x + 3x^2 + \dotsb + nx^{n-1}</math> |
|||
Insgesamt lassen sich für eine Funktion in <math>n</math> Variablen insgesamt <math>n</math> partielle Ableitungen errechnen: |
|||
: <math>k = \frac{\partial f (x_1, \dots , x_n)}{\partial x_i} </math> |
|||
berechnet werden. Dies gelingt durch Differentiation mit Hilfe der [[Quotientenregel]]: |
|||
: <math> = \lim_{\Delta x_{i0} \to 0} |
|||
\frac{f(x_1, \dots , x_{i0}+\Delta x_i, \dots , x_n) |
|||
: <math>\sum_{k=1}^n kx^{k-1} |
|||
- f(x_1, \dots , x_{i0} , \dots , x_n)}{\Delta x_i};\quad |
|||
= \sum_{k=0}^n kx^{k-1} |
|||
i \in [1; n] |
|||
= \frac{\mathrm d}{\mathrm dx}\sum_{k=0}^n x^k |
|||
= \frac{\mathrm d}{\mathrm dx}\frac{x^{n+1}-1}{x-1} |
|||
= \frac{(n+1)x^n(x-1) - (x^{n+1}-1)}{(x-1)^2} |
|||
= \frac{nx^{n+1} - (n+1)x^n + 1}{(x-1)^2} |
|||
</math> |
</math> |
||
Alternativ ergibt sich die Identität auch durch Ausmultiplizieren und anschließendes dreifaches [[Teleskopsumme|Teleskopieren]], was aber nicht so einfach zu durchschauen ist. |
|||
Die einzelnen partiellen Ableitungen einer Funktion lassen sich auch gebündelt als Gradient oder [[Nablavektor]] anschreiben. Partielle Ableitungen können wieder differenzierbar sein und lassen sich dann in der sogenannten [[Hesse-Matrix]] anordnen. Analog zum eindimensionalen Fall sind die Kandidaten für Extremstellen da, wo die Ableitung Null ist, also der Gradient verschwindet. Ebenfalls analog benutzt man die zweite Ableitung, also die Hesse-Matrix, zur Bestimmung des exakt vorliegenden Falles. Im Gegensatz zum eindimensionalen ist allerdings die Formenvielfalt in diesem Falle größer. Mittels einer [[Hauptachsentransformation]] der durch eine mehrdimensionale Taylor-Entwicklung im betrachteten Punkt gegebenen [[Quadratische Form|quadratischen Form]] lassen sich die verschiedenen Fälle klassifizieren. |
|||
== Zentrale Aussagen der Differentialrechnung einer Variablen == |
|||
=== [[Implizite Differentiation]] === |
|||
=== Fundamentalsatz der Analysis === |
|||
Ist eine Funktion der Form <math> F\left(x,y\left(x\right)\right) = 0 </math> gegeben, so lautet die Ableitungsfunktion: <math> F_x + F_yy' = 0\mathsf{} </math> oder <math> y' = -\frac{F_x}{F_y}</math> mit <math> F_x = \frac{\partial F}{\partial x } , F_y = \frac{\partial F}{\partial y}; F_y \neq 0 </math>. |
|||
{{Hauptartikel|Fundamentalsatz der Analysis}} |
|||
Die wesentliche Leistung Leibniz’ war die Erkenntnis, dass [[Integralrechnung|Integration]] und Differentiation zusammenhängen. Diese formulierte er im Hauptsatz der Differential- und Integralrechnung, auch ''Fundamentalsatz der Analysis'' genannt, der besagt: |
|||
=== Totale Differenzierbarkeit === |
|||
Eine Funktion <math>f:U \subset \mathbb{R}^n \to \mathbb{R}^m</math>, mit <math>U</math> einer offenen Menge, heißt in einem Punkt <math>x_0 \in U</math> '''total differenzierbar''' (manchmal wird das total auch weggelassen), falls eine [[lineare Abbildung]] <math>L</math> existiert, so dass |
|||
: <math>\lim_{h \to 0} \frac{f(x_{0}+h)-f(x_0)-Lh}{\|h\|}=0</math>. |
|||
Ist <math>I\subset\mathbb R</math> ein Intervall, <math>f\colon I\to\mathbb R</math> eine stetige Funktion und <math>a\in I</math> eine beliebige Zahl aus <math>I</math>, so ist die Funktion |
|||
Für den eindimensionalen Fall stimmt diese Definition mit der oben angegebenen überein. Die lineare Abbildung <math>L</math> ist bei Existenz eindeutig bestimmt, hängt also insbesondere nicht von der verwendeten [[Norm (Mathematik)|Norm]] ab. Die Tangente wird also durch die lokale Linearisierung der Funktion abstrahiert. Die Matrixdarstellung der ersten Ableitung von <math>f</math> nennt man [[Jacobi-Matrix]]. Es handelt sich um eine <math>n \times m</math>-Matrix, im Fall <math>m=1</math> erhalten wir den oben beschriebenen Gradienten. |
|||
: <math>F\colon I\to\mathbb R,\; x\mapsto \int_a^x f(t)\,\mathrm{d}t</math> |
|||
Zwischen den partiellen Ableitungen und der totalen Ableitung besteht folgender Zusammenhang: Existieren in <math>x_0</math> alle partiellen Ableitungen und sind diese dort sogar [[Stetigkeit (Mathematik)|stetig]], dann ist die Funktion in <math>x_0</math> total differenzierbar. |
|||
stetig differenzierbar, und ihre Ableitung <math>F'</math> ist gleich <math>f</math>. |
|||
===Wichtige Sätze=== |
|||
* [[Satz_von_Schwarz|Satz von Schwarz]]: Die Differentiationsreihenfolge ist bei der Berechnung von partiellen Ableitungen höherer Ordnung (unter schwachen Zusatzvoraussetzungen) unerheblich. |
|||
* [[Satz von der impliziten Funktion]]: Funktionsgleichungen sind lösbar, falls die [[Jacobi-Matrix]] bezüglich bestimmter Variablen invertierbar ist. |
|||
Hiermit ist also eine Anleitung zum Integrieren gegeben: Gesucht ist eine Funktion <math>F</math>, deren Ableitung <math>F'</math> der Integrand <math>f</math> ist. Dann gilt:<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 32–33.</ref> |
|||
== Verallgemeinerungen == |
|||
: <math>\int_a^b f(x)\,\mathrm dx = F(b)-F(a).</math> |
|||
* In vielen Anwendungen ist es wünschenswert, Ableitungen auch für stetige oder sogar unstetige Funktionen bilden zu können. So kann beispielsweise eine sich am Strand brechende Welle durch eine partielle Differentialgleichung modelliert werden, die Funktion der Höhe der Welle ist aber noch nicht einmal stetig. Zu diesem Zweck verallgemeinerte man Mitte des 20. Jahrhunderts den Ableitungsbegriff auf den Raum der [[Distribution (Mathematik)|Distributionen]] und definierte dort eine [[schwache Ableitung]]. Eng verbunden damit ist der Begriff des [[Sobolew-Raum]]s. |
|||
* In der [[Differentialgeometrie]] werden gekrümmte Flächen untersucht. Hierzu wird der Begriff der [[Differentialform]] benötigt. |
|||
* Der Begriff der Ableitung als Linearisierung läßt sich analog auf Funktionen <math>f: U\subset X \to Y</math>, <math>U \subset X</math> [[offene_Menge|offen]] mit <math>X, Y</math> Banachräume, übertragen. <math>f</math> heißt in <math>x_0 \in U</math> differenzierbar, wenn ein stetiger [[linearer Operator]] <math>L \in \mathcal L(X,Y)</math> existiert, so dass <center><math> f(x_0 + h) - f(x_0) - Lh = o(\| h\|), \quad h \to 0.</math></center> |
|||
=== Mittelwertsatz der Differentialrechnung === |
|||
== Differentialgleichungen == |
|||
{{Hauptartikel|Mittelwertsatz der Differentialrechnung}} |
|||
Ein weiterer zentraler Satz der Differentialrechnung ist der [[Mittelwertsatz der Differentialrechnung|Mittelwertsatz]], der 1821 von [[Augustin-Louis Cauchy|Cauchy]] bewiesen wurde.<ref>Ernst Hairer, Gerhard Wanner: ''Analysis in historischer Entwicklung'', Springer, S. 248.</ref> |
|||
Die wichtigste Anwendung der Differentialrechnung neben dem Bestimmen von Maxima und Minima ist in der [[Mathematisches Modell|mathematischen Modellierung]] physikalischer Vorgänge. Wachstum, Bewegung oder Kräfte haben alle mit Ableitungen zu tun, ihre formelhafte Beschreibung muss also Differentiale enthalten. Typischerweise führt dies auf Gleichungen, in denen Ableitungen einer unbekannten Funktion auftauchen, eben genau [[Differentialgleichungen]]. |
|||
Es sei <math>f\colon [a,b] \to \mathbb{R}</math> eine Funktion, die auf dem abgeschlossenen Intervall <math>[a,b]</math> (mit <math>a < b</math>) definiert und stetig ist. Außerdem sei die Funktion <math>f</math> im offenen Intervall <math>(a,b)</math> differenzierbar. Unter diesen Voraussetzungen gibt es mindestens ein <math>x_0 \in (a,b)</math>, sodass |
|||
Beispielsweise verknüpft das Newtonsche Bewegungsgesetz |
|||
: <math>{{{\rm F}}(t)} = m{{\rm a}(t)} = m{\ddot{{\rm s}}} = m\frac{{\rm d}^2{\rm s}}{{\rm d}t^2}</math> |
|||
die Beschleunigung '''a''' eines Körpers mit seiner Masse ''m'' und der auf ihn einwirkenden Kraft '''F'''. Das Grundproblem der Mechanik lautet deshalb, aus einer gegebenen Beschleunigung auf die Ortsfunktion eines Körpers zurückzuschließen. Diese Aufgabe, eine Umkehrung der zweifachen Differentiation, hat die mathematische Gestalt einer Differentialgleichung zweiter Ordnung; die mathematische Schwierigkeit dieses Problems rührt daher, dass Ort, Geschwindigkeit und Beschleunigung [[Vektor (Mathematik)|Vektor]]en sind, die im allgemeinen nicht in die gleiche Richtung zeigen, und dass die Kraft – je nach Anwendungsfall – von der Zeit ''t'' oder/und vom Ort '''s''' abhängen kann. |
|||
: <math>f'(x_0) = \frac{f(b)-f(a)}{b-a}</math> |
|||
Da viele Anwendungen mehrdimensional sind, sind dort partielle Ableitungen sehr wichtig, mit denen sich [[partielle Differentialgleichung]]en formulieren lassen. Mathematisch kompakt werden diese mittels [[Differentialoperator]]en beschrieben und analysiert. |
|||
gilt – geometrisch-anschaulich: Zwischen zwei Schnittpunkten einer [[Sekante]] gibt es auf der Kurve einen Punkt mit zur Sekante paralleler [[Tangente]].<ref>Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 335.</ref> |
|||
=== Monotonie und Differenzierbarkeit === |
|||
Ist <math>a < b</math> und <math>f\colon (a,b) \to \mathbb{R}</math> eine differenzierbare Funktion mit <math>f'(x) \not= 0</math> für alle <math>a < x < b</math>, so gelten folgende Aussagen:<ref>Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 336.</ref> |
|||
* Die Funktion <math>f</math> ist strikt [[Monotone Funktion|monoton]]. |
|||
* Es ist <math>f((a,b)) = (c,d)</math> mit irgendwelchen <math>c < d</math>. |
|||
* Die Umkehrfunktion <math>f^{-1}\colon (c,d) \to \mathbb{R}</math> existiert, ist differenzierbar und erfüllt <math>(f^{-1})'(f(x)) = \frac{1}{f'(x)}</math>. |
|||
Daraus lässt sich herleiten, dass eine stetig differenzierbare Funktion <math>f\colon (a,b) \to f((a,b))</math>, deren Ableitung nirgends verschwindet, bereits einen [[Diffeomorphismus]] zwischen den Intervallen <math>(a,b)</math> und <math>f((a,b))</math> definiert. In mehreren Variablen ist die analoge Aussage falsch. So verschwindet die Ableitung der [[Komplexe Exponentialfunktion|komplexen Exponentialfunktion]] <math>z \mapsto \mathrm{exp}(z)</math>, nämlich sie selbst, in keinem Punkt, aber es handelt sich um keine (global) [[injektive Abbildung]] <math>\mathbb{C} \to \mathrm{exp}(\mathbb{C})</math>. Man beachte, dass diese als höherdimensionale reelle Funktion <math>\mathbb{R}^2\to \mathrm{\exp}(\mathbb{R}^2)</math> aufgefasst werden kann, da <math>\mathbb{C}</math> ein zweidimensionaler <math>\mathbb{R}</math>-[[Vektorraum]] ist. |
|||
Allerdings liefert der [[Satz von Hadamard]] ein Kriterium, mit dem in manchen Fällen gezeigt werden kann, dass eine stetig differenzierbare Funktion <math>F\colon \R^n \to \R^n</math> ein [[Homöomorphismus]] ist. |
|||
=== Die Regel von de L’Hospital === |
|||
{{Hauptartikel|Regel von de L’Hospital}} |
|||
Als eine Anwendung des [[Mittelwertsatz der Differentialrechnung|Mittelwertsatzes]] lässt sich eine Beziehung herleiten, die es in manchen Fällen erlaubt, unbestimmte Ausdrücke der Gestalt <math>\tfrac00</math> oder <math>\tfrac{\infty}{\infty}</math> zu berechnen.<ref>Herbert Amann, Joachim Escher: ''Analysis 1''. 3. Auflage. Birkhäuser, S. 346.</ref> |
|||
Seien <math>f,g\colon (a,b) \to \mathbb{R}</math> differenzierbar und <math>g</math> habe keine Nullstelle. Ferner gelte entweder |
|||
: <math> \lim_{x \to a} f(x) = \lim_{x \to a} g(x) = 0</math> |
|||
oder |
|||
: <math> \lim_{x \to a} f(x) = \lim_{x \to a} g(x) = \pm \infty</math>. |
|||
Dann gilt |
|||
: <math> \lim_{x \to a} \frac{f(x)}{g(x)} = \lim_{x \to a} \frac{f'(x)}{g'(x)},</math> |
|||
unter der Bedingung, dass der letzte [[Grenzwert (Funktion)|Grenzwert]] in <math>\mathbb{R} \cup \{\pm\infty \}</math> existiert. |
|||
== Differentialrechnung bei Funktionenfolgen und Integralen == |
|||
In vielen analytischen Anwendungen hat man es nicht mit ''einer'' Funktion <math>f</math>, sondern mit einer Folge <math>(f_n)_{n \in \mathbb{N}}</math> zu tun. Dabei muss geklärt werden, inwieweit sich der Ableitungsoperator mit Prozessen wie Grenzwerten, Summen oder Integralen verträgt. |
|||
=== Grenzfunktionen === |
|||
Bei einer konvergenten, differenzierbaren Funktionenfolge <math>(f_n)_{n \in \mathbb{N}}</math> ist es im Allgemeinen nicht möglich, Rückschlüsse auf den Grenzwert der Folge <math>(f_n')_{n \in \mathbb{N}}</math> zu ziehen, selbst dann nicht, wenn <math>(f_n)_{n \in \mathbb{N}}</math> [[Gleichmäßige Konvergenz|gleichmäßig konvergiert]]. Die analoge Aussage in der Integralrechnung ist hingegen richtig: Bei gleichmäßiger Konvergenz können Limes und Integral vertauscht werden, zumindest dann, wenn die Grenzfunktion „gutartig“ ist. |
|||
Aus dieser Tatsache kann zumindest Folgendes geschlossen werden: Sei <math>f_n\colon [a,b] \to \mathbb{R}</math> eine Folge stetig differenzierbarer Funktionen, sodass die Folge der Ableitungen <math>f_n'\colon [a,b] \to \mathbb{R}</math> ''gleichmäßig'' gegen eine Funktion <math>g\colon [a,b] \to \mathbb{R}</math> konvergiert. Es gelte außerdem, dass die Folge <math>f_n(x_0)</math> für ''mindestens einen'' Punkt <math>x_0 \in [a,b]</math> konvergiert. Dann konvergiert <math>f_n\colon [a,b] \to \mathbb{R}</math> bereits gleichmäßig gegen eine differenzierbare Funktion <math>g\colon [a,b] \to \mathbb{R}</math> und es gilt <math>f' = g</math>.<ref>[[Terence Tao]]: ''Analysis II'', Third Edition, Hindustan Book Agency, S. 64.</ref> |
|||
=== Vertauschen mit unendlichen Reihen === |
|||
Sei <math>f_n\colon [a,b] \to \mathbb{R}</math> eine Folge stetig differenzierbarer Funktionen, sodass die Reihe <math>\textstyle \sum_{n=1}^\infty ||f_n'||_\infty</math> konvergiert, wobei <math>||f_n'||_\infty := \sup_{x \in [a,b]} |f_n'(x)|</math> die [[Supremumsnorm]] bezeichnet. Konvergiert außerdem die Reihe <math>\textstyle \sum_{n=1}^\infty f_n(x_0)</math> für ein <math>x_0 \in [a,b]</math>, dann konvergiert die Funktionenreihe <math>\textstyle g_N := \sum_{n=1}^N f_n</math> gleichmäßig gegen eine differenzierbare Funktion, und es gilt<ref>Terence Tao: ''Analysis II'', Third Edition, Hindustan Book Agency, S. 65.</ref> |
|||
: <math> \left( \sum_{n=1}^\infty f_n\right)'(x) = \sum_{n=1}^\infty f_n'(x).</math> |
|||
Das Resultat geht auf [[Karl Weierstraß]] zurück.<ref>Jeremy Gray: ''The Real and the Complex: A History of Analysis in the 19th Century'', Springer, S. 201.</ref> |
|||
=== Vertauschen mit Integration === |
|||
Es sei <math>f\colon [a,b] \times [c,d] \to \mathbb{R}</math> eine stetige Funktion, sodass die [[partielle Ableitung]] |
|||
: <math>(t,x) \mapsto \frac{\partial}{\partial x}f(t,x)</math> |
|||
existiert und stetig ist. Dann ist auch |
|||
: <math> g(x) := \int_a^b f(t,x)\mathrm{d}t</math> |
|||
differenzierbar, und es gilt |
|||
: <math> g'(x) = \int_a^b \frac{\partial}{\partial x} f(t,x)\mathrm{d}t.</math> |
|||
Diese Regel wird auch als ''Leibnizsche Regel'' bezeichnet.<ref>[[Eberhard Freitag]], Rolf Busam: ''Funktionentheorie 1'', 4. Auflage, Springer, S. 89.</ref> |
|||
== Differentialrechnung über den komplexen Zahlen == |
|||
Bisher wurde nur von [[Reelle Zahl|reellen]] Funktionen gesprochen. Alle behandelten Regeln lassen sich jedoch auf Funktionen mit [[Komplexe Zahl|komplexen]] Eingaben und Werten übertragen. Dies hat den Hintergrund, dass die komplexen Zahlen <math>\mathbb{C}</math> genau wie die reellen Zahlen einen [[Körper (Algebra)|Körper]] bilden, dort also Addition, Multiplikation und Division erklärt ist. Diese zusätzliche Struktur bildet den entscheidenden Unterschied zu einer Herangehensweise mehrdimensionaler reeller Ableitungen, wenn <math>\mathbb{C}</math> bloß als zweidimensionaler <math>\mathbb{R}</math>-[[Vektorraum]] aufgefasst wird. Ferner lassen sich die euklidischen Abstandsbegriffe der reellen Zahlen (siehe auch [[Euklidischer Raum]]) auf natürliche Weise auf komplexe Zahlen übertragen. Dies erlaubt eine analoge Definition und Behandlung der für die Differentialrechnung wichtigen Begriffe wie [[Folge (Mathematik)|Folge]] und [[Grenzwert (Folge)|Grenzwert]].<ref>Eberhard Freitag, Rolf Busam: ''Funktionentheorie 1'', 4. Auflage, Springer, S. 16 ff.</ref> |
|||
Ist also <math>U \subset \mathbb{C}</math> offen, <math>f\colon U \to \mathbb{C}</math> eine komplexwertige Funktion, so heißt <math>f</math> an der Stelle <math>z \in U</math> ''komplex differenzierbar'', wenn der Grenzwert |
|||
: <math> \lim_{h \to 0} \frac{f(z+h) - f(z)}{h}</math> |
|||
existiert.<ref>Eberhard Freitag, Rolf Busam: ''Funktionentheorie 1'', 4. Auflage, Springer, S. 35.</ref> Dieser wird mit <math>f'(z)</math> bezeichnet und ''(komplexe) Ableitung von <math>f</math> an der Stelle <math>z</math>'' genannt. Es ist demnach möglich, den Begriff der Linearisierung ins Komplexe weiterzutragen: Die Ableitung <math>f'(z)</math> ist die „Steigung“ der linearen Funktion, die <math>f</math> bei <math>z</math> optimal approximiert. Allerdings ist darauf zu achten, dass der Wert <math>h</math> im Grenzwert nicht nur reelle, sondern auch komplexe Zahlen (nahe bei 0) annehmen kann. Dies hat zur Folge, dass der Terminus der komplexen Differenzierbarkeit wesentlich restriktiver ist als jener der reellen Differenzierbarkeit. Während im Reellen nur zwei Richtungen im Differenzenquotienten betrachtet werden mussten, sind es im Komplexen unendlich viele Richtungen, da diese keine Gerade, sondern eine Ebene aufspannen. So ist beispielsweise die Betragsfunktion <math>z \mapsto |z|</math> nirgends komplex differenzierbar. Eine komplexe Funktion ist genau dann komplex differenzierbar in einem Punkt, wenn sie dort die [[Cauchy-Riemannsche partielle Differentialgleichungen|Cauchy-Riemannschen Differentialgleichungen]] erfüllt und [[total differenzierbar]] ist.<ref>Eberhard Freitag, Rolf Busam: ''Funktionentheorie 1'', 4. Auflage, Springer, S. 42–43.</ref> |
|||
Trotz (bzw. gerade wegen) des viel einschränkenderen Begriffs der komplexen Differenzierbarkeit übertragen sich alle üblichen Rechenregeln der reellen Differentialrechnung in die komplexe Differentialrechnung. Dazu gehören die Ableitungsregeln, also zum Beispiel Summen-, Produkt- und Kettenregel, wie auch die Umkehrregel für inverse Funktionen. Viele Funktionen, wie Potenzen, die Exponentialfunktion oder der Logarithmus, haben natürliche Fortsetzungen in die komplexen Zahlen und besitzen weiterhin ihre charakteristischen Eigenschaften. Von diesem Gesichtspunkt her ist die komplexe Differentialrechnung mit ihrem reellen Analogon identisch. |
|||
Wenn eine Funktion <math>f</math> in ganz <math>U</math> komplex differenzierbar ist, nennt man sie auch eine ''in <math>U</math> [[holomorphe Funktion]]''.<ref>Eberhard Freitag, Rolf Busam: ''Funktionentheorie 1'', 4. Auflage, Springer, S. 45.</ref> Holomorphe Funktionen haben bedeutende Eigenschaften. So ist zum Beispiel jede holomorphe Funktion bereits (in jedem Punkt) beliebig oft differenzierbar. Die daraus aufkommende Klassifizierungfrage holomorpher Funktionen ist Gegenstand der [[Funktionentheorie]]. Es stellt sich heraus, dass im komplex-eindimensionalen Fall der Begriff holomorph äquivalent zum Begriff [[Analytische Funktion|analytisch]] ist. Demnach ist jede holomorphe Funktion analytisch, und umgekehrt. Ist eine Funktion sogar in ganz <math>\mathbb{C}</math> holomorph, so nennt man sie ''[[Ganze Funktion|ganz]]''. Beispiele für ganze Funktionen sind die Potenzfunktionen <math>z \mapsto z^n</math> mit natürlichen Zahlen <math>n</math> sowie <math>z \mapsto e^z</math>, <math>z \mapsto \sin(z)</math> und <math>z \mapsto \cos(z)</math>. |
|||
== Differentialrechnung mehrdimensionaler Funktionen == |
|||
Alle vorherigen Ausführungen legten eine Funktion in ''einer'' Variablen (also mit einer reellen oder komplexen Zahl als Argument) zugrunde. Funktionen, die [[Vektor]]en auf Vektoren oder Vektoren auf Zahlen abbilden, können ebenfalls eine Ableitung haben. Allerdings ist eine Tangente an den Funktionsgraph in diesen Fällen nicht mehr eindeutig bestimmt, da es viele verschiedene Richtungen gibt. Hier ist also eine Erweiterung des bisherigen Ableitungsbegriffs notwendig. |
|||
=== Mehrdimensionale Differenzierbarkeit und die Jacobi-Matrix === |
|||
==== Richtungsableitung ==== |
|||
{{Hauptartikel|Richtungsableitung}} |
|||
Es sei <math>U \subset \R^n</math> offen, <math>f\colon U \to \R^m</math> eine Funktion, <math>x_0 \in U</math> und <math>v \in \R^n \setminus \{0\}</math> ein (Richtungs-)Vektor. Aufgrund der Offenheit von <math>U</math> gibt es ein <math>\varepsilon > 0</math> mit <math>x_0 + hv \in U</math> für alle <math>|h| < \varepsilon</math>, weshalb die Funktion <math>(-\varepsilon, \varepsilon) \to \R^m</math> mit <math>h \mapsto f(x_0 + hv)</math> wohldefiniert ist. Ist diese Funktion in <math>h=0</math> differenzierbar, so heißt ihre Ableitung '''Richtungsableitung''' von <math>f</math> an der Stelle <math>x_0</math> '''in der Richtung''' <math>v</math> und wird meistens mit <math>D_vf(x_0)</math> bezeichnet.<ref name="AE157" /> Es gilt: |
|||
: <math> D_vf(x_0) = \lim_{h\to 0} \frac{f(x_0 + hv) - f(x_0)}{h}.</math> |
|||
Es besteht ein Zusammenhang zwischen der Richtungsableitung und der Jacobi-Matrix. Ist <math>f</math> differenzierbar, dann existiert <math>D_vf(x_0)</math> und es gilt in einer Umgebung von <math>x_0</math>: |
|||
: <math>f(x_0 + hv) = f(x_0) + J_f(x_0)(hv) + o(|| hv ||) = f(x_0) + h J_f(x_0)v + o(|h|),</math> |
|||
wobei die Schreibweise <math>o</math> das entsprechende [[Landau-Symbol]] bezeichnet.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 158.</ref> |
|||
Es werde als Beispiel eine Funktion <math>\mathbb{R}^3\to\mathbb{R}</math> betrachtet, also ein [[Skalarfeld]]. Diese könnte eine [[Temperatur]]funktion sein: In Abhängigkeit vom Ort wird die Temperatur im Zimmer gemessen, um zu beurteilen, wie effektiv die Heizung ist. Wird das [[Thermometer]] in eine bestimmte Raumrichtung bewegt, ist eine Veränderung der Temperatur festzustellen. Dies entspricht genau der entsprechenden Richtungsableitung. |
|||
==== Partielle Ableitungen ==== |
|||
{{Hauptartikel|Partielle Ableitung}} |
|||
Die Richtungsableitungen in spezielle Richtungen <math>e_j</math>, nämlich in die der Koordinatenachsen mit der Länge <math>||e_j|| = ||v|| = 1</math>, nennt man die '''partiellen Ableitungen'''. |
|||
Insgesamt lassen sich für eine Funktion in <math>n</math> Variablen <math>n</math> partielle Ableitungen errechnen:<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 159.</ref> |
|||
: <math>\frac{\partial f(x_1, \dots, x_n)}{\partial x_i} = |
|||
\lim_{h_i \to 0} |
|||
\frac{f(x_1, \dots, x_i+h_i, \dots, x_n) |
|||
- f(x_1, \dots, x_i, \dots, x_n)}{h_i};\quad |
|||
i \in \{1, \dots, n\} |
|||
</math> |
|||
Die einzelnen partiellen Ableitungen einer Funktion lassen sich auch gebündelt als [[Gradient (Mathematik)|Gradient]] oder [[Nablavektor]] anschreiben:<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 165.</ref> |
|||
: <math>\mathrm{grad}(f)(x_1, \dots, x_n) = \nabla f(x_1, \dots, x_n) = \left( \frac{\partial f(x_1, \dots, x_n)}{\partial x_1}, \frac{\partial f(x_1, \dots, x_n)}{\partial x_2}, \dots, \frac{\partial f(x_1, \dots, x_n)}{\partial x_n}\right).</math> |
|||
Meist wird der Gradient als [[Zeilenvektor]] (also „liegend“) geschrieben. In manchen Anwendungen, besonders in der Physik, ist jedoch auch die Schreibweise als [[Spaltenvektor]] (also „stehend“) üblich. Partielle Ableitungen können selbst differenzierbar sein und ihre partiellen Ableitungen lassen sich dann in der sogenannten [[Hesse-Matrix]] anordnen. |
|||
==== Totale Differenzierbarkeit ==== |
|||
{{Hauptartikel|Totale Differenzierbarkeit}} |
|||
Eine Funktion <math>f\colon U \subset \mathbb{R}^n \to \mathbb{R}^m</math> mit <math>(x_1, \dots, x_n) \mapsto (f_1(x_1, \dots, x_n), \dots, f_m(x_1, \dots, x_n))</math>, wobei <math>U</math> eine [[offene Menge]] ist, heißt in einem Punkt <math>x_0 \in U</math> '''total differenzierbar''' (oder auch nur '''differenzierbar''', manchmal auch '''Fréchet-differenzierbar'''<ref name="AE157">Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 157.</ref>), falls eine [[lineare Abbildung]] <math>L\colon \mathbb{R}^n \to \mathbb{R}^m</math> existiert, sodass |
|||
: <math>\lim_{h \to 0} \frac{f(x_{0}+h)-f(x_0)-L(h)}{\|h\|} = 0</math> |
|||
gilt.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 154–157.</ref> Für den eindimensionalen Fall stimmt diese Definition mit der oben angegebenen überein. Die lineare Abbildung <math>L</math> ist bei Existenz eindeutig bestimmt, ist also insbesondere unabhängig von der Wahl [[Äquivalente Normen|äquivalenter Normen]]. Die Tangente wird daher durch die lokale Linearisierung der Funktion abstrahiert. Die Matrixdarstellung der ersten Ableitung von <math>f</math> nennt man [[Jacobi-Matrix]]. Es handelt sich um eine <math>(m \times n)</math>-Matrix. Für <math>m=1</math> erhält man den [[#Partielle Ableitungen|weiter oben]] beschriebenen Gradienten. |
|||
Zwischen den partiellen Ableitungen und der totalen Ableitung besteht folgender Zusammenhang: Existiert in einem Punkt die totale Ableitung, so existieren dort auch alle partiellen Ableitungen. In diesem Fall stimmen die partiellen Ableitungen mit den Koeffizienten der Jacobi-Matrix überein: |
|||
: <math>L = J_f(x_0) = \begin{pmatrix} |
|||
\frac{\partial f_1}{\partial x_1}(x_0) & \frac{\partial f_1}{\partial x_2}(x_0) & \ldots & \frac{\partial f_1}{\partial x_n}(x_0) \\ |
|||
\vdots & \vdots & \ddots & \vdots \\ |
|||
\frac{\partial f_m}{\partial x_1}(x_0) & \frac{\partial f_m}{\partial x_2}(x_0) & \ldots & \frac{\partial f_m}{\partial x_n} (x_0) |
|||
\end{pmatrix}.</math> |
|||
Umgekehrt folgt aus der Existenz der partiellen Ableitungen in einem Punkt <math>x_0</math> nicht zwingend die totale Differenzierbarkeit, ja nicht einmal die Stetigkeit. Sind die partiellen Ableitungen jedoch zusätzlich in einer Umgebung von <math>x_0</math> [[Stetige Funktion|stetig]], dann ist die Funktion in <math>x_0</math> auch total differenzierbar.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 158–163.</ref> |
|||
=== Rechenregeln der mehrdimensionalen Differentialrechnung === |
|||
==== Kettenregel ==== |
|||
{{Hauptartikel|Mehrdimensionale Kettenregel}} |
|||
Es seien <math>U \subset \mathbb{R}^n</math> und <math>V \subset \mathbb{R}^m</math> offen sowie <math>f\colon U \to \R^m</math> und <math>g\colon V \to \R^\ell</math> in <math>x_0 \in U</math> bzw. <math>y_0 := f(x_0)</math> differenzierbar, wobei <math>f(U) \subset V</math>. Dann ist <math>h\colon U \to \R^\ell</math> mit <math>h(x) := g(f(x))</math> in <math>x_0</math> differenzierbar mit Jacobi-Matrix |
|||
: <math> J_h(x_0) = J_{g \circ f}(x_0) = J_g(f(x_0)) J_f(x_0).</math> |
|||
Mit anderen Worten, die Jacobi-Matrix der Komposition <math>h = g \circ f</math> ist das Produkt der Jacobi-Matrizen von <math>g</math> und <math>f</math>.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 173.</ref> Es ist zu beachten, dass die Reihenfolge der Faktoren im Gegensatz zum klassischen eindimensionalen Fall eine Rolle spielt. |
|||
==== Produktregel ==== |
|||
{{Siehe auch|Produktregel#Höherdimensionaler Definitionsbereich|titel1=Mehrdimensionale Produktregel}} |
|||
Mit Hilfe der Kettenregel kann die Produktregel auf ''reellwertige'' Funktionen mit höherdimensionalem Definitionsbereich verallgemeinert werden.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 175.</ref> Ist <math>U \subset \R^n</math> offen und sind <math>f, g\colon U \to \R</math> beide in <math>x_0 \in U</math> differenzierbar, so folgt |
|||
: <math>J_{fg}(x_0) = f(x_0)J_g(x_0) + g(x_0)J_f(x_0)</math> |
|||
oder in der Gradientenschreibweise |
|||
: <math>\nabla(fg)(x_0) = f(x_0)\nabla g(x_0) + g(x_0)\nabla f(x_0).</math> |
|||
==== Funktionenfolgen ==== |
|||
Sei <math>U \subset \R^n</math> offen. Es bezeichne <math>f_k</math> eine Folge stetig differenzierbarer Funktionen <math>f_k\colon U \to \R^m</math>, sodass es Funktionen <math>f\colon U \to \R^m</math> und <math>g\colon U \to \mathcal{L}(\R^n, \R^m)</math> gibt (dabei ist <math>\mathcal{L}(\R^n, \R^m)</math> der Raum der linearen Abbildungen von <math>\R^n</math> nach <math>\R^m</math>), sodass Folgendes gilt: |
|||
* <math>(f_k)</math> konvergiert punktweise gegen <math>f</math>, |
|||
* <math>(J_{f_k})</math> konvergiert lokal gleichmäßig gegen <math>g</math>. |
|||
Dann ist <math>f</math> stetig differenzierbar auf <math>U</math> und es gilt <math>J_f(x) = g(x)</math>.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 177.</ref> |
|||
=== Implizite Differentiation === |
|||
{{Hauptartikel|Implizite Differentiation}} |
|||
Ist eine Funktion <math>x \mapsto y(x)</math> durch eine implizite Gleichung <math>F(x,y(x)) = 0</math> gegeben, so folgt aus der [[Mehrdimensionale Kettenregel|mehrdimensionalen Kettenregel]], die für Funktionen mehrerer Variablen gilt, |
|||
: <math>F_x + F_yy' = 0.</math> |
|||
Für die Ableitung der Funktion <math>y</math> ergibt sich daher |
|||
: <math>y' = -\frac{F_x}{F_y}</math> |
|||
mit <math>F_x = \frac{\partial F}{\partial x}, F_y = \frac{\partial F}{\partial y}</math> und <math>F_y \neq 0.</math> |
|||
=== Zentrale Sätze der Differentialrechnung mehrerer Veränderlicher === |
|||
==== Satz von Schwarz ==== |
|||
{{Hauptartikel|Satz von Schwarz}} |
|||
Die Differentiationsreihenfolge ist bei der Berechnung partieller Ableitungen höherer Ordnung unerheblich, wenn alle partiellen Ableitungen bis zu dieser Ordnung (einschließlich) stetig sind. Dies bedeutet konkret: Ist <math>U \subset \R^n</math> offen und die Funktion <math>f\colon U \to \R</math> zweimal stetig differenzierbar (d. h., alle zweifachen partiellen Ableitungen existieren und sind stetig), so gilt für alle <math>1 \leq j,k \leq n</math> und <math>x \in U</math>: |
|||
: <math> \frac{\partial}{\partial x_j} \frac{\partial}{\partial x_k} f(x_1, \dots, x_n) = \frac{\partial}{\partial x_k} \frac{\partial}{\partial x_j} f(x_1, \dots, x_n).</math> |
|||
Der Satz wird falsch, wenn die Stetigkeit der zweifachen partiellen Ableitungen weggelassen wird.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 192.</ref> |
|||
==== Satz von der impliziten Funktion ==== |
|||
{{Hauptartikel|Satz von der impliziten Funktion}} |
|||
Der Satz von der impliziten Funktion besagt, dass Funktionsgleichungen auflösbar sind, falls die [[Jacobi-Matrix]] bezüglich bestimmter Variablen lokal invertierbar ist.<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 230–232.</ref> |
|||
==== Mittelwertsatz ==== |
|||
Über den höherdimensionalen Mittelwertsatz gelingt es, eine Funktion entlang einer Verbindungsstrecke abzuschätzen, wenn die dortigen Ableitungen bekannt sind. Seien <math>U \subset \R^n</math> offen und <math>f\colon U \to \R^m</math> differenzierbar. Gegeben seien zudem zwei Punkte <math>x,y \in U</math>, sodass die Verbindungsstrecke <math>\{ x + t(y-x) \mid 0 \leq t \leq 1 \}</math> eine Teilmenge von <math>U</math> ist. Dann postuliert der Mittelwertsatz die Ungleichung:<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 176.</ref> |
|||
: <math> ||f(y) - f(x) || \leq \sup_{0 \leq t \leq 1} || J_f(x + t(y-x))|| \cdot ||y - x||.</math> |
|||
Eine präzisere Aussage ist indes für den Fall ''reellwertiger'' Funktionen in mehreren Veränderlichen möglich, siehe auch [[Mittelwertsatz der Differentialrechnung#Mittelwertsatz für reellwertige Funktionen mehrerer Variablen|Mittelwertsatz für reellwertige Funktionen mehrerer Variablen]]. |
|||
=== Höhere Ableitungen im Mehrdimensionalen === |
|||
Auch im Fall höherdimensionaler Funktionen können höhere Ableitungen betrachtet werden. Die Konzepte haben jedoch einige starke Unterschiede zum klassischen Fall, die besonders im Falle mehrerer Veränderlicher in Erscheinung treten. Bereits die Jacobi-Matrix lässt erkennen, dass die Ableitung einer höherdimensionalen Funktion an einer Stelle nicht mehr die gleiche Gestalt wie der dortige Funktionswert haben muss. Wird nun die erste Ableitung <math>x \mapsto J_f(x)</math> erneut abgeleitet, so ist die erneute „Jacobi-Matrix“ im Allgemeinen ein noch umfangreicheres Objekt. Für dessen Beschreibung ist das Konzept der [[Multilineare Abbildung|multilinearen Abbildungen]] bzw. des [[Tensor]]s erforderlich. Ist <math>\partial^0 f := f</math>, so ordnet <math>\partial f\colon U \to \mathcal{L}(\R^n, \R^m)</math> jedem Punkt eine <math>(m\times n)</math>-Matrix (lineare Abbildung von <math>\R^n</math> nach <math>\R^m</math>) zu. Induktiv definiert man für die höheren Ableitungen |
|||
: <math> \partial^\ell f(x_0) := \partial (\partial^{\ell-1} f)(x_0) \in \mathcal{L}(\R^n, \mathcal{L}^{\ell-1}(\R^n, \R^m)) = \mathcal{L}^{\ell}(\R^n, \R^m),</math> |
|||
wobei <math> \mathcal{L}^{\ell}(\R^n, \R^m)</math> der Raum der <math>\ell</math>-multilinearen Abbildungen von <math>\underbrace{\R^n \times \cdots \times \R^n}_{\ell-\mathrm{mal}}</math> nach <math>\R^m</math> bezeichnet. Analog wie im eindimensionalen Fall definiert man die Räume der <math>\ell</math>-mal stetig differenzierbaren Funktionen auf <math>U \subset \R^n</math> durch <math>C^\ell(U, \R^m)</math>, und die glatten Funktion via<ref>Herbert Amann, Joachim Escher: ''Analysis 2''. 2. Auflage. Birkhäuser, S. 188.</ref> |
|||
: <math>C^\infty(U, \R^m) := \bigcap_{\ell = 1}^\infty C^\ell(U, \R^m).</math> |
|||
Auch die Konzepte der Taylor-Formeln und der Taylorreihe lassen sich auf den höherdimensionalen Fall verallgemeinern, siehe auch [[Taylor-Formel#Taylor-Formel im Mehrdimensionalen|Taylor-Formel im Mehrdimensionalen]] bzw. [[Taylorreihe#Mehrdimensionale Taylorreihe|mehrdimensionale Taylorreihe]]. |
|||
=== Anwendungen === |
|||
==== Fehlerrechnung ==== |
|||
Ein Anwendungsbeispiel der Differentialrechnung mehrerer Veränderlicher betrifft die [[Fehlerrechnung]], zum Beispiel im Kontext der [[Experimentalphysik]]. Während man im einfachsten Falle die zu bestimmende Größe direkt messen kann, wird es meistens der Fall sein, dass sie sich durch einen funktionalen Zusammenhang aus einfacher zu messenden Größen ergibt. Typischerweise hat jede Messung eine gewisse Unsicherheit, die man durch Angabe des ''Messfehlers'' zu quantifizieren versucht.<ref name="Arens794">T. Arens et al.: ''Mathematik''. Spektrum, S. 794.</ref> |
|||
Bezeichnet zum Beispiel <math>V\colon \R_{>0}^3 \to \R</math> mit <math>(l,b,h) \mapsto lbh</math> das Volumen eines [[Quader]]s, so könnte das Ergebnis <math>V</math> experimentell ermittelt werden, indem man Länge <math>l</math>, Breite <math>b</math> und Höhe <math>h</math> einzeln misst. Treten bei diesen die Fehler <math>\Delta l</math>, <math>\Delta b</math> und <math>\Delta h</math> auf, so gilt für den Fehler in der Volumenberechnung: |
|||
: <math> \Delta V = bh \Delta l + hl \Delta b + lb \Delta h.</math> |
|||
Allgemein gilt, dass wenn eine zu messende Größe funktional von einzeln gemessenen Größen <math>x_1, \dots, x_n</math> durch <math>f\colon \R^n \to \R</math> abhängt und bei deren Messungen jeweils die Fehler <math>\Delta x_k</math> entstehen, der Fehler der daraus errechneten Größe ungefähr bei |
|||
: <math> \Delta f = \sum_{k=1}^n \left| \frac{\partial f}{\partial x_k}(\boldsymbol{m})\right| \Delta x_k</math> |
|||
liegen wird. Dabei bezeichnet der Vektor <math>\boldsymbol{m}</math> die exakten Terme der einzelnen Messungen.<ref name="Arens794" /> |
|||
==== Lösungsnäherung von Gleichungssystemen ==== |
|||
Viele höhere Gleichungssysteme lassen sich nicht algebraisch geschlossen lösen. In manchen Fällen kann man aber zumindest eine ungefähre Lösung ermitteln. Ist das System durch <math>f(\boldsymbol{x}) = \boldsymbol{0}</math> gegeben, mit einer stetig differenzierbaren Funktion <math>f\colon \R^m \to \R^m</math>, so konvergiert die Iterationsvorschrift |
|||
: <math> \boldsymbol{x}_{n+1} := \boldsymbol{x}_n - J_f(\boldsymbol{x}_n)^{-1} f(\boldsymbol{x}_n)</math> |
|||
unter gewissen Voraussetzungen gegen eine Nullstelle. Dabei bezeichnet <math>J_f(\boldsymbol{x}_n)^{-1}</math> das [[Inverse Matrix|Inverse]] der Jacobi-Matrix zu <math>f</math>. Der Prozess stellt eine Verallgemeinerung des klassischen eindimensionalen [[Newton-Verfahren]]s dar. Aufwendig ist allerdings die Berechnung dieser Inversen in jedem Schritt. Unter Verschlechterung der Konvergenzrate kann in manchen Fällen die Modifikation <math>J_f(\boldsymbol{x}_0)^{-1}</math> statt <math>J_f(\boldsymbol{x}_n)^{-1}</math> vorgenommen werden, womit nur eine Matrix invertiert werden muss.<ref name="Arens803">T. Arens et al.: ''Mathematik''. Spektrum, S. 803.</ref> |
|||
==== Extremwertaufgaben ==== |
|||
Auch für die Kurvendiskussion von Funktionen <math>f\colon \R^m \to \R</math> ist die Auffindung von Minima bzw. Maxima, zusammengefasst ''Extrema'', ein wesentliches Anliegen. Die mehrdimensionale Differentialrechnung liefert Möglichkeiten, diese zu bestimmen, sofern die betrachtete Funktion zweimal stetig differenzierbar ist. Analog zum Eindimensionalen besagt die notwendige Bedingung für die Existenz für Extrema, dass im besagten Punkt <math>\boldsymbol{x}</math> alle partiellen Ableitungen 0 sein müssen, also |
|||
: <math> \frac{\partial f}{\partial x_j}(\boldsymbol{x}) = 0</math> |
|||
für alle <math>1 \leq j \leq m</math>. Dieses Kriterium ist nicht hinreichend, dient aber dazu, diese ''kritischen Punkte'' als mögliche Kandidaten für Extrema zu ermitteln. Unter Bestimmung der Hesse-Matrix, der zweiten Ableitung, kann anschließend in manchen Fällen entschieden werden, um welche Art Extremstelle es sich handelt.<ref name="Arens811">T. Arens et al.: ''Mathematik''. Spektrum, S. 811.</ref> Im Gegensatz zum Eindimensionalen ist die Formenvielfalt kritischer Punkte größer. Mittels einer [[Hauptachsentransformation]], also einer detaillierten Untersuchung der Eigenwerte, der durch eine mehrdimensionale Taylor-Entwicklung im betrachteten Punkt gegebenen [[Quadratische Form|quadratischen Form]] lassen sich die verschiedenen Fälle klassifizieren.<ref name="Arens812">T. Arens et al.: ''Mathematik''. Spektrum, S. 812.</ref> |
|||
==== Optimierung unter Nebenbedingungen ==== |
|||
Häufig ist bei Optimierungsproblemen die Zielfunktion <math>f\colon \R^m \to \R</math> lediglich auf einer [[Teilmenge]] <math>D \subset \R^m</math> zu minimieren, wobei <math>D</math> durch sog. ''[[Nebenbedingung]]en'' bzw. ''Restriktionen'' bestimmt ist. Ein Verfahren, das zur Lösung solcher Probleme herangezogen werden kann, ist die [[Lagrange-Multiplikator|Lagrangesche Multiplikatorregel]].<ref>T. Arens et al.: ''Mathematik''. Spektrum, S. 1193–1195.</ref> Diese nutzt die mehrdimensionale Differentialrechnung und lässt sich sogar auf Ungleichungsnebenbedingungen ausweiten.<ref>T. Arens et al.: ''Mathematik''. Spektrum, S. 1196.</ref> |
|||
==== Beispiel aus der Mikroökonomie ==== |
|||
[[Datei:NeoklProdFkt.svg|rechts|Neoklassische Produktionsfunktion]] |
|||
In der [[Mikroökonomie]] werden beispielsweise verschiedene Arten von [[Produktionsfunktion]]en analysiert, um daraus Erkenntnisse für [[Makroökonomie|makroökonomische]] Zusammenhänge zu gewinnen. Hier ist vor allem das typische Verhalten einer Produktionsfunktion von Interesse: Wie reagiert die abhängige Variable [[Produkt (Wirtschaft)|Output]] <math>y</math> (z. B. Output einer Volkswirtschaft), wenn die [[Produktionsfaktoren|Inputfaktoren]] (hier: [[Arbeit (Volkswirtschaftslehre)|Arbeit]] und [[Kapital]]) um eine infinitesimal kleine Einheit erhöht werden? |
|||
Ein Grundtyp einer Produktionsfunktion ist etwa die [[neoklassische Produktionsfunktion]]. Sie zeichnet sich unter anderem dadurch aus, dass der Output bei jedem zusätzlichen Input steigt, dass aber die Zuwächse abnehmend sind. Es sei beispielsweise für eine Volkswirtschaft die [[Cobb-Douglas-Funktion]] |
|||
: <math>F(K,L) = T\cdot K^\alpha L^{1-\alpha}</math> mit <math>\alpha \in (0,1)</math> |
|||
maßgebend. Zu jedem Zeitpunkt wird in der Volkswirtschaft unter dem Einsatz der Produktionsfaktoren Arbeit <math>L</math> und Kapital <math>K</math> mithilfe eines gegebenen Technologielevels <math>T</math> Output produziert. Die erste Ableitung dieser Funktion nach den Produktionsfaktoren ergibt: |
|||
: <math>\frac{\partial F(K,L)}{\partial L} = (1-\alpha)\cdot T\cdot K^\alpha L^{-\alpha}</math> |
|||
: <math>\frac{\partial F(K,L)}{\partial K} = \alpha\cdot T\cdot K^{-(1-\alpha)} L^{1-\alpha}</math>. |
|||
Da die partiellen Ableitungen aufgrund der Beschränkung <math>\alpha \in (0,1)</math> nur positiv werden können, sieht man, dass der Output bei einer Erhöhung der jeweiligen Inputfaktoren steigt. Die partiellen Ableitungen 2. Ordnung ergeben: |
|||
: <math>\frac{\partial^2 F(K,L)}{\partial L^2} = -\alpha(1-\alpha)\cdot T\cdot K^\alpha L^{-(1+\alpha)}</math> |
|||
: <math>\frac{\partial^2 F(K,L)}{\partial K^2} = -\alpha(1-\alpha)\cdot T\cdot K^{-(2-\alpha)} L^{1-\alpha}</math>. |
|||
Sie werden für alle Inputs negativ sein, also fallen die Zuwachsraten. Man könnte also sagen, dass bei steigendem Input der Output unter[[proportional]] steigt. Die [[relative Änderung]] des Outputs im Verhältnis zu einer relativen Änderung des Inputs ist hier durch die [[Elastizität (Wirtschaft)|Elastizität]] <math>\eta_{i}\equiv\tfrac{\partial f(x)}{\partial x_i}\tfrac{x_i}{f(x)}</math> gegeben. Vorliegend bezeichnet <math>\eta_{K}\equiv\tfrac{\partial F(K,L)}{\partial K}\tfrac{K}{F(K,L)}</math> die Produktionselastizität des Kapitals, die bei dieser Produktionsfunktion dem Exponenten <math>\alpha</math> entspricht, der wiederum die Kapitaleinkommensquote repräsentiert. Folglich steigt der Output bei einer infinitesimal kleinen Erhöhung des Kapitals um die Kapitaleinkommensquote. |
|||
== Weiterführende Theorien == |
|||
=== Differentialgleichungen === |
|||
{{Hauptartikel|Differentialgleichung}} |
|||
Eine wichtige Anwendung der Differentialrechnung besteht in der [[Mathematisches Modell|mathematischen Modellierung]] physikalischer Vorgänge. Wachstum, Bewegung oder Kräfte haben alle mit Ableitungen zu tun, ihre formelhafte Beschreibung muss also Differentiale enthalten. Typischerweise führt dies auf Gleichungen, in denen Ableitungen einer unbekannten Funktion auftauchen, sogenannte [[Differentialgleichung]]en. |
|||
Beispielsweise verknüpft das [[Newtonsche Gesetze|newtonsche Bewegungsgesetz]] |
|||
: <math>\vec{F}(t) = m \vec{a}(t) = m \ddot{\vec{r}}(t) = m\frac{\mathrm{d}^2\vec{r}(t)} {\mathrm{d}t^2}</math> |
|||
die Beschleunigung <math>\vec{a}</math> eines Körpers mit seiner Masse <math>m</math> und der auf ihn einwirkenden Kraft <math>\vec{F}</math>. Das Grundproblem der Mechanik lautet deshalb, aus einer gegebenen Beschleunigung die [[Ort (Physik)|Ortsfunktion]] eines Körpers herzuleiten. Diese Aufgabe, eine Umkehrung der zweifachen Differentiation, hat die mathematische Gestalt einer Differentialgleichung zweiter Ordnung. Die mathematische Schwierigkeit dieses Problems rührt daher, dass Ort, Geschwindigkeit und Beschleunigung [[Vektor]]en sind, die im Allgemeinen nicht in die gleiche Richtung zeigen, und dass die Kraft von der Zeit <math>t</math> und vom Ort <math>\vec{r}</math> abhängen kann. |
|||
Da viele Modelle mehrdimensional sind, sind bei der Formulierung häufig die weiter oben erklärten partiellen Ableitungen sehr wichtig, mit denen sich [[partielle Differentialgleichung]]en formulieren lassen. Mathematisch kompakt werden diese mittels [[Differentialoperator]]en beschrieben und analysiert. |
|||
=== Differentialgeometrie === |
|||
{{Hauptartikel|Differentialgeometrie}} |
|||
Zentrales Thema der Differentialgeometrie ist die Ausdehnung der klassischen Analysis auf höhere geometrische Objekte. Diese sehen lokal so aus wie zum Beispiel der euklidische Raum <math>\R^n</math>, können aber global eine andere Gestalt haben. Der Begriff hinter diesem Phänomen ist die [[Mannigfaltigkeit]]. Mit Hilfe der Differentialgeometrie werden Fragestellungen über die Natur solcher Objekte studiert – zentrales Werkzeug ist weiterhin die Differentialrechnung. Gegenstand der Untersuchung sind oftmals die Abstände zwischen Punkten oder die Volumina von Figuren. Beispielsweise kann mit ihrer Hilfe der kürzestmögliche Weg zwischen zwei Punkten auf einer gekrümmten Fläche bestimmt und gemessen werden, die sogenannte [[Geodätische]]. Für die Messung von Volumina wird der Begriff der [[Differentialform]] benötigt. Differentialformen erlauben unter anderem eine koordinatenunabhängige [[Integralrechnung|Integration]]. |
|||
Sowohl die theoretischen Ergebnisse als auch Methoden der Differentialgeometrie haben bedeutende Anwendungen in der [[Physik]]. So beschrieb [[Albert Einstein]] seine [[Relativitätstheorie]] mit differentialgeometrischen Begriffen. |
|||
== Verallgemeinerungen == |
|||
In vielen Anwendungen ist es wünschenswert, Ableitungen auch für stetige oder sogar unstetige Funktionen bilden zu können. So kann beispielsweise eine sich am Strand brechende Welle durch eine partielle Differentialgleichung modelliert werden, die Funktion der Höhe der Welle ist aber noch nicht einmal stetig. Zu diesem Zweck verallgemeinerte man Mitte des 20. Jahrhunderts den Ableitungsbegriff auf den Raum der [[Distribution (Mathematik)|Distributionen]] und definierte dort eine [[schwache Ableitung]]. Eng verbunden damit ist der Begriff des [[Sobolew-Raum]]s. |
|||
Der Begriff der Ableitung als Linearisierung lässt sich analog auf Funktionen <math>f</math> zwischen zwei [[Normierbarer Raum|normierbaren]] [[Topologischer Vektorraum|topologischen Vektorräumen]] <math>X</math> und <math>Y</math> übertragen (''s. Hauptartikel'' [[Fréchet-Ableitung]], [[Gâteaux-Differential]], [[Lorch-Ableitung]]): <math>f</math> heißt in <math>\xi</math> ''Fréchet-differenzierbar,'' wenn ein stetiger [[linearer Operator]] <math>L_\xi \in \mathcal L(X,Y)</math> existiert, sodass |
|||
: <math>\lim_{h \to 0} \frac{\|f(\xi + h) - f(\xi) - L_{\xi}h\|}{\|h\|} = 0</math>. |
|||
Eine Übertragung des Begriffes der Ableitung auf andere Ringe als <math>\mathbb R</math> und <math>\mathbb C</math> (und Algebren darüber) führt zur [[Derivation (Mathematik)|Derivation]]. |
|||
== Siehe auch == |
|||
* [[Formelsammlung Analysis]] |
|||
== Literatur == |
== Literatur == |
||
Differentialrechnung ist ein zentraler Unterrichtsgegenstand in der [[Sekundarstufe II]] und wird somit in allen Mathematik-Lehrbüchern dieser Stufe behandelt. |
|||
=== Lehrbücher für Mathematik-Studierende === |
|||
* Schulbücher: |
|||
* [[Henri Cartan]]: ''Differentialrechnung.'' Bibliographisches Institut, Mannheim 1974, ISBN 3-411-01442-3. |
|||
** Differentialrechnung ist ein zentraler Unterrichtsgegenstand in der [[Sekundarstufe II]] und wird somit in allen Mathematik-Lehrbüchern behandelt. |
|||
* Henri Cartan: ''Differentialformen.'' Bibliographisches Institut, Mannheim 1974, ISBN 3-411-01443-1. |
|||
* Lehrbücher für Studenten der Mathematik und benachbarter Fächer (Physik, Informatik): |
|||
* Henri Cartan: ''Elementare Theorien der analytischen Funktionen einer und mehrerer komplexen Veränderlichen.'' Bibliographisches Institut, Mannheim 1966, 1981, ISBN 3-411-00112-7. |
|||
** Richard Courant: ''Vorlesungen über Differential- und Integralrechnung 1, 2''. Springer, 1. Aufl. 1928, 4. Aufl. 1971 |
|||
* [[Richard Courant]]: ''Vorlesungen über Differential- und Integralrechnung.'' 2 Bände. Springer 1928, 4. Auflage 1971, ISBN 3-540-02956-7. |
|||
** Otto Forster: ''Analysis 1, 2''. Vieweg Verlag, 4. Auflage, 1983 |
|||
* [[Jean Dieudonné]]: ''Grundzüge der modernen Analysis.'' Band 1. Vieweg, Braunschweig 1972, ISBN 3-528-18290-3. |
|||
** Konrad Königsberger: ''Analysis 1, 2''. Springer Verlag, 3. Auflage, 1995 |
|||
* [[Gregor Michailowitsch Fichtenholz|Gregor M. Fichtenholz]]: ''Differential- und Integralrechnung I–III.'' Verlag Harri Deutsch, Frankfurt am Main 1990–2004, ISBN 978-3-8171-1418-4 (kompletter Satz). |
|||
** Steffen Timmann: ''Repetitorium der Analysis 1, 2''. Binomi Verlag, 1. Auflage, 1993, |
|||
* [[Otto Forster]]: ''Analysis 1. Differential- und Integralrechnung einer Veränderlichen.'' 7. Auflage. Vieweg, Braunschweig 2004, ISBN 3-528-67224-2. |
|||
* Lehrbücher für Studenten mit Nebenfach/Grundlagenfach Mathematik (z.B. Studenten der Ingenieur- oder Wirtschaftswissenschaften): |
|||
* Otto Forster: ''Analysis 2. Differentialrechnung im <math>\R^n</math>. Gewöhnliche Differentialgleichungen.'' 6. Auflage. Vieweg, Braunschweig 2005, ISBN 3-528-47231-6. |
|||
** Rainer Ansorge und Hans Joachim Oberle: ''Mathematik für Ingenieure''. Wiley-VCH, Band 1, 3. Auflage, 2000 |
|||
* [[Konrad Königsberger]]: ''Analysis.'' 2 Bände. Springer, Berlin 2004, ISBN 3-540-41282-4. |
|||
* [[Wladimir Iwanowitsch Smirnow|Wladimir I. Smirnow]]: ''Lehrgang der höheren Mathematik [[Wladimir Iwanowitsch Smirnow#Schriften|(Teil 1–5)]].'' Verlag Harri Deutsch, Frankfurt am Main, 1995–2004, ISBN 978-3-8171-1419-1 (kompletter Satz). |
|||
* Steffen Timmann: ''Repetitorium der Analysis.'' 2 Bände. Binomi, Springe 1993, ISBN 3-923923-50-3, ISBN 3-923923-52-X. |
|||
* [[Serge Lang]]: ''A First Course in Calculus.'' Fifth Edition, Springer, ISBN 0-387-96201-8. |
|||
=== Lehrbücher für das Grundlagenfach Mathematik === |
|||
* [[Rainer Ansorge]], Hans Joachim Oberle: ''Mathematik für Ingenieure.'' Band 1. Akademie-Verlag, Berlin 1994, 3. Auflage 2000, ISBN 3-527-40309-4. |
|||
* [[Günter Bärwolff]] (unter Mitarbeit von G. Seifert): ''Höhere Mathematik für Naturwissenschaftler und Ingenieure.'' Elsevier Spektrum Akademischer Verlag, München 2006, ISBN 3-8274-1688-4. |
|||
* [[Lothar Papula]]: ''Mathematik für Naturwissenschaftler und Ingenieure.'' Band 1. Vieweg, Wiesbaden 2004, ISBN 3-528-44355-3. |
|||
* Klaus Weltner: ''Mathematik für Physiker 1.'' Springer, Berlin 2011, ISBN 978-3-642-15527-7. |
|||
* [[Peter Dörsam]]: ''Mathematik anschaulich dargestellt für Studierende der Wirtschaftswissenschaften.'' 15. Auflage. PD-Verlag, Heidenau 2010, ISBN 978-3-86707-015-7. |
|||
== Weblinks == |
== Weblinks == |
||
{{Commonscat|Differential calculus|Differentialrechnung}} |
|||
{{Wikibooks|Mathe für Nicht-Freaks: Ableitung und Differenzierbarkeit}} |
|||
{{Wiktionary}} |
|||
* [http://www.ableitungsrechner.net/ Tool zur Bestimmung von Ableitungen beliebiger Funktionen mit einer oder mehreren Variablen mit Rechenweg (deutsch; benötigt JavaScript)] |
|||
* [http://matheguru.com/rechner/ableiten/ Online-Rechner zum Ableiten von Funktionen mit Rechenweg und Erklärungen (deutsch)] |
|||
* [http://www.matheprisma.uni-wuppertal.de/Module/Ableitung/index.htm Anschauliche Erklärung von Ableitungen] |
|||
* [http://www.freiereferate.de/mathematik/alle-5-ableitungsregeln-mit-beispielen Beispiele zu jeder Ableitungsregel] |
|||
== Einzelnachweise == |
|||
* [http://www.walter-fendt.de/m14d/sektang.htm Interaktive Veranschaulichung der Sekanten- und Tangentensteigung] |
|||
<references /> |
|||
* [http://www.mmnetz.de/huseyin/ableitungsregeln.pdf Beweis und Herleitung der elementaren Ableitungsregeln - in dieser Konstellation im Internet nicht wiederzufinden] |
|||
{{Exzellent}} |
{{Exzellent|18. April 2021|211049352}} |
||
{{Normdaten|TYP=s|GND=4012252-9}} |
|||
[[Kategorie:Analysis]] |
|||
[[Kategorie:Analysis]] |
|||
[[da:Differentialregning]] |
|||
[[en:Derivative]] |
|||
[[eo:Diferenciala kalkulo]] |
|||
[[es:Función derivada]] |
|||
[[fi:Derivaatta]] |
|||
[[fr:Dérivée]] |
|||
[[he:%D7%A0%D7%92%D7%96%D7%A8%D7%AA]] |
|||
[[it:Derivata]] |
|||
[[ja:微分]] |
|||
[[nl:Afgeleide]] |
|||
[[pl:Pochodna funkcji]] |
|||
[[pt:Derivada]] |
|||
[[ro:Derivată]] |
|||
[[ru:Производная функция]] |
|||
[[simple:Derivative]] |
|||
[[sv:Derivata]] |
|||
[[tr:Türev ve Türevlenebilirlik]] |
|||
[[zh-cn:导数]] |
Aktuelle Version vom 23. März 2025, 00:14 Uhr

Die Differential- oder Differenzialrechnung ist ein wesentlicher Bestandteil der Analysis und damit ein Gebiet der Mathematik. Zentrales Thema der Differentialrechnung ist die Berechnung lokaler Veränderungen von Funktionen. Während eine stetige Funktion ihren Eingabewerten kontinuierlich gewisse Ausgangswerte zuordnet, wird durch die Differentialrechnung ermittelt, wie stark sich die Ausgabewerte nach sehr kleinen Veränderungen der Eingabewerte ändern. Sie ist eng verwandt mit der Integralrechnung, mit der sie gemeinsam unter der Bezeichnung Infinitesimalrechnung zusammengefasst wird.
Die Ableitung einer Funktion dient der Darstellung lokaler Veränderungen einer Funktion und ist gleichzeitig Grundbegriff der Differentialrechnung. Anstatt von der Ableitung spricht man auch vom Differentialquotienten, dessen geometrische Entsprechung die Tangentensteigung ist. Die Ableitung ist nach der Vorstellung von Leibniz der Proportionalitätsfaktor zwischen infinitesimalen Änderungen des Eingabewertes und den daraus resultierenden, ebenfalls infinitesimalen Änderungen des Funktionswertes. Eine Funktion wird als differenzierbar bezeichnet, wenn ein solcher Proportionalitätsfaktor existiert. Äquivalent wird die Ableitung in einem Punkt als die Steigung derjenigen linearen Funktion definiert, die unter allen linearen Funktionen die Änderung der Funktion am betrachteten Punkt lokal am besten approximiert. Entsprechend wird mit der Ableitung in dem Punkt eine lineare Näherung der Funktion gewonnen. Die Linearisierung einer möglicherweise komplizierten Funktion hat den Vorteil, dass eine einfacher behandelbare Funktion entsteht als die ursprüngliche Funktion.
In vielen Fällen ist die Differentialrechnung ein unverzichtbares Hilfsmittel zur Bildung mathematischer Modelle, die die Wirklichkeit möglichst genau abbilden sollen, sowie zu deren nachfolgender Analyse.
- Das Verhalten von Bauelementen mit nicht-linearer Kennlinie wird bei kleinen Signaländerungen in der Umgebung eines Bezugspunktes durch ihr Kleinsignalverhalten beschrieben; dieses basiert auf dem Verlauf der Tangente an die Kennlinie im Bezugspunkt.
- Die Ableitung nach der Zeit ist im untersuchten Sachverhalt die momentane Änderungsrate. So ist beispielsweise die Ableitung der Orts- beziehungsweise Weg-Zeit-Funktion eines Teilchens nach der Zeit seine Momentangeschwindigkeit, und die Ableitung der Momentangeschwindigkeit nach der Zeit liefert die momentane Beschleunigung.
- In den Wirtschaftswissenschaften spricht man auch häufig von Grenzraten anstelle der Ableitung, zum Beispiel Grenzkosten oder Grenzproduktivität eines Produktionsfaktors.
In der Sprache der Geometrie ist die Ableitung eine verallgemeinerte Steigung. Der geometrische Begriff Steigung ist ursprünglich nur für lineare Funktionen definiert, deren Funktionsgraph eine Gerade ist. Die Ableitung einer beliebigen Funktion an einer Stelle kann man als die Steigung der Tangente im Punkt des Graphen von definieren.
In der Sprache der Arithmetik schreibt man für die Ableitung einer Funktion an der Stelle . Sie gibt an, um welchen Faktor von sich ungefähr ändert, wenn sich um einen „kleinen“ Betrag ändert. Für die exakte Formulierung dieses Sachverhalts wird der Begriff Grenzwert oder Limes verwendet.
Einführung
[Bearbeiten | Quelltext bearbeiten]Heranführung anhand eines Beispiels
[Bearbeiten | Quelltext bearbeiten]Fährt ein Auto auf einer Straße, so kann anhand dieses Sachverhalts eine Tabelle erstellt werden, in der zu jedem Zeitpunkt die Strecke, die seit dem Beginn der Aufzeichnung zurückgelegt wurde, eingetragen wird. In der Praxis ist es zweckmäßig, eine solche Tabelle nicht zu engmaschig zu führen, d. h. zum Beispiel in einem Zeitraum von 1 Minute nur alle 3 Sekunden einen neuen Eintrag zu machen, was lediglich 20 Messungen erfordern würde. Jedoch kann eine solche Tabelle theoretisch beliebig engmaschig gestaltet werden, wenn jeder Zeitpunkt berücksichtigt werden soll. Dabei gehen die vormals diskreten, also mit einem Abstand behafteten, abzählbaren Daten in ein Kontinuum über. Die Gegenwart wird dann als Zeitpunkt, d. h. als ein unendlich kurzer Zeitabschnitt, interpretiert. Gleichzeitig hat das Auto aber zu jedem Zeitpunkt eine theoretisch bekannte Strecke zurückgelegt, und wenn es nicht bis zum Stillstand abbremst oder gar zurück fährt, wird die Strecke kontinuierlich ansteigen, also zu keinem Zeitpunkt dieselbe sein wie zu einem anderen.
-
Exemplarische Darstellung einer Tabelle, alle 3 Sekunden wird eine neue Messung eingetragen. Unter solchen Voraussetzungen können lediglich durchschnittliche Geschwindigkeiten in den Zeiträumen 0 bis 3, 3 bis 6 usw. Sekunden berechnet werden. Da die zurückgelegte Strecke stets zunimmt, scheint der Wagen nur vorwärts zu fahren. -
Übergang zu einer beliebig engmaschigen Tabelle, die nach Eintragung aller Punkte die Gestalt einer Kurve annimmt. Jedem Zeitpunkt zwischen 0 und 60 Sekunden wird ein Punkt auf der Kurve zugeordnet. Regionen, innerhalb derer die Kurve steiler nach oben verläuft, entsprechen Zeitabschnitten, in denen eine größere Strecke pro Zeitspanne zurückgelegt wird. In Regionen mit nahezu gleich bleibender Strecke, zum Beispiel im Bereich 15–20 Sekunden, fährt das Auto langsam und die Kurve verläuft flach.
Die Motivation hinter dem Begriff der Ableitung einer Weg-Zeit-Kurve oder -Funktion ist, dass nun angegeben werden kann, wie schnell sich das Auto zu einem momentanen Zeitpunkt bewegt. Aus einem Weg-Zeit-Verlauf soll also der passende Geschwindigkeit-Zeit-Verlauf abgeleitet werden. Hintergrund ist, dass die Geschwindigkeit ein Maß dafür ist, wie stark sich die zurückgelegte Strecke im Laufe der Zeit ändert. Bei einer hohen Geschwindigkeit ist ein starker Anstieg in der Kurve zu sehen, während eine niedrige Geschwindigkeit zu wenig Veränderung führt. Da jedem Messpunkt auch eine Strecke zugeordnet wurde, sollte eine solche Analyse grundsätzlich möglich sein, denn mit dem Wissen über die zurückgelegte Strecke innerhalb eines Zeitintervalls gilt für die Geschwindigkeit
Sind also und zwei unterschiedliche Zeitpunkte, so lautet „die Geschwindigkeit“ des Autos im Zeitintervall zwischen diesen
Die Differenzen in Zähler und Nenner müssen gebildet werden, da man sich nur für die innerhalb eines bestimmten Zeitintervalls zurückgelegte Strecke interessiert. Dennoch liefert dieser Ansatz kein vollständiges Bild, da zunächst nur Geschwindigkeiten für Zeitintervalle mit auseinander liegendem Anfangs- und Endpunkt gemessen wurden. Eine momentane Geschwindigkeit, vergleichbar mit einem Blitzerfoto, hingegen bezöge sich auf ein unendlich kurzes Zeitintervall. Dementsprechend ist der oben stehende Begriff „Geschwindigkeit“ durch „durchschnittliche Geschwindigkeit“ zu präzisieren. Auch wenn mit echten Zeitintervallen, also diskreten Daten, gearbeitet wird, vereinfacht sich das Modell insofern, als für ein Auto innerhalb der betrachteten Intervalle keine schlagartige Ortsänderung und keine schlagartige Geschwindigkeitsänderung möglich ist. (Auch eine Vollbremsung benötigt Zeit, und zwar länger als die Zeit, in der die Reifen quietschen.) Damit ist auch in der Zeichnung der stillschweigend durchgehend eingetragene Kurvenzug ohne Sprung und ohne Knick gerechtfertigt.

Soll hingegen zu einem „perfekt passenden“ Geschwindigkeit-Zeit-Verlauf übergegangen werden, so muss der Terminus „durchschnittliche Geschwindigkeit in einem Zeitintervall“ durch „Geschwindigkeit zu einem Zeitpunkt“ ersetzt werden. Dazu muss zunächst ein Zeitpunkt gewählt werden. Die Idee ist nun, „ausgedehnte Zeitintervalle“ in einem Grenzwertprozess gegen ein unendlich kurzes Zeitintervall laufen zu lassen und zu studieren, was mit den betroffenen durchschnittlichen Geschwindigkeiten passiert. Obwohl der Nenner dabei gegen 0 strebt, ist dies anschaulich kein Problem, da sich das Auto in kürzer werdenden Zeitabschnitten bei stetigem Verlauf immer weniger weit bewegen kann, womit sich Zähler und Nenner gleichzeitig verkleinern, und im Grenzprozess ein unbestimmter Ausdruck „“ entsteht. Dieser kann unter Umständen als Grenzwert Sinn ergeben, beispielsweise drücken
exakt dieselben Geschwindigkeiten aus. Nun gibt es zwei Möglichkeiten beim Studium der Geschwindigkeiten. Entweder, sie lassen in dem betrachteten Grenzwertprozess keine Tendenz erkennen, sich einem bestimmten endlichen Wert anzunähern. In diesem Fall kann der Bewegung des Autos keine zum Zeitpunkt gültige Geschwindigkeit zugeordnet werden, d. h., der Ausdruck „“ hat hier keinen eindeutigen Sinn. Gibt es hingegen eine zunehmende Stabilisierung in Richtung auf einen festen Wert, so existiert der Grenzwert
und drückt die exakt im Zeitpunkt bestehende Geschwindigkeit aus. Der unbestimmte Ausdruck „“ nimmt in diesem Fall einen eindeutigen Wert an. Die dabei entstehende Momentangeschwindigkeit wird auch als Ableitung von an der Stelle bezeichnet; für diese wird häufig das Symbol benutzt. Mit dem Grenzwert wird die Momentangeschwindigkeit zu einem beliebigen Zeitpunkt definiert als
Prinzip der Differentialrechnung
[Bearbeiten | Quelltext bearbeiten]
Das Beispiel des letzten Abschnitts ist dann besonders einfach, wenn die Zunahme der zurückgelegten Strecke mit der Zeit gleichförmig, also linear verläuft. Dann liegt speziell eine Proportionalität zwischen der Veränderung der Strecke und der Veränderung der Zeit vor. Die relative Veränderung der Strecke, also ihre Zunahme im Verhältnis zur Zunahme der Zeit, ist bei dieser Bewegung immer gleichbleibend. Die mittlere Geschwindigkeit ist zu jedem Zeitpunkt auch die momentane Geschwindigkeit. Beispielsweise legt das Auto zwischen 0 und 1 Sekunden eine gleich lange Strecke zurück wie zwischen 9 und 10 Sekunden und die zehnfache Strecke zwischen 0 und 10 Sekunden. Als Proportionalitätsfaktor über den ganzen Weg gilt die konstante Geschwindigkeit , wobei sie im nebenstehenden Bild beträgt. Die zwischen beliebig weit auseinanderliegenden Zeitpunkten und zurückgelegte Strecke beträgt
- .
Allgemein bewegt sich das Auto in der Zeitspanne um die Strecke vorwärts. Speziell bei ergibt sich ein Wegstück .
Falls der Startwert bei nicht sondern beträgt, ändert dies nichts, da sich in der Beziehung die Konstante durch die Differenzbildung aus stets heraussubtrahiert. Auch anschaulich ist dies bekannt: Die Startposition des Autos ist unerheblich für seine Geschwindigkeit.
Werden statt der Variablen und allgemein die Variablen und betrachtet, so lässt sich also festhalten:
- Lineare Funktionen: Bei Linearität hat die betrachtete Funktion die Gestalt . (Für eine lineare Funktion ist nicht notwendig eine Ursprungsgerade erforderlich!) Als Ableitung gilt hieran die relative Veränderung, mit einem anderen Wort der Differenzenquotient . Sie hat in jedem Punkt denselben Wert . Die Ableitung lässt sich aus dem Ausdruck direkt ablesen. Insbesondere hat jede konstante Funktion die Ableitung , da sich mit einer Änderung des Eingabewertes nichts am Ausgabewert ändert.
Schwieriger wird es, wenn eine Bewegung nicht gleichförmig verläuft. Dann ist das Diagramm der Zeit-Strecken-Funktion nicht geradlinig. Für derartige Verläufe muss der Ableitungsbegriff erweitert werden. Denn es gibt keinen Proportionalitätsfaktor, der überall die lokale relative Veränderung ausdrückt. Als einzig mögliche Strategie ist die Gewinnung einer linearen Näherung für die nicht-lineare Funktion gefunden worden, zumindest an einer interessierenden Stelle. (Im nächsten Bild ist das die Stelle .) Damit wird das Problem auf eine wenigstens an dieser Stelle lineare Funktion zurückgeführt. Die Methode der Linearisierung ist die Grundlage für den eigentlichen Kalkül der Differentialrechnung. Sie ist in der Analysis von sehr großer Bedeutung, da sie dabei hilft, komplizierte Vorgänge lokal auf leichter verständliche Vorgänge, nämlich lineare Vorgänge, zu reduzieren.[1]
0,5 | 0,9 | 0,99 | 0,999 | 1 | 1,001 | 1,01 | 1,1 | 1,5 | 2 | |
0,25 | 0,81 | 0,9801 | 0,998001 | 1 | 1,002001 | 1,0201 | 1,21 | 2,25 | 4 | |
0 | 0,8 | 0,98 | 0,998 | 1 | 1,002 | 1,02 | 1,2 | 2 | 3 | |
−0,25 | −0,01 | −0,0001 | −0,000001 | 0 | −0,000001 | −0,0001 | −0,01 | −0,25 | −1 | |
50 % | 10 % | 1 % | 0,1 % | 0,1 % | 1 % | 10 % | 50 % | 100 % |

Die Strategie soll exemplarisch an der nicht-linearen Funktion erläutert werden.[2] Die Tabelle zeigt Werte für diese Funktion und für ihre Näherungsfunktion an der Stelle , das ist . Darunter enthält die Tabelle die Abweichung der Näherung von der ursprünglichen Funktion. (Die Werte sind negativ, weil in diesem Fall die Gerade immer unter der Kurve liegt – außer im Berührpunkt.) In der letzten Zeile steht der Betrag der relativen Abweichung, das ist die Abweichung bezogen auf die Entfernung der Stelle vom Berührpunkt bei . Diese kann am Berührpunkt nicht berechnet werden. Aber die Werte in der Umgebung zeigen, wie sich die relative Abweichung einem Grenzwert nähert, hier dem Wert null. Diese Null bedeutet: Selbst wenn sich ein wenig (infinitesimal) vom Berührpunkt entfernt, entsteht noch kein Unterschied zwischen und .
Die lineare Funktion ahmt das Verhalten von nahe der Stelle gut nach (besser als jede andere lineare Funktion). Die relative Veränderung hat überall den Wert . Die nicht so einfach zu ermittelnde relative Veränderung stimmt aber im Berührpunkt mit dem Wert überein.
Es lässt sich also festhalten:
- Nicht-lineare Funktionen: Soll die relative Veränderung einer nicht-linearen Funktion in einem bestimmten Punkt ermittelt werden, so wird sie (wenn möglich) dort linear genähert. Die Steigung der linearen Näherungsfunktion ist die an dieser Stelle vorliegende Steigung der betrachteten nicht-linearen Funktion, und es gilt dieselbe Anschauung wie bei Ableitungen linearer Funktionen. Dabei ist nur zu beachten, dass sich die relative Veränderung einer nicht-linearen Funktion von Punkt zu Punkt ändert.
- Während im Beispiel oben (Fahrzeugbewegung) für die durchschnittliche Geschwindigkeit die Zeitspanne angemessen willkürlich gewählt werden kann, ist die momentane Geschwindigkeit, wenn sie veränderlich ist, nur für kleine angebbar. Wie klein gewählt werden muss, hängt ab von der Anforderung an die Qualität der Näherung. In mathematischer Perfektion wird sie infinitesimal. Bei dieser wird für die relative Veränderung (wie schon oben angegeben) anstelle des Differenzenquotienten der Differenzialquotient geschrieben (in vereinfachter Schreibweise oder ).
Die Gewinnung der linearen Näherung einer nicht-linearen Funktion an einer bestimmten Stelle ist zentrale Aufgabe des Kalküls der Differentialrechnung. Bei einer mathematisch angebbaren Funktion (im Beispiel war das ) sollte sich die Ableitung ausrechnen lassen. Im Idealfall ist diese Berechnung sogar so allgemein, dass sie auf alle Punkte des Definitionsbereichs angewendet werden kann. Im Falle von besitzt jede Stelle als beste lineare Näherung die Steigung . Mit der Zusatzinformation, dass die lineare Funktion mit der Kurve im Punkt übereinstimmen muss, kann dann die vollständige Funktionsgleichung der linearen Näherungsfunktion aufgestellt werden.
Der Ansatz zur Bestimmung des Differentialquotienten liegt in der Berechnung des Grenzwerts (wie oben bei der momentanen Geschwindigkeit):
- oder in anderer Schreibweise
Bei einigen elementaren Funktionen wie Potenzfunktion, Exponentialfunktion, Logarithmusfunktion oder Sinusfunktion ist jeweils der Grenzwertprozess durchgeführt worden. Dabei ergibt sich jeweils eine Ableitungsfunktion. Darauf aufbauend sind Ableitungsregeln für die elementaren und auch für weitere Funktionen wie Summen, Produkte oder Verkettungen elementarer Funktionen aufgestellt worden.
Damit werden die Grenzübergänge nicht in jeder Anwendung neu vollzogen, sondern für die Rechenpraxis werden Ableitungsregeln angewendet. Die „Kunst“ der Differentialrechnung besteht „nur“ darin, kompliziertere Funktionen zu strukturieren und auf die Strukturelemente die jeweils zutreffende Ableitungsregel anzuwenden. Ein Beispiel folgt weiter hinten.
Berechnung von Grenzwerten
[Bearbeiten | Quelltext bearbeiten]Jeder Differenzialquotient an einer vorgesehenen Stelle erscheint als unbestimmter Ausdruck vom Typ „“. Zu seiner Berechnung wird vom Differenzenquotient ausgegangen, und dessen Verhalten in der Umgebung der vorgesehenen Stelle wird untersucht, ob er die Tendenz hat, einen bestimmten Wert anzunehmen. Einige Grenzwerte, die für Ableitungsregeln benötigt werden, werden nachfolgend hergeleitet. Selbstverständlich dürfen dazu keine Regeln der Differenzialrechnung verwendet werden, da diese erst nach der Kenntnis der Grenzwerte aufgestellt werden können.
- Ein einfacher Fall 1
Ausgangspunkt ist der Differenzenquotient für die vorgesehene Funktion.
Wird die binomische Formel eingesetzt, so kürzt sich ein Summand heraus.
Für ist dieser Bruch unbestimmt. Aber für (dann und nur dann!) können Zähler und Nenner durch dividiert werden.
Für jedes ist dieser Ausdruck bestimmt, auch wenn man dem Wert nahe kommt. Er strebt im Grenzübergang gegen
Im Weiteren werden hier nur Grenzwerte berechnet, und ihre Einsetzung in Differenzenquotienten erfolgt weiter hinten im Abschnitt Ableitungsberechnung.

- Fall 2
Für ist dieser Bruch unbestimmt. Zur Berechnung bei wird die Fläche eines Kreissektors mit dem Bogen verglichen mit den Flächen eines innen liegenden und eines außen liegenden Dreiecks gemäß der Zeichnung. Im gezeigten Quadranten gilt offensichtlich[3]
Bei kann diese Ungleichung mit multipliziert werden.
Für streben sowohl der linke als auch der rechte Ausdruck gegen eins. Damit muss auch der dazwischen liegende Ausdruck gegen eins streben. Für seinen Kehrwert gilt das ebenfalls. Für strebt er im Grenzübergang nach
- Zwischenüberlegung
Der Logarithmus dieses Ausdrucks, das ist , strebt für gegen „“. Dieser Logarithmus ist dort unbestimmt und damit auch der Ausdruck selber. Es ist aber bewiesen, dass
einen bestimmten endlichen Wert annimmt, der als Eulersche Zahl bezeichnet wird. Dieses wird unter dem verlinkten Stichwort behandelt und hier als bekannt vorausgesetzt.
- Fall 3
Für ist dieser Bruch unbestimmt. Aber für und ist die Substitution[4]
- ,
zulässig. Aufgelöst nach unter Verwendung des natürlichen Logarithmus ergibt das
Für streben und der Nenner gegen . Für jedes ist dieser Ausdruck bestimmt, auch wenn man dem Wert nahe kommt. Er strebt im Grenzübergang nach
Als Voraussetzung für diese Herleitung muss positiv sein. Für ist dieses erfüllt mit negativem . Nähert man sich bei dem Wert von der Seite her, so gilt derselbe Grenzübergang.
- Fall 4
Für ist dieser Bruch unbestimmt. Aber für ist die Substitution zulässig.[5]
Für strebt . Für jedes ist dieser Ausdruck bestimmt, auch wenn man dem Wert nahe kommt. Er strebt im Grenzübergang nach
Einordnung der Anwendungsmöglichkeiten
[Bearbeiten | Quelltext bearbeiten]Extremwertprobleme
[Bearbeiten | Quelltext bearbeiten]Eine wichtige Anwendung der Differentialrechnung besteht darin, dass mit Hilfe der Ableitung lokale Extremwerte einer Kurve bestimmt werden können. Anstatt also anhand einer Wertetabelle mechanisch nach Hoch- oder Tiefpunkten suchen zu müssen, liefert der Kalkül in einigen Fällen eine direkte Antwort. Liegt ein Hoch- oder Tiefpunkt vor, so besitzt die Kurve an dieser Stelle keinen „echten“ Anstieg, weshalb die optimale Linearisierung eine Steigung von 0 besitzt. Für die genaue Klassifizierung eines Extremwertes sind jedoch weitere lokale Daten der Kurve notwendig, denn eine Steigung von 0 ist nicht hinreichend für die Existenz eines Extremwertes (geschweige denn eines Hoch- oder Tiefpunktes).
In der Praxis treten Extremwertprobleme typischerweise dann auf, wenn Prozesse, zum Beispiel in der Wirtschaft, optimiert werden sollen. Oft liegen an den Randwerten jeweils ungünstige Ergebnisse, in Richtung „Mitte“ kommt es aber zu einer stetigen Steigerung, die dann irgendwo maximal werden muss. Zum Beispiel die optimale Wahl eines Verkaufspreises: Bei einem zu geringen Preis ist die Nachfrage nach einem Produkt zwar sehr groß, aber die Produktion kann nicht finanziert werden. Ist er andererseits zu hoch, so wird es im Extremfall gar nicht mehr gekauft. Daher liegt ein Optimum irgendwo „in der Mitte“. Voraussetzung dabei ist, dass der Zusammenhang in Form einer (stetig) differenzierbaren Funktion wiedergegeben werden kann.
Die Untersuchung einer Funktion auf Extremstellen ist Teil einer Kurvendiskussion. Die mathematischen Hintergründe sind im Abschnitt Anwendung höherer Ableitungen bereitgestellt.
Mathematische Modellierung
[Bearbeiten | Quelltext bearbeiten]In der mathematischen Modellierung sollen komplexe Probleme in mathematischer Sprache erfasst und analysiert werden. Je nach Fragestellung sind das Untersuchen von Korrelationen oder Kausalitäten oder auch das Geben von Prognosen im Rahmen dieses Modells zielführend.
Besonders im Umfeld sog. Differentialgleichungen ist die Differentialrechnung zentrales Werkzeug bei der Modellierung. Diese Gleichungen treten zum Beispiel auf, wenn es eine kausale Beziehung zwischen dem Bestand einer Größe und deren zeitlicher Veränderung gibt. Ein alltägliches Beispiel könnte sein:
- Je mehr Einwohner eine Stadt besitzt, desto mehr Leute wollen dort hinziehen.
Etwas konkreter könnte dies zum Beispiel heißen, dass bei jetzigen Einwohnern durchschnittlich Personen in den kommenden 10 Jahren zuziehen werden, bei Einwohnern durchschnittlich Personen in den kommenden 10 Jahren usw. – um nicht alle Zahlen einzeln ausführen zu müssen: Leben Personen in der Stadt, so wollen so viele Menschen hinzuziehen, dass nach 10 Jahren weitere hinzukommen würden. Besteht eine derartige Kausalität zwischen Bestand und zeitlicher Veränderung, so kann gefragt werden, ob aus diesen Daten eine Prognose für die Einwohnerzahl nach 10 Jahren abgeleitet werden kann, wenn die Stadt im Jahr 2020 zum Beispiel Einwohner hatte. Es wäre dabei falsch zu glauben, dass dies sein werden, da sich mit steigender Einwohnerzahl auch die Nachfrage nach Wohnraum wiederum zunehmend steigern wird. Der Knackpunkt zum Verständnis des Zusammenhangs ist demnach erneut dessen Lokalität: Besitzt die Stadt Einwohner, so wollen zu diesem Zeitpunkt Menschen pro 10 Jahre hinzuziehen. Aber einen kurzen Augenblick später, wenn weitere Menschen hinzugezogen sind, sieht die Lage wieder anders aus. Wird dieses Phänomen zeitlich beliebig engmaschig gedacht, ergibt sich ein „differentieller“ Zusammenhang. Allerdings eignet sich die kontinuierliche Herangehensweise in vielen Fällen auch bei diskreten Problemstellungen.[6]
Mit Hilfe der Differentialrechnung kann aus so einem kausalen Zusammenhang zwischen Bestand und Veränderung in vielen Fällen ein Modell hergeleitet werden, was den komplexen Zusammenhang auflöst, und zwar in dem Sinne, dass zum Schluss eine Bestandsfunktion explizit angegeben werden kann. Setzt man in diese Funktion dann zum Beispiel den Wert 10 Jahre ein, so ergibt sich eine Prognose für die Stadtbewohneranzahl im Jahr 2030. Im Falle oberen Modells wird eine Bestandsfunktion gesucht mit , in 10 Jahren, und . Die Lösung ist dann
mit der natürlichen Exponentialfunktion (natürlich bedeutet, dass der Proportionalitätsfaktor zwischen Bestand und Veränderung einfach gleich 1 ist) und für das Jahr 2030 lautet die geschätzte Prognose Mio. Einwohner. Die Proportionalität zwischen Bestand und Änderungsrate führt also zu exponentiellem Wachstum und ist klassisches Beispiel eines selbstverstärkenden Effektes. Analoge Modelle funktionieren beim Populationswachstum (Je mehr Individuen, desto mehr Geburten) oder der Verbreitung einer ansteckenden Krankheit (Je mehr Erkrankte, desto mehr Ansteckungen). In vielen Fällen stoßen diese Modelle jedoch an eine Grenze, wenn sich der Prozess aufgrund natürlicher Beschränkungen (wie eine Obergrenze der Gesamtbevölkerung) nicht beliebig fortsetzen lässt. In diesen Fällen sind ähnliche Modelle, wie das logistische Wachstum, geeigneter.[7]
Numerische Verfahren
[Bearbeiten | Quelltext bearbeiten]Die Eigenschaft einer Funktion, differenzierbar zu sein, ist bei vielen Anwendungen von Vorteil, da dies der Funktion mehr Struktur verleiht. Ein Beispiel ist das Lösen von Gleichungen. Bei einigen mathematischen Anwendungen ist es notwendig, den Wert einer (oder mehrerer) Unbekannten zu finden, die Nullstelle einer Funktion ist. Es ist dann . Je nach Beschaffenheit von können Strategien entwickelt werden, eine Nullstelle zumindest näherungsweise anzugeben, was in der Praxis meist vollkommen ausreicht. Ist in jedem Punkt differenzierbar mit Ableitung , so kann in vielen Fällen das Newton-Verfahren helfen. Bei diesem spielt die Differentialrechnung insofern eine direkte Rolle, als beim schrittweisen Vorgehen immer wieder eine Ableitung explizit berechnet werden muss.[8]
Ein weiterer Vorteil der Differentialrechnung ist, dass in vielen Fällen komplizierte Funktionen, wie Wurzeln oder auch Sinus und Kosinus, anhand einfacher Rechenregeln wie Addition und Multiplikation gut angenähert werden können. Ist die Funktion an einem benachbarten Wert leicht auszuwerten, ist dies von großem Nutzen. Wird zum Beispiel nach einem Näherungswert für die Zahl gesucht, so liefert die Differentialrechnung für die Linearisierung
denn es gilt nachweislich . Sowohl Funktion als auch erste Ableitung konnten an der Stelle gut berechnet werden, weil es sich dabei um eine Quadratzahl handelt. Einsetzen von ergibt , was mit dem exakten Ergebnis bis auf einen Fehler kleiner als übereinstimmt.[9] Unter Einbezug höherer Ableitungen kann die Genauigkeit solcher Approximationen zusätzlich gesteigert werden, da dann nicht nur linear, sondern quadratisch, kubisch usw. angenähert wird, siehe auch Taylor-Reihe.
Reine Mathematik
[Bearbeiten | Quelltext bearbeiten]
Auch in der reinen Mathematik spielt die Differentialrechnung als ein Kern der Analysis eine bedeutende Rolle. Ein Beispiel ist die Differentialgeometrie, die sich mit Figuren beschäftigt, die eine differenzierbare Oberfläche (ohne Knicke usw.) haben. Zum Beispiel kann auf eine Kugeloberfläche in jedem Punkt tangential eine Ebene platziert werden. Anschaulich: Steht man an einem Erdpunkt, so hat man das Gefühl, die Erde sei flach, wenn man seinen Blick in der Tangentialebene schweifen lässt. In Wahrheit ist die Erde jedoch nur lokal flach: Die angelegte Ebene dient der (durch Linearisierung) vereinfachten Darstellung der komplizierteren Krümmung. Global hat sie als Kugeloberfläche eine völlig andere Gestalt.
Die Methoden der Differentialgeometrie sind äußerst bedeutend für die theoretische Physik. So können Phänomene wie Krümmung oder Raumzeit über Methoden der Differentialrechnung beschrieben werden. Auch die Frage, was der kürzeste Abstand zwischen zwei Punkten auf einer gekrümmten Fläche (zum Beispiel der Erdoberfläche) ist, kann mit diesen Techniken formuliert und oft auch beantwortet werden.
Auch bei der Erforschung von Zahlen als solchen, also im Rahmen der Zahlentheorie, hat sich die Differentialrechnung in der analytischen Zahlentheorie bewährt. Die grundlegende Idee der analytischen Zahlentheorie ist die Umwandlung von bestimmten Zahlen, über die man etwas lernen möchte, in Funktionen. Haben diese Funktionen „gute Eigenschaften“ wie etwa Differenzierbarkeit, so hofft man, über die damit einhergehenden Strukturen Rückschlüsse auf die ursprünglichen Zahlen ziehen zu können. Es hat sich dabei häufig bewährt, zur Perfektionierung der Analysis von den reellen zu den komplexen Zahlen überzugehen (siehe auch komplexe Analysis), also die Funktionen über einem größeren Zahlenbereich zu studieren. Ein Beispiel ist die Analyse der Fibonacci-Zahlen , deren Bildungsgesetz vorschreibt, dass eine neue Zahl stets aus der Summe der beiden vorangehenden entstehen soll. Ansatz der analytischen Zahlentheorie ist die Bildung der erzeugenden Funktion
also eines „unendlich langen“ Polynoms (einer sog. Potenzreihe), dessen Koeffizienten genau die Fibonacci-Zahlen sind. Für hinreichend kleine Zahlen ist dieser Ausdruck sinnvoll, weil die Potenzen dann viel schneller gegen 0 gehen als die Fibonacci-Zahlen gegen Unendlich, womit sich langfristig alles bei einem endlichen Wert einpendelt. Es ist für diese Werte möglich, die Funktion explizit zu berechnen durch
Das Nennerpolynom „spiegelt“ dabei genau das Verhalten der Fibonacci-Zahlen „wider“ – es ergibt sich in der Tat durch termweises Verrechnen. Mit Hilfe der Differentialrechnung lässt sich andererseits zeigen, dass die Funktion ausreicht, um die Fibonacci-Zahlen (ihre Koeffizienten) eindeutig zu charakterisieren. Da es sich aber um eine schlichte rationale Funktion handelt, lässt sich dadurch die für jede Fibonacci-Zahl gültige exakte Formel
mit dem goldenen Schnitt herleiten, wenn und gesetzt wird. Die exakte Formel vermag eine Fibonacci-Zahl zu berechnen, ohne die vorherigen zu kennen. Der Schluss wird über einen sog. Koeffizientenvergleich gezogen und nutzt aus, dass das Polynom als Nullstellen und besitzt.[10]
Der höherdimensionale Fall
[Bearbeiten | Quelltext bearbeiten]Die Differentialrechnung kann auf den Fall „höherdimensionaler Funktionen“ verallgemeinert werden. Damit ist gemeint, dass sowohl Eingabe- als auch Ausgabewerte der Funktion nicht bloß Teil des eindimensionalen reellen Zahlenstrahls, sondern auch Punkte eines höherdimensionalen Raums sind. Ein Beispiel ist die Vorschrift
zwischen jeweils zweidimensionalen Räumen. Das Funktionsverständnis als Tabelle bleibt hier identisch, nur dass diese mit „vier Spalten“ „deutlich mehr“ Einträge besitzt. Auch mehrdimensionale Abbildungen können in manchen Fällen an einem Punkt linearisiert werden. Allerdings ist dabei nun angemessen zu beachten, dass es sowohl mehrere Eingabedimensionen als auch mehrere Ausgabedimensionen geben kann: Der korrekte Verallgemeinerungsweg liegt darin, dass die Linearisierung in jeder Komponente der Ausgabe jede Variable auf lineare Weise berücksichtigt. Das zieht für obere Beispielfunktion eine Approximation der Form
nach sich. Diese ahmt dann die gesamte Funktion in der Nähe der Eingabe sehr gut nach.[11] In jeder Komponente wird demnach für jede Variable eine „Steigung“ angegeben – diese wird dann das lokale Verhalten der Komponentenfunktion bei kleiner Änderung in dieser Variablen messen. Diese Steigung wird auch als partielle Ableitung bezeichnet.[12] Die korrekten konstanten Abschnitte berechnen sich exemplarisch durch bzw. . Wie auch im eindimensionalen Fall hängen die Steigungen (hier ) stark von der Wahl des Punktes (hier ) ab, an dem abgeleitet wird. Die Ableitung ist demnach keine Zahl mehr, sondern ein Verband aus mehreren Zahlen – in diesem Beispiel sind es vier – und diese Zahlen sind im Regelfall bei allen Eingaben unterschiedlich. Es wird allgemein für die Ableitung auch
geschrieben, womit alle „Steigungen“ in einer sog. Matrix versammelt sind. Man bezeichnet diesen Term auch als Jacobi-Matrix oder Funktionalmatrix.[13]
Beispiel: Wird oben gesetzt, so kann man zeigen, dass folgende lineare Approximation bei sehr kleinen Änderungen von und sehr gut ist:
Zum Beispiel gilt
und
Hat man im ganz allgemeinen Fall Variablen und Ausgabekomponenten, so gibt es kombinatorisch gesehen insgesamt „Steigungen“, also partielle Ableitungen. Im klassischen Fall gibt es wegen eine Steigung und im oberen Beispiel sind es „Steigungen“.[14]
Geschichte
[Bearbeiten | Quelltext bearbeiten]

Die Aufgabenstellung der Differentialrechnung bildete sich als Tangentenproblem ab dem 17. Jahrhundert heraus. Hierunter versteht man die Aufgabe, bei einer beliebigen Kurve in einem beliebigen Punkt die Tangente zu bestimmen.[15] Ein naheliegender Lösungsansatz bestand darin, die Tangente an eine Kurve durch ihre Sekante über einem endlichen (endlich heißt hier: größer als null), aber beliebig kleinen Intervall zu approximieren. Dabei war die technische Schwierigkeit zu überwinden, mit einer solchen infinitesimal kleinen Intervallbreite zu rechnen. Die ersten Anfänge der Differentialrechnung gehen auf Pierre de Fermat zurück. Er entwickelte um 1628 eine Methode, Extremstellen algebraischer Terme zu bestimmen und Tangenten an Kegelschnitte und andere Kurven zu berechnen. Seine „Methode“ war rein algebraisch. Fermat betrachtete keine Grenzübergänge und schon gar keine Ableitungen. Gleichwohl lässt sich seine „Methode“ mit modernen Mitteln der Analysis interpretieren und rechtfertigen, und sie hat Mathematiker wie Newton und Leibniz nachweislich inspiriert. Einige Jahre später wählte René Descartes einen anderen algebraischen Zugang, indem er an eine Kurve einen Kreis anlegte. Dieser schneidet die Kurve in zwei nahe beieinanderliegenden Punkten; es sei denn, er berührt die Kurve. Dieser Ansatz ermöglichte es ihm, für spezielle Kurven die Steigung der Tangente zu bestimmen.[16]
Ende des 17. Jahrhunderts gelang es Isaac Newton und Gottfried Wilhelm Leibniz mit unterschiedlichen Ansätzen unabhängig voneinander, widerspruchsfrei funktionierende Kalküle zu entwickeln. Während Newton das Problem physikalisch über das Momentangeschwindigkeitsproblem anging,[17] löste es Leibniz geometrisch über das Tangentenproblem. Ihre Arbeiten erlaubten das Abstrahieren von rein geometrischer Vorstellung und werden deshalb als Beginn der Analysis betrachtet. Bekannt wurden sie vor allem durch das Buch Analyse des Infiniment Petits pour l’Intelligence des Lignes Courbes[18] des Adligen Guillaume François Antoine, Marquis de L’Hospital, der bei Johann I Bernoulli Privatunterricht nahm und dessen Forschung zur Analysis so publizierte. Darin heißt es:
„Die Reichweite dieses Kalküls ist unermesslich: Er lässt sich sowohl auf mechanische als auch geometrische Kurven anwenden; Wurzelzeichen bereiten ihm keine Schwierigkeiten und sind oftmals sogar angenehm im Umgang; er lässt sich auf so viele Variablen erweitern, wie man sich nur wünschen kann; der Vergleich unendlich kleiner Größen aller Art gelingt mühelos. Und er erlaubt eine unendliche Zahl an überraschenden Entdeckungen über gekrümmte wie geradlinige Tangenten, Fragen De maximis & minimis, Wendepunkte und Spitzen von Kurven, Evoluten, Spiegelungs- und Brechungskaustiken, &c. wie wir in diesem Buch sehen werden.“[19]
Die heute bekannten Ableitungsregeln basieren vor allem auf den Werken von Leonhard Euler, der den Funktionsbegriff prägte.
Newton und Leibniz arbeiteten mit beliebig kleinen positiven Zahlen.[20] Dies wurde bereits von Zeitgenossen als unlogisch kritisiert, beispielsweise von George Berkeley in der polemischen Schrift The analyst; or, a discourse addressed to an infidel mathematician.[21] Erst in den 1960ern konnte Abraham Robinson diese Verwendung infinitesimaler Größen mit der Entwicklung der Nichtstandardanalysis auf ein mathematisch-axiomatisch sicheres Fundament stellen. Trotz der herrschenden Unsicherheit wurde die Differentialrechnung aber konsequent weiterentwickelt, in erster Linie wegen ihrer zahlreichen Anwendungen in der Physik und in anderen Gebieten der Mathematik. Symptomatisch für die damalige Zeit war das von der Preußischen Akademie der Wissenschaften 1784 veröffentlichte Preisausschreiben:
„… Die höhere Geometrie benutzt häufig unendlich große und unendlich kleine Größen; jedoch haben die alten Gelehrten das Unendliche sorgfältig vermieden, und einige berühmte Analysten unserer Zeit bekennen, dass die Wörter unendliche Größe widerspruchsvoll sind. Die Akademie verlangt also, dass man erkläre, wie aus einer widersprechenden Annahme so viele richtige Sätze entstanden sind, und dass man einen sicheren und klaren Grundbegriff angebe, welcher das Unendliche ersetzen dürfte, ohne die Rechnung zu schwierig oder zu lang zu machen …“[22]
Erst zum Anfang des 19. Jahrhunderts gelang es Augustin-Louis Cauchy, der Differentialrechnung die heute übliche logische Strenge zu geben, indem er von den infinitesimalen Größen abging und die Ableitung als Grenzwert von Sekantensteigungen (Differenzenquotienten) definierte.[23] Die heute benutzte Definition des Grenzwerts wurde schließlich von Karl Weierstraß im Jahr 1861 formuliert.[24]
Definition
[Bearbeiten | Quelltext bearbeiten]Sekanten- und Tangentensteigung
[Bearbeiten | Quelltext bearbeiten]Ausgangspunkt für die Definition der Ableitung ist die Näherung der Tangentensteigung durch eine Sekantensteigung (manchmal auch Sehnensteigung genannt). Gesucht sei die Steigung einer Funktion in einem Punkt . Man berechnet zunächst die Steigung der Sekante an über einem endlichen Intervall der Länge :
- Sekantensteigung = .
Die Sekantensteigung ist also der Quotient zweier Differenzen; sie wird deshalb auch Differenzenquotient genannt. Mit der Kurznotation für kann man die Sekantensteigung abgekürzt als schreiben. Der Ausdruck verdeutlicht also die beliebig klein werdende Differenz zwischen der Stelle, an der abgeleitet werden soll, und einem benachbarten Punkt. In der Literatur wird jedoch, wie auch im Folgenden, in vielen Fällen aus Gründen der Einfachheit das Symbol statt verwendet.
Um eine Tangentensteigung zu berechnen, muss man die beiden Punkte, durch die die Sekante gezogen wird, immer weiter aneinander rücken. Dabei gehen sowohl als auch gegen Null. Der Quotient bleibt aber in vielen Fällen endlich. Auf diesem Grenzübergang beruht die folgende Definition.
Differenzierbarkeit
[Bearbeiten | Quelltext bearbeiten]

Eine Funktion , die ein offenes Intervall in die reellen Zahlen abbildet, heißt differenzierbar an der Stelle , falls der Grenzwert
- (mit )
existiert. Dieser Grenzwert heißt Differentialquotient oder Ableitung von nach an der Stelle und wird als
- oder oder oder
notiert.[25][26] Gesprochen werden diese Notationen als „f Strich von x null“, „d f von x nach d x an der Stelle x gleich x null“, „d f nach d x von x null“ respektive „d nach d x von f von x null“. Im später folgenden Abschnitt Notationen werden noch weitere Varianten angeführt, um die Ableitung einer Funktion zu notieren.
Im Laufe der Zeit wurde folgende gleichwertige Definition gefunden, die sich im allgemeineren Kontext komplexer oder mehrdimensionaler Funktionen als leistungsfähiger erwiesen hat: Eine Funktion heißt an einer Stelle differenzierbar, falls eine Konstante existiert, sodass
Der Zuwachs der Funktion , wenn man sich von nur wenig entfernt, etwa um den Wert , lässt sich also durch sehr gut approximieren. Man nennt deshalb die lineare Funktion , für die also für alle gilt, auch die Linearisierung von an der Stelle .[27]
Eine weitere Definition ist: Es gibt eine an der Stelle stetige Funktion mit und eine Konstante , sodass für alle gilt
- .
Die Bedingungen und dass an der Stelle stetig ist, bedeuten gerade, dass das „Restglied“ für gegen gegen konvergiert.[27]
In beiden Fällen ist die Konstante eindeutig bestimmt und es gilt . Der Vorteil dieser Formulierung ist, dass Beweise einfacher zu führen sind, da kein Quotient betrachtet werden muss. Diese Darstellung der besten linearen Approximation wurde schon von Karl Weierstraß, Henri Cartan und Jean Dieudonné konsequent angewandt und wird auch Weierstraßsche Zerlegungsformel genannt.
Bezeichnet man eine Funktion als differenzierbar, ohne sich auf eine bestimmte Stelle zu beziehen, dann bedeutet dies die Differenzierbarkeit an jeder Stelle des Definitionsbereiches, also die Existenz einer eindeutigen Tangente für jeden Punkt des Graphen.
Jede differenzierbare Funktion ist stetig, die Umkehrung gilt jedoch nicht.[27] Noch Anfang des 19. Jahrhunderts war man überzeugt, dass eine stetige Funktion höchstens an wenigen Stellen nicht differenzierbar sein könne (wie die Betragsfunktion). Bernard Bolzano konstruierte dann als erster Mathematiker tatsächlich eine Funktion, die später Bolzanofunktion genannt wurde, die überall stetig, aber nirgends differenzierbar ist, was in der Fachwelt allerdings nicht bekannt wurde. Karl Weierstraß fand dann in den 1860er Jahren ebenfalls eine derartige Funktion (siehe Weierstraß-Funktion), was diesmal unter Mathematikern Wellen schlug. Ein bekanntes mehrdimensionales Beispiel für eine stetige, nicht differenzierbare Funktion ist die von Helge von Koch 1904 vorgestellte Koch-Kurve.[28]
Ableitungsfunktion
[Bearbeiten | Quelltext bearbeiten]
Die Ableitung der Funktion an der Stelle , bezeichnet mit , beschreibt lokal das Verhalten der Funktion in der Umgebung der betrachteten Stelle . In einigen Fällen ist es möglich, an jedem Punkt des Funktionsgraphen eine Linearisierung vorzunehmen. Dies erlaubt die Definition einer Ableitungsfunktion (oder kurz Ableitung) , die jedem Element des Definitionsbereichs der Ausgangsfunktion die Steigung der dortigen Linearisierung zuordnet. Man sagt in diesem Falle, „ ist in differenzierbar“.[29]
Beispielsweise hat die Quadratfunktion mit an einer beliebigen Stelle die Ableitung die Quadratfunktion ist also auf der Menge der reellen Zahlen differenzierbar. Die zugehörige Ableitungsfunktion ist gegeben durch mit .
Die Ableitungsfunktion ist im Normalfall eine andere Funktion als die ursprünglich betrachtete. Einzige Ausnahme sind die Vielfachen der natürlichen Exponentialfunktion mit beliebigem – unter denen, wie die Wahl zeigt, auch alle Funktionen mit beliebigem enthalten sind (deren Graph aus dem der Exponentialfunktion durch „seitliche“ Verschiebung um entsteht und zu diesem daher kongruent ist).
Ist die Ableitung stetig, dann heißt stetig differenzierbar. In Anlehnung an die Bezeichnung für die Gesamtheit (den Raum) der stetigen Funktionen mit Definitionsmenge wird der Raum der auf stetig differenzierbaren Funktionen mit abgekürzt.[30]
Notationen
[Bearbeiten | Quelltext bearbeiten]Geschichtlich bedingt gibt es unterschiedliche Notationen, um die Ableitung einer Funktion darzustellen.
Lagrange-Notation
[Bearbeiten | Quelltext bearbeiten]In diesem Artikel wurde bisher hauptsächlich die Notation für die Ableitung von verwendet. Diese Notation geht auf den Mathematiker Joseph-Louis Lagrange zurück, der sie 1797 einführte.[31] Bei dieser Notation wird die zweite Ableitung von mit und die -te Ableitung mittels bezeichnet.
Newton-Notation
[Bearbeiten | Quelltext bearbeiten]Isaac Newton – neben Leibniz der Begründer der Differentialrechnung – notierte die erste Ableitung von mit , entsprechend notierte er die zweite Ableitung durch .[32] Heutzutage wird diese Schreibweise häufig in der Physik, insbesondere in der Mechanik, für die Ableitung nach der Zeit verwendet.[33]
Leibniz-Notation
[Bearbeiten | Quelltext bearbeiten]Gottfried Wilhelm Leibniz führte für die erste Ableitung von (nach der Variablen ) die Notation ein.[34] Gelesen wird dieser Ausdruck als „d f von x nach d x“. Für die zweite Ableitung notierte Leibniz und die -te Ableitung wird mittels bezeichnet.[35] Bei der Schreibweise von Leibniz handelt es sich nicht um einen Bruch. Die Symbole und werden „Differentiale“ genannt, haben aber in der modernen Differentialrechnung (abgesehen von der Theorie der Differentialformen) eine lediglich symbolische Bedeutung, im Differentialquotienten. In manchen Anwendungen (Kettenregel, Integration mancher Differentialgleichungen, Integration durch Substitution) rechnet man mit ihnen aber so, als wären sie gewöhnliche Terme.
Euler-Notation
[Bearbeiten | Quelltext bearbeiten]Die Notation oder für die erste Ableitung von geht auf Leonhard Euler zurück. Dabei wird die Ableitung als Operator – also als eine besondere Funktion, die selbst auf Funktionen arbeitet, aufgefasst. Diese Idee geht auf den Mathematiker Louis François Antoine Arbogast zurück. Die zweite Ableitung wird in dieser Notation mittels oder und die -te Ableitung durch oder dargestellt.[36]
Ableitungsberechnung
[Bearbeiten | Quelltext bearbeiten]Das Berechnen der Ableitung einer Funktion wird Differentiation oder Differenziation genannt; sprich, man differenziert diese Funktion.
Um die Ableitung elementarer Funktionen (z. B. , , …) zu berechnen, hält man sich eng an die oben angegebene Definition, berechnet explizit einen Differenzenquotienten und lässt dann gegen Null gehen. Dieses Verfahren ist jedoch meistens umständlich. Bei der Lehre der Differentialrechnung wird diese Art der Rechnung daher nur wenige Male vollzogen. Später greift man auf bereits bekannte Ableitungsfunktionen zurück oder schlägt Ableitungen nicht ganz so geläufiger Funktionen in einem Tabellenwerk nach (z. B. im Bronstein-Semendjajew, siehe auch Tabelle von Ableitungs- und Stammfunktionen) und berechnet die Ableitung zusammengesetzter Funktionen mit Hilfe der Ableitungsregeln.
Ableitungen elementarer Funktionen
[Bearbeiten | Quelltext bearbeiten]Für die Berechnung der Ableitungsfunktion einer elementaren Funktion an einer vorgesehenen Stelle wird der zugehörige Differenzenquotient gebildet, der in der Umgebung mit gültig ist, und dann wird der Grenzübergang vollzogen.
Natürliche Potenzen
[Bearbeiten | Quelltext bearbeiten]Der Fall ist bereits weiter oben behandelt worden. Der zugehörige Differenzenquotient ergibt sich zu
Wenn ist, lässt sich kürzen,
und die Annäherung führt auf
Allgemein für eine natürliche Zahl mit wird der binomische Lehrsatz herangezogen:
Wenn für alle endlichen Werte von endlich ist, ist auch endlich. Der in der letzten Gleichung vor stehende Faktor führt auf . Damit entsteht
Zwei Ergänzungen:
- Ein konstanter Summand in kürzt sich in heraus, noch bevor der Grenzübergang vollzogen wird.
- Ein konstanter Faktor in kann in ausgeklammert und vor den Bruch gezogen werden.
Exponentialfunktion
[Bearbeiten | Quelltext bearbeiten]
Mit der Exponentialfunktion ergibt sich der Differenzenquotient
Für jedes gilt
Damit kann im Zähler ausgeklammert werden.
Mit dem oben hergeleiteten Grenzübergang
entsteht
Darin ist der natürliche Logarithmus von . Speziell für die Eulersche Zahl ist . Damit entsteht die auszeichnende Zusatzeigenschaft
Logarithmus
[Bearbeiten | Quelltext bearbeiten]Mit der Logarithmusfunktion zur Basis ergibt sich der Differenzenquotient

Für jedes gilt
Mit dem oben hergeleiteten Grenzübergang
und mit der Basisumrechnung entsteht
Dieses existiert nur für . Für existiert die Funktion .[37] Mit der Substitution und der Kettenregel ergibt ihre Ableitung
Beide Ableitungen können zusammengefasst werden für zu
Speziell für den natürlichen Logarithmus gilt
Sinus und Kosinus
[Bearbeiten | Quelltext bearbeiten]Mit der Sinusfunktion ergibt sich der Differenzenquotient
Mit dem Additionstheorem
gilt
Mit dem oben hergeleiteten Grenzübergang
und mit entsteht
Für die Kosinusfunktion führt eine entsprechende Rechnung mit
auf
Weitere elementare Funktionen
[Bearbeiten | Quelltext bearbeiten]Mit den vorstehenden Ableitungen können Ableitungsfunktionen für weitere Funktionen aufgestellt werden. Dazu werden zusätzlich die Ableitungsregeln für die Grundrechenarten, die Kettenregel und die Umkehrregel benötigt.
Allgemeine Potenzen
[Bearbeiten | Quelltext bearbeiten]Die Funktion ist bisher nur für als natürliche Zahl abgeleitet worden. Die Anwendbarkeit der zugehörigen Ableitungsregel lässt sich bei auf reelle Exponenten erweitern. Mit der Substitution[38]
ist
Wird dieses mit der Kettenregel differenziert, so entsteht das bekannte Ergebnis:
Eine Anwendung ist die Ableitung der Wurzelfunktion. Für gilt mit
Der Fall betrifft die Quadratwurzel:
Für gilt
Tangens und Kotangens
[Bearbeiten | Quelltext bearbeiten]Mit Hilfe der Quotientenregel und den Ableitungsfunktionen für Sinus und Kosinus können auch die Ableitungsfunktionen für Tangens und Kotangens aufgestellt werden. Es gilt
Dabei wurde die als „Trigonometrischer Pythagoras“ bezeichnete Formel verwendet. Ebenso wird gewonnen
Arkussinus und Arkuskosinus
[Bearbeiten | Quelltext bearbeiten]Arkussinus und Arkuskosinus sind als Umkehrfunktionen von Sinus und Kosinus definiert. Die Ableitungen werden mittels der Umkehrregel berechnet. Setzt man , so folgt im Bereich
Für den Arkuskosinus ergibt sich mit ebenso
Arkustangens und Arkuskotangens
[Bearbeiten | Quelltext bearbeiten]Arkustangens und Arkuskotangens sind als Umkehrfunktionen von Tangens und Kotangens definiert. Setzt man , so folgt mittels der Umkehrregel
Für den Arkuskotangens ergibt sich mit ebenso
Zusammengesetzte Funktion
[Bearbeiten | Quelltext bearbeiten]Zusammengesetzte Funktionen lassen sich so weit strukturieren, bis sich zu jedem Strukturelement die jeweils zutreffende elementare Ableitungsregel finden lässt. Dazu gibt es die Summenregel, die Produktregel, die Quotientenregel und die Kettenregel. Da diese in eigenen Artikeln erläutert werden, wird hier nur ein Beispiel vorgestellt.
mit ist ableitbar nach als Potenz mit ist ableitbar nach als Summe mit einer Konstanten mit ist ableitbar nach als trigonometrische Funktion ist ableitbar nach als Potenz mit konstantem Faktor
Nach der Kettenregel ergibt sich
Zusammenfassung
[Bearbeiten | Quelltext bearbeiten]Hier werden die Ableitungsregeln elementarer und zusammengesetzter Funktionen zusammengefasst. Eine ausführliche Liste findet sich unter Tabelle von Ableitungs- und Stammfunktionen.
Anmerkung | ||
---|---|---|
Elementares | ||
konstanter Faktor bleibt erhalten | ||
konstanter Summand verschwindet | ||
Potenzfunktion | ||
Exponentialfunktion | ||
Logarithmusfunktion | ||
Trigonometrische Funktionen | ||
Hyperbelfunktionen | ||
Summenregel | ||
Produktregel | ||
Quotientenregel | ||
oder |
Kettenregel mit | |
oder |
Umkehrregel mit oder nach aufgelöst |
Höhere Ableitungen
[Bearbeiten | Quelltext bearbeiten]Ist die Ableitung einer Funktion wiederum differenzierbar, so lässt sich die zweite Ableitung von als Ableitung der ersten definieren. Auf dieselbe Weise können dann auch dritte, vierte etc. Ableitungen definiert werden. Eine Funktion kann dementsprechend einmal differenzierbar, zweimal differenzierbar etc. sein.
Ist die erste Ableitung eines Weges nach der Zeit eine Geschwindigkeit, so kann die zweite Ableitung als Beschleunigung und die dritte Ableitung als Ruck interpretiert werden.
Wenn Politiker sich über den „Rückgang des Anstiegs der Arbeitslosenzahl“ äußern, dann sprechen sie von der zweiten Ableitung (Änderung des Anstiegs), um die Aussage der ersten Ableitung (Anstieg der Arbeitslosenzahl) zu relativieren.
Höhere Ableitungen können auf verschiedene Weisen geschrieben werden:
oder im physikalischen Fall (bei einer Ableitung nach der Zeit)
Für die formale Bezeichnung beliebiger Ableitungen legt man außerdem und fest.
Höhere Differentialoperatoren
[Bearbeiten | Quelltext bearbeiten]Ist eine natürliche Zahl und offen, so wird der Raum der in -mal stetig differenzierbaren Funktionen mit bezeichnet. Der Differentialoperator induziert damit eine Kette von linearen Abbildungen
und damit allgemein für :
Dabei bezeichnet den Raum der in stetigen Funktionen. Exemplarisch: Wird ein durch Anwenden von einmal abgeleitet, kann das Ergebnis im Allgemeinen nur noch -mal abgeleitet werden usw. Jeder Raum ist eine -Algebra, da nach der Summen- bzw. der Produktregel Summen und auch Produkte von -mal stetig differenzierbaren Funktionen wieder -mal stetig differenzierbar sind. Es gilt zudem die aufsteigende Kette von echten Inklusionen
denn offenbar ist jede mindestens -mal stetig differenzierbare Funktion auch -mal stetig differenzierbar usw., jedoch zeigen die Funktionen
exemplarisch Beispiele für Funktionen aus , wenn – was ohne Beschränkung der Allgemeinheit möglich ist – angenommen wird.[39]
Höhere Ableitungsregeln
[Bearbeiten | Quelltext bearbeiten]Die Ableitung -ter Ordnung für ein Produkt aus zwei -mal differenzierbaren Funktionen und ergibt sich aus
- .
Die hier auftretenden Ausdrücke der Form sind Binomialkoeffizienten. Die Formel ist eine Verallgemeinerung der Produktregel.
Diese Formel ermöglicht die geschlossene Darstellung der -ten Ableitung der Komposition zweier -mal differenzierbarer Funktionen. Sie verallgemeinert die Kettenregel auf höhere Ableitungen.
Taylorformeln mit Restglied
[Bearbeiten | Quelltext bearbeiten]Ist eine in einem Intervall -mal stetig differenzierbare Funktion, dann gilt für alle und aus die sogenannte Taylorformel:
mit dem -ten Taylorpolynom an der Entwicklungsstelle
und dem -ten Restglied
mit einem .[40] Eine beliebig oft differenzierbare Funktion wird glatte Funktion genannt. Da sie alle Ableitungen besitzt, kann die oben angegebene Taylorformel zur Taylorreihe von mit Entwicklungspunkt erweitert werden:
Es ist jedoch nicht jede glatte Funktion durch ihre Taylorreihe darstellbar, siehe unten.
Glatte Funktionen
[Bearbeiten | Quelltext bearbeiten]Funktionen, die an jeder Stelle ihres Definitionsbereichs beliebig oft differenzierbar sind, bezeichnet man auch als glatte Funktionen. Die Menge aller in einer offenen Menge glatten Funktionen wird meist mit bezeichnet. Sie trägt die Struktur einer -Algebra (skalare Vielfache, Summen und Produkte glatter Funktionen sind wieder glatt) und ist gegeben durch
wobei alle in -mal stetig differenzierbaren Funktionen bezeichnet.[30] Häufig findet man in mathematischen Betrachtungen den Begriff hinreichend glatt. Damit ist gemeint, dass die Funktion mindestens so oft differenzierbar ist, wie es nötig ist, um den aktuellen Gedankengang durchzuführen.
Analytische Funktionen
[Bearbeiten | Quelltext bearbeiten]Der obere Begriff der Glattheit kann weiter verschärft werden. Eine Funktion heißt reell analytisch, wenn sie sich in jedem Punkt lokal in eine Taylorreihe entwickeln lässt, also
für alle und alle hinreichend kleinen Werte von . Analytische Funktionen haben starke Eigenschaften und finden besondere Aufmerksamkeit in der komplexen Analysis. Dort werden dementsprechend keine reell, sondern komplex analytischen Funktionen studiert. Ihre Menge wird meist mit bezeichnet und es gilt . Insbesondere ist jede analytische Funktion glatt, aber nicht umgekehrt. Die Existenz aller Ableitungen ist also nicht hinreichend dafür, dass die Taylorreihe die Funktion darstellt, wie das folgende Gegenbeispiel
einer nicht analytischen glatten Funktion zeigt.[41] Alle reellen Ableitungen dieser Funktion verschwinden in 0, aber es handelt sich nicht um die Nullfunktion. Daher wird sie an der Stelle 0 nicht durch ihre Taylorreihe dargestellt.
Anwendungen
[Bearbeiten | Quelltext bearbeiten]
Eine wichtige Anwendung der Differentialrechnung in einer Variablen ist die Bestimmung von Extremwerten, meist zur Optimierung von Prozessen, wie etwa im Kontext von Kosten, Material oder Energieaufwand.[42] Die Differentialrechnung stellt eine Methode bereit, Extremstellen zu finden, ohne dabei unter Aufwand numerisch suchen zu müssen. Man macht sich zu Nutze, dass an einer lokalen Extremstelle notwendigerweise die erste Ableitung der Funktion gleich 0 sein muss. Es muss also gelten, wenn eine lokale Extremstelle ist. Allerdings bedeutet andersherum noch nicht, dass es sich bei um ein Maximum oder Minimum handelt. In diesem Fall werden mehr Informationen benötigt, um eine eindeutige Entscheidung treffen zu können, was meist durch Betrachten höherer Ableitungen bei möglich ist.
Eine Funktion kann einen Maximal- oder Minimalwert haben, ohne dass die Ableitung an dieser Stelle existiert, jedoch kann in diesem Falle die Differentialrechnung nicht verwendet werden. Im Folgenden werden daher nur zumindest lokal differenzierbare Funktionen betrachtet. Als Beispiel nehmen wir die Polynomfunktion mit dem Funktionsterm
Die Abbildung zeigt den Verlauf der Graphen von , und .
Horizontale Tangenten
[Bearbeiten | Quelltext bearbeiten]Besitzt eine Funktion mit an einer Stelle ihren größten Wert, gilt also für alle dieses Intervalls , und ist an der Stelle differenzierbar, so kann die Ableitung dort nur gleich Null sein: . Eine entsprechende Aussage gilt, falls in den kleinsten Wert annimmt.
Geometrische Deutung dieses Satzes von Fermat ist, dass der Graph der Funktion in lokalen Extrempunkten eine parallel zur -Achse verlaufende Tangente, auch waagerechte Tangente genannt, besitzt.
Es ist somit für differenzierbare Funktionen eine notwendige Bedingung für das Vorliegen einer Extremstelle, dass die Ableitung an der betreffenden Stelle den Wert 0 annimmt:
Umgekehrt kann aber daraus, dass die Ableitung an einer Stelle den Wert Null hat, noch nicht auf eine Extremstelle geschlossen werden, es könnte auch beispielsweise ein Sattelpunkt vorliegen. Eine Liste verschiedener hinreichender Kriterien, deren Erfüllung sicher auf eine Extremstelle schließen lässt, findet sich im Artikel Extremwert. Diese Kriterien benutzen meist die zweite oder noch höhere Ableitungen.
Bedingung im Beispiel
[Bearbeiten | Quelltext bearbeiten]Im Beispiel ist
Daraus folgt, dass genau für und gilt. Die Funktionswerte an diesen Stellen sind und , d. h., die Kurve hat in den Punkten und waagerechte Tangenten, und nur in diesen.
Da die Folge
abwechselnd aus kleinen und großen Werten besteht, muss in diesem Bereich ein Hoch- und ein Tiefpunkt liegen. Nach dem Satz von Fermat hat die Kurve in diesen Punkten eine waagerechte Tangente, es kommen also nur die oben ermittelten Punkte in Frage: Also ist ein Hochpunkt und ein Tiefpunkt.
Kurvendiskussion
[Bearbeiten | Quelltext bearbeiten]Mit Hilfe der Ableitungen lassen sich noch weitere Eigenschaften der Funktion analysieren, wie die Existenz von Wende- und Sattelpunkten, die Konvexität oder die oben schon angesprochene Monotonie. Die Durchführung dieser Untersuchungen ist Gegenstand der Kurvendiskussion.
Termumformungen
[Bearbeiten | Quelltext bearbeiten]Neben der Bestimmung der Steigung von Funktionen ist die Differentialrechnung durch ihren Kalkül ein wesentliches Hilfsmittel bei der Termumformung. Hierbei löst man sich von jeglichem Zusammenhang mit der ursprünglichen Bedeutung der Ableitung als Anstieg. Hat man zwei Terme als gleich erkannt, lassen sich durch Differentiation daraus weitere (gesuchte) Identitäten gewinnen. Ein Beispiel mag dies verdeutlichen:
Aus der bekannten Partialsumme
der geometrischen Reihe soll die Summe
berechnet werden. Dies gelingt durch Differentiation mit Hilfe der Quotientenregel:
Alternativ ergibt sich die Identität auch durch Ausmultiplizieren und anschließendes dreifaches Teleskopieren, was aber nicht so einfach zu durchschauen ist.
Zentrale Aussagen der Differentialrechnung einer Variablen
[Bearbeiten | Quelltext bearbeiten]Fundamentalsatz der Analysis
[Bearbeiten | Quelltext bearbeiten]Die wesentliche Leistung Leibniz’ war die Erkenntnis, dass Integration und Differentiation zusammenhängen. Diese formulierte er im Hauptsatz der Differential- und Integralrechnung, auch Fundamentalsatz der Analysis genannt, der besagt:
Ist ein Intervall, eine stetige Funktion und eine beliebige Zahl aus , so ist die Funktion
stetig differenzierbar, und ihre Ableitung ist gleich .
Hiermit ist also eine Anleitung zum Integrieren gegeben: Gesucht ist eine Funktion , deren Ableitung der Integrand ist. Dann gilt:[43]
Mittelwertsatz der Differentialrechnung
[Bearbeiten | Quelltext bearbeiten]Ein weiterer zentraler Satz der Differentialrechnung ist der Mittelwertsatz, der 1821 von Cauchy bewiesen wurde.[44]
Es sei eine Funktion, die auf dem abgeschlossenen Intervall (mit ) definiert und stetig ist. Außerdem sei die Funktion im offenen Intervall differenzierbar. Unter diesen Voraussetzungen gibt es mindestens ein , sodass
gilt – geometrisch-anschaulich: Zwischen zwei Schnittpunkten einer Sekante gibt es auf der Kurve einen Punkt mit zur Sekante paralleler Tangente.[45]
Monotonie und Differenzierbarkeit
[Bearbeiten | Quelltext bearbeiten]Ist und eine differenzierbare Funktion mit für alle , so gelten folgende Aussagen:[46]
- Die Funktion ist strikt monoton.
- Es ist mit irgendwelchen .
- Die Umkehrfunktion existiert, ist differenzierbar und erfüllt .
Daraus lässt sich herleiten, dass eine stetig differenzierbare Funktion , deren Ableitung nirgends verschwindet, bereits einen Diffeomorphismus zwischen den Intervallen und definiert. In mehreren Variablen ist die analoge Aussage falsch. So verschwindet die Ableitung der komplexen Exponentialfunktion , nämlich sie selbst, in keinem Punkt, aber es handelt sich um keine (global) injektive Abbildung . Man beachte, dass diese als höherdimensionale reelle Funktion aufgefasst werden kann, da ein zweidimensionaler -Vektorraum ist.
Allerdings liefert der Satz von Hadamard ein Kriterium, mit dem in manchen Fällen gezeigt werden kann, dass eine stetig differenzierbare Funktion ein Homöomorphismus ist.
Die Regel von de L’Hospital
[Bearbeiten | Quelltext bearbeiten]Als eine Anwendung des Mittelwertsatzes lässt sich eine Beziehung herleiten, die es in manchen Fällen erlaubt, unbestimmte Ausdrücke der Gestalt oder zu berechnen.[47]
Seien differenzierbar und habe keine Nullstelle. Ferner gelte entweder
oder
- .
Dann gilt
unter der Bedingung, dass der letzte Grenzwert in existiert.
Differentialrechnung bei Funktionenfolgen und Integralen
[Bearbeiten | Quelltext bearbeiten]In vielen analytischen Anwendungen hat man es nicht mit einer Funktion , sondern mit einer Folge zu tun. Dabei muss geklärt werden, inwieweit sich der Ableitungsoperator mit Prozessen wie Grenzwerten, Summen oder Integralen verträgt.
Grenzfunktionen
[Bearbeiten | Quelltext bearbeiten]Bei einer konvergenten, differenzierbaren Funktionenfolge ist es im Allgemeinen nicht möglich, Rückschlüsse auf den Grenzwert der Folge zu ziehen, selbst dann nicht, wenn gleichmäßig konvergiert. Die analoge Aussage in der Integralrechnung ist hingegen richtig: Bei gleichmäßiger Konvergenz können Limes und Integral vertauscht werden, zumindest dann, wenn die Grenzfunktion „gutartig“ ist.
Aus dieser Tatsache kann zumindest Folgendes geschlossen werden: Sei eine Folge stetig differenzierbarer Funktionen, sodass die Folge der Ableitungen gleichmäßig gegen eine Funktion konvergiert. Es gelte außerdem, dass die Folge für mindestens einen Punkt konvergiert. Dann konvergiert bereits gleichmäßig gegen eine differenzierbare Funktion und es gilt .[48]
Vertauschen mit unendlichen Reihen
[Bearbeiten | Quelltext bearbeiten]Sei eine Folge stetig differenzierbarer Funktionen, sodass die Reihe konvergiert, wobei die Supremumsnorm bezeichnet. Konvergiert außerdem die Reihe für ein , dann konvergiert die Funktionenreihe gleichmäßig gegen eine differenzierbare Funktion, und es gilt[49]
Das Resultat geht auf Karl Weierstraß zurück.[50]
Vertauschen mit Integration
[Bearbeiten | Quelltext bearbeiten]Es sei eine stetige Funktion, sodass die partielle Ableitung
existiert und stetig ist. Dann ist auch
differenzierbar, und es gilt
Diese Regel wird auch als Leibnizsche Regel bezeichnet.[51]
Differentialrechnung über den komplexen Zahlen
[Bearbeiten | Quelltext bearbeiten]Bisher wurde nur von reellen Funktionen gesprochen. Alle behandelten Regeln lassen sich jedoch auf Funktionen mit komplexen Eingaben und Werten übertragen. Dies hat den Hintergrund, dass die komplexen Zahlen genau wie die reellen Zahlen einen Körper bilden, dort also Addition, Multiplikation und Division erklärt ist. Diese zusätzliche Struktur bildet den entscheidenden Unterschied zu einer Herangehensweise mehrdimensionaler reeller Ableitungen, wenn bloß als zweidimensionaler -Vektorraum aufgefasst wird. Ferner lassen sich die euklidischen Abstandsbegriffe der reellen Zahlen (siehe auch Euklidischer Raum) auf natürliche Weise auf komplexe Zahlen übertragen. Dies erlaubt eine analoge Definition und Behandlung der für die Differentialrechnung wichtigen Begriffe wie Folge und Grenzwert.[52]
Ist also offen, eine komplexwertige Funktion, so heißt an der Stelle komplex differenzierbar, wenn der Grenzwert
existiert.[53] Dieser wird mit bezeichnet und (komplexe) Ableitung von an der Stelle genannt. Es ist demnach möglich, den Begriff der Linearisierung ins Komplexe weiterzutragen: Die Ableitung ist die „Steigung“ der linearen Funktion, die bei optimal approximiert. Allerdings ist darauf zu achten, dass der Wert im Grenzwert nicht nur reelle, sondern auch komplexe Zahlen (nahe bei 0) annehmen kann. Dies hat zur Folge, dass der Terminus der komplexen Differenzierbarkeit wesentlich restriktiver ist als jener der reellen Differenzierbarkeit. Während im Reellen nur zwei Richtungen im Differenzenquotienten betrachtet werden mussten, sind es im Komplexen unendlich viele Richtungen, da diese keine Gerade, sondern eine Ebene aufspannen. So ist beispielsweise die Betragsfunktion nirgends komplex differenzierbar. Eine komplexe Funktion ist genau dann komplex differenzierbar in einem Punkt, wenn sie dort die Cauchy-Riemannschen Differentialgleichungen erfüllt und total differenzierbar ist.[54]
Trotz (bzw. gerade wegen) des viel einschränkenderen Begriffs der komplexen Differenzierbarkeit übertragen sich alle üblichen Rechenregeln der reellen Differentialrechnung in die komplexe Differentialrechnung. Dazu gehören die Ableitungsregeln, also zum Beispiel Summen-, Produkt- und Kettenregel, wie auch die Umkehrregel für inverse Funktionen. Viele Funktionen, wie Potenzen, die Exponentialfunktion oder der Logarithmus, haben natürliche Fortsetzungen in die komplexen Zahlen und besitzen weiterhin ihre charakteristischen Eigenschaften. Von diesem Gesichtspunkt her ist die komplexe Differentialrechnung mit ihrem reellen Analogon identisch.
Wenn eine Funktion in ganz komplex differenzierbar ist, nennt man sie auch eine in holomorphe Funktion.[55] Holomorphe Funktionen haben bedeutende Eigenschaften. So ist zum Beispiel jede holomorphe Funktion bereits (in jedem Punkt) beliebig oft differenzierbar. Die daraus aufkommende Klassifizierungfrage holomorpher Funktionen ist Gegenstand der Funktionentheorie. Es stellt sich heraus, dass im komplex-eindimensionalen Fall der Begriff holomorph äquivalent zum Begriff analytisch ist. Demnach ist jede holomorphe Funktion analytisch, und umgekehrt. Ist eine Funktion sogar in ganz holomorph, so nennt man sie ganz. Beispiele für ganze Funktionen sind die Potenzfunktionen mit natürlichen Zahlen sowie , und .
Differentialrechnung mehrdimensionaler Funktionen
[Bearbeiten | Quelltext bearbeiten]Alle vorherigen Ausführungen legten eine Funktion in einer Variablen (also mit einer reellen oder komplexen Zahl als Argument) zugrunde. Funktionen, die Vektoren auf Vektoren oder Vektoren auf Zahlen abbilden, können ebenfalls eine Ableitung haben. Allerdings ist eine Tangente an den Funktionsgraph in diesen Fällen nicht mehr eindeutig bestimmt, da es viele verschiedene Richtungen gibt. Hier ist also eine Erweiterung des bisherigen Ableitungsbegriffs notwendig.
Mehrdimensionale Differenzierbarkeit und die Jacobi-Matrix
[Bearbeiten | Quelltext bearbeiten]Richtungsableitung
[Bearbeiten | Quelltext bearbeiten]Es sei offen, eine Funktion, und ein (Richtungs-)Vektor. Aufgrund der Offenheit von gibt es ein mit für alle , weshalb die Funktion mit wohldefiniert ist. Ist diese Funktion in differenzierbar, so heißt ihre Ableitung Richtungsableitung von an der Stelle in der Richtung und wird meistens mit bezeichnet.[56] Es gilt:
Es besteht ein Zusammenhang zwischen der Richtungsableitung und der Jacobi-Matrix. Ist differenzierbar, dann existiert und es gilt in einer Umgebung von :
wobei die Schreibweise das entsprechende Landau-Symbol bezeichnet.[57]
Es werde als Beispiel eine Funktion betrachtet, also ein Skalarfeld. Diese könnte eine Temperaturfunktion sein: In Abhängigkeit vom Ort wird die Temperatur im Zimmer gemessen, um zu beurteilen, wie effektiv die Heizung ist. Wird das Thermometer in eine bestimmte Raumrichtung bewegt, ist eine Veränderung der Temperatur festzustellen. Dies entspricht genau der entsprechenden Richtungsableitung.
Partielle Ableitungen
[Bearbeiten | Quelltext bearbeiten]Die Richtungsableitungen in spezielle Richtungen , nämlich in die der Koordinatenachsen mit der Länge , nennt man die partiellen Ableitungen.
Insgesamt lassen sich für eine Funktion in Variablen partielle Ableitungen errechnen:[58]
Die einzelnen partiellen Ableitungen einer Funktion lassen sich auch gebündelt als Gradient oder Nablavektor anschreiben:[59]
Meist wird der Gradient als Zeilenvektor (also „liegend“) geschrieben. In manchen Anwendungen, besonders in der Physik, ist jedoch auch die Schreibweise als Spaltenvektor (also „stehend“) üblich. Partielle Ableitungen können selbst differenzierbar sein und ihre partiellen Ableitungen lassen sich dann in der sogenannten Hesse-Matrix anordnen.
Totale Differenzierbarkeit
[Bearbeiten | Quelltext bearbeiten]Eine Funktion mit , wobei eine offene Menge ist, heißt in einem Punkt total differenzierbar (oder auch nur differenzierbar, manchmal auch Fréchet-differenzierbar[56]), falls eine lineare Abbildung existiert, sodass
gilt.[60] Für den eindimensionalen Fall stimmt diese Definition mit der oben angegebenen überein. Die lineare Abbildung ist bei Existenz eindeutig bestimmt, ist also insbesondere unabhängig von der Wahl äquivalenter Normen. Die Tangente wird daher durch die lokale Linearisierung der Funktion abstrahiert. Die Matrixdarstellung der ersten Ableitung von nennt man Jacobi-Matrix. Es handelt sich um eine -Matrix. Für erhält man den weiter oben beschriebenen Gradienten.
Zwischen den partiellen Ableitungen und der totalen Ableitung besteht folgender Zusammenhang: Existiert in einem Punkt die totale Ableitung, so existieren dort auch alle partiellen Ableitungen. In diesem Fall stimmen die partiellen Ableitungen mit den Koeffizienten der Jacobi-Matrix überein:
Umgekehrt folgt aus der Existenz der partiellen Ableitungen in einem Punkt nicht zwingend die totale Differenzierbarkeit, ja nicht einmal die Stetigkeit. Sind die partiellen Ableitungen jedoch zusätzlich in einer Umgebung von stetig, dann ist die Funktion in auch total differenzierbar.[61]
Rechenregeln der mehrdimensionalen Differentialrechnung
[Bearbeiten | Quelltext bearbeiten]Kettenregel
[Bearbeiten | Quelltext bearbeiten]Es seien und offen sowie und in bzw. differenzierbar, wobei . Dann ist mit in differenzierbar mit Jacobi-Matrix
Mit anderen Worten, die Jacobi-Matrix der Komposition ist das Produkt der Jacobi-Matrizen von und .[62] Es ist zu beachten, dass die Reihenfolge der Faktoren im Gegensatz zum klassischen eindimensionalen Fall eine Rolle spielt.
Produktregel
[Bearbeiten | Quelltext bearbeiten]Mit Hilfe der Kettenregel kann die Produktregel auf reellwertige Funktionen mit höherdimensionalem Definitionsbereich verallgemeinert werden.[63] Ist offen und sind beide in differenzierbar, so folgt
oder in der Gradientenschreibweise
Funktionenfolgen
[Bearbeiten | Quelltext bearbeiten]Sei offen. Es bezeichne eine Folge stetig differenzierbarer Funktionen , sodass es Funktionen und gibt (dabei ist der Raum der linearen Abbildungen von nach ), sodass Folgendes gilt:
- konvergiert punktweise gegen ,
- konvergiert lokal gleichmäßig gegen .
Dann ist stetig differenzierbar auf und es gilt .[64]
Implizite Differentiation
[Bearbeiten | Quelltext bearbeiten]Ist eine Funktion durch eine implizite Gleichung gegeben, so folgt aus der mehrdimensionalen Kettenregel, die für Funktionen mehrerer Variablen gilt,
Für die Ableitung der Funktion ergibt sich daher
mit und
Zentrale Sätze der Differentialrechnung mehrerer Veränderlicher
[Bearbeiten | Quelltext bearbeiten]Satz von Schwarz
[Bearbeiten | Quelltext bearbeiten]Die Differentiationsreihenfolge ist bei der Berechnung partieller Ableitungen höherer Ordnung unerheblich, wenn alle partiellen Ableitungen bis zu dieser Ordnung (einschließlich) stetig sind. Dies bedeutet konkret: Ist offen und die Funktion zweimal stetig differenzierbar (d. h., alle zweifachen partiellen Ableitungen existieren und sind stetig), so gilt für alle und :
Der Satz wird falsch, wenn die Stetigkeit der zweifachen partiellen Ableitungen weggelassen wird.[65]
Satz von der impliziten Funktion
[Bearbeiten | Quelltext bearbeiten]Der Satz von der impliziten Funktion besagt, dass Funktionsgleichungen auflösbar sind, falls die Jacobi-Matrix bezüglich bestimmter Variablen lokal invertierbar ist.[66]
Mittelwertsatz
[Bearbeiten | Quelltext bearbeiten]Über den höherdimensionalen Mittelwertsatz gelingt es, eine Funktion entlang einer Verbindungsstrecke abzuschätzen, wenn die dortigen Ableitungen bekannt sind. Seien offen und differenzierbar. Gegeben seien zudem zwei Punkte , sodass die Verbindungsstrecke eine Teilmenge von ist. Dann postuliert der Mittelwertsatz die Ungleichung:[67]
Eine präzisere Aussage ist indes für den Fall reellwertiger Funktionen in mehreren Veränderlichen möglich, siehe auch Mittelwertsatz für reellwertige Funktionen mehrerer Variablen.
Höhere Ableitungen im Mehrdimensionalen
[Bearbeiten | Quelltext bearbeiten]Auch im Fall höherdimensionaler Funktionen können höhere Ableitungen betrachtet werden. Die Konzepte haben jedoch einige starke Unterschiede zum klassischen Fall, die besonders im Falle mehrerer Veränderlicher in Erscheinung treten. Bereits die Jacobi-Matrix lässt erkennen, dass die Ableitung einer höherdimensionalen Funktion an einer Stelle nicht mehr die gleiche Gestalt wie der dortige Funktionswert haben muss. Wird nun die erste Ableitung erneut abgeleitet, so ist die erneute „Jacobi-Matrix“ im Allgemeinen ein noch umfangreicheres Objekt. Für dessen Beschreibung ist das Konzept der multilinearen Abbildungen bzw. des Tensors erforderlich. Ist , so ordnet jedem Punkt eine -Matrix (lineare Abbildung von nach ) zu. Induktiv definiert man für die höheren Ableitungen
wobei der Raum der -multilinearen Abbildungen von nach bezeichnet. Analog wie im eindimensionalen Fall definiert man die Räume der -mal stetig differenzierbaren Funktionen auf durch , und die glatten Funktion via[68]
Auch die Konzepte der Taylor-Formeln und der Taylorreihe lassen sich auf den höherdimensionalen Fall verallgemeinern, siehe auch Taylor-Formel im Mehrdimensionalen bzw. mehrdimensionale Taylorreihe.
Anwendungen
[Bearbeiten | Quelltext bearbeiten]Fehlerrechnung
[Bearbeiten | Quelltext bearbeiten]Ein Anwendungsbeispiel der Differentialrechnung mehrerer Veränderlicher betrifft die Fehlerrechnung, zum Beispiel im Kontext der Experimentalphysik. Während man im einfachsten Falle die zu bestimmende Größe direkt messen kann, wird es meistens der Fall sein, dass sie sich durch einen funktionalen Zusammenhang aus einfacher zu messenden Größen ergibt. Typischerweise hat jede Messung eine gewisse Unsicherheit, die man durch Angabe des Messfehlers zu quantifizieren versucht.[69]
Bezeichnet zum Beispiel mit das Volumen eines Quaders, so könnte das Ergebnis experimentell ermittelt werden, indem man Länge , Breite und Höhe einzeln misst. Treten bei diesen die Fehler , und auf, so gilt für den Fehler in der Volumenberechnung:
Allgemein gilt, dass wenn eine zu messende Größe funktional von einzeln gemessenen Größen durch abhängt und bei deren Messungen jeweils die Fehler entstehen, der Fehler der daraus errechneten Größe ungefähr bei
liegen wird. Dabei bezeichnet der Vektor die exakten Terme der einzelnen Messungen.[69]
Lösungsnäherung von Gleichungssystemen
[Bearbeiten | Quelltext bearbeiten]Viele höhere Gleichungssysteme lassen sich nicht algebraisch geschlossen lösen. In manchen Fällen kann man aber zumindest eine ungefähre Lösung ermitteln. Ist das System durch gegeben, mit einer stetig differenzierbaren Funktion , so konvergiert die Iterationsvorschrift
unter gewissen Voraussetzungen gegen eine Nullstelle. Dabei bezeichnet das Inverse der Jacobi-Matrix zu . Der Prozess stellt eine Verallgemeinerung des klassischen eindimensionalen Newton-Verfahrens dar. Aufwendig ist allerdings die Berechnung dieser Inversen in jedem Schritt. Unter Verschlechterung der Konvergenzrate kann in manchen Fällen die Modifikation statt vorgenommen werden, womit nur eine Matrix invertiert werden muss.[70]
Extremwertaufgaben
[Bearbeiten | Quelltext bearbeiten]Auch für die Kurvendiskussion von Funktionen ist die Auffindung von Minima bzw. Maxima, zusammengefasst Extrema, ein wesentliches Anliegen. Die mehrdimensionale Differentialrechnung liefert Möglichkeiten, diese zu bestimmen, sofern die betrachtete Funktion zweimal stetig differenzierbar ist. Analog zum Eindimensionalen besagt die notwendige Bedingung für die Existenz für Extrema, dass im besagten Punkt alle partiellen Ableitungen 0 sein müssen, also
für alle . Dieses Kriterium ist nicht hinreichend, dient aber dazu, diese kritischen Punkte als mögliche Kandidaten für Extrema zu ermitteln. Unter Bestimmung der Hesse-Matrix, der zweiten Ableitung, kann anschließend in manchen Fällen entschieden werden, um welche Art Extremstelle es sich handelt.[71] Im Gegensatz zum Eindimensionalen ist die Formenvielfalt kritischer Punkte größer. Mittels einer Hauptachsentransformation, also einer detaillierten Untersuchung der Eigenwerte, der durch eine mehrdimensionale Taylor-Entwicklung im betrachteten Punkt gegebenen quadratischen Form lassen sich die verschiedenen Fälle klassifizieren.[72]
Optimierung unter Nebenbedingungen
[Bearbeiten | Quelltext bearbeiten]Häufig ist bei Optimierungsproblemen die Zielfunktion lediglich auf einer Teilmenge zu minimieren, wobei durch sog. Nebenbedingungen bzw. Restriktionen bestimmt ist. Ein Verfahren, das zur Lösung solcher Probleme herangezogen werden kann, ist die Lagrangesche Multiplikatorregel.[73] Diese nutzt die mehrdimensionale Differentialrechnung und lässt sich sogar auf Ungleichungsnebenbedingungen ausweiten.[74]
Beispiel aus der Mikroökonomie
[Bearbeiten | Quelltext bearbeiten]
In der Mikroökonomie werden beispielsweise verschiedene Arten von Produktionsfunktionen analysiert, um daraus Erkenntnisse für makroökonomische Zusammenhänge zu gewinnen. Hier ist vor allem das typische Verhalten einer Produktionsfunktion von Interesse: Wie reagiert die abhängige Variable Output (z. B. Output einer Volkswirtschaft), wenn die Inputfaktoren (hier: Arbeit und Kapital) um eine infinitesimal kleine Einheit erhöht werden?
Ein Grundtyp einer Produktionsfunktion ist etwa die neoklassische Produktionsfunktion. Sie zeichnet sich unter anderem dadurch aus, dass der Output bei jedem zusätzlichen Input steigt, dass aber die Zuwächse abnehmend sind. Es sei beispielsweise für eine Volkswirtschaft die Cobb-Douglas-Funktion
- mit
maßgebend. Zu jedem Zeitpunkt wird in der Volkswirtschaft unter dem Einsatz der Produktionsfaktoren Arbeit und Kapital mithilfe eines gegebenen Technologielevels Output produziert. Die erste Ableitung dieser Funktion nach den Produktionsfaktoren ergibt:
- .
Da die partiellen Ableitungen aufgrund der Beschränkung nur positiv werden können, sieht man, dass der Output bei einer Erhöhung der jeweiligen Inputfaktoren steigt. Die partiellen Ableitungen 2. Ordnung ergeben:
- .
Sie werden für alle Inputs negativ sein, also fallen die Zuwachsraten. Man könnte also sagen, dass bei steigendem Input der Output unterproportional steigt. Die relative Änderung des Outputs im Verhältnis zu einer relativen Änderung des Inputs ist hier durch die Elastizität gegeben. Vorliegend bezeichnet die Produktionselastizität des Kapitals, die bei dieser Produktionsfunktion dem Exponenten entspricht, der wiederum die Kapitaleinkommensquote repräsentiert. Folglich steigt der Output bei einer infinitesimal kleinen Erhöhung des Kapitals um die Kapitaleinkommensquote.
Weiterführende Theorien
[Bearbeiten | Quelltext bearbeiten]Differentialgleichungen
[Bearbeiten | Quelltext bearbeiten]Eine wichtige Anwendung der Differentialrechnung besteht in der mathematischen Modellierung physikalischer Vorgänge. Wachstum, Bewegung oder Kräfte haben alle mit Ableitungen zu tun, ihre formelhafte Beschreibung muss also Differentiale enthalten. Typischerweise führt dies auf Gleichungen, in denen Ableitungen einer unbekannten Funktion auftauchen, sogenannte Differentialgleichungen.
Beispielsweise verknüpft das newtonsche Bewegungsgesetz
die Beschleunigung eines Körpers mit seiner Masse und der auf ihn einwirkenden Kraft . Das Grundproblem der Mechanik lautet deshalb, aus einer gegebenen Beschleunigung die Ortsfunktion eines Körpers herzuleiten. Diese Aufgabe, eine Umkehrung der zweifachen Differentiation, hat die mathematische Gestalt einer Differentialgleichung zweiter Ordnung. Die mathematische Schwierigkeit dieses Problems rührt daher, dass Ort, Geschwindigkeit und Beschleunigung Vektoren sind, die im Allgemeinen nicht in die gleiche Richtung zeigen, und dass die Kraft von der Zeit und vom Ort abhängen kann.
Da viele Modelle mehrdimensional sind, sind bei der Formulierung häufig die weiter oben erklärten partiellen Ableitungen sehr wichtig, mit denen sich partielle Differentialgleichungen formulieren lassen. Mathematisch kompakt werden diese mittels Differentialoperatoren beschrieben und analysiert.
Differentialgeometrie
[Bearbeiten | Quelltext bearbeiten]Zentrales Thema der Differentialgeometrie ist die Ausdehnung der klassischen Analysis auf höhere geometrische Objekte. Diese sehen lokal so aus wie zum Beispiel der euklidische Raum , können aber global eine andere Gestalt haben. Der Begriff hinter diesem Phänomen ist die Mannigfaltigkeit. Mit Hilfe der Differentialgeometrie werden Fragestellungen über die Natur solcher Objekte studiert – zentrales Werkzeug ist weiterhin die Differentialrechnung. Gegenstand der Untersuchung sind oftmals die Abstände zwischen Punkten oder die Volumina von Figuren. Beispielsweise kann mit ihrer Hilfe der kürzestmögliche Weg zwischen zwei Punkten auf einer gekrümmten Fläche bestimmt und gemessen werden, die sogenannte Geodätische. Für die Messung von Volumina wird der Begriff der Differentialform benötigt. Differentialformen erlauben unter anderem eine koordinatenunabhängige Integration.
Sowohl die theoretischen Ergebnisse als auch Methoden der Differentialgeometrie haben bedeutende Anwendungen in der Physik. So beschrieb Albert Einstein seine Relativitätstheorie mit differentialgeometrischen Begriffen.
Verallgemeinerungen
[Bearbeiten | Quelltext bearbeiten]In vielen Anwendungen ist es wünschenswert, Ableitungen auch für stetige oder sogar unstetige Funktionen bilden zu können. So kann beispielsweise eine sich am Strand brechende Welle durch eine partielle Differentialgleichung modelliert werden, die Funktion der Höhe der Welle ist aber noch nicht einmal stetig. Zu diesem Zweck verallgemeinerte man Mitte des 20. Jahrhunderts den Ableitungsbegriff auf den Raum der Distributionen und definierte dort eine schwache Ableitung. Eng verbunden damit ist der Begriff des Sobolew-Raums.
Der Begriff der Ableitung als Linearisierung lässt sich analog auf Funktionen zwischen zwei normierbaren topologischen Vektorräumen und übertragen (s. Hauptartikel Fréchet-Ableitung, Gâteaux-Differential, Lorch-Ableitung): heißt in Fréchet-differenzierbar, wenn ein stetiger linearer Operator existiert, sodass
- .
Eine Übertragung des Begriffes der Ableitung auf andere Ringe als und (und Algebren darüber) führt zur Derivation.
Siehe auch
[Bearbeiten | Quelltext bearbeiten]Literatur
[Bearbeiten | Quelltext bearbeiten]Differentialrechnung ist ein zentraler Unterrichtsgegenstand in der Sekundarstufe II und wird somit in allen Mathematik-Lehrbüchern dieser Stufe behandelt.
Lehrbücher für Mathematik-Studierende
[Bearbeiten | Quelltext bearbeiten]- Henri Cartan: Differentialrechnung. Bibliographisches Institut, Mannheim 1974, ISBN 3-411-01442-3.
- Henri Cartan: Differentialformen. Bibliographisches Institut, Mannheim 1974, ISBN 3-411-01443-1.
- Henri Cartan: Elementare Theorien der analytischen Funktionen einer und mehrerer komplexen Veränderlichen. Bibliographisches Institut, Mannheim 1966, 1981, ISBN 3-411-00112-7.
- Richard Courant: Vorlesungen über Differential- und Integralrechnung. 2 Bände. Springer 1928, 4. Auflage 1971, ISBN 3-540-02956-7.
- Jean Dieudonné: Grundzüge der modernen Analysis. Band 1. Vieweg, Braunschweig 1972, ISBN 3-528-18290-3.
- Gregor M. Fichtenholz: Differential- und Integralrechnung I–III. Verlag Harri Deutsch, Frankfurt am Main 1990–2004, ISBN 978-3-8171-1418-4 (kompletter Satz).
- Otto Forster: Analysis 1. Differential- und Integralrechnung einer Veränderlichen. 7. Auflage. Vieweg, Braunschweig 2004, ISBN 3-528-67224-2.
- Otto Forster: Analysis 2. Differentialrechnung im . Gewöhnliche Differentialgleichungen. 6. Auflage. Vieweg, Braunschweig 2005, ISBN 3-528-47231-6.
- Konrad Königsberger: Analysis. 2 Bände. Springer, Berlin 2004, ISBN 3-540-41282-4.
- Wladimir I. Smirnow: Lehrgang der höheren Mathematik (Teil 1–5). Verlag Harri Deutsch, Frankfurt am Main, 1995–2004, ISBN 978-3-8171-1419-1 (kompletter Satz).
- Steffen Timmann: Repetitorium der Analysis. 2 Bände. Binomi, Springe 1993, ISBN 3-923923-50-3, ISBN 3-923923-52-X.
- Serge Lang: A First Course in Calculus. Fifth Edition, Springer, ISBN 0-387-96201-8.
Lehrbücher für das Grundlagenfach Mathematik
[Bearbeiten | Quelltext bearbeiten]- Rainer Ansorge, Hans Joachim Oberle: Mathematik für Ingenieure. Band 1. Akademie-Verlag, Berlin 1994, 3. Auflage 2000, ISBN 3-527-40309-4.
- Günter Bärwolff (unter Mitarbeit von G. Seifert): Höhere Mathematik für Naturwissenschaftler und Ingenieure. Elsevier Spektrum Akademischer Verlag, München 2006, ISBN 3-8274-1688-4.
- Lothar Papula: Mathematik für Naturwissenschaftler und Ingenieure. Band 1. Vieweg, Wiesbaden 2004, ISBN 3-528-44355-3.
- Klaus Weltner: Mathematik für Physiker 1. Springer, Berlin 2011, ISBN 978-3-642-15527-7.
- Peter Dörsam: Mathematik anschaulich dargestellt für Studierende der Wirtschaftswissenschaften. 15. Auflage. PD-Verlag, Heidenau 2010, ISBN 978-3-86707-015-7.
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Tool zur Bestimmung von Ableitungen beliebiger Funktionen mit einer oder mehreren Variablen mit Rechenweg (deutsch; benötigt JavaScript)
- Online-Rechner zum Ableiten von Funktionen mit Rechenweg und Erklärungen (deutsch)
- Anschauliche Erklärung von Ableitungen
- Beispiele zu jeder Ableitungsregel
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 316.
- ↑ Serge Lang: A First Course in Calculus. Fifth Edition. Springer, S. 59–61.
- ↑ Fritz Wicke: Einführung in die Höhere Mathematik: unter besonderer Berücksichtigung der Bedürfnisse des Ingenieurs. Band 1. Springer, 1927, Seite 103.
- ↑ Carl Spitz: Erster Cursus der Differential- und Integralrechnung. C. F. Winter’sche Verlagshandlung, 1871, Seite 15
- ↑ Carl Spitz: Erster Cursus der Differential- und Integralrechnung. C. F. Winter’sche Verlagshandlung, 1871, Seite 16
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 422.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 170.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 292.
- ↑ Serge Lang: A First Course in Calculus. Fifth Edition. Springer, S. 463–464.
- ↑ John Stillwell: Mathematics and Its History, Third Edition, Springer, S. 192–194.
- ↑ Serge Lang: Calculus of Several Variables, Third Edition, Springer, S. 439.
- ↑ Serge Lang: Calculus of Several Variables, Third Edition, Springer, S. 434.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 161.
- ↑ Serge Lang: Calculus of Several Variables, Third Edition, Springer, S. 435–436.
- ↑ Hans Wußing, Heinz-Wilhelm Alten, Heiko Wesemüller-Kock, Eberhard Zeidler: 6000 Jahre Mathematik: Von den Anfängen bis Newton und Leibniz. Springer, 2008, S. 429.
- ↑ Thomas Sonar: 3000 Jahre Analysis, Springer, S. 247–248.
- ↑ Thomas Sonar: 3000 Jahre Analysis, Springer, S. 378.
- ↑ Marquis de L’Hospital: Analyse des Infiniment Petits pour l’Intelligence des Lignes Courbes. Preface, S. ix–x: « L’Étendue de ce calcul est immense: … »; archive.org.
- ↑ Ernst Hairer, Gerhard Wanner: Analysis in historischer Entwicklung. Springer, S. 87.
- ↑ John Stillwell: Mathematics and its history, Third Edition, Springer, S. 157.
- ↑ Thomas Sonar: 3000 Jahre Analysis, Springer, S. 424–425.
- ↑ Hans Wußing, Heinz-Wilhelm Alten, Heiko Wesemüller-Kock, Eberhard Zeidler: 6000 Jahre Mathematik: Von Euler bis zur Gegenwart. Springer, 2008, S. 233.
- ↑ Thomas Sonar: 3000 Jahre Analysis, Springer, S. 506–514.
- ↑ Ernst Hairer, Gerhard Wanner: Analysis in historischer Entwicklung, Springer, S. 91.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 284.
- ↑ Bronstein et al.: Taschenbuch der Mathematik, Verlag Harri Deutsch, S. 394.
- ↑ a b c Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 318.
- ↑ Jeremy Gray: The Real and the Complex: A History of Analysis in the 19th Century, Springer, S. 271–272.
- ↑ Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 323.
- ↑ a b Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 324.
- ↑ Differentialrechnung. In: Guido Walz (Hrsg.): Lexikon der Mathematik. 1. Auflage. Spektrum Akademischer Verlag, Mannheim/Heidelberg 2000, ISBN 3-8274-0439-8.
- ↑ Ernst Hairer, Gerhard Wanner: Analysis in historischer Entwicklung, Springer, S. 90.
- ↑ Harro Heuser: Lehrbuch der Analysis. Teubner, Wiesbaden 2003, ISBN 3-519-62233-5, S. 269.
- ↑ Thomas Sonar: 3000 Jahre Analysis, Springer, S. 408.
- ↑ Lokenath Debnath: The Legacy of Leonhard Euler – A Tricentennial Tribute, Imperial College Press, S. 26.
- ↑ Ali Mason: Advanced Differential Equations. EDTECH, 1019, ISBN 1-83947-389-4, S. 67.
- ↑ Karl Bosch: Mathematik für Wirtschaftswissenschaftler. 14. Auflage, Oldenbourg, 2003, S. 77
- ↑ Klaus Hefft: Mathematischer Vorkurs zum Studium der Physik. 2. Auflage. Springer, 2018, S. 97.
- ↑ Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 329.
- ↑ Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. S. 358.
- ↑ Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 330–331.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 304.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 32–33.
- ↑ Ernst Hairer, Gerhard Wanner: Analysis in historischer Entwicklung, Springer, S. 248.
- ↑ Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 335.
- ↑ Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 336.
- ↑ Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 346.
- ↑ Terence Tao: Analysis II, Third Edition, Hindustan Book Agency, S. 64.
- ↑ Terence Tao: Analysis II, Third Edition, Hindustan Book Agency, S. 65.
- ↑ Jeremy Gray: The Real and the Complex: A History of Analysis in the 19th Century, Springer, S. 201.
- ↑ Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 89.
- ↑ Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 16 ff.
- ↑ Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 35.
- ↑ Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 42–43.
- ↑ Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 45.
- ↑ a b Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 157.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 158.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 159.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 165.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 154–157.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 158–163.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 173.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 175.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 177.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 192.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 230–232.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 176.
- ↑ Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 188.
- ↑ a b T. Arens et al.: Mathematik. Spektrum, S. 794.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 803.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 811.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 812.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 1193–1195.
- ↑ T. Arens et al.: Mathematik. Spektrum, S. 1196.