Differentialrechnung

Gebiet der Mathematik
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 18. August 2005 um 20:22 Uhr durch P. Birken (Diskussion | Beiträge) (Änderungen von Benutzer:84.179.89.69 rückgängig gemacht und letzte Version von Benutzer:DaTroll wiederhergestellt). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Differential- bzw. Differenzialrechnung ist ein wesentlicher Bestandteil der Analysis und eng verwandt mit der Integralrechnung, mit der sie unter der Bezeichnung Infinitesimalrechnung zusammengefasst wird. Zentrales Thema der Differenzialrechnung ist die Berechnung von lokalen Veränderungen von Funktionen.

Hierzu dient die Ableitung, deren geometrische Entsprechung die Tangentensteigung ist. Die Ableitung ist der Proportionalitätsfaktor zwischen verschwindend kleinen (infinitesimalen) Änderungen des Eingabewertes und den daraus resultierenden, ebenfalls infinitesimalen Änderungen des Funktionswertes. Existiert ein solcher Proportionalitätsfaktor, so nennt man die Funktion differenzierbar. Äquivalent wird die Ableitung in einem Punkt als diejenige lineare Abbildung definiert, die unter allen linearen Abbildungen die Änderung der Funktion lokal am besten approximiert. Entsprechend wird die Ableitung auch die Linearisierung der Funktion genannt.

Die Differentialrechnung ist zur Bildung von mathematischen Modellen, die versuchen die Wirklichkeit abzubilden, sowie deren nachfolgender Analyse in vielen Fällen ein unverzichtbares Hilfsmittel. Die Entsprechung der Ableitung im untersuchten Sachverhalt ist häufig die momentane Änderungsrate, in den Wirtschaftswissenschaften spricht man auch häufig von Grenzraten (z.B. Grenzkosten, Grenzproduktivität eines Produktionsfaktors etc.).

Dieser Artikel erklärt außerdem die Begriffe Differenzenquotient, Differenzialquotient, Differentiation, stetig differenzierbar, glatt, partielle Ableitung und totale Ableitung.

Einleitung

Der Grundbegriff der Differentialrechnung ist die Ableitung einer Funktion.

In geometrischer Sprache ist die Ableitung eine verallgemeinerte Steigung. Der geometrische Begriff Steigung ist ursprünglich nur für lineare Funktionen definiert, deren Funktionsgraph eine Gerade ist. Die Ableitung einer beliebigen Funktion definiert man als die Steigung einer Tangente, die man an den Funktionsgraphen anlegt – wobei dieser Graph in der Regel an verschiedenen Stellen verschiedene Tangenten hat.

In arithmetischer Sprache gibt die Ableitung einer Funktion   für jedes   an, wie sich   verändert, wenn sich   um einen infinitesimal kleinen Betrag   ändert.

In einer klassischen physikalischen Anwendung liefert die Ableitung der Orts- oder Weg-Zeit-Funktion nach der Zeit die Momentangeschwindigkeit eines Teilchens.

Geschichte

Die Aufgabenstellung der Differentialrechnung war als Tangentenproblem seit der Antike bekannt. Der nahe liegende Lösungsansatz war die Approximation der Tangente als Sekante über einem endlichen (endlich heißt hier: größer als Null), aber beliebig kleinen Intervall. Die technische Schwierigkeit bestand darin, mit einer solchen infinitesimal kleinen Intervallbreite zu rechnen. So löste Fermat um 1640 das Tangentenproblem für Polynome. Hierbei schrieb er bereits eine Ableitung hin, jedoch ohne Betrachtung von Grenzwerten und ohne niederzuschreiben, was die mathematischen Rechtfertigungen für sein Vorgehen waren. Zur selben Zeit wählte Descartes einen algebraischen Zugang, indem er an eine Kurve einen Kreis anlegte. Dieser schneidet die Kurve in zwei Punkten, es sei denn der Kreis berührt die Kurve. Dann war es ihm für spezielle Kurven möglich, die Steigung der Tangente zu bestimmen.

Ende des 17. Jahrhunderts gelang es Isaac Newton und Gottfried Wilhelm Leibniz unabhängig voneinander, widerspruchsfrei funktionierende Kalküle zu entwickeln (zur Entdeckungsgeschichte und zum Prioritätsstreit siehe den Artikel Infinitesimalrechnung). Ihre Arbeiten erlaubten das Abstrahieren von rein geometrischer Vorstellung und werden deshalb als Beginn der Analysis betrachtet. Bekannt wurden sie vor allem durch das Buch des Adligen Guillaume François Antoine, Marquis de L'Hospital, der bei Johann Bernoulli Privatunterricht nahm und dessen Forschung zur Analysis so publizierte. Die heute bekannten Ableitungsregeln basieren vor allem auf den Werken von Leonard Euler, der den Funktionsbegriff prägte. Newton und Leibniz arbeiteten mit beliebig kleinen Zahlen, die aber größer als Null sind. Dies wurde bereits von Zeitgenossen als unlogisch kritisiert, beispielsweise von Bischof Berkley in der polemischen Schrift The analyst: or a discourse addressed to an infidel mathematician. Anfang des 19. Jahrhunderts ging Augustin Louis Cauchy davon ab und definierte die Ableitung in der heute üblichen, logisch strengen Weise als Grenzwert von Sekantensteigungen ("Differenzenquotienten"). Die heute benutzte Definition des Grenzwerts wurde schließlich von Karl Weierstraß Ende des 19. Jahrhunderts gegeben.

Definition

Hinführung

Ausgangspunkt für die Definition der Ableitung ist die Näherung der Tangentensteigung durch eine Sekantensteigung. Gesucht sei die Steigung einer Funktion   in einem Punkt  . Man berechnet zunächst die Steigung der Sekante an   über einem endlichen Intervall  :

Sekantensteigung =  .

Die Sekantensteigung ist also der Quotient zweier Differenzen; sie wird deshalb auch Differenzenquotient genannt. Mit der Kurznotation   für   kann man die Sekantensteigung abgekürzt als   schreiben.

Ableitung einer Funktion

Differenzenquotienten sind aus dem täglichen Leben wohlbekannt, zum Beispiel als Durchschnittsgeschwindigkeit:

"Auf der Fahrt von Augsburg nach Flensburg war ich um 9:43 Uhr ( ) am Kreuz Biebelried (Tageskilometerstand   = 198 km). Um 11:04 Uhr ( ) war ich am Dreieck Hattenbach (Tageskilometerstand  =341 km). In einer Stunde und 21 Minuten ( ) habe ich somit 143 km ( ) zurückgelegt. Meine Durchschnittsgeschwindigkeit auf dieser Teilstrecke betrug somit 143 km/1,35 h = 105,9 km/h ( )."

Um eine Tangentensteigung (im genannten Anwendungsbeispiel also eine Momentangeschwindigkeit) zu berechnen, muss man die beiden Punkte, durch die die Sekante gezogen wird, immer weiter aneinander rücken. Dabei gehen sowohl   als auch   gegen Null. Der Quotient   bleibt aber im Normalfall endlich. Auf diesem Grenzübergang beruht die folgende Definition:

Differenzierbarkeit und Ableitung in einem Punkt: Formale Definition und Notation

Eine Funktion, die ein offenes Intervall U auf die reellen Zahlen abbildet ( ), heißt differenzierbar an der Stelle  , falls der Grenzwert

 

existiert. Dieser Grenzwert heißt Differentialquotient oder Ableitung von   nach   an der Stelle   und wird als

  oder   oder   notiert.

Die Terme   und   heißen Differentiale. Sie stellen infinitesimal kleine Zahlenwerte dar (vgl. Einleitung). In manchen Anwendungen (Kettenregel, Integration mancher Differentialgleichungen, Integration durch Substitution) rechnet man mit ihnen fast wie mit "normalen" Variablen. Ein Differential ist auch Teil der üblichen Notation für Integrale.

Die Notation einer Ableitung als Quotient zweier Differentiale wurde von Leibniz eingeführt. Newton benutzte einen Punkt über der abzuleitenden Größe, was in der Physik für Zeitableitungen bis heute üblich geblieben ist. Die Notation mit Apostroph ( ) geht auf Lagrange zurück, der sie 1797 in seinem Buch Théorie des fonctions analytiques einführte.

Im Laufe der Zeit wurde folgende gleichwertige Definition gefunden, die sich im allgemeineren Kontext komplexer oder mehrdimensionaler Funktionen als leistungsfähiger erwiesen hat:
Eine Funktion heißt in einem Punkt   differenzierbar, falls eine Konstante   existiert, so dass

 .

Der Zuwachs der Funktion  , wenn man sich von   nur wenig entfernt, lässt sich also durch   sehr gut approximieren, man nennt die Ableitung   deswegen auch die Linearisierung von  .

Bezeichnet man eine Funktion als differenzierbar, ohne sich auf eine bestimmte Stelle zu beziehen, dann bedeutet dies die Differenzierbarkeit an jeder Stelle des Definitionsbereiches, also die Existenz einer eindeutigen Tangente für jeden Punkt des Graphen.

Eine differenzierbare Funktion ist immer stetig. Die Umkehrung gilt jedoch überraschender Weise nicht. Noch Anfang des 19. Jahrhunderts war man überzeugt, dass eine stetige Funktion höchstens an wenigen Stellen nicht differenzierbar sein könne (wie die Betragsfunktion). Bernhard Bolzano konstruierte dann als erster Mathematiker tatsächlich eine Funktion, die überall stetig, aber nirgends differenzierbar ist; Karl Weierstraß veröffentlichte 1861 als erster eine derartige Funktion. Ein bekanntes Beispiel für eine stetige, nicht differenzierbare Funktion ist die von Helge von Koch 1904 vorgestellte Koch-Kurve.

Ableitung als eine Funktion

Die Ableitung der Funktion   an der Stelle  , bezeichnet mit  , beschreibt lokal das Verhalten der Funktion in der Umgebung der betrachteten Stelle  . Nun wird   im Allgemeinen nicht die einzige Stelle sein, an der   differenzierbar ist. Man kann daher versuchen, jeder Zahl   aus dem Definitionsbereich von   die Ableitung an dieser Stelle (also  ) zuzuordnen. Auf diese Weise erhält man eine neue Funktion  , deren Definitionsbereich eine Teilmenge des Definitionsbereiches von   ist.   heißt die Ableitungsfunktion oder kurz die Ableitung von  . Beispielsweise hat die Quadratfunktion   an einer beliebigen Stelle   die Ableitung  . Daher ist die zugehörige Ableitungsfunktion   gegeben durch  .

Die Ableitungsfunktion ist im Normalfall eine andere als die ursprüngliche, einzige Ausnahme ist die Exponentialfunktion   und ihre Vielfachen.

Ist die Ableitung stetig, dann heißt   stetig differenzierbar. In Anlehnung an die Bezeichnung   des Raums der auf der Menge   stetigen Funktionen wird der Raum der stetig differenzierbaren Funktionen mit   abgekürzt.

Bisher wurde nur von reellen Funktionen gesprochen. Für Differenzierbarkeit von Funktionen mit komplexen Argumenten wird einfach die Definition mit der Linearisierung verwandt. Überraschenderweise ist die Bedingung hier viel einschränkender als im reellen: So ist beispielsweise die Betragsfunktion nirgendwo komplex differenzierbar. Gleichzeitig ist jede in einer Umgebung einmal komplex differenzierbare Funktion automatisch beliebig oft differenzierbar, es existieren also alle höheren Ableitungen.

Berechnung von Ableitungen

Wenn man die Ableitung einer Funktion berechnet, sagt man, man differenziert diese Funktion; diese Tätigkeit heißt Differentiation.

Um die Ableitung elementarer Funktionen (z. B.  ,  ,...) zu berechnen, hält man sich eng an die oben angegebene Definition, berechnet explizit einen Differenzenquotienten und lässt dann   gegen Null gehen. Allerdings vollzieht der typische Mathematikanwender diese Berechnung nur ein paar wenige Male in seinem Leben nach. Später kennt er die Ableitungen der wichtigsten elementaren Funktionen auswendig und schlägt Ableitungen nicht ganz so geläufiger Funktionen in einem Tabellenwerk (z. B. im Bronstein-Semendjajew oder unserer Tabelle von Ableitungs- und Stammfunktionen) nach.

Beispiel für die elementare Berechnung einer Ableitungsfunktion

Gesucht sei die Ableitung von  . Dann berechnet man den Differenzenquotienten als

 
 
 
 

und erhält im Limes   die Ableitung

 

Beispiel für eine nicht überall differenzierbare Funktion

  ist an der Stelle 0 nicht differenzierbar:

Für   gilt   und damit

 .

Für   gilt dagegen   und folglich

 .

Da der linksseitige und der rechtsseitige Grenzwert nicht übereinstimmen, existiert kein beidseitiger Grenzwert.   ist somit an der betrachteten Stelle nicht differenzierbar (an allen anderen Stellen aber sehr wohl!).

Datei:Abs x.PNG

Betrachtet man den Graphen von  , so kommt man zu der Erkenntnis, dass der Begriff der Differenzierbarkeit anschaulich bedeutet, dass der zugehörige Graph keine "Knicke" enthält.

Ein typisches Beispiel für nirgends differenzierbare stetige Funktionen, deren Existenz zunächst schwer vorstellbar erscheint, sind fast alle Pfade der Brownschen Bewegung. Diese wird zum Beispiel zur Modellierung der Charts von Aktienkursen benutzt.

Beispiel für eine nicht überall stetig differenzierbare Funktion

 

Beachte: Selbst wenn   überall differenzierbar ist, muss die Ableitung nicht stetig sein. Zum Beispiel ist die Funktion

 

in jedem Punkt differenzierbar, aber die Ableitung

 

ist im Punkt 0 nicht stetig.

Ableitungsregeln

Ableitungen zusammengesetzter Funktionen (z. B.  ,  , ...) führt man mit Hilfe von Ableitungsregeln (siehe unten) auf die Differentiation elementarer Funktionen zurück.

Mit den folgenden Regeln kann man die Ableitung zusammengesetzter Funktionen auf Ableitungen einfacherer Funktionen zurückführen. Seien  ,   und   (im Definitionsbereich) differenzierbare, reelle Funktionen,   und   reelle Zahlen, dann gilt:

  konstante Funktion:  
  Potenzregel:  
  Summenregel:  
  Differenzregel:  
  Faktorregel:  
  Produktregel:  
  Quotientenregel:  
  Kettenregel:  
  Umkehrregel: Ist   eine an der Stelle   differenzierbare, bijektive Funktion mit  , und ihre Umkehrfunktion   bei   differenzierbar, dann gilt:
 

(Spiegelt man einen Punkt   des Graphen von   an der 1. Mediane und erhält damit   auf  , so ist die Steigung von   in   der Kehrwert der Steigung von   in  )

  Logarithmische Ableitung: Aus der Kettenregel folgt für die Ableitung des natürlichen Logarithmus einer Funktion  :
 

Ein Bruch der Form   wird logarithmische Ableitung genannt.

  Ableitung der Potenzfunktion: Um   abzuleiten, erinnert man sich, dass Potenzen mit reellen Exponenten auf dem Umweg über die Exponentialfunktion definiert sind:  . Anwendung der Kettenregel und – für die innere Ableitung – der Produktregel ergibt
 .
 Leibnizsche Regel Die Ableitung  -ter Ordnung für ein Produkt aus zwei Funktionen ergibt sich aus

 
 
 . Die hier auftretenden Ausdrücke der Form   sind Binomialkoeffizienten. Die Leibnizsche Regel entspricht in ihrer Struktur der binomischen Formel
 .

Der Fundamentalsatz der Analysis

Die wesentliche Leistung von Leibniz war die Erkenntnis, dass Integration und Differentiation zusammenhängen. Diese formulierte er im Hauptsatz der Differential- und Integralrechnung, auch Fundamentalsatz der Analysis genannt. Er besagt:

Ist   ein Intervall,   eine stetige Funktion und   ein beliebiger Punkt, so ist die Funktion

 

stetig differenzierbar, und ihre Ableitung ist  .

Hiermit ist also eine Anleitung zum Integrieren gegeben: Wir suchen eine Funktion, deren Ableitung der Integrand ist. Dann gilt:

 .

Ein weiterer zentraler Satz der Differentialrechnung ist der Mittelwertsatz, der von Cauchy bewiesen wurde.

Es sei   eine Funktion, die auf dem abgeschlossenen Intervall   (mit  ) definiert und stetig ist. Außerdem sei die Funktion   im offenen Intervall   differenzierbar. Unter diesen Voraussetzungen gibt es mindestens ein  , sodass   gilt.

Mehrfache Ableitungen

Ist die Ableitung einer Funktion   wiederum differenzierbar, so lässt sich die zweite Ableitung von   als Ableitung der ersten definieren. Auf dieselbe Weise können dann auch dritte, vierte, etc. Ableitungen definiert werden. Eine Funktion kann dementsprechend einfach differenzierbar, zweifach differenzierbar, etc. sein.

Die zweite Ableitung kann geometrisch als die Krümmung eines Graphen interpretiert werden. Sie hat zahlreiche physikalische Anwendungen. Zum Beispiel ist die erste Ableitung des Orts   nach der Zeit   die Momentangeschwindigkeit, die zweite Ableitung die Beschleunigung.

Wenn Politiker sich erfreut über den "Rückgang des Anstiegs der Arbeitslosenzahl" äußern, dann sprechen sie von der zweiten Ableitung (Änderung des Anstiegs), um die unangenehme Aussage der ersten Ableitung (Anstieg der Arbeitslosenzahl) zu relativieren.

Mehrfache Ableitungen können auf drei verschiedene Weisen geschrieben werden:

  ,
  , ...

Naheliegenderweise wird die Multi-Apostroph-Schreibweise bei niedrigen, die eine oder andere Zahlen-Schreibweise bei hohen Ableitungen bevorzugt. Für die formale Bezeichnung beliebiger Ableitungen   legt man außerdem fest, dass   und  .

Taylor-Reihen und Glattheit

Ist   eine im Intervall   ( )-mal stetig differenzierbare Funktion, dann gilt für alle   und   aus   die Darstellung der so genannten Taylor-Formel:

 

mit dem so genannten  -ten Taylorpolynom an der Entwicklungsstelle  

 

und dem so genannten ( )-ten Restglied

 .

Eine beliebig oft differenzierbare Funktion wird glatte Funktion genannt. Da sie alle Ableitungen besitzt, kann die oben angegebene Taylor-Formel erweitert werden auf die Taylor-Reihe von   mit Entwicklungspunkt  :

 .

Es stellt sich allerdings heraus, dass die Existenz aller Ableitungen nicht ergibt, dass   sich durch die Taylor-Reihe darstellen lässt. Anders ausgedrückt: Jede analytische Funktion ist glatt, aber nicht umgekehrt, wie das im Artikel Taylorreihe gegebene Beispiel einer nicht analytischen glatten Funktion zeigt.

Häufig findet man in mathematischen Betrachtungen den Begriff hinreichend glatt. Hiermit ist gemeint, dass die Funktion so oft differenzierbar ist, wie nötig um den aktuellen Gedankengang durchzuführen.

Anwendung: Berechnung von Minima und Maxima

Eine der wichtigsten Anwendungen der Differentialrechnung ist die Bestimmung von Extremwerten, meist zur Optimierung von Prozessen. Diese befinden sich im Spezialfall monotoner Funktionen am Rand des Definitionsbereichs, im Allgemeinen jedoch an den Stellen, wo die Ableitung Null ist. In diesem Abschnitt nehmen wir das Polynom

 

als Beispiel. Die Abbildung zeigt den Verlauf von  ,   und   .

Datei:Einekurvendiskussionmod.png

Waagerechte Tangenten

Besitzt eine Funktion   in einem inneren Punkt   des zusammenhängenden Intervalls   ihren größten oder kleinsten Wert, also für alle   dieses Intervalls gilt   oder   und existiert darüber hinaus die Ableitung im Punkt  , so kann die Ableitung dort nur gleich Null sein  .

Geometrische Deutung dieses Satzes von Fermat ist, dass die Funktion eine parallel zur  -Achse verlaufende Tangente, auch waagerechte Tangente genannt, besitzt. Folglich ist die Steigung Null an der Stelle  .

Lediglich die notwendige Bedingung für die Existenz eines Maximal- oder Minimalwertes einer Funktion in einem Intervall ist durch den Satz von Fermat gegeben. Deswegen kann es sich um einen Hochpunkt (lokales Maximum), einen Tiefpunkt (lokales Minimum) oder einen Sattelpunkt handeln.

Wesentlich ist die Bedingung, der Differenzierbarkeit der Funktion im Punkt   für den Satz von Fermat. Eine Funktion kann einen Maximal- oder Minimalwert haben, ohne dass die Ableitung an dieser Stelle existiert.

Im Beispiel ist

 

  wird 0 bei   und  .

Die zweite Ableitung   beschreibt die Steigung von  , also die Änderung der Steigung von  . Ist  , so ändert sich   von negativen zu positiven Werten, also liegt ein lokales Minimum von   vor. Im Falle   ändert sich die Steigung vom positiven zu negativen Werten, das bedeutet ein lokales Maximum von  . Im Beispiel ist   und  .

Mit Hilfe der Ableitungen lassen sich noch weitere Eigenschaften der Funktion analysieren, wie Wendepunkte, Sattelpunkte, Konvexität oder die oben schon angesprochene Monotonie. Die Durchführung dieser Untersuchungen wird im Artikel Kurvendiskussion beschrieben.

Ein Beispiel für angewandte Differentialrechnung

Datei:NeoklProdFkt.png

In der Mikroökonomie werden beispielsweise verschiedene Arten von Produktionsfunktionen analysiert, um daraus Erkenntnisse für makroökonomische Zusammenhänge zu gewinnen. Hier ist vor allem das typische Verhalten einer Produktionsfunktion von Interesse: Wie reagiert die abhängige Variable Output   (produzierte Menge eines Gutes), wenn der Input   (Produktionsfaktor, z.B. Arbeit oder Kapital) um eine (infinitesimal) kleine Einheit erhöht wird?

Ein Grundtyp einer Produktionsfunktion ist etwa die neoklassische Produktionsfunktion. Sie zeichnet sich dadurch aus, dass der Output bei jedem zusätzlichen Input steigt, dass aber die Zuwächse abnehmend sind. Es sei beispielsweise für einen Betrieb die Produktionsfunktion

 

maßgebend. Die erste Ableitung dieser Funktion ergibt unter Anwendung der Kettenregel

 .

Da der Wurzelausdruck der ersten Ableitung nur positiv werden kann, sieht man, dass der Ertrag bei jedem zusätzlichen Input steigt. Die zweite Ableitung ergibt

 .

Sie wird für alle Inputs negativ, also fallen die Zuwächse. Man könnte also sagen, das bei steigendem Input der Output unterproportional steigt.

Ableitungen von mehrdimensionalen Funktionen

Alle vorigen Ausführungen legten eine Funktion in einer Variablen (also mit einer reellen oder komplexen Zahl als Argument) zu Grunde. Funktionen, die Vektoren auf Vektoren oder Vektoren auf Zahlen abbilden, können ebenfalls eine Ableitung haben. Allerdings ist eine Tangente an die Funktion in diesen Fällen nicht mehr eindeutig bestimmt, da es viele verschiedene Richtungen gibt. Hier ist also eine Erweiterung des bisherigen Ableitungsbegriffs notwendig.

Partielle Ableitungen

Wir betrachten zunächst eine Funktion, die von   geht. Ein Beispiel ist die Temperaturfunktion: Wir messen in Abhängigkeit vom Ort die Temperatur in unserem Zimmer, um zu beurteilen, wie effektiv die Heizung ist. Bewegen wir das Thermometer in eine bestimmte Richtung, bemerken wir eine Veränderung der Temperatur. Diese ist die so genannte Richtungsableitung. Die Richtungsableitungen in spezielle Richtungen, nämlich die der Koordinatenachsen, nennt man auch die partiellen Ableitungen.

Insgesamt lassen sich für eine Funktion in   Variablen insgesamt   partielle Ableitungen errechnen:

 
 

Die einzelnen partiellen Ableitungen einer Funktion lassen sich auch gebündelt als Gradient oder Nablavektor anschreiben. Partielle Ableitungen können wieder differenzierbar sein und lassen sich dann in der so genannten Hesse-Matrix anordnen. Analog zum eindimensionalen Fall sind die Kandidaten für Extremstellen da, wo die Ableitung Null ist, also der Gradient verschwindet. Ebenfalls analog benutzt man die zweite Ableitung, also die Hesse-Matrix, zur Bestimmung des exakt vorliegenden Falles. Im Gegensatz zum eindimensionalen ist allerdings die Formenvielfalt in diesem Falle größer. Mittels einer Hauptachsentransformation der durch eine mehrdimensionale Taylor-Entwicklung im betrachteten Punkt gegebenen quadratischen Form lassen sich die verschiedenen Fälle klassifizieren.

Ist eine Funktion   durch eine implizite Gleichung   gegeben, so folgt aus der verallgemeinerten Kettenregel, die für Funktionen mehrerer Variablen gilt:

 .

Für die Ableitung der Funktion   ergibt sich daher:

  mit  .

Totale Differenzierbarkeit

Eine Funktion  , wobei   eine offene Menge ist, heißt in einem Punkt   total differenzierbar (manchmal auch nur differenzierbar), falls eine lineare Abbildung   existiert, sodass

  gilt.

Für den eindimensionalen Fall stimmt diese Definition mit der oben angegebenen überein. Die lineare Abbildung   ist bei Existenz eindeutig bestimmt, hängt also insbesondere nicht von der verwendeten Norm ab. Die Tangente wird also durch die lokale Linearisierung der Funktion abstrahiert. Die Matrixdarstellung der ersten Ableitung von   nennt man Jacobi-Matrix. Es handelt sich um eine  -Matrix, im Fall   erhalten wir den oben beschriebenen Gradienten.

Zwischen den partiellen Ableitungen und der totalen Ableitung besteht folgender Zusammenhang: Existiert in einem Punkt die totale Ableitung, so existieren dort auch alle partiellen Ableitungen. In diesem Fall stimmen die partiellen Ableitungen mit den Koeffizienten der Jacobi-Matrix überein. Umgekehrt folgt aus der Existenz der partiellen Ableitungen in einem Punkt   nicht zwingend die totale Differenzierbarkeit, ja nicht einmal die Stetigkeit. Sind die partiellen Ableitungen jedoch zusätzlich in einer Umgebung von   stetig, dann ist die Funktion in   auch total differenzierbar.

Wichtige Sätze

  • Satz von Schwarz: Die Differentiationsreihenfolge ist bei der Berechnung von partiellen Ableitungen höherer Ordnung unerheblich, wenn alle partiellen Ableitungen bis zu dieser Ordnung (einschließlich) stetig sind.
  • Satz von der impliziten Funktion: Funktionsgleichungen sind lösbar, falls die Jacobi-Matrix bezüglich bestimmter Variablen invertierbar ist.

Verallgemeinerungen

  • In vielen Anwendungen ist es wünschenswert, Ableitungen auch für stetige oder sogar unstetige Funktionen bilden zu können. So kann beispielsweise eine sich am Strand brechende Welle durch eine partielle Differentialgleichung modelliert werden, die Funktion der Höhe der Welle ist aber noch nicht einmal stetig. Zu diesem Zweck verallgemeinerte man Mitte des 20. Jahrhunderts den Ableitungsbegriff auf den Raum der Distributionen und definierte dort eine schwache Ableitung. Eng verbunden damit ist der Begriff des Sobolew-Raums.
  • In der Differentialgeometrie werden gekrümmte Flächen untersucht. Hierzu wird der Begriff der Differentialform benötigt.
  • Der Begriff der Ableitung als Linearisierung lässt sich analog auf Funktionen  ,   offen mit   Banachräume, übertragen.   heißt in   differenzierbar, wenn ein stetiger linearer Operator   existiert, so dass
     

Differentialgleichungen

Die wichtigste Anwendung der Differentialrechnung neben dem Bestimmen von Maxima und Minima ist in der mathematischen Modellierung physikalischer Vorgänge. Wachstum, Bewegung oder Kräfte haben alle mit Ableitungen zu tun, ihre formelhafte Beschreibung muss also Differentiale enthalten. Typischerweise führt dies auf Gleichungen, in denen Ableitungen einer unbekannten Funktion auftauchen, eben genau Differentialgleichungen.

Beispielsweise verknüpft das Newtonsche Bewegungsgesetz

 

die Beschleunigung   eines Körpers mit seiner Masse   und der auf ihn einwirkenden Kraft  . Das Grundproblem der Mechanik lautet deshalb, aus einer gegebenen Beschleunigung auf die Ortsfunktion eines Körpers zurückzuschließen. Diese Aufgabe, eine Umkehrung der zweifachen Differentiation, hat die mathematische Gestalt einer Differentialgleichung zweiter Ordnung. Die mathematische Schwierigkeit dieses Problems rührt daher, dass Ort, Geschwindigkeit und Beschleunigung Vektoren sind, die im allgemeinen nicht in die gleiche Richtung zeigen, und dass die Kraft – je nach Anwendungsfall – von der Zeit   oder/und vom Ort   abhängen kann.

Da viele Anwendungen mehrdimensional sind, sind dort partielle Ableitungen sehr wichtig, mit denen sich partielle Differentialgleichungen formulieren lassen. Mathematisch kompakt werden diese mittels Differentialoperatoren beschrieben und analysiert.

Literatur

  • Schulbücher:
    • Differentialrechnung ist ein zentraler Unterrichtsgegenstand in der Sekundarstufe II und wird somit in allen Mathematik-Lehrbüchern behandelt.
  • Lehrbücher für Studenten der Mathematik und benachbarter Fächer (Physik, Informatik):
    • Richard Courant: Vorlesungen über Differential- und Integralrechnung 1, 2. Springer, 1. Aufl. 1928, 4. Aufl. 1971
    • Otto Forster: Analysis 1, 2. Vieweg Verlag, 4. Auflage, 1983
    • Konrad Königsberger: Analysis 1, 2. Springer Verlag, 3. Auflage, 1995
    • Steffen Timmann: Repetitorium der Analysis 1, 2. Binomi Verlag, 1. Auflage, 1993,
  • Lehrbücher für Studenten mit Nebenfach/Grundlagenfach Mathematik (z.B. Studenten der Ingenieur- oder Wirtschaftswissenschaften):
    • Rainer Ansorge und Hans Joachim Oberle: Mathematik für Ingenieure. Wiley-VCH, Band 1, 3. Auflage, 2000
    • Lothar Papula: Mathematik für Naturwissenschaftler und Ingenieure Band 1