Zum Inhalt springen

Benutzer:Googolplexian1221/Riemannsche Vermutung

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 8. Januar 2022 um 17:46 Uhr durch Googolplexian1221 (Diskussion | Beiträge) (Das Euler-Produkt). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Riemannsche Vermutung, Riemannsche Hypothese oder kurz RH (vom englischen Riemann hypothesis) trifft eine Aussage über die Verteilung der Primzahlen und ist eines der bedeutendsten ungelösten Probleme der Mathematik. Sie wurde erstmals 1859 von Bernhard Riemann in seiner Arbeit Über die Anzahl der Primzahlen unter einer gegebenen Größe formuliert. Nachdem sie bereits im Jahr 1900 von David Hilbert auf seine Liste 23 wichtiger Jahrhundertprobleme gesetzt wurde, ist sie im Jahr 2000 vom Clay Mathematics Institute in die Liste der sieben Millennium-Probleme der Mathematik aufgenommen worden. Das Institut in Cambridge (Massachusetts) hat damit ein Preisgeld von einer Million US-Dollar für eine schlüssige Lösung des Problems in Form eines mathematischen Beweises ausgelobt.

Einfach gesprochen sagt die Riemannsche Vermutung aus, dass sich die Folge der Primzahlen 2, 3, 5, 7, 11 … „möglichst zufällig“ verhält. Das sollte sich zum Beispiel dadurch äußern, dass die Abfolge der Ereignisse, dass eine Zahl eine gerade Anzahl an Primfaktoren besitzt, wie zum Beispiel , oder eine ungerade Anzahl an Primfaktoren besitzt, wie , auf lange Sicht ein Verhalten aufweist, welches auch ein häufig wiederholter Münzwurf mit „Kopf“ und „Zahl“ haben könnte. Eine Theorie, welche die Riemannsche Vermutung löst und damit eine tiefere Erklärung für diese Zufälligkeit unter den Primzahlen liefern würde, könnte daher aus Sicht der Mathematiker ein fundamental neues Verständnis für Zahlen im Allgemeinen nach sich ziehen.

Übersetzt man dies in die Fachsprache der analytischen Zahlentheorie, ist die Riemannsche Vermutung äquivalent zu der Aussage, dass sämtliche komplexe Nullstellen der Riemannschen Zeta-Funktion im sog. kritischen Streifen den Realteil 12 besitzen. Es ist schon bekannt und bewiesen, dass die Zeta-Funktion reelle Nullstellen hat (die sogenannten „trivialen“ Nullstellen), sowie unendlich viele nicht-reelle Nullstellen mit dem Realteil 12. Die Riemannsche Vermutung besagt also, dass es darüber hinaus keine weiteren Nullstellen gibt, d. h., dass alle nichttrivialen Nullstellen der Zeta-Funktion auf einer Geraden in der Zahlenebene parallel zur imaginären Achse liegen.

Die Riemannsche Vermutung ist sehr bedeutsam für die moderne Mathematik. Viele wichtige Beweise für eine Reihe bisher ungelöster Probleme, besonders aus der Zahlentheorie, können aus ihrer Richtigkeit gefolgert werden. Dies betrifft Probleme aus der Grundlagenforschung, wie etwa solche der Primzahlverteilung im Umfeld des Primzahlsatzes oder der offenen Goldbachschen Vermutung, als auch der angewandten Mathematik, wie schnelle Primzahltests. Gleichzeitig gilt sie auch als äußerst schwierig zu beweisen. Ein Grund hierfür ist, dass die Menschheit aus Expertensicht bisher nicht über die nötigen mathematischen Werkzeuge verfügt, sie überhaupt angreifen zu können. Bisherige Beweisversuche von prominenten Mathematikern scheiterten allesamt.

Durch umfassenden Einsatz von Computern ist es gelungen, die Riemannsche Vermutung für die ersten 10 Billionen Nullstellen der Zeta-Funktion zu verifizieren. Da es jedoch nachweislich unendlich viele nicht-reelle Nullstellen mit dem Realteil 12 gibt, könnte sie auf diese Weise nur durch Angabe eines expliziten Gegenbeispiels widerlegt, jedoch nicht bewiesen werden. Ein Gegenbeispiel wäre eine nicht-reelle Nullstelle im kritischen Streifen mit Realteil ungleich 12.

Überblick

Zusammengesetzte Zahlen können durch echte „Rechtecke“ ausgedrückt werden (rot), während bei Primzahlen nur eine simple Aneinanderreihung möglich ist (blau).

Im Zentrum der Zahlentheorie, jenes Zweiges der Mathematik, der sich mit den Eigenschaften der natürlichen Zahlen 1, 2, 3, 4 … beschäftigt, stehen die Primzahlen 2, 3, 5, 7, 11 … . Diese sind ausgezeichnet durch die Eigenschaft, genau zwei Teiler zu haben, nämlich die 1 und sich selbst. Die 1 ist keine Primzahl. Sie bilden gewissermaßen die Atome der ganzen Zahlen, da sich jede positive ganze Zahl eindeutig multiplikativ in solche zerlegen lässt. Zum Beispiel gilt 21 = 3 · 7 und 110 = 2 · 5 · 11. Dieses Resultat wird auch als Fundamentalsatz der Arithmetik bezeichnet.

Trotz ihrer einfachen Definition ist nach mehreren Jahrtausenden Mathematikgeschichte bis heute kein Muster bekannt, dem sich die Primzahlen in ihrer Folge unterwerfen. Ihre Natur ist eine der bedeutendsten offenen Fragen der Mathematik. Die Riemannsche Vermutung ist eine bis heute nicht bewiesene Aussage über die Verteilung der Primzahlen, und motiviert sich aus folgenden Fragestellungen:[1]

  • Wie viele Primzahlen 2, 3, 5, 7, 11, ... gibt es unter der Zahl 100? Und wie viele sind es unterhalb 10 000 oder 1 000 000?
  • Allgemeiner, wie viele Primzahlen gibt es unterhalb eine beliebigen Zahl, etwa X?

Auf den ersten Blick sind dies Fragen sehr spezieller Natur, lediglich die Theorie der Zahlen, bzw. Primzahlen, betreffend. Mathematiker, und später auch Physiker, haben jedoch herausgefunden, dass sie mit einer Vielzahl von Strukturen zusammenhängen, die zahlreiche Felder der mathematischen Wissenschaften verknüpfen. Dies betrifft etwa die Quantenphysik, aber auch die Wahrscheinlichkeitstheorie, jener Zweig der Mathematik, der sich mit dem Zufall befasst. All diese Zusammenhänge sind bisher weder exakt formalisiert, noch verstanden worden. Sie alle münden jedoch gemeinsam in der Riemannschen Vermutung: Die Primzahlen stehen, alle gleichzeitig als „großes Ganzes“ betrachtet, in einer Dualität zu einem anderen Typ mathematischen Objekts. Dabei bedeutet Dualität, dass es eine natürliche Paarung zwischen den Primzahlen und diesen anderen Objekten gibt. In etwa übertragen sich Informationen über die Primzahlen zu diesen anderen Objekten, aber auch vice versa kodieren Primzahlen Informationen über ihre „Partnerobjekte“. Bei diesen Objekten handelt es sich wieder um Zahlen. Diese unterteilen sich in zwei Kategorien:

  • Bereits Mitte des 19. Jahrhunderts erkannte Bernhard Riemann, dass die negativen geraden Zahlen, also ein Teil dieser Dualität sind. Man bezeichnet diesen Teil bis heute auch als trivial, da die mathematische Tiefe für dessen Verständnis nicht so hoch ist.
  • Die übrigen, nichttrivialen „Dualzahlen“ treten nicht als „Zählzahlen“ in Erscheinung, wie es etwa die Primzahlen 2 und 3 auf der anderen Seite der Dualität noch taten, sondern es handelt sich um bestimmte komplexe Zahlen.

Im Kontrast zu der „völlig willkürlichen Anordnung“ der Primzahlen scheint den nichttrivialen „Dualzahlen“ ein sehr strenges Muster zu Grunde zu liegen: wie alle komplexe Zahlen können sie zunächst auf einer Ebene visualisiert werden, und die Riemannsche Vermutung sagt aus, dass die zu den Primzahlen gehörigen nichttrivialen „Dualzahlen“ innerhalb der Ebene alle auf einer gemeinsamen Geraden platziert sind. Sie tragen demnach vermutlich eine starke geometrische Symmetrie.

Die Gründe, weshalb ein Beweis der Riemannschen Vermutung bahnbrechend für die Mathematik wäre, sind vielseitig.

  • Die geometrische Lage der nichttrivialen „Dualzahlen“ birgt Informationen zu der Verteilung der Primzahlen. Kennt man alle Dualzahlen, so kann damit sogar die exakte Verteilung der Primzahlen rechnerisch beliebig genau rekonstruiert werden. Durch das Duaslitätsprinzip gehen also wechselseitig keine Informationen verloren. In theoretischer Hinsicht ließe sich die Lage auf einer gemeinsamen Geraden dadurch interpretieren, dass die Primzahlen möglichst gleichmäßig und damit pseudozufällig verteilt sind.
  • Viele bisher nicht bewiesene Vermutungen der Zahlentheorie würden aus dem Beweis der Riemannhypothese als „Zugabe“ direkt mit folgen. Dazu zählen auch verbesserte Primzahltests, die in der Kryptographie praktische Anwendungen finden.
  • Die Theorie der Riemannschen Vermutung führt viele Gebiete der Mathematik zusammen. Tut dies eine Theorie, spricht dies für eine Form der Fundamentalität. Beispiel einer solchen fundamentalen Theorie ist der Ende des 20. Jahrhunderts bewiesene Modularitätssatz, der mit elliptische Kurven und Modulformen zwei auf den ersten Blick völlig verschiedene Theorien zusammenbrachte. Ein tieferes Verständnis der Primzahlen könnte auch neue Entwicklungen in der Quantenphysik nach sich ziehen. Wäre die Symmetrie unter den „Dualzahlen“ erfüllt, könnte dieses System zum Beispiel möglicherweise als Quasikristall aufgefasst werden.

Konzepte der Primzahlverteilung

Die Unendlichkeit der Primzahlen

Bereits Euklid konnte zeigen, dass es unendlich viele Primzahlen gibt, weshalb die Liste 2, 3, 5, 7, 11 … aller Primzahlen niemals endet, genauso wie die Liste 1, 2, 3, 4 … aller natürlichen Zahlen niemals endet. Sein Resultat wird als Satz des Euklid bezeichnet.

Der Satz des Euklid ist ein mathematischer Satz; seine Richtigkeit muss daher bewiesen werden. Ein mathematischer Beweis erfolgt durch eine Aneinanderreihung logischer Argumente, die auf Axiomen oder bereits bewiesenen Sätzen aufbauen. Ein Beweis der Unendlichkeit der Primzahlen kann in etwa so geführt werden:

Ist eine endliche Anzahl verschiedener Primzahlen gefunden, so bilde man deren Produkt. Anschließend addiere man das Ergebnis mit 1. Die dadurch entstandene Zahl ist nach Konstruktion durch keine Primzahl in der Liste teilbar. Da aber jede Zahl durch eine Primzahl teilbar ist, gibt es neben allen Primzahlen in der Liste eine weitere Primzahl.

Nachvollziehen lässt sich das Verfahren an folgendem Beispiel: Betrachtet man die Liste {2, 5, 11} von Primzahlen, so ist deren Produkt 2 · 5 · 11 = 110 durch 2, 5 und 11 teilbar. Damit kann 110 + 1 = 111 weder durch 2, 5 noch 11 teilbar sein, also gibt es eine weitere Primzahl, die sich von 2, 5 und 11 unterscheidet. In etwa teilt die Primzahl 3 die Zahl 111, und es gilt 111 = 3 · 37. Selbstverständlich ist die Listenlänge von drei Zahlen in diesem Beispiel willkürlich; man hat zum Beispiel

2 · 3 · 5 · 7 · 11 · 13 + 1 = 59 · 509,

und weder die Primzahlen 59 noch 509 sind in der Liste {2, 3, 5, 7, 11, 13} enthalten. Das Argument zeigt also, dass jede noch so lange Liste von Primzahlen unvollständig ist. Damit muss es unendlich viele Primzahlen geben.

Die Riemannsche Vermutung gibt eine quantitative Vorstellung von der Verteilung der Primzahlen, die über das bloße Wissen um deren Unendlichkeit sehr weit hinausgeht.

Eine Entdeckung Eulers

Im Laufe der Zeit wurden zahlreiche Beweise für die Unendlichkeit der Primzahlen gefunden, darunter von Christian Goldbach, Leonhard Euler und Paul Erdös. Besonders Euler's Entdeckungen waren ein Wegweiser für die kommende Entwicklung von einer elementaren, in der Tradition der alten Griechen stehenden, hin zu einer modernen Form der Zahlentheorie. Im Jahr 1734, während seiner ersten Sankt Petersburger Zeit untersuchte Euler einen neuartigen Zugang zu den Primzahlen und fand heraus, dass sie „verhältnismäßig dicht“ unter den natürlichen Zahlen verstreut sind. Genauer bewies er

Leonhard Euler (1753).

Summiert man also nacheinander die Kehrwerte der Primzahlen zusammen, wird auf Dauer jede noch so große obere Schranke durchbrochen. Euler stand seiner Zeit nicht die mathematische Sprache zur Verfügung, diese Verschärfung des Euklidschen Satzes präzise zu interpretieren. Vielmehr argumentierte er heuristisch über die ebenfalls von ihm bewiesene Tatsache

dass Primzahlen „wesentlich dichter“ in den natürlichen Zahlen liegen müssen als Quadratzahlen, da letztere langfristig schnell genug anwachsen, so dass die Summe ihrer Kehrwerte den endlichen Wert 1,645 nicht überschreitet. Erst später wurde dieser Begriff der „Dichtheit“ genau quantifiziert. Es gilt aber als gesichert, dass sich Euler der Langsamkeit der Divergenz der Reihe über die Primzahlkehrwerte bewusst war. Berechnet man in etwa die Reihe für die ersten 1000 Primzahlen, ergibt sich

Es ist hierbei 7901 die 998ste, 7907 die 999ste und 7919 die 1000ste Primzahl. Für die ersten 100 000 Primzahlen erhält man indes

Tatsächlich wäre ein Computer, der jede Nanosekunde einen neuen Summanden addiert, nach ca. 15 Milliarden Jahren der Berechnung bei einer Zahl, die etwas größer als 4 ist.[2]

Euler's Beweisstrategie basierte im Wesentlichen auf der Beobachtung

wobei die durchnummerierten Primzahlen bezeichnen. Es gilt zum Beispiel , doch der Zahlenwert

ist größer. Es war jedoch bereits Euler wohlbekannt, dass die harmonische Reihe divergiert, weshalb auch die rechte Seite von gegen Unendlich streben muss. Mittels Anwendung von Logarithmen, die Produkte in Summen umwandeln, kann daraus Eulers Resultat gewonnen werden.

Die Ungleichung gewinnt man über ein sog. Euler-Produkt. Dabei spielt die eindeutige Zerlegbarkeit von Zahlen in Primfaktoren eine Schlüsselrolle. Das Euler-Produkt steht in Zusammenhang zu einem Objekt, das bis heute in der Primzahlforschung benutzt wird, und in der modernen Mathematik als Riemannsche Zeta-Funktion bekannt ist. Die Zeta-Funktion spielt ebenfalls für die Riemannsche Vermutung eine zentrale Rolle. Die neuartige Leistung bestand darin, Fragen zu Primzahlen systematisch durch funktionale Zusammenhänge zwischen Zahlen zu attackieren. Euler gilt deswegen als Initiator der analytischen Zahlentheorie.

Der Primzahlsatz

Die bloße Unendlichkeit einer Teilmenge der natürlichen Zahlen sagt noch nicht allzu viel über deren Natur aus. Zum Beispiel gibt es unendlich viele gerade Zahlen 2, 4, 6, 8,... und unendlich viele Quadratzahlen 1, 4, 9, 16, ..., jedoch weisen beide Folgen bei genauem Hinsehen ein unterschiedliches Verhalten auf. Während zum Beispiel die Differenz zweier aufeinanderfolgender gerader Zahlen stets 2 ist, nehmen die Abstände der Quadratzahlen immer weiter zu, etwa 4 - 1 = 3, 9 - 4 = 5 und 16 - 9 = 7. Beide Folgen haben jedoch ein sehr reguläres Muster gemein, d.h., sie können über einfache Rechenoperationen bestimmt werden. Zum Beispiel ist die n-te gerade Zahl einfach 2n. Im Gegensatz dazu ist bis heute kein einfaches Muster unter der Folge 2, 3, 5, 7, 11, ..., 59, 61, 67, ... der Primzahlen entdeckt worden. Zum Beispiel gibt es kein „schnelles“ Verfahren, die n-te Primzahl zu berechnen. Es zeigt sich jedoch, dass es auf lange Sicht Muster unter den Primzahlen zu erkennen gibt. Betrachtet man also haufenweise Primzahlen zur gleichen Zeit, so können durch „Mittelwertbildung“ reguläre Strukturen erkannt werden.

Das Prinzip hinter dieser Tatsache ist von statistischer Natur. Statistik bedeutet hierbei, aus einer großen Menge von Daten Muster herauszufiltern, obwohl das „exakte Verhalten“ der einzelnen Datenobjekte (oder Subjekte) sehr kompliziert sein kann. In etwa sind alle Menschen sehr komplex, doch im Verhalten sehr vieler Menschen zur gleichen Zeit können Muster oftmals erkannt werden, die dann in Form von Wahrscheinlichkeiten auf Individuen zurück schließen lassen. Also geht es bei diesen Überlegungen zunächst um die Frage, wie die Verteilung der Primzahlen zu verstehen ist, mit anderen Worten, wie viele Primzahlen unterhalb einer vorgegebenen Schranke zu erwarten sind. Zum Beispiel sind nur 4 Primzahlen, nämlich 2, 3, 5 und 7, kleiner als die Zahl 10. Im Falle der oberen Schranke 150 gibt es schon 35 kleinere Primzahlen, nämlich

2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97, 101, 103, 107, 109, 113, 127, 131, 137, 139, 149.
Der in blau unterlegte Flächeninhalt zwischen dem Graphen der Funktion und der t-Achse im Intervall von 50 bis 150 schätzt die Anzahl der Primzahlen, die zwischen 50 und 150 liegen. Wegen der lokal abgeflachten Kurve mit etwa 0,2 Längeneinheiten Höhe und einer Breite von 150-50 = 100 Längeneinheiten, schätzt „das bloße Auge“ einen Wert von 0,2 * 100 = 20 Primzahlen zwischen 50 und 150.

Dabei sind die insgesamt 20 Primzahlen zwischen 50 und 150 in blau markiert. Eine Frage der Zahlentheorie ist, ob es ein universelles und einfaches Prinzip gibt, zumindest zu schätzen, wie viele Primzahlen es unter einer gegebenen Schranke gibt. Erkannt wurde ein solches erstmals in den Jahren 1792/93 vom damals 15-jährigen Carl Friedrich Gauß,[3] nachdem dieser Logarithmentafeln studiert hatte. Gauß vermutete, dass die Anzahl aller Primzahlen von 2 bis zu einer großen Zahl x ungefähr dem Flächeninhalt zwischen der t-Achse und der Funktion im Intervall von 2 bis entspricht. Dabei ist der natürliche Logarithmus. Es gilt also die Integral-Näherung

Anzahl der Primzahlen bis

und allgemeiner für :

Anzahl der Primzahlen zwischen und

Zum Beispiel gilt

womit sich die Formel wegen des exakten Wertes von 20 Primzahlen zwischen 50 und 150 (siehe oben in blau) ca. um den Wert 2 verschätzt. Das Integral von kann nicht elementar geschlossen berechnet werden, da der kehrwertige Logarithmus keine elementare Stammfunktion besitzt. Es definiert somit eine „eigenständige“ Funktion, die auch als Integrallogarithmus bekannt ist:

Das „ist ungefähr gleich“-Symbol wird dabei wie folgt präzisiert: bezeichnet die exakte Anzahl der Primzahlen unterhalb der Schranke x, so gilt

Für wachsende Werte von x wird also der obere Quotient immer näher gegen 1 streben, also der relative Fehler der Schätzung gegen 0 gehen. Auch bei der „Statistik der Primzahlen“ gilt demnach der Grundsatz, dass größer werdende Datenmengen prozentual eine zuverlässigere Prognose erlauben. Gauß legte keinen mathematischen Beweis für diese Vermutung über die Primzahlverteilung vor, und es dauerte noch über 100 Jahre, bis ein solcher – unabhängig von Jacques Hadamard und Charles-Jean de La Vallée Poussin – im Jahr 1895 erbracht wurde. Dabei bedeutet Beweis nicht, dass alle erdenklichen Werte durchprobiert wurden, was bei unendlich vielen Zahlen unmöglich ist, sondern dass ein auf den mathematischen Axiomen basierendes logisches Argument den Sachverhalt in voller Allgemeinheit belegt. Das damit gezeigte Theorem wird als Primzahlsatz bezeichnet.

Wegen (für ) ist der Primzahlsatz deutlich stärker als der Satz des Euklid, da er nicht nur unendlich viele Primzahlen postuliert, sondern auch eine quantitative Idee für deren Verteilung gibt. Im Gegensatz zum Satz des Euklid ist sein Beweis deutlich anspruchsvoller. Klassischerweise wird dieser mit Methoden der komplexen Analysis geführt, wobei Taubersätze ein wichtiges Hilfsmittel sind. Es existieren jedoch auch „elementare“ Beweise, etwa von Paul Erdös und Atle Selberg aus den 50er Jahren, aber auch moderne, wie zum Beispiel von Florian K. Richter aus dem Jahr 2021.[4] Die Riemannsche Vermutung ist wiederum eine weitreichende Verbesserung des Primzahlsatzes.

Varianten der Problemstellung

Die Riemannsche Vermutung stellt eine starke Verschärfung des Primzahlsatzes dar. Das bedeutet, dass sie neben der von Logarithmen stammenden Verteilung der Primzahlen eine sehr exakte quantitative Beschreibung der Abweichungen von der im Primzahlsatz vorhergesagten Integralschätzung postuliert. Sie ordnet das Verhalten der Primzahlen in den Pseudozufall ein. Es existieren einige unterschiedliche und dennoch äquivalente Sichtweisen auf das Problem, welche im Folgenden angeführt werden.

Der absolute Fehler im Primzahlsatz

Wie oben bezeichnet die exakte Anzahl von Primzahlen unterhalb der Schranke und den Integrallogarithmus. Der absolute Fehler im Primzahlsatz bezeichnet die Differenz . Dabei gewährleistet der Absolutbetrag, dass nur positive Größen im Ergebnis entstehen, da man sich zunächst nur für die Größe des Fehlers und nicht dessen Vorzeichen interessiert. Der absolute Fehler muss, im Gegensatz zum relativen Fehler

keinesfalls gegen 0 gehen. In etwa strebt der Quotient aus und langfristig gegen 1, da Quadrate schneller wachsen als lineare Terme, nicht aber die (sogar unbeschränkte) Differenz beider Terme. Die Riemannsche Vermutung macht eine detaillierte Aussage über den absoluten Fehler im Primzahlsatz.

Der absolute Fehler im Primzahlsatz ist „im Wesentlichen“ von der Ordnung einer Quadratwurzel.[5] Genauer gibt es eine Konstante , so dass für alle Werte  die Abschätzung  wahr ist, bzw. kürzer  für .
Der absolute Fehler (hier ohne Beträge) unterliegt starken Schwankungen. In manchen Regionen ist die Näherung durch den Integrallogarithmus damit genauer, in manchen weniger genau.

Dabei bezeichnet den natürlichen Logarithmus von . Veranschaulicht werden kann diese Aussage wie folgt: Die Quadratwurzel halbiert ungefähr die Anzahl der Ziffern einer Zahl vor dem Komma (wegen in der Hochzahl!). Zum Beispiel hat 100 000 000 insgesamt 9 Ziffern vor dem Komma, aber seine Quadratwurzel 10 000 nur noch 5. Trifft die Riemannsche Vermutung zu, so sollte die Integralschätzung des Primzahlsatzes langfristig ungefähr in der „oberen Hälfte“ der Dezimalziffern vor der Null mit dem tatsächlichen Ergebnis übereinstimmen. Exakt berechnet wurde zum Beispiel , es gibt also ca. 18,4 Trilliarden Primzahlen unterhalb einer Quadrillion.[6] Es gilt weiter:[5]

Von den insgesamt 23 Stellen vor dem Komma des exakten Wertes gibt es eine Übereinstimmung in der 12 ersten Ziffern mit dem Integrallogarithmus, oben in Blau markiert. Ab der ersten Abweichung sind die Ziffern vor dem Komma rot. Dabei ist 12 in etwa die Hälfte von 23. Diese Berechnung stützt also die Riemannsche Vermutung. Die logarithmischen Terme in der Abschätzung sowie bei sind im Vergleich zur Quadratwurzel so klein, dass dies nichts Wesentliches an dieser ungefähr hälftigen Aufteilung ändert.

Der Mathematiker Lowell Schoenfeld konnte einen passenden Wert für die zunächst unbestimmte Konstante in der Riemannschen Vermutung für hinreichend große Werte genau berechnen. Sollte diese zutreffen, so gilt[7]

falls

Dabei bezeichnet die Kreiszahl. Ist die Vermutung also wahr, kann in oberer Formulierung im Wesentlichen bereits gesetzt werden.

Obwohl der Term für wachsende Werte immer weiter ansteigt, und damit der absolute Fehler auch beliebig anwachsen kann, besagt die Riemannsche Vermutung, dass dieser relativ betrachtet sehr klein ist, da

fast mit der Geschwindigkeit einer kehrwertigen Quadratwurzel gegen 0 strebt. Wie Jürgen Neukirch bemerkte, weist dies auf eine besondere „Glätte“ in der bildlichen Darstellung der Primzahlverteilung hin, wenn man die Skala hochsetzt.[8]

Wahrscheinlichkeitstheoretische Interpretation

Die Riemannsche Vermutung kann probabilistisch interpretiert werden. Dies geht auf den Mathematiker Arnaud Denjoy zurück.[9]

Der zentrale Grenzwertsatz

Um den Zusammenhang zwischen den Primzahlen auf der einen Seite, und Wahrscheinlichkeitstheorie auf der anderen Seite zu verstehen, wird der zentrale Grenzwertsatz benötigt. Der einfachste Vergleich beider Konzepte entsteht über die Betrachtung eines fairen Münzwurfes. Es wird eine faire Münze mit den möglichen Ergebnissen „Kopf“ und „Zahl“ mehrmals hintereinander geworfen. In der idealen Situation ist das Ergebnis jeden Wurfs an sich absolut zufällig und außerdem hängen die Ergebnisse der Würfe nicht voneinander ab. Wurde also zunächst Kopf geworfen, soll dies unerheblich dafür sein, ob wieder Kopf oder auch Zahl folgt. Die falsche Annahme, nach einer langen Strecke von „Kopf“-Würfen seien „Zahl“-Würfe wahrscheinlicher, ist indes als Spielerfehlschluss bekannt („der Zufall hat kein Gedächtnis“).

lili
rere
Der faire Münzwurf zählt zu den einfachsten Zufallsexperimenten. Die linke Seite zeigt „Kopf“ der 1-Euro-Münze aus Österreich, die rechte Seite „Zahl“.

Unter Annahme absoluten Zufalls bei gleichen Wahrscheinlichkeiten und außerdem Unabhängigkeit der einzelnen Würfe kann bei häufigem Wiederholen eines Münzwurfes ein bestimmtes Muster beobachtet werden. Am besten wird dies veranschaulicht, wenn die Ereignisse „Kopf“ und „Zahl“ durch die Zahlen bzw. ersetzt werden und nach jeder Serie von Würfen die Summe aller Wurfergebnisse gebildet wird. Dies entspricht dann der Bilanz in einem Glücksspiel, in welchem bei Kopf 1 Euro gewonnen, und bei Zahl 1 Euro verloren wird. Werden „Kopf“ - „Kopf“ - „Zahl“ - „Zahl“ - „Kopf“ geworfen, liegt der Gewinn bei 1 Euro, denn

Gleichzeitig entspricht dies der Differenz aus geworfenen „Köpfen“ und „Zahlen“. Bei einer sehr großen Anzahl an Würfen, etwa 40 000, ist die Annahme naheliegend, dass jeweils ungefähr 20 000 Mal „Kopf“ und „Zahl“ geworfen wird, da beide Ergebnisse exakt gleiche Wahrscheinlichkeit haben. Dies hätte als mögliche Konsequenz, dass sich die Gewinnbilanz in etwa beim Wert Null „einpendelt“, da angenommen wurde, dass der Wert in etwa so häufig summiert wurde wie . Auf der anderen Seite ist es bereits in diesen Größenordnungen extrem unwahrscheinlich, dass etwa ein Ergebnis wie genau 20 000 mal Kopf und genau 20 000 mal Zahl auftritt, was einer Gewinnbilanz von exakt 0 entspräche. Es ist eher damit zu rechnen, dass der Zufall zu „Gunsten“ von „Kopf“ oder „Zahl“ einen gewissen „Ausreißer“ verursachen wird. Das bedeutet, dass nach der Wurfserie sehr wahrscheinlich eine gewisse Größe häufiger gefallen sein wird als die andere, obwohl zu Beginn gleiche Wahrscheinlichkeiten vorlagen. Die Größe dieses „Ausreißers“ ist Gegenstand des zentralen Grenzwertsatzes: Bezeichnet die Zufallsgröße mit dem Wert des -ten Wurfes, so errechnet sich der Gewinn des oberen Spiels mit Münzwürfen durch

Der abschnittsweise Flächeninhalt unter der Glockenkurve kodiert die Wahrscheinlichkeit, dass der Kontostand nach einer langen Serie von Münzwürfen im betroffenen Intervall (inklusive des Faktors „Wurzel der Wurfzahl“) liegt. Im Fall des beschriebenen Spiels ist .

Beginnt der Spieler mit 0 Euro auf dem Konto, kann auch als Kontostand nach Würfen interpretiert werden. Der zentrale Grenzwertsatz trifft eine Aussage über das zu erwartende Verhalten des Gewinns , wenn beliebig groß wird. Ihm zufolge liegt die Größenordnung stets „im Umfeld von “; genauer gilt für die Wahrscheinlichkeit, dass , die Näherung

Dem Integral liegt die Verteilungsfunktion der Standardnormalverteilung zugrunde. Wird zum Beispiel eine Münze 40 000 Male hintereinander geworfen, so ist die Wahrscheinlichkeit, dass der Kontostand am Ende im Bereich liegt wegen ungefähr 68,2 % (siehe Bild rechts, die Abweichung ist hier ). Negative Zahlen auf dem Konto werden als Schulden verstanden.

Der zentrale Grenzwertsatz findet anschaulich den „Mittelweg“ zwischen zwei extremen und jeweils äußerst unwahrscheinlichen Ereignissen: einmal, dass (fast) genau so häufig „Kopf“ wie „Zahl“ geworfen wird (, d.h. langfristig beschränkt), oder zweitens, dass „sehr viel“ häufiger „Kopf“ als „Zahl“ geworfen wird oder umgekehrt (in etwa ). Wegen der über die Normalverteilung gegebenen Wahrscheinlichkeiten gilt insbesondere für jede Zahl :

mit Wahrscheinlichkeit 100 % (in einem asymptotischen Sinn).

Dabei ist die Potenzschreibweise zu beachten.

Möglicher Verlauf des Kontostandes bei einer unfairen Münze: „Kopf“ tritt mit Wahrscheinlichkeit ein, „Zahl“ nur mit . Die Gerade ist in rot eingetragen, und der Kontostand mäandert um diese herum. Erneut sind, zum Größenvergleich mit dem Verhalten im Fall einer fairen Münze, die Wurzelfunktionen eingezeichnet.

Heuristisch wird die Existenz eines „Mittelweges“ durch die an die Münzwürfe gestellten Bedingungen der Unabhängigkeit und der gleichen Wahrscheinlichkeiten erzwungen:

  • Die Unabhängigkeit ist zum Beispiel dann verletzt, wenn auf einen Wurf Kopf stets Zahl folgen muss, und umgekehrt. Dann wäre nur der erste Zufallswurf entscheidend und die Folge der Würfe ergäbe, beim ersten Wurf Kopf, , was in der Summe auch langfristig beschränkt ist, denn
durch ein permanentes Wegheben der Summanden. Es muss also langfristig Ausreißer geben, da sonst eine „zu enge Beziehung“ zwischen den Ereignissen vorherrschen würde.
  • Ist die Bedingung der gleichen Wahrscheinlichkeit verletzt, könnte eine unfaire Münze vorliegen, die zum Beispiel in Wahrheit mit Wahrscheinlichkeit Kopf zeigt. In diesem Fall wäre , was in der Größenordnung aber langfristig deutlich über liegt (siehe Bild rechts). Es kann der Gewinn also nicht zu groß ausfallen, da sonst stellenweise unnatürlich massenhaft „Köpfe“ statt „Zahlen“ fallen.

Die Bestimmung der genauen Größenordnung ist kein einfaches Unterfangen, und Gegenstand des Beweises des zentralen Grenzwertsatzes, der mit Methoden der höheren Analysis geführt wird.[10]

Primzahlen und Pseudozufall

Eine „Verbindung“ zwischen Primzahlen und dem wiederholten Münzwurf kann wie folgt hergestellt werden. Es werden nacheinander die natürlichen Zahlen betrachtet; und zwar in deren eindeutiger Primfaktorzerlegung. Jedes Mal, wenn die Anzahl der Faktoren gerade ist, wird dies als gewertet, und wenn sie ungerade ist, als . Über dieses Prozedere lässt sich eine Funktion auf den natürlichen Zahlen definieren:

, wobei Anzahl der Primfaktoren von .

Diese wird auch als Liouville-Funktion bezeichnet, benannt nach Joseph Liouville. Zu beachten ist, dass ein Produkt mit einer ungeraden Anzahl aus lauter Faktoren -1 wieder -1 ist, und eines mit einer geraden Anzahl an Faktoren -1 genau +1, da Minus mal Minus Plus ergibt. Die folgende Tabelle zeigt den Sachverhalt für einige Werte von .

Primfaktorzerlegung von
Faktoranzahl

Das genaue Verhalten der Primfaktorzerlegungen ist, für größer werdende Zahlen, ohne eine sehr aufwändige Berechnung nicht vorherzusagen und unterliegt starken Schwankungen. Die Riemannsche Vermutung besagt, dass die von der Liouville-Funktion definierte Folge pseudozufällig ist.[11][12] Sie ist zwar determiniert, kann also theoretisch berechnet werden und ihre Werte „liegen alle bereits fest“, dennoch ähnelt sie in ihren Eigenschaften einem sogenannten Random Walk.[13] Damit, so die Vermutung, sollten sich die aufaddierten Werte der Liouville-Funktion auf lange Sicht ungefähr wie ein „typischer Verlauf“ des oben beschriebenen Glücksspiels mit einem fairen Münzwurf verhalten.[12] Es kann festgehalten werden:

Bezeichnet  die Liouville-Funktion, so gilt (im Sinne des zentralen Grenzwertsatzes)  für jedes beliebige . Äquivalent ist die Aussage, dass es für alle  eine Konstante  gibt, sodass die Ungleichung  für alle  gilt, kurz .[14]

Diese Form der Pseudozufälligkeit sagt anschaulich aus, dass sich Primzahlen in ihren Eigenschaften (wie Verteilung, Primfaktorzerlegung …) „möglichst zufällig“ und „möglichst unabhängig“ verhalten. So soll zum Beispiel die Frage, ob sich eine zufällig gewählte Zahl in eine gerade oder in eine ungerade Anzahl an Primfaktoren zerlegen lässt, für wachsende Größe von mit „gleicher Wahrscheinlichkeit“ beantworten lassen.[12] Gleichzeitig sollen die Werte und für wachsende Werte „unabhängig“ sein. Also soll es keine einfache Möglichkeit geben, aus dem Verhalten des einen Wertes, das Verhalten des anderen zu ermitteln. Betrachtet man zum Beispiel

und den Nachfolger

so ist nicht unmittelbar ersichtlich, wie die Anzahlen der Primfaktoren kausal zusammenhängen.

Wäre im Gegenzug die Riemannsche Vermutung falsch, so gäbe es ein Ungleichgewicht in der Primzahlverteilung in dem Sinne, dass es zum Beispiel streckenweise unnatürlich viel gehäufter Zahlen mit einer geraden Anzahl an Primfaktoren, wie 10, 14, 25, 132, gäbe, als Zahlen mit einer ungeraden Anzahl an Primfaktoren, wie 7, 8, 12, 18 und 125.

Der Begriff der „Zufälligkeit“ unter den Primzahlen ist bis heute in erster Linie auch in Fachkreisen eine Anschauung, und bisher weder vollständig verstanden noch rigoros beschrieben worden. Heuristisch lassen sich einige wichtige Probleme, wie die Bestätigung der Goldbachschen Vermutung, aus dieser Eigenschaft herleiten, jedoch führt die gleiche Heuristik in anderen Fällen zu Widersprüchen.

Der Weg über unendliche Reihen

Allgemeines zu Reihen

Unter einer Reihe versteht man, veranschaulicht, eine niemals endende Summe von Zahlen. Dies können reelle, aber auch komplexe Zahlen sein. Die Dezimalschreibweise einer reellen Zahl kann als Reihe aufgefasst werden, etwa

oder auch

mit der Kreiszahl . Die durch die Punkte angedeuteten Summen enden niemals, da die Dezimalentwicklung von periodisch und die Kreiszahl irrational ist. Es gibt Reihen, die keine sinnvolle Zahl darstellen, etwa

aber auch solche, die gegen einen Grenzwert konvergieren (wie die oberen Beispiele mit Grenzwerten bzw. ). Reihen wie , die nicht konvergieren, nennt man divergent. Veranschaulichend gesagt kann eine Reihe nur dann konvergieren, falls die Glieder „schnell genug gegen 0 streben“. Aber nicht jede Reihe, deren Glieder gegen 0 streben, konvergiert, wie man an der harmonischen Reihe

sieht. Einige Reihen spielen eine ganz besondere Rolle in der Mathematik, zum Beispiel die geometrische Reihe: Das Prinzip ist, zu einer Zahl alle natürlichen Potenzen aufzuaddieren. Man erhält dann

denn wie in einer Kettenreaktion.

Es ist also zu jedem mit möglich, den Grenzwert der geometrischen Reihe geschlossen anzugeben. Es handelt sich auch um ein erstes Beispiel, dass eine Funktion durch eine Reihe definiert ist: man hat

und die Reihenglieder hängen sämtlich von ab. Die geometrische Reihe ist damit das Beispiel und , wobei für den ersten Summanden die Regel (und formal ) zu beachten ist.

Der Majorantentest und partielle Summation

Die Bestimmung des Grenzwertes einer Reihe ist im Allgemeinen nicht einfach, doch in manchen Fällen ist bereits die Frage der Konvergenz schwer zu beantworten. In der Geschichte der Mathematik wurden Kriterien entwickelt, zu entscheiden, ob gewisse Reihen konvergieren oder nicht. Eines davon ist der Majorantentest: Dieser basiert auf der einfachen Überlegung, dass eine unendliche Summe nicht-negativer Zahlen, die nach oben Beschränkt ist, bereits konvergieren muss. Ist also eine Zahlenfolge und für alle , so gilt:

konvergiert konvergiert.

Anschaulich gehen die Werte für Konvergenz schnell genug gegen 0, weshalb es wegen auch die Werte tun müssen.

Eine andere Technik betrifft den Umgang mit Reihen der Form

Es handelt sich um einen Umordnungstrick, der auf den Mathematiker Niels Henrik Abel zurück geht, und als partielle Summation bezeichnet wird. Es werden dabei die Folgen und „separiert“:

wobei , sofern .

Rückwirkend bestätigen lässt sich dies durch sukzessives Ausmultiplizieren und Verrechnen der Terme. Dieser Trick kommt vor allem dann zum Einsatz, wenn die Zahlen „schwanken“ (etwa ständige Vorzeichenwechsel), während die Zahlen sukzessive kleiner werden, da dann die Differenzen eventuell viel schneller gegen Null streben als die selbst. Die Betrachtung der transformierten Reihenglieder motiviert dies: Gibt es starke Schwankungen unter den , so sind die Summen eventuell „deutlich kleiner“ als die Summen . Zum Beispiel ist „deutlich kleiner“ als . Sind gleichzeitig die Differenzen „deutlich kleiner“ als die Terme , so hat die Majorante „deutlich bessere“ Konvergenzchancen als die kanonische Majorante . Zu beachten ist, dass nur dann eine gültige „Majorante“ von ist, wenn die Nebenbedingung erfüllt ist. Diese besagt ihrerseits, dass das Abklingen der gegen Null das Wachstum des Terms dominiert.

Zusammenfassend lässt sich, sofern die Nebenbedingung erfüllt ist, mit und folgende Variante des Majorantentests anführen:

konvergiert konvergiert konvergiert.

Die Riemannsche Vermutung und Reihenkonvergenz

Ein besonders wichtiges Anwendungsfeld der partiellen Summation sind sogenannte Dirichlet-Reihen . Dann sind Potenzfunktionen in , und durch nehmen der Differenzen werden diese um den Faktor kleiner:

(zum Beispiel wird aus eine lineare Funktion, und dieses Prinzip überträgt sich von auf beliebige Potenzen).

Dabei bedeutet das Zeichen , dass die linke Seite bis auf eine von abhängigen aber von unabhängigen Konstante stets kleiner ist als die rechte Seite. Der zusätzliche Faktor macht den Term um eine Potenzgrößenordnung kleiner als . Setzt man weiter mit der Liouville-Funktion, so haben diese Vorzeichenwechsel. Die Häufigkeit des Wegkürzens der Terme innerhalb steht mit der Anzahl der Zahlen mit gerader bzw. ungerader Primfaktoranzahl unterhalb in direktem Zusammenhang, und die Riemannsche Vermutung (RV) besagt für alle (siehe oben). Setzt man diese voraus, gilt für alle die Nebenbedingung , und es folgt für eben diese mit Majorantentest und partieller Summation:

konvergiert.

Im letzten Schritt kann so klein gewählt werden, dass , etwa . Daraus motiviert sich:

Die Reihe  konvergiert für alle .

Mit folgert man für mit dem Majorantentest

weshalb die betroffene Reihe hier „trivialerweise“ konvergiert. Dieses einfache Verfahren ist für nicht mehr möglich. Bereits der Fall ist schwierig und fruchtet durch eine zahlentheoretische Folgerung: Aus der Konvergenz der Reihe

gegen den Grenzwert 0 kann der Primzahlsatz gefolgert werden. Dass der Grenzwert tatsächlich 0 ist, fällt als „Beigabe“ beim Beweis der Konvergenz mit heraus.[15][16] Über die Fälle ist bis heute nichts bekannt. In diesem Sinne ist die Riemannsche Vermutung auch in dieser Hinsicht eine deutliche Verschärfung des Primzahlsatzes.

Formulierung über die Holomorphie von Dirichlet-Reihen

Dirichlet-Reihen werden in der Zahlentheorie benutzt, um Folgen von Zahlen zu untersuchen. Sie haben dann die Gestalt

wobei zu beachten ist.

Man bezeichnet die dann auch als Koeffizienten der Reihe . Wenn die höchstens polynomiell anwachsen, also allesamt die Ungleichung mit einer natürlichen Zahl und einer Konstanten erfüllen, so konvergiert die Reihe für alle Werte , und stellt für diese Werte eine sinnvolle Funktion dar. Es reicht für die Zahlentheorie jedoch nicht aus, diese Funktion nur auf dem Intervall zu analysieren, auch komplexe Zahlen sollen in die Reihe eingesetzt werden können. Unter Verwendung der Formel von Euler, die imaginäre Zahlen im Exponenten sinnvoll interpretiert, gelingt dies für wie folgt:

Die Vorschrift im Komplexen lautet also

Wegen der Beschränktheit von Sinus und Kosinus für reelle Zahlen sieht man damit, dass sich das Verhalten von für festen Realteil aber veränderlichen Imaginärteil im Exponenten nur „geringfügig ändert“. Der Realteil von bestimmt die absolute Größe des Terms , während der Imaginärteil nur eine „Schwingung“ erzeugt, die in der komplexen Ebene als Drehung entlang des Einheitskreises verstanden werden kann. Genau genommen gilt . Bei wachsendem Realteil von nähern sich die Terme zunehmend der Null, weshalb die Konvergenzbedingungen „immer besser werden“. Unter anderem mit dieser Beobachtung kann eine bedeutende Eigenschaft für Funktionen gezeigt werden, die durch eine Dirichlet-Reihe definiert sind:

Konvergiert eine Dirichlet-Reihe an einer Stelle , so tut sie das bereits an jeder Stelle mit , wobei an den Imaginärteil keine besonderen Bedingungen gestellt sind.

Es folgt damit, dass Dirichlet-Reihen auf Halbebenen der komplexen Ebene konvergieren. Konvergiert eine Dirichlet-Reihe irgendwo, so gibt es eine eindeutig bestimmte Zahl , die sogenannte Konvergenzabszisse, so dass die Dirichlet-Reihe für alle komplexen Zahlen mit konvergiert, und für alle mit divergiert. Über die Fälle kann keine allgemeine Aussage getroffen werden.

Sehr bedeutsam für die Zahlentheorie der Folge ist, dass die aus ihr konstruierte Dirichlet-Reihe in ihrem Konvergenzbereich eine holomorphe Funktion ist. Sie kann also in jedem Punkt (komplex) abgeleitet werden. Dabei gelten die gleichen Regeln wie im Reellen. Wegen gilt , und man erhält durch gliedweises Differenzieren

Die Ableitung einer Dirichlet-Reihe ist also wieder eine Dirichlet-Reihe mit den Koeffizienten , und damit erneut holomorph im Konvergenzbereich, wobei sich die Abszisse nicht ändert. Die Holomorphie ist aus mathematischer Sicht eine weitaus stärkere Eigenschaft als die reelle Differenzierbarkeit. Sie impliziert eine Vielzahl von Eigenschaften der Dirichlet-Reihe, mit deren Hilfe Aussagen über die Koeffizienten gewonnen werden können. Zudem ergibt sich über den komplexen Weg eine weitere Formulierung der Riemannhypothese. Ist die Reihe für alle konvergent, so auch für alle mit , und umgekehrt.

Die Reihe  konvergiert für alle  mit , und insbesondere ist die von der Liouville-Funktion erzeugte Dirichlet-Reihe in der Halbebene  holomorph.

Diese Formulierung verknüpft die Liouville-Funktion mit einer holomorphen Funktion, also einem Objekt der komplexen Analysis. Kann man ihre Schwankungen gut genug kontrollieren, dehnt sich der Holomorphiebereich der erzeugten Dirichlet-Reihe entsprechend weit aus. Für den Primzahlsatz wird lediglich die holomorphe Fortsetzbarkeit in den Bereich benötigt.[17] Über diese erste funktionentheoretische Fassung ist es möglich, den Zusammenhang zwischen der Primzahlverteilung und Nullstellen der sogenannten Riemannschen Zeta-Funktion zu formulieren.

Primzahlen und die Nullstellen der Zeta-Funktion

Wie Bernhard Riemann bereits 1859 erkannte, besteht eine enge Verbindung zwischen Primzahlen und den Nullstellen einer bestimmen Funktion. Diese trägt den Namen Riemannsche Zeta-Funktion, und wird mit dem griechischen Buchstaben Zeta (klein) notiert; also . Es ist die Variablenbenennung im Kontext der Zeta-Funktion jedoch unüblich, da sie nicht nur reelle Zahlen entgegennimmt und abbildet, sondern auch komplexe Zahlen. Als Variable hat sich im Laufe der Zeit die Benennung durchgesetzt, wobei (Sigma) der Realteil und der Imaginärteil von ist. Das Symbol bezeichnet wie üblich die imaginäre Einheit, und erfüllt . Eine (komplexe) Nullstelle der Zeta-Funktion erfüllt die Gleichung .

Die Riemannsche Zeta-Funktion

Die Zeta-Funktion „kann auch reell“: Funktionsgraph für reelle Argumente im Bereich mit .

Die Riemannsche Zeta-Funktion wird in der Literatur als diejenige Dirichlet-Reihe definiert, deren Koeffizienten ausschließlich 1 sind, mit anderen Worten

Mit dem Majorantentest sieht man, dass die Reihe für alle Werte mit konvergiert. An der Stelle erhält man gerade die harmonische Reihe:

also gilt , damit ist die Konvergenzabszisse von , und die Dirichlet-Reihe wird die Zeta-Funktion nicht mehr für Zahlen mit darstellen. Für manche Werte im Konvergenzbereich konnten geschlossene Funktionswerte der Zeta-Funktion berechnet werden. So fand Leonhard Euler zum Beispiel

und

mit der Kreiszahl .

Für die Zahlentheorie ist es bedeutsam, die Zeta-Funktion auch in größeren Bereichen betrachten zu können als nur die um 1 verschobene rechte Halbebene. Es kann gezeigt werden, dass sie eine Fortsetzung besitzt, die auch für Zahlen definiert ist, für welche die Dirichlet-Reihe nicht mehr konvergiert. Lediglich der Wert ist weiterhin auszuschließen, für alle anderen komplexen Zahlen ist mit der Fortsetzung allerdings definiert. Die Fortsetzung ist für alle holomorph, und damit wegen des Identitätssatzes für holomorphe Funktionen bereits eindeutig bestimmt, da der Definitionsbereich wegzusammenhängend ist. Es gibt also weiterhin nur „die eine“ Zeta-Funktion. Hintergrund der Fortsetzungsmöglichkeit ist, dass das verwandte Integral

, falls ,

offenbar für alle fortgesetzt werden kann, mit komplexer Ableitung . Die mathematischen Details des Fortsetzungsverfahrenes für die Zeta-Funktion sind jedoch weitaus technischer. Eine weitere bedeutsame Eigenschaft der Zeta-Funktion wurde bereits von Euler beobachtet, jedoch erst durch Riemann bewiesen. Die Zahlenwerte und stehen in enger Verbindung über die sogenannte Funktionalgleichung der Zeta-Funktion:

Dabei ist die Gammafunktion und die Kreiszahl. Diese Gleichheit ist als global gültige Identität (im Sinne des Beispiels ) und nicht als Gleichung zu verstehen, wobei letztere nur für einige wenige Lösungen gelten könnte. Ebenfalls bemerkenswert ist, dass beide Terme in der Funktionalgleichung über den Variablenwechsel auseinander hervorgehen.

Das Euler-Produkt

Ihre zahlentheoretische Bedeutung erhält die Zeta-Funktion über das Euler-Produkt. Namensgeber Leonhard Euler entdeckte als erster diesen Zusammenhang, ohne jedoch dessen tiefere Bedeutung in vollem Umfang zu erkennen. Erst Bernhard Riemann konnte, da er die Zeta-Funktion als holomorphe Funktion in den komplexen Zahlen begriff, den Zusammenhang voll ausschöpfen. Hintergrund ist, dass für ein Studium der unendlich vielen Primzahlen alternativ ein einzelnes mathematisches Objekt analysiert werden kann, welches Informationen zu jeder Primzahl in sich kodiert, und zwar gleichzeitig. Solche Objekte werden in der Zahlentheorie auch als globale Objekte bezeichnet. Genau ein solches Objekt ist die Riemannsche Zeta-Funktion.

Das Euler-Produkt ist eine alternative Darstellung der Zeta-Funktion im Konvergenzbereich der Dirichlet-Reihe. Als Formel geschrieben lautet es:

wobei .

Dabei ist das Produktzeichen, und das rechte Produkt erstreckt sich über genau alle Primzahlen. Für unendliche Produkte (nach Euklid gibt es unendlich viele Primzahlen) gelten ähnliche Anschauungen wie für Reihen, nur das die Faktoren („Glieder des Produktes“) im Laufe der Zeit gegen 1 streben müssen, falls das betroffene Produkt konvergieren soll, da Faktoren nahe 1, genau wie Summanden nahe 0, nur noch wenig am Zwischenwert ändern. Das Euler-Produkt ergibt sich aus der geometrischen Reihe sowie dem Fundamentalsatz der Arithmetik.

Für die detaillierte Herleitung, bitte  

Für die formale Herleitung des Euler-Produktes werden lediglich die geometrische Reihe (siehe oben), der Satz, dass jede natürliche Zahl genau eine Zerlegung als Produkt von Primzahlen besitzt, sowie Ausmultiplizieren von Klammern benötigt. Zu Beginn bewährt es sich, nur eine endliche Anzahl von Primzahlen im Produkt zu beachten. Entwickelt man jeden Term als eine geometrische Reihe , so ergibt sich im Falle nur einer Primzahl

wobei das Potenzgesetz zu beachten ist. Zur Rechten stehen genau die Zahlen, die ausschließlich Zweien in ihrer Primfaktorzerlegung haben, also die Zweierpotenzen. Verfährt man weiter mit den ersten zwei Primzahlen, ergibt sich

Multipliziert man beide Klammen aus, ergeben sich in der Summe alle Kombinationen von Termen der Form mit , es gilt also

und auf der rechten Seite stehen genau alle Terme , sodass nur Zweien und Dreien in seiner Primfaktorzerlegung hat. Beim Ausmultiplizieren wird jeder Summand der einen Klammer mit einem Summand der anderen Klammer verrechnet, und das in jeder Kombination, für sind die entsprechenden Terme in Rot markiert. Auf ähnliche Weise findet man, dass zu der entsprechenden Dirichlet-Reihe korrespondiert, in der alle Zahlen mit Primfaktorzerlegung auftauchen, und so weiter. Entsprechend gilt für allgemein die ersten Primzahlen

Nun kann man in dieser Formel gegen Unendlich laufen lassen, und erhält

da jede Zahl genau eine Zerlegung besitzt.

Eine wichtige Folgerung des Euler-Produktes für die Analysis der Zeta-Funnktion ist, dass für alle gilt. Dies ist eine Konsequenz einer Erweiterung des Satzes vom Nullprodukt für unendliche Produkte: keiner der Faktoren des Euler-Produktes ist Null, also wird es auch nicht im Grenzwert Null sein, sofern das unendliche Produkt unbedingt konvergiert. Weitaus nichttrivialer ist die Tatsache, dass das Euler-Produkt, im Gegensatz zur Dirichlet-Reihe, auch auf der Geraden , mit Ausnahme von , an Gültigkeit behält. Es gilt[18]

was die Nullstellenfreiheit von im gesamten Bereich zur Folge hat. Als eine Folgerung der Funktionalgleichung ergibt sich, dass die einzigen Nullstellen von außerhalb des sog. kritischen Streifens die trivialen Nullstellen

sind. Alle anderen Nullstellen bezeichnet man als nichttrivial, und diese liegen allesamt im kritischen Streifen.

Der Zusammenhang zur Liouville-Funktion

Der große Nutzen des Euler-Produktes besteht darin, dass sich mit seiner Hilfe einfache Verbindungen zwischen der Zeta-Funktion und zahlentheoretischen Funktionen, wie der Liouville-Funktion, aufstellen lassen. Dazu betrachtet man den Term

Wegen Punkt vor Strich scheint eine weitere Umformung dieses Termes in Summenform (= Striche) zunächst vergebens. Im Gegensatz dazu können Produkte (= Punkte) in Zähler und Nenner manipuliert und verrechnet werden. Man erhält mit dem Euler-Produkt

Im Schritt wurde dabei die Regel Primzahl für Primzahl angewendet, und in Schritt der Doppelbruch aufgelöst. Mit der dritten binomischen Formel erhält man

und folglich

wobei sich die Terme in rot kürzten. Das zusammenfassende Resultat

lässt sich erneut mit der geometrischen Reihe deuten: im Gegensatz zum Euler-Produkt für hat sich in dieser Formel „nur“ das Vorzeichen vor von Minus zu Plus geändert. Setzt man statt in die geometrische Reihe, erhält man

womit die Vorzeichen in der hinteren Reihe alternieren, d.h. abwechseln. Erneut können die Klammern sukzessive ausmultipliziert werden, nur dass für jede Primzahlpotenz ein Vorzeichen mitgenommen wird. Also korrespondiert im Ergebnis zum Vorzeichen :

Es ist etwa , denn hat 5 Primfaktoren, und es gilt . Damit findet man[19]

.

Formulierung über Nullstellen der Zeta-Funktion

Mittels Euler-Produkt kann die Dirichlet-Reihe der sehr komplizierten Liouville-Funktion geschlossen als rationale Funktion in Zeta-Funktionen ausgedrückt werden. Gleichzeitig besagt die Riemannsche Vermutung, dass sich der Term holomorph auf den Bereich fortsetzen lassen kann. Damit ist ausgeschlossen, dass der Nenner in diesem Bereich Null wird, da es der Zähler wegen des Euler-Produktes auch nicht sein kann. Es wird folglich vermutet:

Alle Nullstellen  der Riemannschen Zeta-Funktion erfüllen . 

Aus der Funktionalgleichung der Zeta-Funktion geht hervor, dass genau dann wenn für den Fall , da sowohl die Gammafunktion als auch die Exponentialfunktion in diesem Bereich weder Pol- noch Nullstellen haben, sich also „neutral verhalten“. Gäbe es also eine Nullstelle mit , so wäre mit die Riemannsche Vermutung verletzt. Einzig die Gerade bleibt unter der Transformation unverändert. Daher motiviert sich folgende hinreichende Version der Riemannschen Vermutung:

Alle Nullstellen  der Riemannschen Zeta-Funktion im Streifen  erfüllen . 

Dies ist die auf Bernhard Riemann zurück gehende Originalformulierung. Sie motivierte sich weder aus der Restgliedabschätzung des Primzahlsatzes noch aus den für die Liouville-Funktion vermuteten Beschränktheitseigenschaften. Beide Alternativformulierungen wurden jedoch einige Jahre später als Konsequenz des vermuteten Nullstellenverhaltens der Zeta-Funktion gefolgert, und sind zu diesem sogar äquivalent.

Riemann kam auf seine Vermutung bei der Untersuchung des Produkts der Zeta-Funktion mit der Gammafunktion

,

verwendete selbst jedoch und erhielt damit für alle mittels der Funktionalgleichung:

Riemann selbst schreibt über die Nullstellen:

„[…] und es ist sehr wahrscheinlich, daß alle Wurzeln reell sind. Hievon wäre allerdings ein strenger Beweis zu wünschen; ich habe indeß die Aufsuchung desselben, nach einigen flüchtigen vergeblichen Versuchen vorläufig bei Seite gelassen, da er für den nächsten Zweck meiner Untersuchung entbehrlich schien.“[20]

Mit „reellen Wurzeln“ meinte Riemann, dass für ein im kritischen Streifen die Gleichung

lediglich für reelle , also , zu lösen sei.

Nachbemerkungen

Die Möbius-Funktion

Die eng zur Liouville-Funktion verwandte Möbius-Funktion, definiert durch

erfüllt die Relation

Damit steht auch sie mit den Nullstellen der Zeta-Funktion in Zusammenhang, und die Riemannsche Vermutung besagt, dass ihre Werte auf quadratfreien Zahlen pseudozufällig sind.

Nullstellenordnungen

Ebenfalls ungeklärt ist die Frage, welche Ordnungen die nichttrivialen Nullstellen der Zeta-Funktion haben. Es wird vermutet, dass sie alle die Ordnung 1 haben, also einfache Nullstellen sind. Dies ist äquivalent dazu, dass die Ableitung an jeder nichttrivialen Nullstelle selbst nicht Null wird. Numerische Untersuchungen stützen diese Vermutung: alle bisher gefundenen Nullstellen hatten einfache Ordnung.

Im Falle der trivialen Nullstellen ist bereits bekannt, dass diese sämtlich einfach sind.

Die Rolle der Zahl 1/2

Die Zahl spielt eine Schlüsselrolle in einigen Formulierungen der Riemannschen Vermutung. Zusammenfassend wird als Synthese der oberen Abschnitte festgehalten:

  • Der Integrallogarithmus stimmt langfristig mit der Primzahl zählenden Funktion in der oberen Hälfte der Ziffern vor dem Komma überein, denn es gilt .
  • Die Wahrscheinlichkeit, dass eine zufällig gewählte Zahl eine gerade (oder ungerade) Anzahl an Primfaktoren besitzt, beträgt asymptotisch , und für die summatorische Funktion der Liouville-Funktion gilt die vom zentralen Grenzwert zu erwartende Schranke mit beliebigen .
  • Alle nichttrivialen Nullstellen der Riemannschen Zeta-Funktion haben den Realteil .

In seinem, von Fields-Medaillen-Träger Peter Scholze und Jakob Stix kritisierten,[21] Beweisversuch der abc-Vermutung, zieht Shin’ichi Mochizuki eine Verbindung zwischen der Riemannhypothese und anderen Theorien, darunter seiner selbst entwickelten Interuniversellen Teichmüller-Theorie und Hodge-Arakelov-Theorie aus der algebraischen Geometrie. Laut Mochizuki seien

  1. das Gaußsche Fehlerintegral,
  2. die schema-theoretische Hodge-Arakelov-Theorie,
  3. die Interuniverselle Teichmüller-Theorie,
  4. die Riemannsche Vermutung,

sämtlich „Phänomene des Gewichts “ (phenomena of weight ), und, auf einer konkreten Ebene, Phänomene, die sich „um arithmetische Versionen von “ drehen.[22]

Bedeutung

Primzahlverteilung

Restgliedabschätzungen

Von Mangoldt's exakte Formel

Das Riemannsche Spektrum und Fourier-Analysis

Der Term kann als ein Quotient zweier holomorpher Funktionen gesehen werden, und ist damit anschaulich eine Verallgemeinerung einer rationalen Funktion, die ein Quotient zweier Polynome ist. Polynome sind nur ein Spezialfall überall holomorpher Funktionen, denn holomorphe Funktionen sehen lokal „fast“ wie Polynome aus, da diese eine Entwicklung als Potenzreihe besitzen. Gewöhnliche rationale Funktionen, also Quotienten aus Polynomen, sind im Wesentlichen durch ihre Nullstellen und Polstellen bestimmt, sowie ihr asymptotisches Wachstumsverhalten für größer werdende Eingabewerte. Ist zum Beispiel eine rationale Funktion ohne Nullstellen, die nur in eine Polstelle hat, und langfristig das Verhalten

erfüllt, so muss diese bereits sein. Entwickelt man um in seine Potenzreihe, ergibt sich mittels geometrischer Reihe

.

Die Koeffizienten dieser Reihe haben alle den Wert , was in „Dualität“ zur Postelle bei („Polstellendaten“ ) und dem Verhalten in Unendlich („Nullstelle“ in Unendlich, der Wert 3) von steht. Es besteht also die Möglichkeit, über Pol- und Nullstellen globaler Funktionen auf Koeffizienten in Erzeugendenreihen rückzuschließen, und umgekehrt, woher der Begriff Dualität herrührt. Über solch ein Dualitätsprinzip kann zum Beispiel eine exakte Formel für die Fibonacci-Folge in Termen des goldenen Schnitts hergeleitet werden, wenn man die Funktion heranzieht.

Pseudozufälligkeit

  • Mu-Pseudorandomness
  • Liouville-Paper
  • Zitat von Tao mit Verbindungen zu anderen (Millennium-)Problemen
  • Paper von Harper u.a.

Weitere Folgerungen in Zahlentheorie und Krypotgraphie

Physik

Neue Ideen für den Beweis der Vermutung kamen aus der Physik. Schon David Hilbert und George Polya war aufgefallen, dass die Riemannhypothese folgen würde, falls die Nullstellen Eigenwerte eines Operators wären, wobei ein hermitescher (das heißt selbstadjungierter) Operator ist, der also nur reelle Eigenwerte hat, ähnlich wie die Hamiltonoperatoren in der Quantenmechanik. In den 1970er Jahren fand dann Hugh Montgomery bei einer Unterhaltung mit Freeman Dyson heraus, dass die Verteilung der Abstände aufeinanderfolgender Nullstellen eine ähnliche Verteilung wie die Eigenwerte hermitescher Zufallsmatrizen zeigte (Gaußsches unitäres Ensemble, GUE), was Andrew Odlyzko durch numerische Rechnungen bestätigte. In den 1990er Jahren begannen dann auch Physiker wie Michael Berry nach einem solchen zugrunde liegenden System zu suchen, etwa in der Theorie des Quantenchaos. Weitere Unterstützung finden diese Überlegungen in einer Analogie der „expliziten Formeln“ in der Theorie der Riemannschen Zeta-Funktion mit der Selberg-Spurformel, die die Eigenwerte des Laplace-Beltrami-Operators auf einer Riemannfläche mit den Längen der geschlossenen Geodäten in Beziehung setzt, und der Gutzwiller-Spurformel in der Quantenchaos-Theorie. Diese verbindet die Eigenwerte (Energien) der quantenmechanischen Version eines chaotischen klassischen Systems mit den Längen der periodischen Bahnen im klassischen Fall. Bei all diesen Spurformeln (trace formulas) handelt es sich um Identitäten zwischen den Summen der jeweiligen Nullstellen, Bahnkurven-Periodenlängen, Eigenwerte usw.

Ein vom Fields-Medaillen-Preisträger Alain Connes 1996 angegebener Operator passt „fast“. Connes konnte aber bisher nicht die Existenz weiterer Nullstellen außerhalb der kritischen Geraden ausschließen.[23]

Eine weitere Idee aus der Physik, die in Zusammenhang mit der Riemannschen Vermutung diskutiert wurde, sind die „Yang-Lee-Nullstellen“ der ins Komplexe analytisch fortgesetzten Zustandssumme in Modellen der statistischen Mechanik. Chen Ning Yang und Tsung-Dao Lee bewiesen unter Verwendung eines Resultats von George Polya aus der Theorie der Zeta-Funktion, auf das sie Mark Kac aufmerksam machte, dass in bestimmten Modellen die Nullstellen auf einem Kreis lagen, bei anderen Modellen liegen sie auf einer Geraden. Die Lage der Nullstellen bestimmt das Verhalten in Phasenübergängen ähnlich, wie die Nullstellen auf der kritischen Geraden die Feinverteilung der Primzahlen steuern.

All diesen Ideen liegt eine Analogie zugrunde, die sich vereinfacht etwa so beschreiben lässt: Die Primzahlen sind „Elementarteilchen“, die über die Multiplikation in Wechselwirkung treten und so die zusammengesetzten Zahlen aufbauen. Gleichzeitig werden die „Teilchen“ durch die Addition angeordnet. In der Zeta-Funktion werden nun in Form einer Summen- bzw. Produktformel beide Aspekte (additiv / natürliche Zahlen und multiplikativ/Primzahlen) miteinander verbunden.

Eine Verbindung der Riemannschen Vermutung zu eindimensionalen Quasikristallen schlug Freeman Dyson 2009 vor.[24]

Die nichttrivialen Nullstellen und Primzahlen

Eine bedeutende Erkenntnis Riemanns war der Zusammenhang zwischen Primzahlen und den Nullstellen seiner Zeta-Funktion. In seiner Arbeit beschäftigte er sich mit dem Auffinden eines analytischen Ausdrucks für die Primzahlfunktion . Als Ausgangspunkt hierfür bediente er sich der Formel

die den Zusammenhang zwischen Primzahlen und der Zeta-Funktion fundamental untermauert. Diese lässt sich durch Logarithmieren und geeignete Potenzreihen in den folgenden Ausdruck verwandeln:[25]

Über das Integral

konnte Riemann nun den Ausdruck in eine geschlossene Form bringen. Hierfür führte er die zahlentheoretische Funktion mit

ein, wobei die Heaviside-Funktion symbolisiert. Diese summiert für jede Primzahlpotenz , die kleiner als ist, den Bruch auf. Ein einfaches Beispiel wäre

Überdies ist eine Treppenfunktion. Ein reiner Integralausdruck für ist also:

Riemann war ein Meister der Fourieranalyse und somit gelang ihm mit der nächsten Umformung ein Meilenstein der analytischen Zahlentheorie. Über eine inverse Mellin-Transformation folgerte er einen analytischen Ausdruck für :

mit einem . In den nächsten Schritten seiner Arbeit wies Riemann auf die Produktdarstellung der nach ihm benannten Riemannschen -Funktion hin, die sich definiert durch:

Diese Produktdarstellung läuft über alle nicht-trivialen Nullstellen der Zeta-Funktion und hat die Form eines bis ins Unendliche faktorisierten Polynoms (ähnlich wie bei der Faktorisierung des Sinus oder Kosinus):

Daraus gewinnt man ohne große Mühe einen im wahrsten Sinne nichttrivialen zweiten Ausdruck für :

Der letzte Teil von Riemanns Arbeit beschäftigt sich im Ganzen nur noch mit der Substitution dieses zweiten Ausdrucks für in die Gleichung

Trotz schwieriger Auswertung gelangte Riemann zu dem Resultat

wobei der Integrallogarithmus ist. Mit der über die Möbius-Inversion (mit der Möbiusfunktion ) gefolgerten Verbindung zwischen und , nämlich

war ein tiefer Zusammenhang zwischen Primzahlen und den Nullstellen der Zeta-Funktion geschaffen.

Anmerkung: Bei einer numerischen Berechnung von mit Riemanns Formel sollte der Ausdruck in der Summe durch ersetzt werden, wobei die (komplexe) Integralexponentialfunktion bezeichnet, da bei der Auswertung von über den Hauptzweig des komplexen Logarithmus nicht immer gilt und somit das Ergebnis verfälscht würde.

Folgerungen

Aus der Riemannschen Vermutung folgt beispielsweise eine Restgliedabschätzung im Primzahlsatz (Helge von Koch 1901):[26]

Das Resultat von Koch ist äquivalent zur Riemannschen Vermutung. Es lässt sich auch schreiben als

für eine Konstante , und eine etwas schwächere Form ist[27]

für beliebige .

Viele weitere Resultate der analytischen Zahlentheorie, aber auch etwa die für die in der Kryptographie wichtigen schnellen Primzahltests, können bisher nur unter Annahme der Riemannhypothese bewiesen bzw. durchgeführt werden. In den komplexen Nullstellen der Zeta-Funktion sind, wie Michael Berry schrieb, die Fluktuationen um die grobe asymptotisch logarithmische Verteilung der Primzahlen, die der Primzahlsatz beschreibt, kodiert. Kennt man die genaue Verteilung, kann man auch genauere Aussagen über die Wahrscheinlichkeit treffen, wie viele Primzahlen in einem Bereich anzutreffen sind.

Die eigentliche Ursache dafür, dass viele Mathematiker so intensiv nach einer Lösung gesucht haben, ist aber – abgesehen davon, dass dies die letzte noch unbewiesene Aussage in Riemanns berühmtem Aufsatz ist – dass sich in dieser außergewöhnlich perfekten Symmetrie einer ansonsten sehr chaotischen Funktion (z. B. Universalitätssatz von Voronin: Die Zeta-Funktion kann jede beliebige analytische von Null verschiedene Funktion innerhalb eines Kreises vom Radius 1/4 beliebig approximieren) wahrscheinlich die Spitze des Eisbergs einer fundamentalen Theorie verbirgt, so wie sich hinter der Fermatvermutung die Parametrisierung von elliptischen Kurven durch Modulfunktionen verbarg, ein Teil des Langlands-Programms.

Geschichte

Originalarbeit von 1859

Im Jahr 1859 verfasste Bernhard Riemann, als Dank für seine Aufnahme in die Berliner Akademie der Wissenschaften, eine insgesamt 9-seitige Schrift, welche später die Grundlagen für die moderne analytische Zahlentheorie legen sollte. Seine Arbeit zielte darauf ab, die Vermutung von Gauß zum Primzahlsatz zu beweisen und weiter zu vertiefen. Da der Aufsatz jedoch äußerst skizzenhaft aufgeführt war und zahlreiche darin getätigte Aussagen nicht streng bewiesen wurden, sollte es noch dauern, bis die Mathematiker die dort getätigten Behauptungen akzeptierten. Bis heute gelten alle Aussagen Riemanns in seiner Arbeit, mit Ausnahme der dort in einem Nebensatz formulierten Riemannschen Vermutung, als bewiesen.

Hilberts achtes Problem

Erklärung zum Millennium-Problem

Quark

Die Riemannsche Vermutung wurde schon 1859 von Bernhard Riemann in einer berühmten Arbeit, die die Grundlagen der analytischen Zahlentheorie legte, nebenbei erwähnt. Dabei schrieb er „dass dazu zwar ein strenger Beweis zu wünschen wäre, er habe aber dessen Aufsuchung nach einigen flüchtigen Versuchen vorläufig eingestellt, da er für den nächsten Zweck seiner Untersuchung entbehrlich sei.“ Er sicherte seine Vermutung durch umfangreiche numerische Berechnungen der Nullstellen ab, wie Carl Ludwig Siegel in den 1930er Jahren bei der Untersuchung von Riemanns Nachlass herausfand.[28] In seinen nicht veröffentlichen Schriften wurde darüber hinaus nichts dazu gefunden.[29] Der Mathematiker und Mathematikhistoriker Harold Edwards formulierte einige Spekulationen, wie Riemann ohne nennenswerte numerische Evidenz zu seiner Vermutung gekommen sein könnte.[30]

1903 veröffentlichte Jørgen Pedersen Gram[31] numerische Näherungswerte für die ersten 15 im kritischen Bereich liegenden Nullstellen. Sie unterstützen (beweisen aber nicht) die Riemannsche Vermutung, ebenso wie alle weiteren Nullstellen, die später gefunden wurden und deren Anzahl Anfang der 1980er Jahre die 100-Millionen-Grenze überschritt. Im Jahr 2001 wurde mit Hilfe von Großrechnern gezeigt, dass die ersten zehn Milliarden Nullstellen der komplexen Zeta-Funktion alle die Riemannsche Vermutung erfüllen, d. h., sie liegen alle auf der Geraden mit Realteil .

Einen weiteren Meilenstein bei der numerischen Suche stellte das im August 2001 gestartete Zeta-Grid-Projekt dar. Mit Hilfe der Methode des verteilten Rechnens, an der viele tausend Internetnutzer teilnahmen, wurden nach drei Jahren etwa 1 Billion Nullstellen gefunden. Das Projekt wurde inzwischen eingestellt.

Die beiden französischen Mathematiker Gourdon und Demichel starteten mit dem Verfahren von Odlyzko und Schönhage im Jahr 2004 einen neuen Versuch und hatten im Oktober 2004 die ersten 10 Billionen Nullstellen überprüft, ohne ein Gegenbeispiel zu finden. Obwohl es sich bei allen Rechnungen um numerische Verfahren handelt, zeigen diese exakt und nicht nur annähernd, dass sich die untersuchten Nullstellen auf der kritischen Geraden befinden.[32]

Viele berühmte Mathematiker haben sich an der Riemannschen Vermutung versucht. Jacques Hadamard behauptete 1896 ohne nähere Ausführungen in seiner Arbeit Sur la distribution des zéros de la fonction ζ(s) et ses conséquences arithmétiques[33] in der er den Primzahlsatz bewies, dass der damals kürzlich verstorbene Stieltjes die Riemannsche Vermutung bewiesen habe, ohne den Beweis zu publizieren. Stieltjes behauptete 1885 in einem Aufsatz in den Compte Rendu der Académie des sciences einen Satz über das asymptotische Verhalten der Mertensfunktion bewiesen zu haben, aus der die Riemannsche Vermutung folgt (siehe unten).[34] Der berühmte britische Mathematiker Godfrey Harold Hardy pflegte vor der Überquerung des Ärmelkanals bei schlechtem Wetter ein Telegramm abzuschicken, in dem er behauptete, einen Beweis gefunden zu haben, dem Beispiel von Fermat folgend, der auf dem Rand eines Buches der Nachwelt überlieferte, er hätte für seine Vermutung einen Beweis, der leider zu lang sei um auf dem Rand Platz zu finden.[35] Sein Kollege John Edensor Littlewood bekam in Cambridge 1906 als Student sogar die Riemannhypothese als funktionentheoretisches Problem von seinem Professor Ernest William Barnes gestellt, ohne Verbindung zur Primzahlverteilung – diesen Zusammenhang musste Littlewood für sich entdecken und bewies in seiner Fellowship-Dissertation, dass der Primzahlsatz aus der Hypothese folgt, was aber in Kontinentaleuropa schon länger bekannt war. Wie er in seinem Buch A mathematician’s miscellany zugab, warf dies kein gutes Licht auf den damaligen Stand der Mathematik in England. Littlewood leistete aber bald darauf wichtige Beiträge zur analytischen Zahlentheorie im Zusammenhang mit der Riemannhypothese. Das Problem wurde im Jahr 1900 von David Hilbert in seiner Liste der 23 mathematischen Probleme als Jahrhundertproblem deklariert, wobei Hilbert selbst es als weniger schwierig als beispielsweise das Fermat-Problem einordnete:[36] In einem Vortrag 1919 gab er der Hoffnung Ausdruck, dass ein Beweis noch zu seinen Lebzeiten gefunden würde, im Fall der Fermat-Vermutung vielleicht zu Lebzeiten der jüngsten Zuhörer; für am schwierigsten hielt er die Transzendenz-Beweise in seiner Problemliste – ein Problem, das in den 1930er Jahren durch Gelfond und Theodor Schneider gelöst wurde.[37] Mittlerweile sind viele der Probleme auf Hilberts Liste gelöst, die Riemannsche Vermutung widerstand jedoch allen Versuchen. Da im 20. Jahrhundert kein Beweis für die Riemannsche Vermutung gefunden wurde, hat das Clay Mathematics Institute im Jahr 2000 dieses Vorhaben erneut zu einem der wichtigsten mathematischen Probleme erklärt und einen Preis von einer Million US-Dollar für einen schlüssigen Beweis ausgesetzt, mit einer Sonderregelung für Gegenbeispiele.[38]

Es gibt auch zur Riemannschen Vermutung analoge Vermutungen für andere Zeta-Funktionen, die teilweise ebenfalls gut numerisch gestützt sind. Im Fall der Zeta-Funktion algebraischer Varietäten (der Fall der Funktionenkörper) über den komplexen Zahlen wurde die Vermutung in den 1930er Jahren von Helmut Hasse für elliptische Kurven und in den 1940er Jahren von André Weil für abelsche Varietäten und algebraische Kurven (auch über endlichen Körpern) bewiesen. Weil formulierte auch die Weil-Vermutungen, zu denen auch ein Analogon der Riemannhypothese gehört, für algebraische Varietäten (auch höherer Dimension als Kurven) über endlichen Körpern. Der Beweis wurde nach Entwicklung der modernen Methoden der algebraischen Geometrie in der Grothendieck-Schule in den 1970er Jahren von Pierre Deligne erbracht.

Forschungsgeschichte

Fortschritte

Nullstellen auf der kritischen Geraden

Satz von Hardy

Der Satz von Hardy besagt, dass unendlich viele nicht-triviale Nullstellen der Riemannschen Zeta-Funktion auf der kritischen geraden liegen.

Prozentuale Angaben

Nullstellenfreie Regionen

Beweis- und Widerlegungsversuche

1945 behauptete Hans Rademacher, die Vermutung widerlegt zu haben, und erregte damit einiges Aufsehen in den USA. Kurz vor der Veröffentlichung in den Transactions of the American Mathematical Society fand aber Carl Ludwig Siegel doch noch einen Fehler. Alan Turing war ebenfalls der Meinung, die Vermutung sei falsch. Er beschäftigte sich intensiv mit der Berechnung von Nullstellen der Zeta-Funktion und versuchte kurz vor seiner Involvierung in Dechiffrierarbeiten in Bletchley Park, eine mechanische Maschine zu bauen, die ihm dabei helfen sollte, mindestens eine die Vermutung verletzende (und damit widerlegende) Nullstelle zu finden.

Louis de Branges de Bourcia beschäftigte sich jahrzehntelang mit dem Problem. 1985 (kurz nach seinem Beweis der Bieberbach-Vermutung) stellte er einen auf seiner Theorie der Hilberträume ganzer Funktionen basierenden Beweis vor, in dem Peter Sarnak einen Fehler fand. 1989 präsentierte er anlässlich einer Vortragsreihe im Institut Henri Poincaré einen weiteren Beweis, den er aber bald darauf selbst als fehlerhaft erkannte.[39] 2004 veröffentlichte er einen neuen Beweis, der kritisch geprüft wurde. Bereits Jahre zuvor hatte Eberhard Freitag jedoch ein Gegenbeispiel für eine im Beweis aufgestellte Behauptung gegeben, sodass der Beweis mittlerweile als falsch angesehen wird.

Verallgemeinerungen

Als verallgemeinerte oder allgemeine Riemannsche Vermutung wird gewöhnlich die folgende Behauptung bezeichnet:[40]

Die analytische Fortsetzung der Dirichletreihe zu jedem beliebigen Dirichletcharakter (-Reihe)
hat im kritischen Streifen ausschließlich Nullstellen auf der Geraden

Aus der verallgemeinerten Riemannschen Vermutung folgt die Riemannsche Vermutung mit als Spezialfall. Andrew Granville konnte zeigen, dass die (starke) Goldbachsche Vermutung im Wesentlichen zur verallgemeinerten Riemannschen Vermutung äquivalent ist.[40]

Für eine verallgemeinerte Fassung für L-Funktionen der Selberg-Klasse siehe L-Funktion.

Weitere äquivalente Aussagen

Rezeption

In Fachkreisen

Populärwissenschaftlich

Film- und Fernsehen

  • Dokumentation

In der Folge Prime Suspect (Staffel 1, Folge 5) der Series Numbers - Die Logik des Verbrechens wird die Tochter Emily des Mathematikers Ethan Burdick entführt, welcher von sich behauptet, die Riemannsche Vermutung bewiesen zu haben. Ethan Burdick sieht die Entführung als einen Akt des „Diebstahls und der Sabotage“ an seiner Arbeit durch einen Rivalen.[41]

In der Kunst

  • Gedicht

Siehe auch

Literatur

  • Marcus du Sautoy: Die Musik der Primzahlen. Auf den Spuren des größten Rätsels der Mathematik. dtv / C.H. Beck, München 2003 und 2004, ISBN 3-423-34299-4 (populäre Darstellung der Geschichte der Vermutung).
  • Barry Mazur, William Stein: Prime Numbers and the Riemann Hypothesis. Cambridge University Press, 2015, ISBN 978-1-107-49943-0, (PDF; 7,6 MB). (Memento vom 15. September 2013 im Internet Archive).
  • John Derbyshire: Prime obsession – Bernhard Riemann and the greatest unsolved problem in Mathematics. Washington 2003, ISBN 0-309-08549-7.
  • Andrew Granville: Refinements of Goldbach’s Conjecture, and the generalized Riemann hypothesis. In: Functiones et Approximatio, Commentarii Mathematici. Band 37, Nr. 1. Faculty of Mathematics and Computer Science of Adam Mickiewicz University, Poznań 2007, S. 159–173 (umontreal.ca [PDF; 184 kB]).
  • Harold Edwards: Riemann’s Zeta Function. New York 1974, Dover 1991, ISBN 0-486-41740-9.
  • Karl Sabbagh: Dr. Riemann´s zeros. Atlantic books, 2002.
  • Edward Charles Titchmarsh: The Theory of the Riemann Zeta-Function. Bearbeitet von Heath-Brown. Oxford 1987, ISBN 0-19-853369-1.
  • P. Borwein, S. Choi, B. Rooney, A. Weirathmueller: The Riemann hypothesis. A resource for the afficionado and virtuoso alike. (CMS Books in Mathematics 27) Canad. Math. Soc., Springer-Verlag, 2008, ISBN 978-0-387-72125-5.
  • Julian Havil: Gamma – Eulers Konstante, Primzahlstrände und die Riemannsche Vermutung. Springer Verlag, 2007.
  • Jürg Kramer: Die Riemannsche Vermutung. In: Elemente der Mathematik. Band 57, 2002, S. 90–95. hu-berlin.de. (PDF; 400 kB).
  • Dan Rockmore: Stalking the Riemann Hypothesis. Pantheon Books, 2005.
  • Kevin Broughan: Equivalents of the Riemann Hypothesis. 2 Bände, Cambridge University Press, 2017.

Einzelnachweise und Anmerkungen

  1. Barry Mazur, William Stein: Prime Numbers and the Riemann Hypothesis, Cambridge University Press, S. viii.
  2. Julian Havil: Gamma. Springer-Verlag, Berlin et al. 2007, S. 40.
  3. Carl Friedrich Gauss Werke, Zweiter Band, Herausgegeben von der königlichen Gesellschaft der Wissenschaften zu Göttingen, 1863, (Brief), S. 444–447.
  4. Florian K. Richter: A new elementary proof of the Prime Number Theorem, Bulletin of the London Mathematical Society, Volume 53, Issue 5, S. 1365–1375.
  5. a b Barry Mazur, William Stein: Prime Numbers and the Riemann Hypothesis, Cambridge University Press, S. 41.
  6. David J. Platt: Computing analytically, Mathematics of Computation, Vol. 84, Nr. 293, May 2015, S. 1532 (Theorem 7.1).
  7. Schoenfeld, Lowell (1976): Sharper bounds for the Chebyshev functions and . II. Mathematics of Computation, 30 (134): 337–360, Corollary 1, (PDF).
  8. Jürgen Neukirch: Algebraische Zahlentheorie., Springer, 1992, S. 453.
  9. H. M. Edwards: Riemann’s Zeta Function. Dover, S. 188.
  10. A. Klenke: Wahrscheinlichkeitstheorie, 3. Auflage, Springer, siehe Kapitel 15.
  11. Terence Tao: Pseudorandomness properties of the Liouville function, Tao Lecture Series, Universität Bonn, Abgerufen am 30. Dezember 2021.
  12. a b c P. Borwein, S. Choi, B. Rooney, A. Weirathmueller: The Riemann hypothesis. A resource for the afficionado and virtuoso alike. (CMS Books in Mathematics 27) Canad. Math. Soc., Springer, 2008, S. 6.
  13. P. Borwein, S. Choi, B. Rooney, A. Weirathmueller: The Riemann hypothesis. A resource for the afficionado and virtuoso alike. (CMS Books in Mathematics 27) Canad. Math. Soc., Springer, 2008, S. 6–7.
  14. P. Borwein, S. Choi, B. Rooney, A. Weirathmueller: The Riemann hypothesis. A resource for the afficionado and virtuoso alike. (CMS Books in Mathematics 27) Canad. Math. Soc., Springer, 2008, S. 46.
  15. Władysław Narkiewicz: The Development in Prime Number Theory, Springer Monographs in Mathematics, S. 239.
  16. Władysław Narkiewicz: The Development in Prime Number Theory, Springer Monographs in Mathematics, S. 253.
  17. D. Zagier: Newman's short proof of the prime number theorem. In: The American Mathematical Monthly, Bd. 104, Nr. 8 (Oktober 1997), S. 705–708 (PDF).
  18. Hugh L. Montgomery, Robert C. Vaughan: Multiplicative Number Theory I. Classical Theory, Cambridge studies in advanced mathematics, S. 185.
  19. Hugh L. Montgomery, Robert C. Vaughan: Multiplicative Number Theory I. Classical Theory, Cambridge studies in advanced mathematics, S. 22.
  20. Referenzfehler: Ungültiges <ref>-Tag; kein Text angegeben für Einzelnachweis mit dem Namen riemann1859.
  21. Peter Scholze, Jakob Stix: Why abc is stil a conjecture, Abgerufen am 4. Januar 2022.
  22. Inter-universal Teichmüller Theory IV: Log-volume computations and set-theeoretic foundations, Research Institute for Mathematical Sciences, Kyoto University, Abgerufen am 4. Januar 2022.
  23. Alain Connes: Trace formula in non commutative geometry and the zeros of the Riemann zeta function. 10. November 1998.
  24. Freeman Dyson: Birds and Frogs. In: Notices AMS. 2009. (PDF; 800 kB).
  25. Mit
    folgt
    .
    Nun ist
    .
    Da ist, werden die Potenzreihen der beiden verbleibenden Logarithmen benötigt, also
    .
    Die Summe der beiden Potenzreihen ergeben zusammengefasst nur geradzahlige Potenzen in , sodass gilt
    und schlussendlich erhält man den gewünschten Ausdruck:
  26. Helge von Koch: Sur la distribution des nombres premiers. Acta Mathematica, Band 24, 1901, S. 159–182.
  27. Aus Kochs Resultat ableitbar, aber nicht umgekehrt.
  28. Siegel: Über Riemanns Nachlaß zur analytischen Zahlentheorie. In: Studien zur Geschichte der Math. Astron. und Phys. Abt. B: Studien, Band 2, 1932, S. 45–80.
    Siegel: Gesammelte Abhandlungen. Band 1, Springer Verlag, 1966.
  29. Laugwitz: Bernhard Riemann. 1996, S. 178.
  30. H. M. Edwards: Riemann’s Zeta Function. Dover, ISBN 978-0-486-41740-0, S. 164–166.
  31. Gram: Sur les zéros de la fonction de Riemann. In: Acta Mathematica. Band 27, 1903, S. 289–304.
  32. Calculations relating to the zeros. Kapitel 15. In: Titchmarsh: The Theory of the Riemann Zeta function.
  33. Jacques Hadamard: Sur la distribution des zéros de la fonction ζ(s) et ses conséquences arithmétiques. In: Bulletin de la Société Mathématique de France. 24, 1896, S. 199–220. (PDF; 1,3 MB), dort S. 199 ff.
  34. In Stieltjes’ Nachlass fand sich kein Hinweis auf diese Beweise. Derbyshire: Prime Obsession. S. 160 f. Die Mertensvermutung ist inzwischen widerlegt.
  35. 143 year old problem still has mathematicians guessing. In: New York Times. Die Anekdote ist auch in der Hilbert-Biografie von Constance Reid zu finden.
  36. Andererseits wird Hilbert die vielleicht apokryphe Äußerung zugeschrieben, wenn er nach 1000 Jahren Schlaf aufwachte, wäre seine erste Frage, ob die Riemannsche Vermutung gelöst wäre. Borwein u. a.: The Riemann Hypothesis. S. 58 (ohne Quellenangabe).
  37. Du Sautoy: Die Musik der Primzahlen. S. 147.
  38. Regeln des Millennium-Preises von der offiziellen Webseite
  39. Die Geschichte seiner Beweise wird von Karl Sabbagh in Dr. Riemanns Zeros dargestellt.
  40. a b Granville: Refinements of Goldbach’s Conjecture. Siehe Literaturverzeichnis.
  41. siehe Prime Suspect - Storyline, In: Imdb, Abgerufen am 7. Januar 2022.

Kategorie:Funktionentheorie Kategorie:Analytische Zahlentheorie Kategorie:Vermutung (Mathematik) Kategorie:Bernhard Riemann als Namensgeber