https://de.wikipedia.org/w/api.php?action=feedcontributions&feedformat=atom&user=138.246.2.103Wikipedia - Benutzerbeiträge [de]2025-05-04T20:52:06ZBenutzerbeiträgeMediaWiki 1.44.0-wmf.27https://de.wikipedia.org/w/index.php?title=Cofaktor_(Biochemie)&diff=192514599Cofaktor (Biochemie)2019-09-23T13:55:17Z<p>138.246.2.103: FAD ist nicht häufig mit Enzymen kovalent verknüpft. Es wird davon ausgegangen, dass dies in etwa 10% der Flavoproteine der Fall ist. Dies wird mit der angehängten Publikation belegt.</p>
<hr />
<div>Ein '''Cofaktor''' (auch '''Kofaktor''') ist in der [[Biochemie]] eine Nicht-Protein-Komponente, die neben dem [[Protein]]-Anteil eines bestimmten [[Enzym]]s für dessen [[Katalyse|katalytische]] Aktivität unerlässlich ist.<ref>{{Gold Book|Cofactors|C01128|Version=2.3.1}}</ref><br />
<br />
Der Überbegriff ''Cofaktor'' umfasst neben [[Anorganische Chemie|anorganischen]] Komponenten wie [[Metall]]-[[Ion]]en verschiedene [[Organische Chemie|organische]] Moleküle, die nicht aus [[Aminosäuren]] aufgebaut sind und bei Enzymaktivität verändert werden. Letztere Gruppe wird unter dem Übergriff ''Coenzym'' (''Koenzym'') zusammengefasst. Bei nicht kovalenter Bindung wird häufig von ''Cosubstrat'' (''Kosubstrat'') gesprochen, während bei fester, dauerhafterer Bindung der Begriff ''prosthetische Gruppe'' Anwendung findet. Eine genaue Abgrenzung der Begriffe ist jedoch nicht immer gegeben, sodass bei verschiedenen Autoren unterschiedliche Definitionen und Klassifizierungen anzutreffen sind. Cofaktoren lassen sich somit wie folgt grob einteilen:<br />
<br />
{| class="wikitable"<br />
|-<br />
! rowspan="2"|Coenzym<br />
! style="width:210px;text-align:left;"| Prosthetische Gruppe<br />
| Ein [[Organische Chemie|organisches]] Molekül, das mit hoher Affinität oder [[kovalent]] an ein Enzym gebunden ist; die prosthetische Gruppe kann also nicht [[Dissoziation (Chemie)|dissoziieren]].<br />
|-<br />
! style="text-align:left"| Cosubstrat<br />
| Ein [[niedermolekular]]es organisches Molekül, das nicht-kovalent an ein Enzym bindet und nach der Katalyse wieder dissoziiert. Es nimmt während der Reaktion chemische Gruppen, Protonen oder Elektronen auf oder gibt diese ab, wodurch sich seine Reaktivität verändert.<ref>{{Gold Book|Coenzyme|C01126|Version=2.3.1}}</ref> Ein Coenzym geht als Cosubstrat – wie auch eine prosthetische Gruppe – verändert aus der Reaktion hervor<ref>Georg Löffler, Petro E. Petrides und Peter C. Heinrich; Biochemie und Pathobiochemie, 8. Auflage.</ref> und muss daher wieder in den Vorzustand überführt werden, jedoch geschieht das meist nicht am Enzym.<br />
|-<br />
! colspan="2"|Metall-Ion<br />
| Ein Metall-Ion, das an ein Enzym gebunden und für die Katalyse erforderlich ist, ist ebenfalls ein Cofaktor. Das entsprechende Enzym wird '''Metalloenzym''' genannt.<br />
|}<br />
<br />
Ein Enzymkomplex mit gebundenem Cofaktor wird ''Holoenzym'' genannt, ohne Cofaktor ''Apoenzym''. Nicht zu den Cofaktoren – und auch nicht zu den [[Substrat (Biochemie)|Substraten]] – zählen Verbindungen, die [[ubiquitär]] vorkommen, wie das Wasser, wenngleich sie häufig an Reaktionen beteiligt sind.<br />
<br />
== Prosthetische Gruppen ==<br />
[[Datei:Arbeitsweise Prosthetische Gruppe.png|mini|Funktionsweise eines Enzyms mit prosthetischer Gruppe]]<br />
Als prosthetische Gruppe ([[Kunstwort]] nach {{grcS|προστίθημι}} ‚voranstellen‘) wird eine an ein [[Protein]] fest (meist [[Atombindung|kovalent]]) gebundene Nicht-Protein-Komponente mit [[Katalysator|katalytischer Wirkung]] bezeichnet. Da sie oft verändert aus der Katalyse hervorgeht, muss sie am Enzym regeneriert werden.<br />
<br />
=== Beispiele ===<br />
* [[Biotin]] in [[Carboxylase]]n<br />
* [[Häme (Stoffgruppe)|Häme]] im [[Hämoglobin]], im [[Cytochrom c]], in der [[Cytochrom c Oxidase]]<br />
* [[Flavine]] in [[Flavoprotein]]en<br />
* Moco (Molybdän-Cofaktor) in Molybdoenzymen (z.&nbsp;B. [[Xanthinoxidase]])<br />
* [[FeMo]] (Molybdän-Eisen-Cofaktor, MoFe-Protein) in der [[Nitrogenase]]<br />
* Vitamin B6 (Pyridoxalphosphat) als [[prosthetische Gruppe]] von [[Aminotransferase]]n sowie der humanen [[Histidindecarboxylase]]<br />
<br />
== Coenzyme, Cosubstrate ==<br />
[[Datei:Schema der Arbeitsweise eines Coenzyms.png|mini|Funktionsweise eines Enzyms mit Coenzym (Cosubstrat)]]<br />
Ein Cosubstrat oder Coenzym ist ein [[Niedermolekular|niedermolekulares]] organisches Molekül, das sich nicht-[[kovalent]] an das Enzym bindet und nach der Katalyse wieder [[Dissoziation (Chemie)|dissoziiert]]. Während der Reaktion nimmt es [[funktionelle Gruppe]]n, Protonen, Elektronen oder Energie auf beziehungsweise gibt solche ab (siehe auch [[Donator-Akzeptor-Prinzip]]). Es geht also – wie die prosthetische Gruppe – verändert aus der Reaktion hervor und muss daher erneuert werden. Dies unterscheidet das Coenzym zum Beispiel auch von [[Enzymhemmung|allosterischen Effektoren]]. Typischerweise geschieht seine Regeneration in einer nachgeschalteten Reaktion. Da sich das Coenzym eher wie ein Substrat denn wie ein Enzym verhält, wird es oft treffender als ''Cosubstrat'' bezeichnet.<br />
<br />
Ein häufiges Cosubstrat enzymatisch katalysierter Reaktionen ist [[Adenosintriphosphat]] (ATP), von dem energiereiche Phosphatgruppen (mit Bildung von [[Adenosindiphosphat|ADP]] bzw. [[Adenosinmonophosphat|AMP]]) auf andere Moleküle übertragen und diese aktiviert werden können. Einige andere Coenzyme sind [[Derivat (Chemie)|Derivate]] von [[Vitamine]]n.<br />
<br />
{| class="wikitable"<br />
! Stoffname !! Coenzymbezeichnung !! Derivat von !! Funktionstyp<br />
|-<br />
| [[Adenosintriphosphat]] (ATP) || – || – || liefert durch Abspaltung eines [[Phosphat]]s die Aktivierungsenergie,<br />überträgt Phosphat an das Substrat (''Phosphatdonator'')<br />
|-<br />
| [[Adenosindiphosphat]] (ADP) || – || – || nimmt Phosphat vom Substrat entgegen (''Phosphatakzeptor'')<br />
|-<br />
| rowspan="2" | [[Nicotinamidadenindinukleotid]] (NAD) || rowspan="2" | Coenzym I || rowspan="2" | – || NAD<sup>+</sup>: Elektronen- und Protonenakzeptor, [[Oxidationsmittel]]<br />
|-<br />
| NADH: Elektronen- und Protonendonator, [[Reduktionsmittel]]<br />
|-<br />
| rowspan="2" | [[Nicotinamidadenindinukleotidphosphat]] (NADP) || rowspan="2" | Coenzym II || rowspan="2" | – || NADP<sup>+</sup>: Elektronen- und Protonenakzeptor, Oxidationsmittel<br />
|-<br />
| NADPH: Elektronen- und Protonendonator, Reduktionsmittel<br />
|-<br />
| rowspan="2" | [[Flavin-Adenin-Dinukleotid]] (FAD) || rowspan="2" | – || rowspan="2" | [[Riboflavin|Vitamin B<sub>2</sub>]] || FAD: Elektronen- und Protonenakzeptor, Oxidationsmittel<br />
|-<br />
| FADH<sub>2</sub>: Elektronen- und Protonendonator, Reduktionsmittel<br />
|-<br />
| [[Pyridoxalphosphat]] || – || Vitamin B<sub>6</sub> ||<br />
|-<br />
| [[Tetrahydrofolsäure]] || Coenzym F || [[Folsäure|Vitamin B<sub>9</sub>]] || [[Methylgruppe]]ndonator<br />
|-<br />
| [[Cobalamine]] || Coenzym B<sub>12</sub> || Vitamin B<sub>12</sub> ||<br />
|-<br />
| [[Ascorbinsäure]] || – || Vitamin C || Reduktionsmittel<br />
|-<br />
| [[Coenzym A]] || Coenzym A || – ||<br />
|-<br />
| [[Ubichinon-10]] || Coenzym Q<sub>10</sub> || – ||<br />
|-<br />
| [[Liponsäure|α-Liponsäure]] || – || – ||<br />
|}<br />
Komplette Liste der von der Enzymkommission der ''[[International Union of Biochemistry and Molecular Biology]]'' (IUBMB) anerkannten Koenzyme/Kofaktoren siehe in der [[:Kategorie:Coenzym]].<br />
<br />
=== Beispiele ===<br />
==== Pyridoxalphosphat ====<br />
[[Pyridoxalphosphat]], das aktivierte [[Pyridoxin]] (Vitamin B<sub>6</sub>), ist beispielsweise ein Coenzym im aktiven Zentrum von [[Transaminasen]]. Hier katalysiert es im ersten Schritt die [[Desaminierung]] von [[Aminosäure]]n zu [[Ständigkeit|alpha]]-[[Ketosäure]]n (mit Bildung des Pyridoxaminphosphats), im zweiten die Übertragung der [[Amine|Aminogruppe]] auf eine andere alpha-Ketosäure (sogenannter ''ping-pong-bi-bi-Mechanismus'' nach [[Wallace W. Cleland]]). In diesem Fall wird Pyridoxalphosphat am Enzym regeneriert. Es ist auch Coenzym von [[Decarboxylase]]n, mit denen Aminosäuren abgebaut werden.<br />
<br />
==== Coenzym A ====<br />
Ein weiteres Beispiel ist [[Coenzym A]], das in freier sowie [[Acetylierung|acetylierter]] Form an verschiedenen Schritten des [[Citratzyklus]] sowie am Fettsäurestoffwechsel beteiligt ist.<br />
<br />
==== FAD, NAD, NADP ====<br />
Bei verschiedenen Abbauschritten im Citratzyklus, aber auch in der [[Glykolyse]] dienen die Coenzyme [[Flavin-Adenin-Dinukleotid]] (FAD) und [[Nicotinamidadenindinukleotid|Nicotinamid-Adenin-Dinukleotid]] (NAD) als [[Elektronenakzeptor|Elektronen-]] und [[Protonenakzeptor]]en oder [[Protonendonator|-donatoren]]. Sie vermitteln so den Elektronen-Transfer von einem [[Edukt]] zum anderen. Eine vergleichbare Rolle übernimmt [[Nicotinamidadenindinukleotidphosphat|Nicotinamid-Adenin-Dinukleotid-Phosphat]] (NADP) in umgekehrter Richtung bei Aufbauprozessen, etwa der Biosynthese von [[Fettsäuren]]. FAD kann in manchen Enzymen kovalent verknüpft sein, wobei davon ausgegangen wird, dass dies bei etwa 10% aller Flavoproteine der Fall ist<ref>{{Literatur |Autor=Dominic P. H. M. Heuts, Nigel S. Scrutton, William S. McIntire, Marco W. Fraaije |Titel=What’s in a covalent bond?: On the role and formation of covalently bound flavin cofactors |Sammelwerk=FEBS Journal |Band=276 |Nummer=13 |Datum=2009-06-11 |DOI=10.1111/j.1742-4658.2009.07053.x |Seiten=3405–3427 |Online=http://doi.wiley.com/10.1111/j.1742-4658.2009.07053.x |Abruf=2019-09-23}}</ref>. Ein Beispiel hierfür wäre die [[Succinat-Dehydrogenase]]<ref>{{Literatur |Autor=Martin Mewies, William S. McIntire, Nigel S. Scrutton |Titel=Covalent attachment of flavin adenine dinucleotide (FAD) and flavin mononucleotide (FMN) to enzymes: The current state of affairs |Sammelwerk=Protein Science |Band=7 |Nummer=1 |Datum=1998-01 |Seiten=7–21 |DOI=10.1002/pro.5560070102 |PMC=2143808 |PMID=9514256}}</ref>.<br />
<br />
==== Ubichinon ====<br />
Ein anderes Beispiel ist der Elektronencarrier [[Ubichinon]], das Coenzym Q im Prozess aerober Energiebereitstellung, [[oxidative Phosphorylierung]] genannt. Es vermittelt durch Aufnahme und Abgabe von [[Elektron]]en bzw. [[Proton (Chemie)|Protonen]] deren Übertragung zwischen den membrangebundenen Proteinkomplexen I, II und III der [[Atmungskette]] in den [[Mitochondrien]].<br />
<br />
== Metallionen ==<br />
[[Ion]]en von [[Metalle]]n wie [[Eisen]] (Fe), [[Magnesium]] (Mg), [[Mangan]] (Mn), [[Cobalt]] (Co), [[Kupfer]] (Cu), [[Zink]] (Zn) oder [[Molybdän]] (Mo) sind häufig Cofaktoren verschiedener Enzyme. In dieser Rolle werden sie zu essentiellen [[Spurenelement]]en der Nahrung, mit denen sich ein Organismus versorgt. Ein [[Enzym]], dessen aktive Form Metallionen enthält, wird ''Metalloenzym'' genannt. Ein Metallatom kann zur Stabilisierung der Proteinstruktur beitragen, im aktiven Zentrum dient es der [[Katalyse]] einer bestimmten [[Chemische Reaktion|Reaktion]]. Ist es für die Enzymfunktion entscheidend, so kann das Fehlen des Metalls zu einem [[Umweltfaktor|limitierenden Faktor]] werden.<br />
<br />
Die Anwesenheit eines Zink-[[Kation]]s deutet häufig auf dessen Funktion als [[Lewis-Säure]] hin, z.&nbsp;B. in Peptidasen oder [[Zinkfingerprotein]]en. Aus der Anwesenheit eines bestimmten Metallions lässt sich jedoch nur ungefähr auf die Funktion des Enzyms schließen. Zum einen können verschiedene Enzyme den gleichen Cofaktor benötigen. Zum anderen können Metalloenzyme mit ähnlicher Funktion in anderen Spezies ein anderes Metallion verwenden. Der Grund hierfür ist meist die unterschiedliche Verfügbarkeit der jeweiligen Metalle im Lebensraum der Organismen. Das Bakterium ''[[Borrelia burgdorferi]]'' beispielsweise kann ohne Eisen auskommen, da es stattdessen Mangan als Cofaktor verwendet.<ref>{{cite journal |author=Posey JE, Gherardini FC |title=Lack of a role for iron in the Lyme disease pathogen |journal=Science |volume=288 |issue=5471 |pages=1651–3 |year=2000 |month=June |pmid=10834845 |doi= |url=}}</ref> Ein anderes Beispiel ist der Einsatz von Kupfer statt Eisen bei der Sauerstoffaktivierung.<br />
<br />
Von [[Metalloproteine]]n spricht man, wenn beispielsweise [[Erdalkalimetall]]e wie [[Calcium]] und [[Magnesium]] wohl auf die Struktur und die [[Proteinfaltung|Faltung]] von Proteinen Einfluss nehmen, nicht aber zu einer katalytischen Wirkung beitragen.<br />
<br />
=== Beispiele ===<br />
* [[Urease]] enthält [[Nickel]].<br />
* [[Glutamatcysteinligase]] kann [[Mangan]], [[Magnesium]] oder [[Kupfer]] enthalten.<br />
* [[Acireducton-Synthase]] in [[Klebsiella pneumoniae]]: mit Eisen oder Magnesium ist das Reaktionsprodukt 4-Methylthio-2-ketobutyrat; mit Nickel ist es 3-(Methylthio)propionat.<ref name="PMID16989860">T. Ju, R. B. Goldsmith u.&nbsp;a.: ''One protein, two enzymes revisited: a structural entropy switch interconverts the two isoforms of acireductone dioxygenase.'' In: ''Journal of molecular biology.'' Band 363, Nummer 4, November 2006, S.&nbsp;823–834, [[doi:10.1016/j.jmb.2006.08.060]], PMID 16989860, {{PMC|1808343}}.</ref><br />
* [[Phenylalaninhydroxylase]] enthält [[Eisen]].<br />
* [[Leucylaminopeptidase]] kann [[Zink]], [[Kobalt]], [[Magnesium]] oder [[Mangan]] enthalten.<br />
* [[Lipoxygenase]] enthält ebenfalls [[Eisen]].<br />
* [[Superoxiddismutase]] enthält [[Mangan]].<br />
* [[Xanthinoxidase]] enthält [[Molybdän]] und [[Eisen]].<br />
* [[Cytochrom-c-Oxidase]] enthält [[Kupfer]] und [[Eisen]].<br />
* Carboanhydrase enthält [[Zink]].<br />
<br />
== Enzymhemmung ==<br />
{{Hauptartikel|Enzymhemmung}}<br />
Stoffe, die dem Cofaktor in dessen Bindungseigenschaften ähneln und ebenfalls mit dem Enzym komplexieren können, sind [[Kompetitive Hemmung|kompetitive]] [[Inhibitor]]en; sie hemmen das Enzym, indem sie um die Bindungsstelle für den Cofaktor konkurrieren.<br />
<br />
== Siehe auch ==<br />
* [[Vitamine]]<br />
<br />
== Weblinks ==<br />
* [http://www.ebi.ac.uk/thornton-srv/databases/CoFactor/ CoFactor – The organic enzyme cofactor database]<br />
<br />
== Quellen ==<br />
* [http://www.chem.qmul.ac.uk/iupac/bioinorg/CD.html#33 Eintrag im ''GLOSSARY OF TERMS USED IN BIOINORGANIC CHEMISTRY''], IUPAC Empfehlungen von 1997.<br />
* [[Wolfgang Kaim|W. Kaim]], B. Schwederski, ''Bioanorganische Chemie'', Teubner Studienbücher Chemie, 2004.<br />
<br />
=== Einzelnachweise ===<br />
<references /><br />
<br />
{{Normdaten|TYP=s|GND=4343425-3}}<br />
<br />
[[Kategorie:Coenzym| ]]<br />
[[Kategorie:Katalyse]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Taekwondo-Technik&diff=181208349Taekwondo-Technik2018-09-25T05:50:47Z<p>138.246.2.103: /* Hand- und Armtechniken */</p>
<hr />
<div>'''Taekwondo-Technik''' umfasst alle Hand-, Arm- und Fußtechniken des [[Südkorea|koreanischen]] [[Kampfsport]]s [[Taekwondo]] und unterstützende Elemente wie z.&nbsp;B. Atemtechnik und Kampfschrei, die regelmäßig im Training geübt werden müssen.<br />
<br />
== Training ==<br />
<br />
Dem Trainer steht es frei, wie er sein Training aufbaut. Vor Prüfungsterminen wird in der Regel nochmals der Prüfungsstoff intensiv durchgenommen.<br />
<br />
Typische Trainingskomponenten sind:<br />
<br />
* ''[[Aufwärmen (Sport)|Aufwärmen]]'' und ''[[Muskeldehnung]]'': Beim intensiven und richtigen Betreiben von Taekwondo werden die meisten [[Muskel]]n und Bänder des Körpers eingesetzt. Deshalb ist es wichtig, den gesamten Bewegungsapparat durch gezielte Übungen aufzuwärmen. Auch zwischendurch werden immer wieder einzelne Partien aufgewärmt oder Dehnungsübungen durchgeführt, manchmal in Form von Taekwondo-Techniken.<br />
* ''Grundschule'': einzelne Techniken oder auch Kombinationen vertiefen das Verständnis für Abläufe und Möglichkeiten der Bewegung. Hierbei kommen auch sogenannte [[Pratze (Sport)|Pratzen]] zum Einsatz. Dies sind Schlagpolster mit Griffen, die als Ziel für voll ausgeführte Hand- und Fußtechniken dienen.<br />
* ''abgesprochener Kampf'': ohne Verletzungsgefahr, aber realistischer als die Grundschule ist der abgesprochene Kampf. Ein Angreifer agiert mit vorher abgesprochenen bzw. vorgegebenen Angriffstechniken, der Verteidiger reagiert mit gelernten Abwehr- und Kontertechniken. Man unterscheidet den Einschritt-, Zwei- und Dreischritt-Kampf (''Ilbo-, Ibo-, Sambo-Taeryon'') und den begrenzten Freikampf (''Ban Ya Yoo'').<br />
* ''Freikampf'': Auch im nicht abgesprochenen Kampf (''Chayu-Taeryon'') wird die korrekte Ausführung von Techniken als Reaktion auf die Aktionen des Partners trainiert. Dies setzt eine hohe Körperbeherrschung und Konzentrationsfähigkeit voraus. Beim speziellen Freikampf nur mit Füßen (''Yokgi'') dürfen keine Handtechniken verwendet werden. Die hohen Beintechniken, Dreh- und Sprungkicks sind ein Markenzeichen des Taekwondo. Schläge unter die Gürtellinie und Angriffe zum Rücken sind dabei nicht erlaubt. Für Wettkämpfe gibt es eigene Regeln im jeweiligen Verband.<br />
* ''Formenlauf'': formalisierte und einstudierte Abfolge von Techniken ([[Hyeong]], [[Poomse]]) als Kampftraining gegen imaginäre Gegner.<br />
* ''Meditation'': Im Anschluss an das Training kann gezielt ein kurzer Moment der Stille erfolgen, um sich zu sammeln und die im Training konzentrierte Energie wieder „alltagstauglich“ zu machen.<br />
* ''Theorie'': zur [[Taekwondo]]-Geschichte und Hintergründen, zu Techniken, Regeln und rechtlichen Aspekten (z.&nbsp;B. [[Notwehr]]).<br />
<br />
== Atemtechnik ==<br />
Eine gute Atemtechnik gibt Kraft und Energie (koreanisch ''Ki''), eine kontrollierte Atmung verbirgt dem Gegner, ob man angreifbar oder verletzlich ist.<br />
<br />
Beim Kampfsport atmet man über das Zwerchfell ([[Bauchatmung]] – das Anheben der Bauchdecke zieht das Zwerchfell nach unten und füllt die Lunge), im Gegensatz zur flachen [[Brustatmung]]. Durch die Nase wird eingeatmet, ausgeatmet durch den Mund.<br />
<br />
Laut hörbares Atmen stärkt das Bewusstsein beim Anfänger und lehrt ihn den richtigen Rhythmus. Fortgeschrittene sollten jedoch nur bei expliziten Atemübungen laut atmen und sich bewusst sein, dass dadurch der Gegner im Kampf auf den günstigen Zeitpunkt zum Angriff hingewiesen wird. Während der Atemphase ist kaum eine schnelle Reaktion möglich, die Wirkung eines Treffers ist deutlich höher. Während eines Kampfes soll also möglichst verdeckt, aber trotzdem korrekt und kräftig geatmet werden.<br />
<br />
== Kampfschrei ==<br />
Der Kampfschrei wird im Koreanischen ''Gihap'' (기합, 氣合) genannt (McCune-Reischauer: ''Kihap''). ''Gi'' steht für „Lebensenergie“, während ''Hap'' so viel wie „Sammlung“ oder „Vereinigung“ bedeutet. Der ''Gihap'' erhöht die Anspannung des Körpers zum Zeitpunkt des Kontaktes mit dem Gegner, um der Technik höchste Kraft und Kontrolle zu verleihen und die Konzentration zu steigern. Mit der dadurch erzwungenen Auspressung der Luft und Anspannung der Muskulatur sind die Atemwege weniger empfindlich gegen Konterschläge, ein Gegentreffer auf die Brust (oder ein Sturz auf Brust/Rücken) in der Ein- oder Ausatemphase wäre sehr unangenehm. Im Kampf dient der ''Gihap'' natürlich auch der Einschüchterung des Gegners. Bei Partnerübungen zeigt der Kampfruf den Beginn und das Ende der Techniken an.<br />
<br />
In der Atemtechnik nimmt der ''Gihap'' daher eine Sonderstellung ein. Um die damit erwünschte Wirkung zu erzielen, muss er mit ausreichender Kraft aus dem Bauchraum kommen. Anfänger neigen dazu, nur die Stimmbänder zu benutzen und belasten diese dabei unnötig. Eine solche Atemtechnik wird außerdem als ineffektiv angesehen. Richtig ausgeführt erzwingt der ''Gihap'' eine reine, richtige Zwerchfell-Atmung im entscheidenden Moment.<br />
<br />
Der Klang des ''Gihap'' ist nicht vereinheitlicht, sondern wird individuell unterschiedlich artikuliert.<br />
<br />
Der Kampfschrei kann verschieden stark ausfallen. Wenn man ihn als Signal am Übungsanfang oder Übungsende benutzt, kann der ''Gihap'' vergleichsweise leise artikuliert werden. Ein energischer Luftstoß wie z.&nbsp;B. „Ha!“ genügt und schont die Stimmbänder. Steht man dagegen vor einer ernsthaften Hürde, wie zum Beispiel einem Bruchtest, kann man seine Energien (''Gi'') mit einem sehr kräftigen „I-YA“ stärker sammeln (''Hap'').<br />
<br />
In den japanischen Kampfkünsten wird der Schrei ''[[Kiai]]'' genannt.<br />
<br />
== Stellungen ==<br />
Um die Abwehr- und Angriffstechniken im Taekwondo durchführen zu können, gibt es einige typische geeignete Stellungen (koreanisch ''Sogi''). Je korrekter die Stellungen eingenommen werden, desto stabiler ist die Basis für eigene Techniken.<br />
Je nach [[Taekwon-Do|Stilrichtung]] unterscheiden sich auch die Begriffe für die einzelnen Stellungen, Tritte oder Schläge leicht voneinander. Die Bewegung aus den Stellungen heraus und deren saubere Durchführung ist wichtiger Inhalt des Trainings.<br />
<br />
Die gebräuchlichsten Stellungen sind:<br />
<br />
* ''Chariot Sogi'' (Achtungsstellung): Die Fersen berühren einander, die Füße zeigen 22,5° nach außen.<br />
* ''Junbi Sogi'' oder auch ''Narani Sogi'' (Vorbereitungsstellung oder Parallelstellung): Füße etwa schulterbreit auseinander, die Fäuste sind vor dem Gürtel (Unterbauch)<br />
* ''Moa Sogi'' (geschlossene Stellung): Die Innenseiten der Füße berühren einander.<br />
* ''Ap Gubi'' oder auch ''Chongul Sogi'' (Gangstellung): Eine breite und tiefe Stellung (tiefer Schwerpunkt – vorderes Bein ist wie nach einem sehr langen Vorwärtsschritt, der ungefähr zweieinhalb Schulterbreiten lang ist, gebeugt (ca. 90°)). Das Gewicht ist gleichmäßig auf beide Beine verteilt. Das hintere Bein bleibt gestreckt, der hintere Fuß zeigt 25°-30° nach außen. Die Füße stehen nicht auf einer Linie, man hat ungefähr eine Schulterbreite (individuell) Raum dazwischen. Dieses sorgt zusammen mit dem Schwerpunkt in der Mitte für einen sicheren Stand. Ideal auch im Zusammenhang mit einem Ausfallschritt für Fauststöße geeignet; gleichzeitig kann man sehr schnell in andere Stellungen wechseln.<br />
* ''Ap Sogi'' (Schrittstellung): Eine kurze Stellung wie bei einem einfachen Schritt, kommt vor allem häufig in den Formenläufen vor und ist auch ideal, um sehr schnell in andere Stellungen zu wechseln.<br />
* ''Dwit Gubi'' oder auch ''Hugul Sogi'' (L-Stellung): Eine typische Verteidigungsstellung. Die Füße stehen L-förmig (vorderer Fuß zum Gegner, hinterer Fuß um 90° nach außen gedreht), das Körpergewicht lastet zu 2/3 auf dem hinteren Fuß. Der Vorteil ist, dass der Körper durch Pendelbewegung leicht aus der Angriffslinie des Gegners herausgebracht werden kann und der vordere Fuß zu schnellen Kontertritten verwendet werden kann (weil er schnell gewichtsfrei ist). Beide Knie sind leicht gebeugt, sodass bei dem vorderen die Kniescheibe und die Ferse eine senkrechte Linie bilden. Das hintere Knie ist infolge des größeren Gewichts stärker gebeugt, sodass Kniescheibe und Zehenspitze eine senkrechte Linie bilden. Abstand der Füße ist ca. eine Schulterbreite. Die Füße stehen beinahe auf einer Linie, sodass man zwischen Ferse des hinteren Fußes und Innenseite des vorderen Fußes, eine gerade Schnur spannen könnte.<br />
* ''Kima Sogi'' oder auch ''Chuchum Sogi'' (Sitz- oder Reiterstellung): Füße weit auseinander, Beine stark gebeugt. Für viele Handtechniken eine ideale Position, auch für schnelle Seitwärtsbewegungen geeignet. Die Füße sind hierbei parallel und zeigen nach vorne. Die Knie sind gebeugt, sodass man das Gefühl bekommt, auf einem Pferd zu sitzen (daher Reiterstellung).<br />
* ''Koa Sogi'' oder auch ''Kyocha Sogi'' (Überkreuzstellung): Die Beine sind überkreuzt, der Fuß des Standbeins steht voll am Boden, der andere Fuß berührt nur mit dem Fußballen den Boden, beide Knie sind leicht gebeugt, der Oberkörper ist aufrecht, und der Blick geht in Angriffsrichtung.<br />
* ''Guburyo Sogi'' (Beugehaltung): Auf einem Bein. Diese Stellung dient als vorbereitende Stellung für seitliche, frontale und rückwärtige Tritte.<br />
* ''Waebal Sogi'' (Einbeinstellung): Das Standbein wird ausgestreckt, während die Sohle des anderen Fußes das Kniegelenk berührt.<br />
* ''Sasun Sogi'' (Diagonalstellung): Es gilt hierbei das gleiche Prinzip wie bei der Sitzstellung, nur liegt die Ferse des vorderen Fußes hier auf der gleichen Linie wie die Zehen des hinteren Fußes.<br />
* ''Soojik Sogi'' (vertikale Stellung): Eine kurze Version der L-Stellung. Zwischen beiden Fersen besteht eine Schulterbreite Entfernung.<br />
* ''Gojung Sogi'' (feste Stellung): Diese Stellung stimmt bis auf folgende Ausnahme mit der L-Stellung überein: Das Körpergewicht wird gleichmäßig auf beide Beine verteilt.<br />
* ''Dwit Bal Sogi'' (Katzenfußstellung): Zwischen den Zehen beider Füße besteht ein Abstand von einer Schulterbreite, das hintere Knie wird gebeugt, bis das Knie über die Zehen herausragt; das vordere Knie wird gebeugt, bis nur noch der Fußballen den Boden berührt.<br />
* ''Nachuo Sogi'' (Niedrige Stellung): Diese Stellung gleicht der Gangstellung, ist aber um ca. eine halbe Schulterbreite weiter gespannt.<br />
<br />
== Hand- und Armtechniken ==<br />
Die Hand und die Arme werden in ihrer ganzen Länge für Blocks (Abwehr und Stopp von Angriffen) und Wirkungstreffer genutzt.<br />
<br />
Typische Schlag- (''Chigi''), Stoß- (''Jirugi'') und Stichformen (''Chirugi'') sind:<br />
<br />
* ''Jumok Jirugi'': Fauststoß<br />
* ''Sonnal Chigi'': Schlag mit der Außenhandkante<br />
* ''Sonnal Bakkat Chigi'': Schlag mit der Innenhandkante<br />
* ''Batangson Jirugi'': Handballenstoß<br />
* ''Palkup Chigi'': Ellenbogensschlag nach vorne<br />
* ''Dung Jumok Ape Chigi'': Handrückenschlag nach vorne<br />
* ''Me Jumok Chigi'': Faustbodenschlag<br />
* ''Pyonsonkut Chirugi'': Fingerspitzenstich<br />
<br />
Typische Blockformen sind:<br />
<br />
* ''Makki'': Block<br />
* ''Naeryeo Makki'': Beinblock bzw. Unterarmblock nach unten über das Bein (gleichseitige oder gegenseitlich)<br />
* ''Momtong Makki'': Körperblöcke bzw. Unterarmblock vom Ohr vor dem Oberkörper (Kingrenze, Momtong An Makki, das "an" wir meist weggelassen)<br />
* ''Eolgul Makki'': Kopfblock bzw. Unterarmblock nach oben<br />
* ''Momtong An makki'': Unterarmblock vor dem Körper von außen nach innen <br />
* ''Momtong Bakkat makki'': Unterarmblock vor dem Körper von innen nach außen<br />
* ''Sonnal Makki'': Entsprechende Abwehr mit der Innenhandkante und mit der Außenhandkante vor den Beinen (Sonal Arae Makki), Körper oder Kopf<br />
<br />
== Fuß- und Beintechniken ==<br />
Im Taekwondo haben die Fußtechniken eine besondere Bedeutung; im Unterschied zu anderen Kampfsportarten werden sie hier besonders betont. Durch intensives Training kann man auch mit Fußtechniken schnell und hoch treffen.<br />
<br />
Der Vorteil ist, dass man damit eine relativ große Reichweite hat, in der man mit der kräftigen Bein-, Po- und Rückenmuskulatur sehr wirkungsvolle Treffer landen kann. Zudem gibt die Nutzung der Beine dem Taekwondo-Kämpfer zwei zusätzliche Möglichkeiten, die für den Gegner z.&nbsp;T. recht überraschend eingesetzt werden können, weil der Ansatz außerhalb seines Sichtbereiches liegt. Einen besonderen Überraschungseffekt erzielen Sprünge oder Techniken aus einer Drehung, ggf. sogar Mehrfachdrehung heraus. Auch überraschend sind Kombinationen aus Block und Kick mit dem Bein oder eben Fuß.<br />
<br />
Ziele sind hierbei vor allem [[Solarplexus]], unterer seitlicher Rippenbogen, Kinn/Gesicht, Stirn- und Schläfenbereich, aber auch Schenkel und Kniegelenk. Fußtechniken können auch zur Abwehr und zum Blocken gegnerischer Angriffe genutzt werden.<br />
<br />
Typische Fußtechniken sind:<br />
<br />
* ''Ap-Chagi'': Fronttritt. Gerader Fußstoß nach vorne. Trefferfläche ist der Fußballen (oder der Fußrücken z.&nbsp;B. im WTF-Wettkampf).<br />
* ''Yop-Chagi'': Seitwärtstritt. Seitlich gedrehter Stoß nach vorne. Trefferfläche ist die Fußaußenkante bzw. die untere Ferse.<br />
* ''Dwit-Chagi'': Rückwärtstritt. Ein über den Rücken gedrehter mit dem hinteren Fuß ausgeführter Tritt. Trefferfläche ist die untere Ferse oder auch die gesamte Fußsohle.<br />
* ''Dollyo-Chagi'': Drehtritt (Halbkreisförmig nach vorn). Ein aus der Hüfte gedrehter, von der Seite kommender Fußtritt. Getroffen wird mit dem Fußrücken.<br />
* ''Pandae-Dollyo-Chagi'' oder auch ''Momdollyo-Huryo-Chagi'': Fersendrehschlag. Ein über den Rücken gedrehter mit dem hinteren Fuß getretener Kreistritt, getroffen wird mit der Ferse.<br />
* ''Hurio-Chagi'' oder ''Gygolo-Chagi'': Peitschentritt. Eingedrehter Fuß von unten kommend, kann damit ein seitlich stehender Gegner hoch mit dem Fußballen getroffen werden.<br />
* ''Naeryo-Chagi'': Schwung- oder Abwärtstritt. Ein mit fast durchgestrecktem Bein ausgeführter hoher Tritt von oben nach unten. Für Angriffe mit der Ferse auf den Kopf oder Brustkorb geeignet (von außen).<br />
* ''Twio-Chagi'': Sprungtritt. Entsprechend der oben genannten Trittarten wird ein gesprungener Front Tritt ''Twio Ap-Chagi'' genannt usw.<br />
* ''Neyo chagi'': Halbmondtritt (von innen)<br />
<br />
== Bruchtest (''Kyok Pa'') ==<br />
Sieht spektakulär aus, hat im Training aber nur geringe praktische Bedeutung: das Zerschlagen von Brettern, Ziegeln und Steinen. Diese Fähigkeit ergibt sich aus dem konsequenten Training von Kraft, Schnelligkeit und Genauigkeit einer Technik. Der Bruchtest erfordert eine präzise Technikausführung mit exaktem Brennpunkt, Kraft und Schnelligkeit. Nur eine korrekt ausgeführte Technik bringt das Brett zum Brechen.<br />
<br />
Die Kraft, Geschwindigkeit und Technik eines Schlages oder Trittes wird bei Prüfungen (und Vorführungen) in der Regel an 30×30&nbsp;cm großen und ca. 3&nbsp;cm dicken Fichtenbrettern demonstriert. Für Kinder und Frauen gibt es dünnere Bretter, man kann aber auch mehrere Bretter zur Erhöhung des Schwierigkeitsgrades übereinander legen. Noch schwieriger wird es, wenn man seine Technik an einem frei stehenden bzw. nur einseitig gehaltenen oder sogar an einem geworfenen Brett demonstrieren muss. Weitere Möglichkeiten sind auch die Durchführung der Technik im Sprung oder gleichzeitige Techniken an verschiedenen Brettern.<br />
<br />
Ziegel, Kokosnüsse, Ytong-Steine und andere Gegenstände dienen lediglich der spektakulären Show bei Vorführungen.<br />
<br />
== Selbstverteidigung, Kampf ==<br />
Die Selbstverteidigung ist heute nurmehr ein Nebeneffekt des eher sportlich orientierten Taekwondo. Natürlich sind alle Übungen darauf ausgerichtet, sich auch im Ernstfall gegen einen Gegner behaupten zu können. Einige spezielle Selbstverteidigungs-Techniken (''Hosinsul'') ermöglichen dem Geübten dann auch, Angreifer schnell abzuwehren und unter Kontrolle zu bringen.<br />
<br />
Es ist jedoch einiges an Training erforderlich; derjenige, der schnell ein paar Tricks für die nächste Schlägerei sucht, wird hier nicht fündig werden. Erst in höheren Graduierungen wird auch der Kampf gegen Gegner gezielt mit Trainingskämpfen geübt.<br />
<br />
Auf alle Fälle stärkt Taekwondo das Selbstbewusstsein und das Vertrauen in die eigenen Fähigkeiten und trägt schon allein dadurch dazu bei, auch in Konfliktsituationen kühlen Kopf zu bewahren und sich behaupten zu können.<br />
<br />
== Weiterführende Informationen ==<br />
<br />
=== Literatur ===<br />
* Jae-Hwa Kwon: ''Zen-Kunst der Selbstverteidigung.'' O. W. Barth Verlag, Wien 1970, ISBN 3-502-64375-X.<br />
* Robert Kachel: ''Ein-Schritt-Kampf Ilbo-Taeryon: Ausweichen – Abwehren – Kontern.'' 1. Auflage. Weinmann, Berlin 2001, ISBN 3-87892-071-7.<br />
* Michael Unruh: ''Die 12 Taekwondo Hyong's<!-- sic! -->: die Präzisionsübungen des Taekwondo.'' 10. Auflage. Weinmann, Berlin 2002, ISBN 3-87892-049-0.<br />
* Jürgen Höller, Axel Maluschka: ''Taekwondo Selbstverteidigung – Grundlagen, Trainingspraxis, Gürteltraining.'' 1. Auflage. Meyer und Meyer, Aachen 2003, ISBN 3-89124-954-3.<br />
<br />
=== Siehe auch ===<br />
* [[Taekwondo]]<br />
* [[Taekwondo-Begriffe]]<br />
* [[Kampfsport]] und [[Kampfkunst]]<br />
<br />
=== Weblinks ===<br />
* [http://www.taekwondo-ottobrunn.de/taekwondo/taekwondo-hyong.html Taekwondo – Formenlauf]<br />
<br />
[[Kategorie:Taekwondo|Technik]]<br />
[[Kategorie:Kampftechnik]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=EKK&diff=152139808EKK2016-03-03T14:46:46Z<p>138.246.2.103: Entwicklungs- und Konstruktionskosten hinzugefügt</p>
<hr />
<div>'''Ekk''' ist der Familienname folgender Personen:<br />
* [[Nikolai Wladimirowitsch Ekk]] (1902–1976), sowjetischer Regisseur und Drehbuchautor<br />
<br />
<br />
'''EKK''' ist die Abkürzung für:<br />
* [[Eidgenössische Kunstkommission]]<br />
* [[Einkommens-Konsum-Kurve]]<br />
* Entwicklungs- und Konstruktionskosten<br />
* [[Evangelisch-Katholischer Kommentar]], eine mehrbändige Reihe von [[Bibelkommentar]]en zum Neuen Testament<br />
* [[Evangelische Kreditgenossenschaft]]<br />
* [[Elliptische-Kurven-Kryptosystem]], ein asymmetrisches Kryptosystem auf der Basis von elliptischen Kurven<br />
<br />
{{Begriffsklärung}}<br />
{{DEFAULTSORT:Ekk}}<br />
[[Kategorie:Abkürzung|EKK]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Diskussion:COMU&diff=150804370Diskussion:COMU2016-01-29T07:55:59Z<p>138.246.2.103: Neuer Abschnitt /* Chemical Structure */</p>
<hr />
<div>== Chemical Structure ==<br />
<br />
Hallo,<br />
I think the chemical structure of COMU in this article is missing a double bond at the C-NH (it's an Oxime).<br />
Compare for example here: http://www.sigmaaldrich.com/catalog/product/aldrich/712191?lang=de&region=DE or in the respective papers.<br />
--[[Spezial:Beiträge/138.246.2.103|138.246.2.103]] 08:55, 29. Jan. 2016 (CET)</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Prinzen_Rolle&diff=150472715Prinzen Rolle2016-01-20T18:22:32Z<p>138.246.2.103: </p>
<hr />
<div>Die '''Prinzen Rolle''' besteht aus von der Firma [[Griesson – de Beukelaer]] hergestellten und mit Kakaocreme gefüllten [[Doppelkeks]]en oder auch Prinzenkekse genannt. Der Keks besteht aus zwei runden [[Keks]]en, zwischen denen eine Schicht [[Schokolade]]ncreme eingefasst ist. Die Prinzen Rolle zählt aufgrund der beiden fest gebackenen Weizenkekse zu den [[Dauerbackwaren]].<br />
Ursprünglich von de Beukelaer, wird die Prinzen Rolle seit der Fusion mit Griesson weiterhin unter dieser Marke vertrieben.<br />
<br />
== Geschichte ==<br />
[[Datei:Prinzenrolle Keks.JPG|mini|Design des Prinzen Rolle Doppelkekses (2013)]]<br />
Die Geschichte der Prinzen Rolle geht nach Eigenaussagen des Herstellers bis in das 19. Jahrhundert zurück. Ursprünglich stammt der Keks aus [[Belgien]], wo er von Bäckermeister [[Edouard de Beukelaer]] erfunden worden sein soll.<ref name="hist">[http://www.griesson-debeukelaer.de/deDE/unternehmen/geschichte ''Geschichte''], griesson-debeukelaer.de, abgerufen am 2. Februar 2013.</ref><br />
<br />
De Beukelaer stellte schon seit den 1850er Jahren in seiner Bäckerei Kekse her und hatte sein Handwerk in [[England]] und [[Antwerpen]] gelernt. Aus dieser Ausbildungszeit brachte er auch das Wissen um die Herstellung trockener und haltbarer Kekse mit, wie sie in dieser Art in Belgien bisher nicht bekannt waren. Dort galten Kekse und Kuchen bis zu jenem Zeitpunkt noch als teure und wenig haltbare Produkte, die sich die breite Bevölkerung nur selten leisten konnte.<br />
<br />
Nach seiner Rückkehr aus England forschte de Beukelaer an eigenen Keksrezepten, die er mit einer aus England mitgebrachten halbautomatischen Keksmaschine herstellte, der ersten Maschine dieser Art auf dem europäischen Festland. Mit dieser Maschine als Grundlage gründete er 1870 schließlich auch die erste größere Keksfabrik in Belgien und entwickelte den Doppelkeks. Der ursprüngliche Name der Prinzen Rolle war das Französische „le petit prince fourré“ (Gefülltes Prinzchen), angeblich zu Ehren des belgischen Thronprinzen [[Leopold II. (Belgien)|Leopold II.]] (1835–1909).<ref name="bluhm">[http://www.bluhmsysteme.com/branchen/anwenderberichte/debeukelaer-foliendruck-fuer-prinzen-rolle.html ''Griesson – de Beukelaer – Foliendruck für Prinzen Rolle.''] bluhmsysteme.com, abgerufen am 2. Februar 2013.</ref><br />
<br />
Der auf dem Keks auf beiden Seiten abgebildete Prinz hat sich im Laufe der Zeit von einem anfangs eher traditionellen Bild eines jungen Prinzen, mit Federhut und Keks in der Hand, zu einem „jungen“ und „dynamischeren“ Abbild eines Prinzen verändert.<ref name="pport1">[http://www.presseportal.de/pm/43053/1696629/kleiner-prinz-mit-grosser-geschichte-55-jahre-prinzen-rolle-von-debeukelaer-deutschlands ''Kleiner Prinz mit großer Geschichte: 55 Jahre Prinzen Rolle von DeBeukelaer.''] Presseerklärung, 11. Oktober 2010, abgerufen am 2. Februar 2013.</ref> Der wappenähnliche Aufdruck gilt für den Hersteller als „[[Gütesiegel]]“ für den Doppelkeks.<ref name="pport1" /><br />
<br />
1955 baute der Sohn des Keksherstellers de Beukelaer eine Zweigstelle in [[Kempen]] am [[Niederrhein (Region)|Niederrhein]] als „flämische Keksfabrik E. de Beukelaer“ und führte damit die Tradition fort.<ref name="hist" /> Über 60.000 Tonnen an Süßgebäck der Firma de Beukelaer im Jahr stammen aus diesem Werk, welches die längsten Öfen Europas zur Keksherstellung besitzt.<ref name="Kempen">[http://www.wz-newsline.de/lokales/kreis-viersen/kempen/kempen-gespraech-8222wir-sind-stolz-auf-kempen-8220-1.471520 ''Kempen: Gespräch - „Wir sind stolz auf Kempen“.''] wz-newsline.de, 22. August 2007, abgerufen am 2. Februar 2013</ref> Noch heute werden dort Prinzen Rollen hergestellt. <br />
<br />
1969 baute die Firma Griesson aus [[Kobern-Gondorf]] ein weiteres Werk in [[Polch]] in Rheinland-Pfalz. Es wurde von Heinz Gries gegründet, der zwei Jahre zuvor das Management der Firma übernommen hatte. Im Jahre 1979 verlegte das Unternehmen Griesson den Verwaltungshauptsitz von Kobern in das Werk Polch.<br />
<br />
Im Jahr 1999 fusionierte Griesson mit der General Biscuit Company Deutschland und Österreich zur [[de Beukelaer|Griesson - de Beukelaer GmbH & Co. KG]]. Zunächst war auch der französische Nahrungsmittelhersteller [[Danone]] an der Firma mit 40&nbsp;% beteiligt. Seit 2007 ist der Konzern in der Gebäckherstellung wieder komplett in Familienhand.<ref>[http://www.griesson-debeukelaer.de/deDE/unternehmen/geschichte/2007/ ''Unternehmensgeschichte Griesson - de Beukelaer''] Firmenwebsite, abgerufen am 5. Juli 2015</ref><br />
<br />
== Herstellung ==<br />
Der Doppelkeks wird in [[Deutschland]] vorrangig im Werk Kempen hergestellt. Dort werden die runden Kekse aus einem Hartkeksteig gebacken und paarweise mit Kakaocreme zusammengefügt.<br />
<br />
Seit 2009 verzichtet Griesson – de Beukelaer bei der Prinzen Rolle auf die Zugabe gehärteter Fette und künstlicher Aromen. Die Zeitschrift [[Ökotest]] zeichnete das Produkt im Jahr 2011 mit der Gesamtnote „Gut“ aus.<ref>[http://www.presseportal.de/pm/43053/1772463/-oeko-test-zeichnet-prinzen-rolle-mit-der-note-gut-aus-gutes-ergebnis-dank-verbesserter-rezeptur ''„ÖKO-TEST“ zeichnet Prinzen Rolle mit der Note „Gut“ aus.''] Presseerklärung, 25. Februar 2011, abgerufen am 2. Februar 2013.</ref> Seit Juli 2012 setzt das Unternehmen außerdem für alle Markenprodukte, darunter auch alle Varianten der Prinzen Rolle, ausschließlich Kakao mit [[Utz Certified|UTZ-Zertifikat]] für nachhaltige Produktion ein.<ref>[http://www.presseportal.de/pm/43053/2266417/griesson-de-beukelaer-setzt-auf-nachhaltigen-kakaoanbau-vorreiter-im-gebaeckmarkt-griesson-de ''Griesson - de Beukelaer setzt auf nachhaltigen Kakaoanbau.''] Presseerklärung, 6. Juni 2012, abgerufen am 2. Februar 2013.</ref><br />
<br />
== Sorten ==<br />
[[Datei:Prinzenrollesorten.JPG|mini|200px|Prinzen Rolle Choco Duo & Prinzen Rolle Original]]<br />
Neben der traditionellen Sorte mit Weizenkeks und Kakaocremefüllung werden weitere Sorten vertrieben: Prinzen Rolle Choco Duo, Prinzen Rolle Vollkorn, Prinzen Rolle Pocket, Prinzentaler, Prinzen Rolle Minis und außerdem, in Spezialedition, auch die Prinzen Rolle Haselnuss und im Jahr 2012 die Prinzen-Fanrolle (Kokos mit weißer Schokolade).<br />
<br />
== Wirtschaft ==<br />
Das Unternehmen verkauft jährlich mehr als 40 Millionen Packungen, in Deutschland davon etwa 35 Millionen.<ref name="bluhm" /><br />
<br />
Seit 2013 ist die Firma wieder komplett in Familienbesitz. 2006 hatte de Beukelaer verlauten lassen, dass der Jahresumsatz mit 402 Millionen dem Dreifachen von früheren Zahlen entspräche.<ref name="Kempen" /> Die Investitionen betragen nach Angaben des Unternehmens 20 bis 22 Millionen Euro pro Jahr.<ref name="Kempen" /><br />
<br />
== Werbung ==<br />
Für die Prinzen Rolle wurde zuerst 1955 geworben. Schon damals wurde sie über das Fernsehen bekannt gemacht. Seit 2007 tritt der Fußballnationalspieler [[Lukas Podolski]] als Werbegesicht für den Schokodoppelkeks auf.<ref name="Kempen" /> Um den Keks außerdem für das junge Publikum attraktiver zu machen, bedient sich der Konzern unter anderem [[Soziales Netzwerk (Internet)|sozialen Netzwerken]] wie [[Facebook]]. <br />
<br />
Im „Food Hotel“ in [[Neuwied]], das seine Zimmer im Supermarkt-Ambiente ausstattet, gibt es ein „Prinzen Rolle-Zimmer“. Hier befinden sich neben Tischen mit Ablagefläche in Doppelkeks-Optik auch Kissen in Form der Keksverpackung und Plakate, die die Prinzen Rolle abbilden.<ref>Philipp Elsbrock: {{Webarchiv | url=http://www.ftd.de/panorama/vermischtes/outofoffice/:food-hotel-neuwied-schlafen-im-prinzenrollen-zimmer/50182670.html | wayback=20130824144246 | text=''Schlafen im Prinzen Rollen-Zimmer.''}} [[Financial Times Deutschland]], 17. Oktober 2010, abgerufen am 2. Februar 2013.</ref><br />
<br />
== Weblinks ==<br />
{{Commonscat|Prinzenrolle}}<br />
* [http://www.griesson-debeukelaer.de/deDE/marken/prinzen-rolle/ Prinzen Rolle] – auf der Website des Herstellers<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
[[Kategorie:Markenname (Backwaren)]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Blair%E2%80%99s_16_Million_Reserve&diff=126661838Blair’s 16 Million Reserve2014-01-20T01:20:52Z<p>138.246.2.103: </p>
<hr />
<div>{{Belege}}<br />
'''{{lang|en|Blair’s 16 Million Reserve}}''' ist laut [[Guinness-Buch der Rekorde]] das schärfste [[Gewürz]] der Welt. Hersteller ist [[Blair Lazar]]. Auf der [[Scoville-Skala]] zur Messung der Schärfe erreicht es den höchstmöglichen Werte von 16 Millionen Scoville für auf [[Capsaicin]] basierende Gewürze.<br />
<br />
Es sind lediglich 999 Einheiten produziert und verkauft worden. Dieser [[Extraktion (Verfahrenstechnik)|Extrakt]] ist so außerordentlich scharf, dass er zum Verzehr ungeeignet ist. Der Hersteller empfiehlt die Verwendung der Chemikalie nur zu Versuchszwecken und rät die Verwendung von Schutzhandschuhen und Augenschutz an. Es handelt sich bei diesem „Gewürz“ um die simple Extraktion einer chemischen Verbindung, wie sie z.&nbsp;B. für die Produktion von Medikamenten verwendet wird.<br />
<br />
Eine Flasche enthält 1&nbsp;ml reiner Capsaicin-Kristalle. Der Preis dafür liegt bei um die 300 US-Dollar. Jedoch ist diese Substanz kaum sinnvoll einzusetzen. Das Angebot kann als Werbegag angesehen werden und ist für Sammler von Chilis und scharfen Soßen interessant. Im pharmakologischen Großhandel gibt es entsprechende Mengen reines Capsaicin für unter 100 Euro.<br />
<br />
Das Produkt wird seit Anfang 2014 nicht mehr angeboten.<br />
<br />
[[Kategorie:Würzende Zutat]]<br />
[[Kategorie:Rekord]]<br />
<br />
[[en:Blair's Sauces and Snacks#16 Million Reserve]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=H%C3%B6flichkeit&diff=103599140Höflichkeit2012-05-24T09:12:17Z<p>138.246.2.103: </p>
<hr />
<div>Die '''Höflichkeit''' ist eine [[Tugend]], deren Folge eine rücksichtsvolle [[Sozialverhalten|Verhaltensweise]] ist, die den [[Respekt]] vor dem Gegenüber zum Ausdruck bringen soll. Ihr Gegenteil ist die ''[[Grobheit]]''.<br />
<br />
Sozial gehört sie zu den [[Sitte]]n, soziologisch zu den [[Soziale Norm|sozialen Normen]]. Das Wort hat sich aus dem Begriff „[[höfisch]]“ entwickelt, das die Lebensart am frühneuzeitlichen [[Hof (Monarchie)|Hof]] bezeichnete.<br />
<br />
== Allgemeines ==<br />
<br />
Im Gegensatz zur [[Freundlichkeit]], mit der man vertraute Menschen behandelt, ist die Höflichkeit stark durch [[gesellschaftliche Norm]]en und [[Umgangsform]]en geprägt und drückt sich oft durch [[respekt]]volle [[Soziale Distanz|Distanz]] aus. Je nach [[Kultur]] und [[Zeitalter|Epoche]] finden sich sehr unterschiedliche Ausprägungen dessen, was als höflich gilt. Allgemein gültige Höflichkeitsregeln, die für alle Kulturen gelten, lassen sich daher nicht finden. Eine gerade nicht distanziert-kühle Höflichkeit wird auch als „Herzenshöflichkeit“ bezeichnet (vgl. das [[Taktgefühl]]).<br />
Die Höflichkeit ist nicht nur eine Asdruck der Guten was der Mensch von Natur aus in sich besitzt, sondern es ist gleichzeitig auch die Frucht einer schwierigen Arbeit. Es gibt Menschen, welche das Gefühl für die Höflichkeit in ihrem Blut haben. Wer die Höflichkeit im Blut hat wird sich weniger anstrengen müssen um einen besseren Mensch zu werden. Die anderen müssen in Gegenteil eine schwierigere Arbeit leisten um sich diese unverzichtbare Eigenschaft anzueignen. Wie Joseph Joubert der französischer Moralist sagte: "Für den Menschen seine Güte ist die schönste Schmuck", "Es ist nicht ausreichend Mensch, der der nicht ausreichend gut erzogen ist"<br />
<br />
Historisch entwickelte sich die Höflichkeit im [[Über den Prozeß der Zivilisation|Prozess der Zivilisation]] ([[Norbert Elias]]) im [[Mittelalter|spätmittelalterlichen]] Übergang zur [[Neuzeit]], zuerst bei [[Hof (Monarchie)|Hofe]], wo die Rohheit und [[Gewalt]]tätigkeit des ''[[Adel|Feudaladels]]'' zur höfischen [[Courtoisie]] des ''Hofadels'' gebändigt wurde.<br />
<br />
== Beispiele ==<br />
<br />
Einige wenige Beispiele von Höflichkeitsnormen, die zumindest in den meisten westlichen Gesellschaften allgemein gängig sind:<br />
* Man bringt andere nicht in Verlegenheit oder [[Peinlichkeit|peinliche]] Situationen; dazu gehört auch Zurückhaltung beim Ansprechen womöglich heikler Themen. (Drastisches Sprichwort: ''Im Haus des Gehenkten spricht man nicht vom Strick.'') So hält man sich auch mit kritischen [[Meinung]]säußerungen gegenüber anwesenden oder sogar abwesenden Personen zurück (unhöflich ist es zum Beispiel auch, ein Gespräch schnell auf den [[Klatsch]] hinzusteuern).<br />
* Man [[Dank|dankt]] einem anderen für etwas, weicht aber einem Dank [[Taktgefühl|taktvoll]] aus.<br />
* Man begrüßt und verabschiedet sich von anderen (siehe [[Gruß]]). Nichterwiderung eines Grußes wird als grobe Unhöflichkeit empfunden.<br />
* Man klopft an einer Tür an, bevor man eintritt oder macht zurückhaltend auf die eigene Gegenwart aufmerksam (klassisch: Man hüstelt.).<br />
* Man bevorzugt in alltäglichen Situationen ältere Menschen und Frauen gegenüber rüstigeren Personen oder Männern (einen Sitz anbieten, Erfrischungen reichen, persönliche Begrüßung mehrerer).<br />
* Man drückt sich sprachlich in distanzierter und respektvoller Weise aus und wählt ohne Not keine rüden Wörter. (Einige Sprachen unterscheiden in der [[Person (Sprache)|2. Person]] zwischen [[Höflichkeitsform]] (''„Sie“'') und allgemeiner Form (''„Du“'') bzw. eines [[Vertrauen|vertraulichen]] Sprachgebrauchs wie das [[Duzen]].)<br />
<br />
== Moralphilosophische Definitionen und Empfehlungen ==<br />
<br />
Der Moralphilosoph [[Friedrich Paulsen]] gab folgende klare und prägnante Definitionen und Empfehlungen:<br />
<br />
''Höflichkeit als Beachtung des jeweiligen Verkehrszeremoniells:''<br />Sei höflich, d.h. gewöhne dich daran, das Verkehrszeremoniell zu beachten, das die Gesellschaft, d.h. hier die Gesamtheit derer, die durch geselligen Verkehr miteinander verbunden sind, wie jede Organisation hervorbringt. Durch das Verkehrszeremoniell wird allgemein verbindlich vorgeschrieben, wie der einzelne sich im geselligen Verkehr benehmen soll, wann und wie er<br />
* zu reden und zu schweigen,<br />
* zu nehmen und zu geben,<br />
* Besuche zu machen und zu empfangen,<br />
* zu essen und zu trinken,<br />
* sich zu kleiden und zu verbeugen,<br />
* Briefe zu schreiben und<br />
* Anreden zu machen habe.<br />
Es ist die Aufgabe des Verkehrszeremoniells, den Störungen vorzubeugen, die im geselligen Verkehr durch Ungeschick und disziplinlose Selbstsucht hervorgerufen würden.<br />
<br />
''Anstand:''<br />Wahre den [[Anstand]], d.h. verletze niemand. Der Anstand gebietet, zu vermeiden, was dem anderen abstoßend, widerwärtig, ekelhaft sein könnte.<br />
<br />
''Höflichkeit im engeren Sinne (''humanitas''):''<br />Erstrebe Höflichkeit im engeren Sinne (humanitas). Der Höfliche kommt dem Fremden mit Zeichen von Achtung und Wohlwollen entgegen und erklärt damit, dass er mit ihm auf einen friedlichen und freundlichen Verkehr einzugehen bereit sei.<br />
<br />
''Rücksichtslosigkeit und ihre Unterarten:''<br />Meide Rücksichtslosigkeit, das Gegenteil der Höflichkeit. Sie zeigt sich entweder in<br />
* Rohheit oder Ungeschliffenheit, in Mangel an Erziehung oder in der Naturanlage begründet;<br />
* Grobheit, d.&nbsp;h. absichtlicher Vernachlässigung der Höflichkeitspflichten.<br />
<br />
== Höflichkeit in verschiedenen Kulturen ==<br />
=== Judentum ===<br />
Eine zentrale Rolle spielen Höflichkeit und gute Umgangsformen (hebr. ''Derech Eretz'', דרך ארץ) in der jüdischen Kultur. Die [[Judentum|jüdische Religion]] gebietet es dem Gläubigen, Gott zu ehren, indem er auf die Gefühle anderer Rücksicht nimmt und sensibel dafür ist. Zu den sozialen Feinheiten, zu denen der Einzelne angehalten ist, zählt insbesondere, dass er Menschen, die er kennt, grüßt, dass er sie zu sich nach Hause einlädt ([[Gastfreundschaft|''Hachnasat orchim'']]), und dass er über andere – Abwesende eingeschlossen – respektvoll spricht. Höflichkeit und gute Umgangsformen gelten als essenzielles Element einer stabilen und gesunden Gemeinschaft.<ref>[http://www.myjewishlearning.com/practices/Ethics/Caring_For_Others/Ethical_Behavior/Concepts_and_Ideas/Derekh_Eretz/Teaching_Your_Children.shtml Teaching Your Children about Derech Eretz]; [http://www.campsci.com/articles/derech_eretz_precedes_torah.htm Derech Eretz Precedes Torah]; [http://www.shemayisrael.com/rabbiforsythe/interpersonal/derecheretz.htm Interpersonal Relating & Mitzvos: Derech Eretz (Civil, Polite and Thoughtful Behavior)]</ref><br />
<br />
== Siehe auch ==<br />
* [[Anstandsbesuch]], [[Netiquette]]<br />
* [[Adolph Freiherr Knigge]]<br />
* [[sozial]]<br />
* [[Brauch]]<br />
<br />
== Literatur ==<br />
* Brigitte Felderer/[[Thomas Macho]] (Hgg.): ''Höflichkeit. Aktualität und Genese von Umgangsformen'', Fink, München 2002, ISBN 3-7705-3668-1<br />
* Andreas-Pazifikus Alkofer: ''Konturen der Höflichkeit. Handlung - Haltung - Ethos - Theologie. Versuch einer Rehabilitation'', Books on Demand, Norderstedt 2005, ISBN 3-8334-3629-8 (zugleich: ''Was tut Ihr, wenn Ihr nur die Euren grüßt?'', Habilitationsschrift 2004, [[Universität Regensburg]])<br />
* [[Claudia Schmölders]] (Hg.): Die Kunst des Gesprächs. Texte zur Geschichte der europäischen Konversationstheorie. München 1986.<br />
<br />
== Weblinks ==<br />
{{Wikiquote}}<br />
{{Wiktionary}}<br />
* [http://knigge.md-d.org/ Häufig gestellte Fragen zur Höflichkeit]<br />
* [http://diglit.ub.uni-heidelberg.de/diglit/fb101/0158?sid=9c0daeeef79b0616fd8efa1d8e162811 Grobe Höflichkeit (Fliegende Blätter, 1894)]<br />
<!-- * http://www.benehmen-sie-sich.de - Ratgeber für Stil und Etikette ### 7.6.07 Seite offline (sedoparking) --><br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{SORTIERUNG:Hoflichkeit}}<br />
<br />
[[Kategorie:Umgangsform]]<br />
[[Kategorie:Tugend]]<br />
<br />
[[cs:Zdvořilost]]<br />
[[da:Høflig]]<br />
[[en:Politeness]]<br />
[[eo:Ĝentileco]]<br />
[[es:Cortesía]]<br />
[[fr:Politesse]]<br />
[[is:Kurteisi]]<br />
[[ja:ポライトネス]]<br />
[[nl:Beleefdheid]]<br />
[[no:Høflighet]]<br />
[[pl:Kurtuazja]]<br />
[[pt:Cortesia]]<br />
[[qu:Allin simi]]<br />
[[ru:Вежливость]]<br />
[[sv:Artighet]]<br />
[[uk:Увічливість]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Eduard_K%C3%BCnneke&diff=101142271Eduard Künneke2012-03-21T15:15:13Z<p>138.246.2.103: /* Leben */</p>
<hr />
<div>'''Eduard Künneke''' (* [[27. Januar]] [[1885]] in [[Emmerich am Rhein|Emmerich]]; † [[27. Oktober]] [[1953]] in [[Berlin]]) war ein [[Deutschland|deutscher]] [[Operette]]n[[komponist]]. Er war seit 1920 in zweiter Ehe verheiratet mit der Sopranistin Katharina Garden (1889 - 1967), gemeinsame Tochter ist die Schauspielerin und Sängerin [[Evelyn Künneke]].<br />
<br />
== Leben ==<br />
Künneke studierte von 1903 bis 1905 in [[Berlin]] [[Musikwissenschaft]] und [[Literaturgeschichte]]. 1905 bis 1906 besuchte er eine Meisterklasse bei [[Max Bruch]]. 1907 bis 1909 war er als [[Korrepetitor]] und als Chorleiter am Neuen Operetten[[theater am Schiffbauerdamm]] tätig. Von 1908 bis 1910 arbeitete er zugleich als Dirigent für das Plattenlabel [[Odeon (Plattenlabel)|Odeon]], 1910 bis 1911 war er Kapellmeister am [[Deutsches Theater Berlin|Deutschen Theater]].<br />
Nachdem seine [[Oper]] ''Robins Ende'' ([[1909]]) nach der Uraufführung am Nationaltheater in [[Mannheim]] an 38 deutschen Bühnen nachgespielt wurde, gab er die Funktion des Chorleiters ab. <br />
<br />
Während seiner Kapellmeisterzeit bei [[Max Reinhardt]] komponierte Künneke für die Inszenierung des ''[[Faust. Der Tragödie zweiter Teil|Faust II]]'' die Bühnenmusik.<br />
<br />
[[Datei:Gedenktafel Eduard Kuenneke.jpg|thumb|Gedenktafel für Künneke in der Berliner Giesebrechtstraße]]<br />
Eduard Künnekes leichtbeschwingte Musik zeichnet sich durch Rhythmus und harmonische Stilbilder aus. Sein bekanntestes Werk wurde die Operette ''[[Der Vetter aus Dingsda]]'' (1921). Viele seiner Lieder sind noch heute [[Schlager]].<br />
<br />
Nach der „[[Machtergreifung]]“ der [[Nationalsozialismus|Nationalsozialisten]] wurde er am 1. Mai 1933 Mitglied der [[Nationalsozialistische Deutsche Arbeiterpartei|NSDAP]] (Mitgliedsnummer 2.633.895)<ref name="Prieberg">[[Fred K. Prieberg]]: ''Handbuch Deutsche Musiker 1933–1945'', CD-Rom-Lexikon, Kiel 2004, S. 4.027.</ref>, wurde aber bereits 1934 wegen „[[Antisemitismus (bis 1945)#Nationalsozialismus|nichtarischer Versippung]]“ ausgeschlossen, bestätigt 1936 vom Partei-Kreisgericht. Trotzdem durfte er mit einer Sondergenehmigung des Reichspropagandaministers [[Joseph Goebbels]] wegen des Propagandawertes weiterhin kompositorisch tätig sein.<ref name="Prieberg"/> In der [[Zeit des Nationalsozialismus|NS-Zeit]] schrieb Künneke weitere Operetten, Märsche und Filmmusiken.<br />
<br />
Der Komponist war lange Jahre (seit 1926 – Uraufführung seiner Operette ''[[Lady Hamilton (Operette)|Lady Hamilton]]'' in Breslau) eng befreundet mit dem Dirigenten [[Franz Marszalek]], der sich während seiner Tätigkeit am WDR Köln nachdrücklich für Künneke eingesetzt und zahlreiche Aufnahmen (von denen viele nicht mehr vorhanden sind) seiner Musik mit dem Kölner Rundfunkorchester, bzw. dem Kölner Rundfunk-Sinfonie-Orchester eingespielt hat. Dazu gehört auch eine Aufführung, 1960, der Bearbeitung von Schuberts Klaviersonate D-Dur, D 850, für Klavier und Orchester, die in den letzten Kriegsjahren entstanden war.<br />
<br />
Er ruht auf dem [[Friedhof Heerstraße]] in Berlin, neben seiner Tochter [[Evelyn Künneke]].<br />
<br />
Sein Nachlass befindet sich im [[Archiv der Akademie der Künste]] in Berlin.<br />
<br />
== Werke ==<br />
<br />
=== Opern ===<br />
<br />
* 1909: Robins Ende<br />
* 1913: Coeur As<br />
* 1931: Nadja<br />
* 1935: Die große Sünderin<br />
<br />
=== Schauspielmusiken ===<br />
<br />
* 1911: Faust II<br />
* 1912: Circe<br />
* 1912: So ist das Leben<br />
<br />
=== Singspiele ===<br />
<br />
* 1919: [[Das Dorf ohne Glocke]]<br />
* 1932: Klein Dorrit<br />
* 1932: Liselott<br />
** nach [[Liselotte von der Pfalz]] aus Frankreich und der Pfalz. Aufgeführt in [[Heidelberg]] 2004/2005.<br />
* 1933: Die lockende Flamme<br />
* 1937: Zauberin Lola<br />
<br />
=== Operetten ===<br />
<br />
<div class="references-small" style="-moz-column-count:2; column-count:2;"><br />
* 1919: Der Vielgeliebte<br />
* 1920: Wenn Liebe erwacht<br />
* 1921: [[Der Vetter aus Dingsda]]<br />
* 1921: Die Ehe im Kreise<br />
* 1922: Verliebte Leute<br />
* 1923: Casinogirls<br />
* 1923: Lovers Lane<br />
* 1925: The love Song<br />
* 1925: Die hellblauen Schwestern<br />
* 1925: Mayflowers<br />
* 1925: Riki-Tiki<br />
* 1926: [[Lady Hamilton (Operette)|Lady Hamilton]]<br />
* 1927: Die blonde Liselott<br />
* 1928: Die singende Venus<br />
* 1930: [[Der Tenor der Herzogin]]<br />
* 1932: [[Glückliche Reise]]<br />
* 1933: Die Fahrt in die Jugend<br />
* 1935: Herz über Bord<br />
* 1938: [[Hochzeit in Samarkand]]<br />
* 1938: Der große Name<br />
* 1941: Traumland<br />
* 1941: Die Wunderbare<br />
* 1949: Hochzeit mit Erika<br />
</div><br />
<br />
=== Filmmusik ===<br />
<br />
<div class="references-small" style="-moz-column-count:2; column-count:2;"><br />
* 1922: [[Das Weib des Pharao]]<br />
* 1926: Das Blumenwunder<br />
* 1930: Der Walzerkönig<br />
* 1930: El amor solfeando<br />
* 1930: L'amour chante<br />
* 1931: Die Marquise von Pompadour<br />
* 1932: [[Der schwarze Husar]]<br />
* 1933: Tambour battant<br />
* 1933: Was wissen denn Männer<br />
* 1933: Heimkehr ins Glück<br />
* 1933: Drei blaue Jungs, ein blondes Mädel<br />
* 1933: Es gibt nur eine Liebe<br />
* 1933: Der Page vom Dalmasse-Hotel<br />
* 1933: Glückliche Reise<br />
* 1933: Des jungen Dessauers große Liebe<br />
* 1934: Lisetta<br />
* 1934: Die Stimme der Liebe<br />
* 1934: Das Blumenmädchen vom Grand-Hotel<br />
* 1934: Der Vetter aus Dingsda<br />
* 1934: Abenteuer eines jungen Herrn in Polen<br />
* 1934: Da stimmt was nicht<br />
* 1934: Der Fall Brenken<br />
* 1936: Ein Lied klagt an<br />
* 1936: Dahinten in der Heide<br />
* 1936: Der lachende Dritte<br />
* 1936: Till Eulenspiegel: Wie Eulenspiegel sich einmal erbot, zu fliegen<br />
* 1937: Wie der Hase läuft<br />
* 1938: Der nackte Spatz<br />
* 1938: Peter spielt mit dem Feuer<br />
* 1939: Tanzendes Herz<br />
* 1943: Wenn der junge Wein blüht<br />
* 1950: Hochzeit mit Erika<br />
* 1953: Der Vetter aus Dingsda<br />
* 1954: Glückliche Reise<br />
</div><br />
<br />
=== Instrumentalwerke ===<br />
<br />
* Flegeljahre. Drei Orchesterstücke nach dem gleichnamigen Roman von [[Jean Paul]] Werk 9<br />
* Klavierkonzert As-Dur<br />
* 1929: Tänzerische Suite. Concerto Grosso in 5 Sätzen für Jazz-Band und großes Orchester Werk 26<br />
* Blumenwunder-Suite Nr. 1 und 2<br />
* Ouvertüren<br />
<br />
== Literatur ==<br />
* Otto Schneidereit: ''Eduard Künneke, der Komponist aus Dingsda''. Berlin: Henschel 1978<br />
* Viola Karl: ''Eduard Künneke [1885-1953]. Komponistenportrait und Werkverzeichnis'', Ries und Erler, Berlin 1995, ISBN 3-87676-000-3 <br />
<br />
== Siehe auch ==<br />
*[[Liste von Operetten-Komponisten]]<br />
*[[Liste deutscher Komponisten klassischer Musik|Liste deutscher Komponisten]]<br />
<br />
== Weblinks ==<br />
{{Commonscat|Eduard Künneke}}<br />
* {{DNB-Portal|118567713|TYP=Werke von und über}}<br />
<br />
* {{IMDb Name|ID=0478186|NAME=Eduard Künneke}}<br />
* [http://www.operone.de/komponist/kuenneke.html Bühnenwerke]<br />
<br />
== Einzelnachweise ==<br />
<references /><br />
<br />
{{Normdaten|PND=118567713|VIAF=61732271|LCCN=n/82/047910}}<br />
<br />
{{DEFAULTSORT:Kunneke, Eduard}}<br />
[[Kategorie:Deutscher Komponist]]<br />
[[Kategorie:Komponist (Oper)]]<br />
[[Kategorie:Komponist (Operette)]]<br />
[[Kategorie:NSDAP-Mitglied]]<br />
[[Kategorie:Geboren 1885]]<br />
[[Kategorie:Gestorben 1953]]<br />
[[Kategorie:Mann]]<br />
<br />
{{Personendaten<br />
|NAME=Künneke, Eduard<br />
|ALTERNATIVNAMEN=<br />
|KURZBESCHREIBUNG=deutscher Operettenkomponist<br />
|GEBURTSDATUM=27. Januar 1885<br />
|GEBURTSORT=Emmerich (heute: [[Emmerich am Rhein]])<br />
|STERBEDATUM=27. Oktober 1953<br />
|STERBEORT=[[Berlin]]<br />
}}<br />
<br />
[[ca:Eduard Künneke]]<br />
[[en:Eduard Künneke]]<br />
[[fi:Eduard Künneke]]<br />
[[fr:Eduard Künneke]]<br />
[[ja:エドゥアルド・キュンネッケ]]<br />
[[nl:Eduard Künneke]]<br />
[[ro:Eduard Künneke]]<br />
[[ru:Кюннеке, Эдуард]]<br />
[[sk:Eduard Künneke]]<br />
[[sl:Eduard Künnecke]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Sezession&diff=94652308Sezession2011-10-11T16:47:04Z<p>138.246.2.103: </p>
<hr />
<div>{{Dieser Artikel|befasst sich mit der politischen Sezession. Zu weiteren Bedeutungen des Begriffs siehe [[Sezession (Begriffsklärung)]].}}<br />
<br />
[[Datei:Entstehung von Staaten.png|miniatur|Sezession im Gegensatz zur [[Dismembration]]]]<br />
'''Sezession''' ([[Latein|lat.]] ''{{lang|la|secessio}}'' „Abspaltung“, „Abseitsgehen“) bezeichnet im [[Politik|Politischen]] die Loslösung einzelner Landesteile aus einem bestehenden [[Staat]] mit dem Ziel, einen neuen [[Souveränität|souveränen]] Staat zu bilden.<br />
<br />
Sezessionsbestrebungen einer Teilbevölkerung werden auch als ''Separatismus'' (aus dem Lateinischen ''separatus'' für ''getrennt'', ''abgesondert'') bezeichnet und gehen oft – jedoch nicht zwangsläufig – mit [[Krieg|kriegerischen Auseinandersetzungen]] einher. Im engeren Sinne bezeichnet Separatismus die ideologische Grundlage oder die politisch-soziale Aktion, die bei Erfolg zur Sezession führt. Separatismus kann, aber muss nicht identisch sein mit [[Regionalismus]] oder [[Nationalismus]] von [[Minderheit]]en.<br />
<br />
== Recht auf Sezession ==<br />
<!-- Diese Überschrift bitte nicht ändern, es wird auf diesen Abschnitt verlinkt --><br />
Unter [[Völkerrecht]]lern ist umstritten, ob das [[Selbstbestimmungsrecht der Völker]] auch das Recht von Minderheiten einschließt, aus einem Staatsverband auszutreten. Die in der [[Rechtswissenschaft]] [[Literaturmeinung|vorherrschende Meinung]] lehnt ein solches ''offensives Selbstbestimmungsrecht'' unter Hinweis auf das Integritätsinteresse bestehender Staatsverbände, also das ''defensive Selbstbestimmungsrecht'', ab.<ref name="VölkerR">Herdegen, § 36 Rn 5 ff.</ref> [[Matthias Herdegen]] etwa vertritt dagegen die Ansicht, dass einer diskriminierten Minderheit, deren [[Menschenrechte]] fundamental verletzt werden und die vom Prozess der politischen Willensbildung ausgeschlossen ist, ein Recht auf Sezession einzuräumen ist.<ref name="VölkerR2">Herdegen, § 36 Rn 6.</ref><br />
<br />
Problematisch ist darüber hinaus, was eigentlich ein „[[Volk]]“ im Sinne des Selbstbestimmungsrechts der Völker ist. Wird ein Volk nicht als solches anerkannt, werden ihm auch keine Sonderrechte zugestanden.<br />
<br />
Es existieren etliche sezessionistische [[Volk|Völker]] und [[Regionen]], die entweder friedlich oder militärisch nach [[Souveränität|Unabhängigkeit]] streben. Manche haben sogar de facto bereits die vollständige Kontrolle über ihr Territorium. Um allerdings in die [[Vereinte Nationen|Vereinten Nationen]] als eigenständiger [[Staat]] aufgenommen werden zu können, bedarf es der Anerkennung durch alle fünf ständigen Mitglieder des [[Weltsicherheitsrat]]es, welcher sich aus den [[Vereinigte Staaten|USA]], [[Russland]], [[Volksrepublik China|China]], [[Frankreich]] und [[Vereinigtes Königreich von Großbritannien und Nordirland|Großbritannien]] zusammensetzt.<br />
<br />
In den [[Vereinigte Staaten|Vereinigten Staaten]] hat der [[Oberster Gerichtshof der Vereinigten Staaten|Oberste Gerichtshof]] im Fall [[Texas v. White]] entschieden, dass der Beitritt zur Union unwiderruflich ist und ein Recht auf Sezession der [[US-Bundesstaat]]en demzufolge nicht besteht.<br />
<br />
== Historische Beispiele ==<br />
[[Datei:Westfaelischer_friede.jpg|miniatur|Abschluss des Westfälischen Friedens 1648]]<br />
<br />
Als ''[[secessio plebis]]'' wurde im alten [[Römische Republik|Rom]] der legendäre Auszug des Volkes aus der Stadt auf den [[Mons Sacer]], den heiligen Berg, im Jahre 494 v.&nbsp;Chr. bezeichnet. Die nichtadligen [[Plebejer]] erreichten mit dieser Protestaktion die Einrichtung des [[Volkstribunat]]s und damit ein politisches Mitspracherecht in der vorher allein von den [[Adel|adligen]] [[Patrizier]]n regierten Stadt.<br />
<br />
Als Separatisten werden radikale [[Kongregationalisten]] bezeichnet, die sich in der zweiten Hälfte des 16. Jahrhunderts von der [[Kirche von England]] trennten, da ihnen die [[Reformation]] dieser Kirche nicht weit genug ging. Insbesondere lehnten sie das [[Bischof]]samt ab. Um der Verfolgung zu entgehen, wanderte eine Gruppe von ihnen, die später [[Pilgerväter]] (''Pilgrim Fathers'') genannt wurde, zunächst in die [[Niederlande]] aus, überquerte dann 1620 auf der [[Mayflower]] den Atlantik. Kurz vor Verlassen des Schiffes bei [[Cape Cod]] (Massachusetts) verfassten sie den [[Mayflower-Vertrag]] (''Mayflower Compact''), der für die demokratische Entwicklung der Gemeinwesen in [[Nordamerika]] grundlegend wurde. Sie gründeten die ''Plymouth Colony''.<br />
<br />
Der bekannteste Fall einer politischen Sezession war die Trennung der sklavenhaltenden [[Südstaaten]] von den USA im Jahr 1860/61 und die Bildung der [[Konföderierte Staaten von Amerika|Konföderierten Staaten (CSA)]]. Sie hatte den [[Sezessionskrieg]] zur Folge, der mit der Wiederherstellung der staatlichen Einheit endete.<br />
<br />
Erfolgreiche Unabhängigkeitskriege waren die der [[Alte Eidgenossenschaft|Alten Eidgenossenschaft]] vom Ende des 13. Jahrhunderts an und die der [[Niederlande]] ab 1568. Beide richteten sich gegen die Herrschaft des Hauses [[Habsburg]] und erreichten im [[Westfälischer Frieden|Westfälischen Frieden]] von 1648 die Anerkennung ihrer Selbständigkeit durch die Habsburger. <br />
<br />
In Deutschland kam es zuletzt während der französischen [[Alliierte Rheinlandbesetzung|Rheinlandbesetzung]] im Jahr 1923 zu Sezessionsbestrebungen [[Rheinischer Separatismus|Rheinischer Separatisten]]. Sie traten für eine Trennung des [[Rheinland]]s vom [[Deutsches Reich|Deutschen Reich]] beziehungsweise vom Land [[Freistaat Preußen|Preußen]] ein, scheiterten aber an der fehlenden Unterstützung der Bevölkerungsmehrheit.<br />
In den Jahren nach den beiden [[Weltkrieg]]en versuchte außerdem die französische [[Besatzungsmacht]] den Separatismus im [[Saarland]] zu fördern. Die Pläne scheiterten aber beide Male in [[Volksabstimmung (Deutschland)|Volksabstimmungen]]. Statt für die Unabhängigkeit oder die Angliederung an [[Frankreich]] votierte die Bevölkerung 1957 für die Eingliederung des Saargebiets als eigenes [[Land (Deutschland)|Bundesland]] in die [[Geschichte der Bundesrepublik Deutschland (bis 1990)|Bundesrepublik Deutschland]].<br />
<br />
Separatistische Bewegungen spielten 1991 eine große Rolle bei dem Zerfall der [[Sowjetunion]] in die Staaten [[Armenien]], [[Aserbaidschan]], [[Estland]], [[Georgien]], [[Kasachstan]], [[Lettland]], [[Litauen]], [[Kirgisistan]], [[Moldawien]], [[Russland]], [[Tadschikistan]], [[Turkmenistan]], [[Ukraine]], [[Usbekistan]] und [[Weißrussland]].<br />
<br />
Die Loslösung der früheren Teilrepubliken [[Slowenien]], [[Kroatien]] und [[Bosnien-Herzegowina]] aus dem [[Jugoslawien|jugoslawischen]] Staatsverband 1991/92 löste vor allem in den letzteren beiden Republiken mehrere Kriege aus, die 1995 mit dem [[Daytoner Abkommen]] beendet wurden. Die Trennung [[Mazedonien]]s erfolgte jedoch zur selben Zeit friedlich. [[Serbien]] trat weiterhin als [[Bundesrepublik Jugoslawien]] auf, sah diese als [[Völkerrechtssubjekt#Völkerrechtliche Identität|identisch]] mit der [[Sozialistische Föderative Republik Jugoslawien|Sozialistischen Föderativen Republik Jugoslawien]] (SFRJ) und nahm damit eine [[Mindermeinung]] an (''siehe auch Abschnitt'' „[[#Sonderfälle|Sonderfälle]]“). Folglich bewertete es die Vorgänge als Sezessionen der übrigen Teilrepubliken. Im Mai 2006 stimmte auch die Bevölkerung von [[Montenegro]] mehrheitlich für eine Auflösung der Union mit Serbien, welche ebenfalls friedlich vollzogen wurde.<br />
<br />
Friedlich verlief auch 1993 der Zerfall der [[Tschechoslowakei]], nachdem die [[Slowakei]] ihre Abspaltung angestrebt hatte.<br />
<br />
Ein langwieriger Krieg ging dagegen der im selben Jahr erreichten Unabhängigkeit [[Eritrea]]s von [[Äthiopien]] voraus. Im [[Biafra-Krieg]] scheitere zuvor in der zweiten Hälfte der 1960er Jahre die Loslösung [[Biafra]]s von [[Nigeria]]. Ebenso scheiterte 1994 in einem kurzen Bürgerkrieg die Sezession der vormaligen [[Volksdemokratische Republik Jemen|Volksdemokratischen Republik Jemen]] von [[Jemen]], nachdem es erst vier Jahre zuvor zur Wiedervereinigung mit der [[Jemenitische Arabische Republik|Jemenitischen Arabischen Republik]] gekommen war.<br />
<br />
Zu den erfolgreichen Unabhängigkeitsbewegungen der letzten Jahre gehört jene in [[Osttimor]], die 2002 nach 24-jähriger Besatzung, Guerillakrieg und drei Jahren UN-Verwaltung die Trennung ihres Inselteils von [[Indonesien]] durchsetzte. Da die vorangegangene [[völkerrecht]]swidrige [[Annexion]] Osttimors durch Indonesien von der internationalen Staatengemeinschaft nie anerkannt worden war, fand aber keine wirkliche Sezession eines Landesteils statt. Jüngstes Beispiel ist die Abspaltung des [[Südsudan]] von [[Sudan]], die nach einem erfolgreichen Unabhängigkeitsreferendum am 9. November 2011 in der neuen Hauptstadt Juba erklärt wurde. Seit dem 14. Juli 2011 ist Südsudan der 193. Mitgliedsstaat der Vereinten Nationen. <br />
<br />
== Aktuelle Beispiele ==<br />
=== Unabhängigkeitsbewegungen ===<br />
In Westeuropa gibt es in [[Schottland]], [[Katalonien]], im [[Baskenland]] und in den beiden Teilen [[Belgien]]s sowie auch vereinzelt in [[Südtirol]] politische Parteien in den jeweiligen Parlamenten, die eine Sezession anstreben. Auf [[Korsika]] und im Baskenland gibt es immer wieder terroristische [[Attentat]]e durch Separatisten.<br />
<br />
Aktive Unabhängigkeitsbewegungen existieren derzeit unter anderem in den [[Kurdistan|Kurdengebieten]] der [[Türkei]], des [[Irak]]s und des [[Iran]]s, in [[Tibet]] und [[Uiguristan]], in der [[Russland|russischen]] Teilrepublik [[Tschetschenien]], in [[Québec]] (siehe [[Reference re Secession of Quebec]]), in [[Bougainville]] und in einigen Minderheitengebieten [[Myanmar]]s, [[Moldawien]]s, [[Georgien]]s und [[Aserbaidschan]]s. Auch [[Grönland]] strebt für die nahe Zukunft die Unabhängigkeit von [[Dänemark]] an. Die [[Republika Srpska]] strebt die Unabhängigkeit von [[Bosnien und Herzegowina]] an.<br />
<br />
=== Unabhängigkeitserklärungen ===<br />
Folgende Gebiete haben ihre Sezession erklärt, sind aber derzeit noch nicht vollständig oder gar nicht als unabhängige Staaten anerkannt:<br />
* [[Abchasien]] – betrachtet sich seit 1992 als unabhängig von [[Georgien]] und wurde nur von Russland (26. August 2008), Nicaragua (3. September 2008), Venezuela (10. September 2009) und [[Nauru]] (15. Dezember 2009) anerkannt.<br />
* [[Bergkarabach]] – offiziell Teil [[Aserbaidschan]]s, seit 1991 unabhängig bzw. von [[Armenien]] besetzt und wird von Russland teilweise unterstützt.<br />
* [[Demokratische Arabische Republik Sahara]] – 1976 von der [[POLISARIO]] ausgerufen, seit 1991 Waffenstillstand mit Marokko, von ca. 50 Staaten anerkannt<br />
* Das Parlament des [[Kosovo]] mit seiner [[Albaner|albanischen]] Bevölkerungsmehrheit erklärte am 17. Februar 2008 die Unabhängigkeit von Serbien. Während 81 der 193 UN-Mitgliedstaaten den Kosovo bisher als unabhängigen Staat anerkannten,<ref name="countries recognition">Siehe Webseite des kosovarischen Außenministeriums: [http://www.mfa-ks.net/?page=2,33 ''Countries Recognitions'']</ref> wird die Unabhängigkeit u.&nbsp;a. durch Serbien sowie Russland und China bestritten.<br />
* [[Somaliland]] (seit 1991), [[Puntland]] (seit 1998) und [[Galmudug]] (seit 2006) – international nicht anerkannte Unabhängigkeit von [[Somalia]]<br />
* [[Südossetien]] – erklärte sich 1991 als unabhängig von [[Georgien]] und wurde nur von Russland (26. August 2008), Nicaragua (3. September 2008), Venezuela (10. September 2009)<ref>[http://www.russland.ru/mainmore.php?tpl=Politik&iditem=21754 russland.RU vom 11. September 2009: Venezuela erkennt Südossetien und Abchasien an]</ref> und [[Nauru]] (15. Dezember 2009)<ref>[http://www.net-tribune.de/nt/node/17143/news/Pazifikstaat-Nauru-erkennt-Abchasien-und-Suedossetien-an net-tribune.DE vom 15. Dezember 2009: Pazifikstaat Nauru erkennt Abchasien und Südossetien an]</ref> anerkannt.<br />
* [[Transnistrien]] – seit 1991 von [[Moldawien]] abgespalten und wird von Russland unterstützt.<br />
* [[Tschetschenien]] – völkerrechtlich Teil von [[Russland]], erklärte sich 1991 als unabhängig von der damaligen [[Sowjetunion]].<br />
* [[Türkische Republik Nordzypern]] – betrachtet sich seit der Besetzung durch türkische Truppen 1974 nicht mehr als Teil der [[Republik Zypern]], sondern als eine eigene Republik. Sie wird nur von der [[Türkei]] anerkannt.<br />
* Das [[Stammesgebiete unter Bundesverwaltung|FATA-Territorium]]<ref>[http://www.uni-kassel.de/fb5/frieden/regionen/Pakistan/paschtunistan.html Pakistan: Neuer Separatismus im Schatten der Kaschmir-Krise]</ref> – liegt innerhalb der Grenzen [[Pakistan]]s, doch die pakistanische Zentralregierung besitzt keine Kontrolle über das Gebiet.<br />
* [[Republika Srpska]] – strebt die Unabhängigkeit von [[Bosnien und Herzegowina]] an.<br />
<br />
=== Sonderfälle ===<br />
Kein Fall von Sezession liegt im Falle des [[Taiwan-Konflikt]]s vor. Taiwan hat sich zwar als [[Republik China]] infolge des [[Chinesischer Bürgerkrieg|Chinesischen Bürgerkrieges]] von China gelöst, jedoch verstehen sich bis heute beide chinesische Staaten laut ihrer Verfassung als rechtmäßige Vertreter Chinas.<br />
<br />
Umstritten war die Rechtslage nach dem [[Zerfall Jugoslawiens]], der teilweise als Sezession, teilweise als [[Dismembration]] angesehen wurde. Die internationale Gemeinschaft entschied sich für die letztgenannte Option (→&nbsp;[[Badinter-Kommission]]).<br />
<br />
== Siehe auch ==<br />
* [[De-facto-Regime]]<br />
* [[Liste der völkerrechtlich nicht anerkannten Länder]]<br />
* [[Organisation der nicht-repräsentierten Nationen und Völker| Organisation der nicht-repräsentierten Nationen und Völker UNPO]]<br />
<br />
== Literatur ==<br />
* Matthias Herdegen: ''Völkerrecht'', 4. Aufl., München 2005<br />
<br />
== Weblinks ==<br />
* [http://www.eurotopics.net/de/magazin/magazin_archiv/separatimus_2007_07/ Separatismus in Europa] Schwerpunkt auf eurotopics.net (Angebot der Bundeszentrale für politische Bildung)<br />
* {{SEP|http://plato.stanford.edu/entries/secession/||Allen Buchanan}}<br />
<br />
== Einzelnachweise ==<br />
<references/><br />
<br />
[[Kategorie:Völkerrecht]]<br />
[[Kategorie:Sezession| ]]<br />
<br />
[[cy:Ymwahaniad]]<br />
[[en:Secession]]<br />
[[es:Secesión]]<br />
[[et:Setsessioon]]<br />
[[fa:تجزیهطلبی]]<br />
[[fr:Sécession (politique)]]<br />
[[kk:Сецессия]]<br />
[[krc:Сецессия]]<br />
[[la:Secessio]]<br />
[[nl:Secessie (politiek)]]<br />
[[pl:Secesja (politologia)]]<br />
[[ru:Сецессия]]<br />
[[simple:Secession]]<br />
[[sv:Separatism (statsvetenskap)]]<br />
[[uk:Сецесія (право)]]<br />
[[zh:国家分裂]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Poisson-Verteilung&diff=83383501Poisson-Verteilung2011-01-03T09:08:06Z<p>138.246.2.103: </p>
<hr />
<div>[[Datei:Poisson-Verteilung.PNG|miniatur|hochkant=2|Wahrscheinlichkeitsfunktion der Poisson-Verteilung für <math>\lambda=1</math> (blau), <math>\lambda=5</math> (grün) und <math>\lambda = 10</math> (rot)]]<br />
Die '''Poisson-Verteilung''' (benannt nach dem Mathematiker [[Siméon Denis Poisson]]) ist eine [[diskrete Wahrscheinlichkeitsverteilung]], die beim mehrmaligen Durchführen eines [[Bernoulli-Experiment]]s entsteht. Letzteres ist ein [[Zufallsexperiment]], das nur zwei mögliche Ergebnisse besitzt (z.&nbsp;B. „Erfolg“ und „Misserfolg“). Führt man ein solches Experiment sehr oft durch und ist die Erfolgswahrscheinlichkeit gering, so ist die Poisson-Verteilung eine gute Näherung für die entsprechende [[Wahrscheinlichkeitsverteilung]]. Die Poisson-Verteilung wird deshalb manchmal als die ''Verteilung der seltenen Ereignisse'' bezeichnet (siehe auch [[Gesetz der kleinen Zahlen]]). [[Zufallsvariable]]n mit einer Poisson-Verteilung genügen dem [[Poisson-Prozess]].<br />
<br />
Die mit <math>P_\lambda</math> bezeichnete Wahrscheinlichkeitsverteilung wird durch den Parameter <math>\lambda\in\mathbb{R}_{>0}</math> bestimmt, der gleichzeitig [[Erwartungswert]] und [[Varianz]] der Verteilung ist. Sie ordnet den natürlichen Zahlen <math> k = 0, 1, 2, \ldots</math> die Wahrscheinlichkeiten wie folgt zu:<br />
:<math>P_\lambda (X=k) = \frac{\lambda^k}{k!}\, \mathrm{e}^{-\lambda}</math><br />
wobei<br />
* <math>\mathrm{e}</math> die [[Eulersche Zahl]] (Basis der natürlichen [[Exponentialfunktion]])<br />
* <math>\lambda</math> eine reelle positive Zahl <!-- positive real number, equal to the expected number of occurrences that occur during the given interval. For instance, if the events occur on average every 4 minutes, and you are interested in the number of events occurring in a 10 minute interval, you would use as model a Poisson distribution with λ = 10/4 = 2.5 --><br />
* <math>k!</math> die [[Fakultät (Mathematik)|Fakultät]] von <math>k</math><br />
bezeichnen.<br />
<br />
Die Poisson-Verteilung liefert also Voraussagen über die Anzahl (k) des Eintretens seltener, zufälliger und voneinander unabhängiger Ereignisse innerhalb eines bestimmten Intervalls, wenn aus vorangehender Beobachtung bereits bekannt ist, wie viele Ereignisse man im Mittel innerhalb dieses Intervalls erwartet (<math>\lambda </math>). Sie ist ein Spezialfall der [[Panjer-Verteilung]].<br />
<br />
Poisson veröffentlichte 1837 seine Gedanken zu dieser Verteilung zusammen mit seiner [[Wahrscheinlichkeitstheorie]] in dem Werk „Recherches sur la probabilité des jugements en matières criminelles et en matière civile“ („Untersuchungen zur Wahrscheinlichkeit von Urteilen in Straf- und Zivilsachen“).<br />
<br />
Erweiterungen der Poisson-Verteilung wie die [[Verallgemeinerte Poisson-Verteilung]] und die [[Gemischte Poisson-Verteilung]] werden vor allem im Bereich der [[Versicherungsmathematik]] angewendet.<br />
<br />
== Herleitung ==<br />
Die Poisson-Verteilung ergibt sich einerseits als [[#Beziehung zur Binomialverteilung|Grenzfall der Binomial-Verteilung]], andererseits lässt sie sich aus grundlegenden Prozesseigenschaften (poissonsche Annahmen) ableiten. Wenn diese Eigenschaften einem Geschehen in guter Näherung zugeordnet werden können, wird die Ereignishäufigkeit Poisson-verteilt sein.<br />
<br />
Man betrachtet ein Raum- oder Zeitkontinuum w (das Bernoulli-Experiment wird sehr oft, sozusagen an jedem Punkt des Kontinuums durchgeführt), 'auf' dem zählbare Ereignisse mit konstanter mittlerer Anzahl g pro Einheitsintervall stattfinden. Nun richtet man den Blick auf ein 'genügend' kleines Kontinuumsintervall <math>\Delta w</math>, das je nach Experiment einen Bereich, ein Zeitintervall, eine abgegrenzte Strecke, Fläche oder Volumen darstellen kann. Was sich dort ereignet, bestimmt die globale Verteilung auf dem Kontinuum.<br />
<br />
Die drei ''poissonschen Annahmen'' lauten:<br />
<br />
# Innerhalb des Intervalls [w,w + <math>\Delta w</math>] gibt es höchstens ein Ereignis (Seltenheit).<br />
# Die Wahrscheinlichkeit, ein Ereignis im Intervall zu finden, ist proportional zur Länge des Intervalls <math>\Delta w</math> (g ist konstant und damit auch unabhängig von w).<br />
# Das Eintreten eines Ereignisses im Intervall <math>\Delta w</math> wird nicht beeinflusst von Ereignissen, die in der Vorgeschichte stattgefunden haben (Geschichtslosigkeit).<br />
<br />
Mit Annahme 1 und 2 ist die Wahrscheinlichkeit, ein Ereignis im Intervall <math>\Delta w</math> zu finden, gegeben durch <br />
<br />
:<math>P_1(\Delta w ) = g \cdot \Delta w,</math><br />
<br />
sowie die Wahrscheinlichkeit eines leeren Intervalls durch<br />
<br />
:<math>P_0(\Delta w ) = 1 - P_1(\Delta w ) = 1 - g \cdot \Delta w.</math><br />
<br />
Nach Annahme 3 ist die Wahrscheinlichkeit eines leeren Intervalls <math>\Delta w</math> unabhängig vom Auftreten irgendwelcher Ereignisse im Bereich w davor. So berechnet man die Wahrscheinlichkeit für kein Ereignis bis zum Punkt <math>w + \Delta w</math> zu<br />
<br />
:<math>P_0(w + \Delta w ) = P_0(w) \cdot P_0(\Delta w)= P_0(w) - g \cdot P_0(w) \cdot \Delta w.</math><br />
<br />
Das ergibt näherungsweise die Differentialgleichung <math>d P_0(w) / dw = - g \cdot P_0(w) </math> mit der Lösung <br />
<br />
:<math>P_0(w) = \mathrm{e}^{-g \cdot w}</math><br />
<br />
unter der Randbedingung <math>P_0(0) = 1.</math> Ebenso findet man die Wahrscheinlichkeit für m Ereignisse bis zum Punkt <math>w + \Delta w</math><br />
<br />
:<math>P_m(w + \Delta w ) = P_m(w) \cdot P_0(\Delta w) + P_{m-1}(w) \cdot P_1(\Delta w) = P_m(w) - g \cdot P_m(w) \cdot \Delta w + g \cdot P_{m-1}(w) \cdot \Delta w.</math><br />
<br />
Jedes drangehängte Intervall <math>\Delta w</math> darf nach Annahme 1 nur entweder kein oder ein Ereignis enthalten. Die entsprechende Differentialgleichung <math>d P_m(w) / dw = - g \cdot P_m(w) + g \cdot P_{m-1}(w)</math> hat die Lösung<br />
<br />
:<math>P_m(w) = \frac{(g \cdot w)^m}{m!}\mathrm{e}^{-g \cdot w}</math>.<br />
<br />
Identifiziert man nun in diesem Ausdruck für die Wahrscheinlichkeit des Eintretens von m Ereignissen im Kontinuumsbereich w die Parameter <math>( g \cdot w )</math> mit <math>\lambda</math> und m mit k, stimmt er mit der Formel der Poisson-Verteilung überein. Die Zahl <math>\lambda</math> ergibt sich in vielen Aufgabenstellungen als Produkt einer ''Rate'' (Anzahl von Ereignissen pro Einheitsintervall) und einem Vielfachen des Einheitsintervalls.<br />
<br />
== Eigenschaften ==<br />
<br />
* Die Poisson-Verteilung <math>P_\lambda</math> wird durch den Parameter <math>\lambda</math> vollständig charakterisiert.<br />
* Die Poisson-Verteilung ist [[Stationarität|stationär]], d.&nbsp;h. nicht von der Zeit abhängig.<br />
* In einem [[Poisson-Prozess]] ist die zufällige Anzahl der Ereignisse bis zu einem bestimmten Zeitpunkt Poisson-verteilt, die zufällige Zeit bis zum <math>n</math>-ten Ereignis [[Erlang-Verteilung|Erlang-verteilt]]. Wichtig ist der Spezialfall <math>k=0</math>, der zur [[Exponentialverteilung]] führt. Sie beschreibt die Zeit bis zum ersten zufälligen Ereignis (sowie die Zeit zwischen zwei aufeinanderfolgenden Ereignissen) eines Poissonprozesses.<br />
<br />
=== Einfache rekursive Berechnung ===<br />
Zuerst bestimmt man <math>P_\lambda (0)=\mathrm{e}^{-\lambda}</math>, dann ergeben sich nacheinander <math>P_\lambda(i)=\tfrac{\lambda}{i}\cdot P_\lambda (i-1), (i=1,2,3...).</math> Mit wachsendem <math>i</math> werden dabei die Wahrscheinlichkeiten größer, solange <math>i<\lambda</math> ist. Wird <math>i>\lambda,</math> schrumpfen sie.<br />
<br />
=== Verteilungsfunktion ===<br />
Die [[Verteilungsfunktion]] <math>F(x)</math> der Poisson-Verteilung lautet<br />
:<math>F_{\lambda}(n)=\sum_{k=0}^n P_\lambda (k) = \mathrm{e}^{-\lambda} \sum_{k=0}^n \frac{\lambda^k}{k!} = Q(n+1,\lambda)</math><br />
und gibt die Wahrscheinlichkeit dafür, höchstens n Ereignisse zu finden, wo man <math>\lambda</math> im Mittel erwartet. <math>Q(a,x)</math> ist die regularisierte [[Gammafunktion]] der unteren Grenze.<br />
<br />
=== Erwartungswert, Varianz, Moment ===<br />
<math>\lambda</math> ist zugleich [[Erwartungswert]], [[Varianz]] und auch 3. zentriertes Moment <math>\operatorname{E}\left(\left(X-\operatorname{E}\left(X\right)\right)^3\right)</math>, denn<br />
==== Erwartungswert ====<br />
:<math>\operatorname{E}(X) =\sum_{k=0}^{\infty}k\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}<br />
= \lambda\, \mathrm{e}^{-\lambda}\sum_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!}<br />
= \lambda\, \mathrm{e}^{-\lambda}\sum_{j=0}^{\infty}\frac{\lambda^{j}}{j!} <br />
= \lambda</math> <br />
<br />
==== Varianz ====<br />
:<math><br />
\begin{align}<br />
\operatorname{Var}(X)&= \sum_{k=0}^{\infty}(k-\lambda)^2\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}<br />
= \sum_{k=0}^{\infty}\left(k^{2}-2k\lambda+\lambda^{2}\right)\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}\\<br />
&= \sum_{k=0}^{\infty}k^{2}\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda} -2\lambda^{2} +\lambda^{2}<br />
= \sum_{k=0}^{\infty}\left(k\left(k-1\right)+k\right)\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda} -\lambda^{2}\\<br />
&= \sum_{k=0}^{\infty} k(k-1) \frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda} +\lambda -\lambda^{2}<br />
= \lambda^{2}\sum_{k=2}^{\infty}\frac{\lambda^{k-2}}{(k-2)!}\,\mathrm{e}^{-\lambda} +\lambda -\lambda^{2}= \lambda<br />
\end{align}<br />
</math><br />
<br />
==== Alternative Berechnung von Erwartungswert und Varianz ====<br />
Seien <math>X_1,\ldots,X_n\sim B\left(1,\frac{\lambda}{n}\right)</math> unabhängige [[Binomialverteilung|binomialverteilte]] Zufallsvariablen und sei<br />
<math>X:=X_1+\dotsb+X_n</math>. Für <math>n\to\infty</math> gilt <math>X\sim\operatorname{Pois}(\lambda)</math>.<br />
:<math>\begin{align}<br />
\operatorname{E}(X)&=\operatorname{E}(X_1)+\dotsb+\operatorname{E}(X_n)=\underbrace{\frac{\lambda}{n}+\dotsb+\frac{\lambda}{n}}_{n\, \mathrm{mal}}=\lambda\to\lambda\\<br />
\operatorname{Var}(X)&=\operatorname{Var}(X_1)+\dotsb+\operatorname{Var}(X_n)\\<br />
&=\underbrace{\frac{\lambda}{n}\left(1-\frac{\lambda}{n}\right)+\dotsb+\frac{\lambda}{n}\left(1-\frac{\lambda}{n}\right)}_{n\, \mathrm{mal}}=\lambda\left(1-\frac{\lambda}{n}\right)\to\lambda<br />
\end{align}<br />
</math><br />
<br />
=== Variationskoeffizient ===<br />
Aus [[Erwartungswert]] und [[Varianz]] erhält man sofort den [[Variationskoeffizient]]en<br />
:<math>\operatorname{VarK}(X) = \frac{\sqrt{\operatorname{Var}(X)}}{\operatorname{E}(X)} = \frac{1}{\sqrt{\lambda}}</math>.<br />
<br />
=== Schiefe und Wölbung ===<br />
Die [[Schiefe (Statistik)|Schiefe]] ergibt sich zu<br />
:<math>\operatorname{v}(X) = \frac{1}{\sqrt{\lambda}}</math>.<br />
Die [[Wölbung (Statistik)|Wölbung]] lässt sich ebenfalls geschlossen darstellen als<br />
:<math>\beta_2 = \frac{1}{\lambda}</math>.<br />
<br />
=== Charakteristische Funktion ===<br />
Die [[Charakteristische Funktion (Stochastik)|charakteristische Funktion]] hat die Form<br />
:<math>\phi_{X}(s) = \sum_{k=0}^\infty\mathrm{e}^{iks}\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}<br />
= \mathrm{e}^{-\lambda} \sum_{k=0}^\infty\frac{\left(\lambda\, \mathrm{e}^{is}\right)^k}{k!}<br />
= \mathrm{e}^{-\lambda} \mathrm{e}^{\lambda\,\mathrm{e}^{is}}<br />
= \mathrm{e}^{\lambda\left(\mathrm{e}^{is}-1\right)}</math>.<br />
<br />
=== Erzeugende Funktion ===<br />
Für die [[Wahrscheinlichkeitserzeugende Funktion|erzeugende Funktion]] erhält man<br />
:<math>m_{X}(s) = \mathrm{e}^{\lambda(s-1)}</math>.<br />
<br />
=== Momenterzeugende Funktion ===<br />
Die [[momenterzeugende Funktion]] der Poisson-Verteilung ist<br />
:<math><br />
\begin{align}<br />
M_{X}(s) &= \sum_{X=0}^\infty \mathrm{e}^{sX} \cdot \frac{\mathrm{e}^{-\lambda} \cdot \lambda^X}{X!}\\<br />
&= \mathrm{e}^{-\lambda} \underbrace{\sum_{X=0}^\infty \frac{(\mathrm{e}^s \lambda)^X}{X!}}_{e^{e^s\lambda}} \\<br />
&= \mathrm{e}^{\lambda(\mathrm{e}^{s}-1)}.<br />
\end{align}</math>.<br />
<br />
=== Reproduktivität ===<br />
Die Poisson-Verteilung ist [[Reproduktivität|reproduktiv]], d.h. die Summe <math>X_1+X_2</math> zweier [[Stochastische Unabhängigkeit|stochastisch unabhängiger]] Poisson-verteilter Zufallsvariablen <math>X_1</math> und <math>X_2</math> mit den Parametern <math>\lambda_1</math> und <math>\lambda_2</math> ist wieder Poisson-verteilt mit dem Parameter <math>\lambda_1+\lambda_2</math>.<br />
Denn es gilt:<br />
:<math><br />
\begin{align}<br />
P(X_1+X_2=n)&=\sum_{k=0}^n P(X_1=k) \, P(X_2=n-k)\\<br />
&=\sum_{k=0}^n \frac{\lambda_1^k}{k!}\, \mathrm{e}^{-\lambda_1} \, \frac{\lambda_2^{n-k}}{(n-k)!} \,\mathrm{e}^{-\lambda_2}\\<br />
&=\frac{1}{n!}\, \mathrm{e}^{-(\lambda_1+\lambda_2)} \, \sum_{k=0}^n \binom{n}{k} \lambda_1^k \, \lambda_2^{n-k}=\frac{(\lambda_1+\lambda_2)^n}{n!} \, \mathrm{e}^{-(\lambda_1+\lambda_2)}<br />
\end{align}</math><br />
<br />
Dies lässt sich auch auf mehrere stochastisch unabhängige<br />
Poisson-verteilte Zufallsvariablen <math>X_i\sim\textrm{P}(\lambda_i)\,</math> verallgemeinern.<br />
Hier ist <math>X_1+\dotsb+X_n\sim\textrm{P}(\lambda_1+\dotsb+\lambda_n)\,</math>.<br />
<br />
Nach einem Satz des sowjetischen Mathematiker D. A. Raikow gilt auch die Umkehrung: Ist eine Poisson-verteilte Zufallsvariable <math>X</math> die Summe von zwei unabhängigen Zufallsvariablen <math>X_1</math> und <math>X_2</math>, dann sind die Summanden <math>X_1</math> und <math>X_2</math> ebenfalls<br />
Poisson-verteilt. Eine Poisson-verteilte Zufallsvariable lässt sich also nur in Poisson-verteilte unabhängige Summanden zerlegen. Dieser Satz ist ein Analogon zu dem [[Satz von Cramér]] für die Normalverteilung.<br />
<br />
Die Poisson-Verteilung ist [[Unendliche Teilbarkeit|unendlich teilbar]].<br />
<br />
=== Symmetrie ===<br />
Die Poisson-Verteilung <math>P_{\lambda}</math> hat für kleine Mittelwerte <math>\lambda</math> eine stark asymmetrische Gestalt. Für größer werdende Mittelwerte wird <math>P_{\lambda}</math> symmetrischer und lässt sich für <math>\lambda > 30</math> in guter Näherung durch die [[Normalverteilung|Gauß-Verteilung]] darstellen.<br />
<br />
== Beziehung zu anderen Verteilungen ==<br />
=== Beziehung zur Binomialverteilung ===<br />
Die Wahrscheinlichkeitsdichte der [[Binomialverteilung]] <math>\operatorname{B}(n;p)</math> lautet<br />
<br />
:<math>P(X=k)= \binom nk p^k (1-p)^{n-k} = \frac{n!}{(n-k)! k!} p^k (1-p)^{n-k} </math><br />
<br />
Die Poisson-Verteilung lässt sich aus der Binomialverteilung herleiten. Sie ist die Grenzverteilung der Binomialverteilung bei sehr kleinen Anteilen der interessierten Merkmale und sehr großem Stichprobenumfang: <math>n\rightarrow\infty</math> und <math>p\rightarrow 0</math> unter der Nebenbedingung, dass das Produkt <math>np=\lambda</math> konstant ist. <math>\lambda</math> ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poisson-Verteilung der Erwartungswert.<br />
<br />
Der Wert einer Poisson-verteilten Zufallsvariable an der Stelle <math>k</math> ist der Grenzwert <math>n\to\infty</math> einer Binomialverteilung mit <math>p=\frac{\lambda}{n}</math> an der Stelle <math>k</math>:<br />
<br />
:<math>\begin{align}<br />
\lim_{n\to\infty}P(X=k) & =\lim_{n\to\infty}\frac{n!}{k!\,(n-k)!}\left(\frac{\lambda}{n}\right)^{k}\left(1-\frac{\lambda}{n}\right)^{n-k}\\<br />
& =\lim_{n\to\infty}\left(\frac{\lambda^{k}}{k!}\right)\left(\frac{n(n-1)(n-2)\cdots(n-k+1)}{n^{k}}\right)\left(1-\frac{\lambda}{n}\right)^{n}\left(1-\frac{\lambda}{n}\right)^{-k}\\<br />
& =\frac{\lambda^{k}}{k!}\cdot\lim_{n\to\infty}\underbrace{\left(\frac{n}{n}\cdot\frac{n-1}{n}\cdot\frac{n-2}{n}\cdots\frac{n-k+1}{n}\right)}_{\to1}\underbrace{\left(1-\frac{\lambda}{n}\right)^{n}}_{\to e^{-\lambda}}\underbrace{\left(1-\frac{\lambda}{n}\right)^{-k}}_{\to1}\\<br />
& =\frac{\lambda^{k}\mathrm{e}^{-\lambda}}{k!}<br />
\end{align}</math><br />
<br />
=== Beziehung zur Normalverteilung ===<br />
Für große <math>\lambda</math> kann die Poisson-Verteilung durch die Gaußsche [[Normalverteilung]] mit <math>\mu=\lambda</math> und <math>\sigma^2=\lambda</math> angenähert werden:<br />
<br />
:<math>P_{\lambda}(X=k) \approx \frac {1}{\sqrt{2\pi\lambda}}\exp\left(-\frac{(k-\lambda)^2}{2\lambda}\right)</math><br />
<br />
=== Beziehung zur Erlang-Verteilung ===<br />
* In einem Poisson-Prozess genügt die zufällige Anzahl der Ereignisse bis zu einem festgelegten Zeitpunkt der Poisson-Verteilung <math>\operatorname{Poi}(\lambda,n)</math>. Die zufällige Zeit bis zum Eintreffen des <math>n</math>-ten Ereignis hingegen ist <math>\operatorname{Erl}(g,n)</math> [[Erlang-Verteilung|Erlang-verteilt]]. Im Fall <math>n=1</math> geht diese Erlang-Verteilung in eine Exponentialverteilung über <math>\operatorname{Erl}(g,1)=\operatorname{Exp}(g)</math>. Dabei bezeichnet g die Zahl der erwarteten Ereignisse pro Einheitsintervall. Man sagt auch, dass die Poisson-Verteilung und die Erlang-Verteilung zueinander konjugierte Verteilungen sind.<br />
* Für die Verteilungsfunktionen der [[Erlang-Verteilung]] und der Poisson-Verteilung gilt <br />
:<math>F_{Erlang}(n+1) + F_{Poisson}(n) = 1</math>.<br />
<br />
=== Beziehung zur Exponentialverteilung ===<br />
Die Zeit bis zum ersten zufälligen Ereignis sowie die Zeit zwischen zwei aufeinanderfolgenden Ereignissen eines [[Poisson-Prozess]]es mit dem Parameter <math>\lambda</math> ist <math>\operatorname{Exp}(g)</math> [[Exponentialverteilung|exponentialverteilt]].<br />
<br />
== Anwendungsbeispiele ==<br />
<br />
Die Poisson-Verteilung ist eine typische Verteilung für die Zahl von Phänomenen, die innerhalb einer Einheit auftreten.<br />
<br />
So wird sie häufig dazu benutzt, zeitliche Ereignisse zu beschreiben. Gegeben sind ein zufälliges<br />
Ereignis, das durchschnittlich einmal in einem zeitlichen Abstand <math>t_1</math> stattfindet, sowie ein zweiter Zeitraum <math>t_2</math>, auf den dieses Ereignis bezogen werden soll.<br />
<br />
Die Poisson-Verteilung <math>P_\lambda(n)</math> mit <math>\lambda=t_2*1/t_1</math> gibt die Wahrscheinlichkeit an, dass im Zeitraum <math>t_2</math> genau <math>n</math> Ereignisse stattfinden. Anders ausgedrückt ist <math>\lambda</math> die mittlere Auftretenshäufigkeit eines Ereignisses.<br />
<br />
=== Kaufhauskunden ===<br />
Ein Kaufhaus wird an einem Samstag durchschnittlich alle 10 Sekunden (<math>t_1</math>) von einem Kunden betreten. Werden nun im Takt von einer Minute bzw. 60 Sekunden die Personen gezählt, so würde man im Mittel 6 Personen erwarten (λ = 6 Personen/Minute), die das Kaufhaus betreten. <math>P_6(n)</math> gibt die Wahrscheinlichkeit dafür an, dass in der nächsten Minute (<math>t_2</math>) genau <math>n</math> Kunden das Kaufhaus betreten.<br />
<br />
[[Datei:poisson-lambda6.png|thumb|right|300px|Poisson-Verteilung mit λ=6.]]<br />
<br />
{| class="prettytable" style="text-align:right"<br />
|- style="background-color:#efefef;"<br />
! colspan="3" | <big>P<sub>6</sub>(n)</big><br />
|- style="background-color:#efefef;"<br />
! n<br />
! Wahrscheinlichkeit in %<br />
! Summe in %<br />
|-<br />
| 0 || 0,25 || 0,25<br />
|-<br />
| 1 || 1,49 || 1,74<br />
|-<br />
| 2 || 4,46 || 6,20<br />
|-<br />
| 3 || 8,92 || 15,12<br />
|-<br />
| 4 || 13,39 || 28,51<br />
|-<br />
| 5 || 16,06 || 44,57<br />
|-<br />
| 6 || 16,06 || 60,63<br />
|-<br />
| 7 || 13,77 || 74,40<br />
|-<br />
| 8 || 10,33 || 84,72<br />
|-<br />
| 9 || 6,88 || 91,61<br />
|-<br />
| 10 || 4,13 || 95,74<br />
|-<br />
| 11 || 2,25 || 97,99<br />
|-<br />
| 12 || 1,13 || 99,12<br />
|-<br />
| 13 || 0,52 || 99,64<br />
|-<br />
| 14 || 0,22 || 99,86<br />
|-<br />
| 15 || 0,09 || 99,95<br />
|}<br />
<br />
Mit einer Wahrscheinlichkeit von rund 4,5 % betreten genau 2 Personen in einer Minute das Kaufhaus. Mit einer Wahrscheinlichkeit von fast 92 % treten 0 bis 9 Personen (aufsummiert) ein. Die Wahrscheinlichkeit, dass mehr als 9 Personen in einer Minute eintreten, ist folglich 8 %. <br />
<br />
Die Werte in der mittleren Spalte ergeben sich jeweils aus dem darüberliegenden Wert, multipliziert mit 6/n.<br />
<br />
=== Radioaktiver Zerfall ===<br />
In der Natur folgt zum Beispiel die Anzahl [[Radioaktivität|radioaktiver Zerfälle]] einzelner Atome in einem gegebenen Zeitintervall, dessen Dauer die Annahme einer konstanten Zerfallswahrscheinlichkeit rechtfertigt, der Poisson-Statistik. Umgekehrt sind dementsprechend die Zeiten zwischen einzelnen Zerfallsereignissen exponentialverteilt.<br />
<br />
=== Blitzeinschläge ===<br />
Die [[Blitz]]häufigkeit in Deutschland beträgt 10 Einschläge pro km² = 0,1 Einschläge pro&nbsp;[[Hektar|ha]] und Jahr. Wie groß ist die Wahrscheinlichkeit, dass es in einer Parzelle von 1 ha zu <math>n</math> Blitzeinschlägen in einem Jahr kommt?<br />
<br />
<math>\lambda=0,1</math> Einschläge pro Hektar und Jahr.<br />
:<math>P_{0,1}(n=0)</math> (kein Einschlag im betrachteten Jahr): 90%<br />
:<math>P_{0,1}(n=1)</math> (ein Einschlag im betrachteten Jahr): 9%<br />
:<math>P_{0,1}(n=2)</math> (zwei Einschläge im betrachteten Jahr): 0,5%<br />
:<math>P_{0,1}(n=3)</math> (drei Einschläge im betrachteten Jahr): 0,02%<br />
<br />
Statistisch ist es nicht verwunderlich, wenn ein Blitz innerhalb von 200 Jahren zweimal am gleichen Ort einschlägt, wobei es außerordentlich unwahrscheinlich ist, den Ort voraussagen zu können (Siehe hierzu auch [[Geburtstagsparadoxon]]).<br />
<br />
=== Verstreute Reiskörner ===<br />
[[Datei:Ricepoissor7rp.jpg|thumb|right|Zufällig auf dem Boden verstreute Reiskörner.]]<br />
Das Bild rechts zeigt <math>N=66</math> Reiskörner, die zufällig auf <math>n=49</math> Quadrate verteilt wurden. Die Felder enthalten <math>k=0,\ldots,5</math> Reiskörner. Der Vergleich zwischen Experiment und berechneter Poisson-Verteilung <math>P(X=k)</math>, wobei<br />
<math>\lambda = N/n = 66/49 = 1{,}33</math> Reiskörner/Quadrate ist, zeigt eine gute Übereinstimmung:<br />
<br />
{| class="prettytable"<br />
|-----<br />
| align="right" | <math>k</math><br />
| gezählt<br />
| <math>P(X=k)\cdot49</math><br />
|-----<br />
|align="right"|<br />
0<br />
|align="right"|<br />
16<br />
|align="right"|<br />
13<br />
|----<br />
|align="right"|<br />
1<br />
|align="right"|<br />
14<br />
|align="right"|<br />
17<br />
|----<br />
|align="right"|<br />
2<br />
|align="right"|<br />
10<br />
|align="right"|<br />
11<br />
|----<br />
|align="right"|<br />
3<br />
|align="right"|<br />
6<br />
|align="right"|<br />
5<br />
|----<br />
|align="right"|<br />
4<br />
|align="right"|<br />
1<br />
|align="right"|<br />
2<br />
|----<br />
|align="right"|<br />
5<br />
|align="right"|<br />
2<br />
|align="right"|<br />
0,5<br />
|}<br />
<br />
Die Wahrscheinlichkeit, dass ein bestimmtes Feld leer bleibt, ist etwas größer als 25%:<br />
<br />
<math>P(X=0)=\frac{1{,}33^0}{0!}\,\mathrm{e}^{-1{,}33} \approx 0{,}2645</math><br />
<br />
===Sportergebnisse===<br />
<br />
{{Überarbeiten}}<br />
<br />
In vielen Sportarten geht es zum Siegen in einem Wettbewerb darum, innerhalb eines bestimmten Zeitraums mehr zählende Ereignisse zu erwirken, als der Gegner.<br />
<br />
Die durchschnittliche Anzahl von Toren pro Spiel und Mannschaft betrug während der [[Fußball-Weltmeisterschaft 2010#Gruppenphase|Gruppenphase]] der [[Fußball-Weltmeisterschaft 2010]] der Herren in Südafrika 1,05 (101 Tore in 48 Spielen). Mit diesem Wert können mit Hilfe der Poisson-Verteilung die Verteilung der Tore und die Verteilung der Endergebnisse der Begegnungen berechnet werden. Die Wahrscheinlichkeit für ein bestimmtes Endergebnis ergibt sich hierbei aus dem [[Produkt_(Mathematik)|Produkt]] der Wahrscheinlichkeiten der beiden Gegner für die entsprechenden Torerfolge. Auch hier ist die Summe aller Wahrscheinlichkeiten 100%.<br />
<br />
Die folgende Tabelle zeigt die berechneten Anteile der Endergebnisse auf der linken Seite und die tatsächlichen Anteile der Endergebnisse auf der rechten Seite. Die Übereinstimmung ist gut, und die Abweichungen zwischen tatsächlichen und berechneten Ergebnissen für einen bestimmten Spielendstand sind weit unten im einstelligen Prozentbereich. Ein Spiel entspricht einem Anteil von 1/48 (= 2,083%) aller Spiele. In nur einem Fall (Endergebnis 0:1) beträgt die Abweichung zwischen der Berechnung und der tatsächlichen Anzahl von Spielen 2 (oder 3,81%), in allen anderen Fällen ist sie maximal 1.<br />
<br />
{| class="prettytable"<br />
|-----<br />
| align="right" |Tore</br>(Parameter k)<br />
| align="right" |berechnet<br />
| align="right" |0<br />
| align="right" |1<br />
| align="right" |2<br />
| align="right" |3<br />
| align="right" |4<br />
| align="right" |geschossen<br />
| align="right" |0<br />
| align="right" |1<br />
| align="right" |2<br />
| align="right" |3<br />
| align="right" |4<br />
| align="right" |Differenz<br />
| align="right" |0<br />
| align="right" |1<br />
| align="right" |2<br />
| align="right" |3<br />
| align="right" |4<br />
|-----<br />
| align="center"| <br />
| align="centre"|P</br>(λ = 1,05)<br />
| align="centre"|35% <br />
| align="center"|37% <br />
| align="center"|19% <br />
| align="center"|7% <br />
| align="center"|2%<br />
|<br />
|<br />
|<br />
|<br />
|<br />
|<br />
|-----<br />
|align="right"|0 <br />
| align="center"|35% <br />
| align="right"|12% <br />
| align="right"|13% <br />
| align="right"|7% <br />
| align="right"|2% <br />
| align="right"|1%<br />
|<br />
| align="right"|13% <br />
| align="right"|17% <br />
| align="right"|6% <br />
| align="right"|4% <br />
| align="right"|0%<br />
|<br />
| align="right"|-1% <br />
| align="right"|-4% <br />
| align="right"|1% <br />
| align="right"|-2% <br />
| align="right"|1%<br />
|-----<br />
| align="right"|1 <br />
| align="center"|37%<br />
| align="right"|13%<br />
| align="right"|14%<br />
| align="right"|7%<br />
| align="right"|2%<br />
| align="right"|1%<br />
|<br />
| align="right"|10% <br />
| align="right"|13% <br />
| align="right"|8% <br />
| align="right"|2% <br />
| align="right"|0%<br />
|<br />
| align="right"|3% <br />
| align="right"|1% <br />
| align="right"|-1% <br />
| align="right"|0% <br />
| align="right"|1%<br />
|-----<br />
| align="right"|2<br />
| align="center"|19%<br />
| align="right"|7%<br />
| align="right"|7%<br />
| align="right"|4%<br />
| align="right"|1%<br />
| align="right"|0%<br />
|<br />
| align="right"|6% <br />
| align="right"|6% <br />
| align="right"|4% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|<br />
| align="right"|1% <br />
| align="right"|1% <br />
| align="right"|0% <br />
| align="right"|1% <br />
| align="right"|0%<br />
|-----<br />
| align="right"|3<br />
| align="center"|7%<br />
| align="right"|2%<br />
| align="right"|2%<br />
| align="right"|1%<br />
| align="right"|0%<br />
| align="right"|0%<br />
|<br />
| align="right"|0% <br />
| align="right"|2% <br />
| align="right"|2% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|<br />
| align="right"|2% <br />
| align="right"|0% <br />
| align="right"|-1% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|-----<br />
| align="right"|4<br />
| align="center"|2%<br />
| align="right"|1%<br />
| align="right"|1%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
|<br />
| align="right"|2% <br />
| align="right"|2% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|<br />
| align="right"|-1% <br />
| align="right"|-1% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|-----<br />
| align="right"|5<br />
| align="center"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
|<br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|<br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|-----<br />
| align="right"|6<br />
| align="center"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
|<br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|<br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|-----<br />
| align="right"|7<br />
| align="center"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
| align="right"|0%<br />
|<br />
| align="right"|2% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|<br />
| align="right"|-2% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0% <br />
| align="right"|0%<br />
|}<br />
<br />
== Zufallszahlen ==<br />
<br />
Zufallszahlen zur Poisson-Verteilung werden üblicherweise mit Hilfe der [[Inversionsmethode]] erzeugt.<br />
<br />
== Literatur ==<br />
* Erich Härtter: ''Wahrscheinlichkeitsrechnung für Wirtschafts- und Naturwissenschaftler''. Vandenhoeck und Ruprecht, Göttingen 1974, ISBN 3-525-03114-9.<br />
* Frodesen, Skjeggestad, Tofte: ''Probabibility and Statistics in Particle Physics'', Universitetsforlaget, Bergen - Oslo - Tromsö<br />
<br />
== Weblinks ==<br />
{{Wikibooks|Mathematik: Statistik: Poissonverteilung|Poissonverteilung (für Anfänger)}}<br />
* [http://www.uni-konstanz.de/FuF/wiwi/heiler/os/vt-poi.html Universität Konstanz] – Interaktive Animation<br />
* [http://www.eisber.net/StatWiki/index.php/WS2_Zettel2#Beispiel_15c_-_Poisson_Verteilung StatWiki] – Herleitung der momenterzeugenden Funktion<br />
<br />
{{Navigationsleiste Wahrscheinlichkeitsverteilungen}}<br />
<br />
[[Kategorie:Wahrscheinlichkeitsverteilung]]<br />
<br />
[[ar:توزيع بواسون]]<br />
[[bg:Разпределение на Поасон]]<br />
[[ca:Distribució de Poisson]]<br />
[[cs:Poissonovo rozdělení]]<br />
[[el:Κατανομή Poisson]]<br />
[[en:Poisson distribution]]<br />
[[es:Distribución de Poisson]]<br />
[[eu:Poissonen banakuntza]]<br />
[[fa:توزیع پواسون]]<br />
[[fi:Poissonin jakauma]]<br />
[[fr:Loi de Poisson]]<br />
[[he:התפלגות פואסון]]<br />
[[hu:Poisson-eloszlás]]<br />
[[it:Distribuzione di Poisson]]<br />
[[ja:ポアソン分布]]<br />
[[ko:푸아송 분포]]<br />
[[lt:Puasono skirstinys]]<br />
[[nl:Poissonverdeling]]<br />
[[no:Poissonfordeling]]<br />
[[nov:Distributione de Poisson]]<br />
[[pl:Rozkład Poissona]]<br />
[[pt:Distribuição de Poisson]]<br />
[[ru:Распределение Пуассона]]<br />
[[simple:Poisson distribution]]<br />
[[sl:Poissonova porazdelitev]]<br />
[[su:Sebaran Poisson]]<br />
[[sv:Poissonfördelning]]<br />
[[tr:Poisson dağılımı]]<br />
[[uk:Розподіл Пуассона]]<br />
[[vi:Phân phối Poisson]]<br />
[[zh:泊松分佈]]<br />
[[zh-yue:Poisson distribution]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Exponentialfamilie&diff=80786076Exponentialfamilie2010-10-27T10:42:36Z<p>138.246.2.103: </p>
<hr />
<div>In der [[Wahrscheinlichkeitstheorie]] und in der [[Statistik]] ist eine '''Exponentialfamilie''' eine Klasse von [[Wahrscheinlichkeitsverteilung]]en einer ganz bestimmten Form. Man wählt diese spezielle Form, um bestimmte Rechenvorteile auszunutzen oder aus Gründen der Verallgemeinerung. Exponentialfamilien sind in gewissem Sinne sehr natürliche Verteilungen. Das Konzept der Exponentialfamilien geht zurück auf<ref>{{cite journal<br />
| last = Andersen <br />
| first = Erling<br />
| year = 1970<br />
| month = September<br />
| title = Sufficiency and Exponential Families for Discrete Sample Spaces<br />
| journal = Journal of the American Statistical Association<br />
| volume = 65<br />
| issue = 331<br />
| pages = 1248–1255<br />
| doi = 10.2307/2284291<br />
}}</ref> E. J. G. Pitman,<ref>{{cite journal<br />
| last = Pitman <br />
| first = E.<br />
| year = 1936<br />
| title = Sufficient statistics and intrinsic accuracy<br />
| journal = Proc. Camb. phil. Soc.<br />
| volume = 32<br />
| pages = 567–579<br />
}}</ref> G. Darmois,<ref>{{cite journal<br />
| last = Darmois <br />
| first = G.<br />
| year = 1935<br />
| title = Sur les lois de probabilites a estimation exhaustive<br />
| journal = C.R. Acad. sci. Paris<br />
| volume = 200<br />
| pages = 1265–1266<br />
| language = French<br />
}}</ref> <br />
und B. O. Koopman<ref>{{cite journal<br />
| last = Koopman <br />
| first = B<br />
| year = 1936<br />
| title = On distribution admitting a sufficient statistic<br />
| journal = Trans. Amer. math. Soc.<br />
| volume = 39<br />
| pages = 399–409<br />
| doi = 10.2307/1989758<br />
}}</ref> (1935–6).<br />
<br />
== Definition ==<br />
<br />
Es folgt eine Reihe immer allgemeinerer Definitionen einer Exponentialfamilie. Der gewöhnliche Leser möchte sich vielleicht auf die erste und einfachste Definition konzentrieren. Diese bezieht sich auf eine ein-parametrische Familie diskreter oder stetiger Wahrscheinlichkeitsverteilungen. <br />
<br />
=== Skalarer Parameter ===<br />
<br />
Eine einparametrische Exponentialfamilie ist eine Menge von Wahrscheinlichkeitsverteilungen, deren [[Dichtefunktion]] (oder im diskreten Fall: Wahrscheinlichkeitsfunktion) sich in der folgenden Form darstellen lässt:<br />
<br />
:<math> f_X(x; \theta) = h(x) \exp(\eta(\theta) T(x) - A(\theta)) \,\!</math><br />
wobei <math>T(x)</math>, <math>h(x)</math>, <math>\eta(\theta)</math>, und <math>A(\theta)</math> bekannte Funktionen sind. <br />
<br />
Der Wert [[Theta|<math>\theta</math>]] ist der Parameter der Familie.<br />
<br />
Beachte, dass ''x'' oft ein Vektor von Realisationen einer Zufallsgröße ist. In diesem Fall gilt: <math>T(x): \Omega \rightarrow \R</math> ([[Omega|<math>\Omega</math>]] bezeichnet den Raum der möglichen Ausprägungen von x).<br />
<br />
Die Exponentialfamilie ist in [[Kanonische Form|kanonischer Form]], falls <math>\eta(\theta)=\theta</math>. Indem man einen transformierten Parameter <math>\eta=\eta(\theta)</math> definiert, ist es immer möglich eine Exponentialfamilie in kanonische Form zu bringen. Die kanonische Form ist nicht eindeutig (man kann <math>\eta(\theta)</math> mit einer beliebigen Konstanten ungleich Null multiplizieren und gleichzeitig ''T''(''x'') durch die Konstante teilen).<br />
<br />
Weiter unten ist ein Beispiel [[#Normalverteilung: Unbekannter Erwartungswert, bekannte Varianz|einer Normalverteilung mit unbekannten Erwartungswert bei bekannter Varianz]].<br />
<br />
=== Vektorieller Parameter ===<br />
<br />
Die einparametrische Definition kann erweitert werden auf eine Definition mit einem vektoriellem Parameter <math>{\boldsymbol \theta} = (\theta_1, \theta_2, \ldots, \theta_s)^T</math>. Eine Familie von Verteilungen gehört zu einer vektoriellen Exponentialfamilie wenn die Dichtefunktion (oder Wahrscheinlichkeitsfunktion der diskreten Verteilung) in folgender Form geschrieben werden kann:<br />
<br />
:<math> f_X(x; \theta) = h(x) \exp\left(\sum_{i=1}^s \eta_i({\boldsymbol \theta}) T_i(x) - A({\boldsymbol \theta}) \right) \,\!</math><br />
<br />
Wie im Fall mit skalarem Parameter, wird von einer Exponentialfamilie in kanonischer Form gesprochen, wenn <math>\eta_i({\boldsymbol \theta}) = \theta_i</math> für alle <math>i</math> gilt.<br />
<br />
Weiter unten findet sich eine Beispiel [[#Normalverteilung: Unbekannter Erwartungswert, unbekannte Varianz|einer Normalverteilung mit unbekanntem Erwartungswert und unbekannter Varianz]].<br />
<br />
=== Maßtheoretische Formulierung ===<br />
<br />
{{Überarbeiten}}<br />
<br />
Wir benutzen [[Verteilungsfunktion]]en, um sowohl den diskreten, als auch den stetigen Fall gleichzeitig abzuhandeln.<br />
<br />
Sei ''H'' eine nicht-fallende Funktion einer reellen Variable und ''H''(''x'') strebt gegen 0 wenn x gegen <math>-\infty</math> geht. Dann sind [[Lebesgue-Stieltjes-Integral]]e bezüglich ''dH''(''x'') Integrale bezüglich des "Referenz Maßes" der Exponentialfamilie, die von ''H'' erzeugt wird.<br />
<br />
Alle Mitglieder dieser Exponentialfamilie haben die (kumulative) Verteilungsfunktion<br />
:<math>dF(x|\eta) = e^{-\eta^{\top} T(x) - A(\eta)}\, dH(x).</math><br />
<br />
Falls ''F'' eine stetige Verteilung mit einer Dichte ist, kann man schreiben ''dF''(''x'') = ''f''(''x'')&nbsp;''dx''.<br />
<br />
''H''(''x'') ist ein [[Lebesgue-Stieltjes-Integral|Lebesgue-Stieltjes Integrator]] für das ''Referenz Maß''. Ist das Referenz Maß endlich, kann es normalisiert werden und ''H'' ist dann die [[Verteilungsfunktion|(kumulative) Verteilunsfunktion]] einer Wahrscheinlichkeitsverteilung. Falls ''F'' stetig ist mit einer Dichtefunktion, dann gilt das auch für ''H'', was folgendermaßen aufgeschrieben werden kann ''dH''(''x'') = ''h''(''x'')&nbsp;''dx''. Falls ''F'' diskret ist, dann ist ''H'' eine [[Treppenfunktion]] (mit Sprüngen auf dem [[Träger (Mathematik)|Träger]] von ''F'').<br />
<br />
== Interpretation ==<br />
<br />
Die Funktionen <math>T(x), \eta(\theta),</math> und <math>A(\theta)</math> in den Definitionen oben sind willkürlich gewählt. Sie spielen allerdings in der resultierenden Wahrscheinlichkeitsverteilung eine wichtige Rolle.<br />
<br />
* <math>T(x)</math> ist eine ''[[Suffizienz (Statistik)|suffiziente Statistik]]'' der Verteilung. Somit existiert für Exponentialfamilien eine suffiziente Statistik, deren Dimension äquivalent der Anzahl zu schätzender Parameter ist. Diese wichtige Eigenschaft wird [[#Classical estimation: sufficiency|weiter unten]] näher betrachtet. <br />
<br />
* <math>\eta</math> wird als ''natürlicher Parameter'' bezeichnet. Die Menge der Werte von <math>\eta</math> für die die Funktion <math>f_X(x;\theta)</math> endlich ist, wird ''natürlicher Parameterraum'' genannt. Es kann gezeigt werden, dass der natürliche Parameterraum immer [[Konvexe Menge|konvex]] ist. <br />
<br />
* <math>A(\theta)</math> ist ein [[Normalisierung (Mathematik)|Normalisierungsfaktor]] ohne den <math>f_X(x;\theta)</math> keine Wahrscheinlichkeitsverteilung wäre. Die Funktion ''A'' ist selbst wichtig, weil in Fällen in denen das Referenzmaß <math>dH(x)</math> ein Wahrscheinlichkeitsmaß ist (alternativ: falls <math>h(x)</math> eine Wahrscheinlichkeitsdichte ist), ist A die [[Kumulantenerzeugende Funktion]] der Wahrscheinlichkeitsverteilung der suffizienten Statistik <math>T(X)</math> wenn die Verteilung von <math>X</math> <math>dH(x)</math> ist. <br />
<br />
== Beispiele ==<br />
<br />
Die [[Normalverteilung|Normal-]], [[Exponentialverteilung|Exponential-]], [[Gammaverteilung|Gamma-]], [[Chi-Quadrat-Verteilung|Chi-Quadrat-]], [[Betaverteilung|Beta-]], [[Dirichlet-Verteilung|Dirichlet-]], [[Bernoulliverteilung|Bernoulli-]], [[Binomialverteilung|Binomial-]], [[Multinomialverteilung|Multinomial-]], [[Poissonverteilung|Poisson-]], [[Negative Binomialverteilung|Negative Binomial-]], [[Geometrische Verteilung|geometrische]] und [[Weibullverteilung]] sind alle Exponentialfamilien. Die [[Cauchyverteilung|Cauchy-]], [[Laplaceverteilung|Laplace-]] und [[Gleichverteilung]] sind keine Exponentialfamilien. <br />
<br />
Im Folgenden betrachten wir einige Verteilungen und wie sie in der Repräsentation der Exponentialfamilien geschrieben werden können.<br />
<br />
=== Normalverteilung: Unbekannter Erwartungswert, bekannte Varianz ===<br />
<br />
Im ersten Beispiel nehmen wir an, dass <math>x</math> normalverteilt ist, mit unbekanntem Erwartungswert <math>\mu</math> und Varianz 1. Die Dichte ist dann<br />
:<math>f_X(x;\mu) = \frac{1}{\sqrt{2 \pi}} e^{-(x-\mu)^2/2}.</math><br />
Man sieht, dass es sich dabei um eine einparametrische Exponentialfamilie in kanonischer Form handelt, wenn man wie folgt definiert: <br />
:<math>h(x) = e^{-x^2/2}/\sqrt{2\pi}</math><br />
:<math>T(x) = x\!\,</math><br />
:<math>A(\mu) = \mu^2/2\!\,</math><br />
:<math>\eta(\mu) = \mu.\!\,</math><br />
<br />
=== Normalverteilung: Unbekannter Erwartungswert, unbekannte Varianz ===<br />
<br />
Als nächstes betrachten wir eine Normalverteilung mit unbekanntem Erwartungswert und unbekannter Varianz. Die Dichte ist dann <br />
:<math>f_X(x) = \frac{1}{\sqrt{2 \pi \sigma^2}} e^{-(x-\mu)^2/2 \sigma^2}.</math><br />
Dies ist eine Exponentialfamilie, was man sieht, wenn man wie folgt definiert: <br />
:<math> {\boldsymbol \theta} = \left({\mu \over \sigma^2},{1 \over \sigma^2} \right)^T </math><br />
:<math> h(x) = {1 \over \sqrt{2 \pi}} </math><br />
:<math> T(x) = \left( x, -{x^2 \over 2} \right)^T </math><br />
:<math> A({\boldsymbol \theta}) = { \theta_1^2 \over 2 \theta_2} - \ln( \theta_2^{1/2} ) = { \mu^2 \over 2 \sigma^2} - \ln \left( {1 \over \sigma } \right) </math><br />
<br />
=== Binomialverteilung ===<br />
<br />
Als Beispiel einer diskreten Exponentialfamilie betrachten wir die [[Binomialverteilung]]. Die Wahrscheinlichkeitsfunktion dieser Verteilung ist<br />
:<math>f(x)={n \choose x}p^x (1-p)^{n-x}, \quad x \in \{0, 1, 2, \ldots, n\}.</math><br />
Dies kann auch geschrieben werden als<br />
:<math>f(x)={n \choose x}\exp\left(x \log\left({p \over 1-p}\right) + n \log\left(1-p\right)\right),</math><br />
was zeigt, dass es sich bei der Binomialverteilung auch um eine Exponentialverteilung handelt. Der natürliche Parameter ist<br />
:<math>\eta = \log{p \over 1-p}.</math><br />
<br />
== Rolle in der Statistik ==<br />
=== Klassisches Schätzen: Suffizienz ===<br />
<br />
Nach dem '''Pitman-Koopman-Darmois Theorem''' gibt es unter Wahrscheinlichkeitsfamilien, deren Träger nicht von den Parametern abhängt nur bei den Exponentialfamilien [[Suffizienz (Statistik)|suffiziente Statistiken]], deren Dimension bei wachsender Stichprobengröße beschränkt bleibt. Etwas ausführlicher: Seien ''X''<sub>''n''</sub>, ''n'' = 1, 2, 3, … unabhängig und identisch verteilte Zufallszahlen, deren Wahrscheinlichkeitsverteilungsfamilie bekannt ist. Nur wenn diese Familie eine Exponentialfamilie ist, gibt es eine (möglicherweise vektorielle) [[Suffizienz (Statistik)|suffiziente Statistik]] ''T''(''X''<sub>1</sub>, …, ''X''<sub>''n''</sub>) deren Anzahl skalarer Komponenten nicht ansteigt, sollte der Stichprobenumfang ''n'' erhöht werden.<br />
<br />
=== Bayesianisches Schätzen: konjugierte Verteilungen ===<br />
<br />
Exponentialfamilien sind auch für die [[Bayessche Statistik]] wichtig. In der Bayesschen Statistik wird eine [[A-priori-Wahrscheinlichkeit]]sverteilung mit einer [[Maximum-Likelihood-Methode|Likelihood Funktion]] multipliziert und dann normiert, um auf die [[A-posteriori-Wahrscheinlichkeit]]sverteilung zu kommen. Falls die Likelihood zu einer Exponentialfamilie gehört existiert eine konjugierte A-priori, die oft ebenfalls eine Exponentialfamilie ist. Eine konjugierte A-priori ''π'' für den Parameter ''η'' einer Exponentialfamilie ist definiert durch<br />
<br />
:<math>\pi(\eta) \propto \exp(-\eta^{\top} \alpha - \beta\, A(\eta)),</math><br />
<br />
wobei <math>\alpha \in \mathbb{R}^n</math> und <math>\beta>0</math> [[Hyperparameter]] sind (Parameter die Parameter kontrollieren).<br />
<br />
Eine konjugierte A-priori ist eine A-priori, die kombiniert mit einer Likelihood und dem Normalisierungsterm eine Posteriori Verteilung ergibt, die wiederum vom Typ der A-priori ist. Beispielsweise kann man die Betaverteilung als A-priori wählen, wenn man die Erfolgswahrscheinlichkeit einer Binomialverteilung schätzen möchte. Da die Betaverteilung die zur Binomialverteilung konjugierte Verteilung ist, ist die Posterioriverteilung wieder eine Betaverteilung. Die Verwendung von konjugierten A-prioris vereinfacht die Berechnung der Posterioriverteilung. <br />
<br />
Im Allgemeinen ist die Likelihood keine Exponentialfamilie, deshalb existiert im Allgemeinen auch keine konjugierte Prioriverteilung. Die Posteriori muss dann mit numerischen Methoden berechnet werden.<br />
<br />
=== Hypothesen Tests: gleichmäßig bester Test === <br />
<br />
{{Überarbeiten}}<br />
<br />
Die einparametrische Exponentialfamilie hat ein monotones nicht-fallendes Likelihood Ratio in der suffizienten Statistik ''T''(''x''), wenn η(θ) nicht-falllend ist. Daraus ergibt sich, dass ein gleichmäßig bester Test existiert, um die Hypthese ''H''<sub>0</sub>: θ ≥ θ<sub>0</sub> ''vs''. ''H''<sub>1</sub>: θ < θ<sub>0</sub> zu testen.<br />
<br />
<br />
== Referenzen ==<br />
<references/><br />
<br />
== Weiterführende Literatur ==<br />
* {{cite book<br />
| last = Lehmann<br />
| first = E. L.<br />
| coauthors = Casella, G.<br />
| title = Theory of Point Estimation<br />
| year = 1998<br />
| pages = 2nd ed., sec. 1.5<br />
}}<br />
* {{cite book <br />
| last = Keener <br />
| first = Robert W.<br />
| title = Statistical Theory: Notes for a Course in Theoretical Statistics<br />
| publisher = Springer <br />
| year = 2006<br />
| pages = 27–28, 32–33<br />
}}<br />
<br />
{{Navigationsleiste Wahrscheinlichkeitsverteilungen}}<br />
<br />
[[Kategorie:Stochastik]]<br />
[[Kategorie:Wahrscheinlichkeitsverteilung]]<br />
<br />
[[en:Exponential family]]<br />
[[nl:Exponentiële familie]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Exponentialfamilie&diff=80785868Exponentialfamilie2010-10-27T10:36:44Z<p>138.246.2.103: </p>
<hr />
<div>In der [[Wahrscheinlichkeitstheorie]] und in der [[Statistik]] ist eine '''Exponentialfamilie''' eine Klasse von [[Wahrscheinlichkeitsverteilung]]en einer ganz bestimmten Form. Man wählt diese spezielle Form, um bestimmte Rechenvorteile auszunutzen oder aus Gründen der Verallgemeinerung. Exponentialfamilien sind in gewissem Sinne sehr natürliche Verteilungen. Das Konzept der Exponentialfamilien geht zurück auf<ref>{{cite journal<br />
| last = Andersen <br />
| first = Erling<br />
| year = 1970<br />
| month = September<br />
| title = Sufficiency and Exponential Families for Discrete Sample Spaces<br />
| journal = Journal of the American Statistical Association<br />
| volume = 65<br />
| issue = 331<br />
| pages = 1248–1255<br />
| doi = 10.2307/2284291<br />
}}</ref> E. J. G. Pitman,<ref>{{cite journal<br />
| last = Pitman <br />
| first = E.<br />
| year = 1936<br />
| title = Sufficient statistics and intrinsic accuracy<br />
| journal = Proc. Camb. phil. Soc.<br />
| volume = 32<br />
| pages = 567–579<br />
}}</ref> G. Darmois,<ref>{{cite journal<br />
| last = Darmois <br />
| first = G.<br />
| year = 1935<br />
| title = Sur les lois de probabilites a estimation exhaustive<br />
| journal = C.R. Acad. sci. Paris<br />
| volume = 200<br />
| pages = 1265–1266<br />
| language = French<br />
}}</ref> <br />
und B. O. Koopman<ref>{{cite journal<br />
| last = Koopman <br />
| first = B<br />
| year = 1936<br />
| title = On distribution admitting a sufficient statistic<br />
| journal = Trans. Amer. math. Soc.<br />
| volume = 39<br />
| pages = 399–409<br />
| doi = 10.2307/1989758<br />
}}</ref> (1935–6).<br />
<br />
== Definition ==<br />
<br />
Es folgt eine Reihe immer allgemeinerer Definitionen einer Exponentialfamilie. Der gewöhnliche Leser möchte sich vielleicht auf die erste und einfachste Definition konzentrieren. Diese bezieht sich auf eine ein-parametrische Familie diskreter oder stetiger Wahrscheinlichkeitsverteilungen. <br />
<br />
=== Skalarer Parameter ===<br />
<br />
Eine einparametrische Exponentialfamilie ist eine Menge von Wahrscheinlichkeitsverteilungen, deren [[Dichtefunktion]] (oder im diskreten Fall: Wahrscheinlichkeitsfunktion) sich in der folgenden Form darstellen lässt:<br />
<br />
:<math> f_X(x; \theta) = h(x) \exp(\eta(\theta) T(x) - A(\theta)) \,\!</math><br />
wobei <math>T(x)</math>, <math>h(x)</math>, <math>\eta(\theta)</math>, und <math>A(\theta)</math> bekannte Funktionen sind. <br />
<br />
Der Wert [[Theta|<math>\theta</math>]] ist der Parameter der Familie.<br />
<br />
Beachte, dass ''x'' oft ein Vektor von Realisationen einer Zufallsgröße ist. In diesem Fall gilt: <math>T(x): \Omega \rightarrow \R</math> ([[Omega|<math>\Omega</math>]] bezeichnet den Raum der möglichen Ausprägungen von x).<br />
<br />
Die Exponentialfamilie ist in [[Kanonische Form|kanonischer Form]], falls <math>\eta(\theta)=\theta</math>. Indem man einen transformierten Parameter <math>\eta=\eta(\theta)</math> definiert, ist es immer möglich eine Exponentialfamilie in kanonische Form zu bringen. Die kanonische Form ist nicht eindeutig (man kann <math>\eta(\theta)</math> mit einer beliebigen Konstanten ungleich Null multiplizieren und gleichzeitig ''T''(''x'') durch die Konstante teilen).<br />
<br />
Weiter unten ist ein Beispiel [[#Normalverteilung: Unbekannter Erwartungswert, bekannte Varianz|einer Normalverteilung mit unbekannten Erwartungswert bei bekannter Varianz]].<br />
<br />
=== Vektorieller Parameter ===<br />
<br />
Die einparametrische Definition kann erweitert werden auf eine Definition mit einem vektoriellem Parameter <math>{\boldsymbol \theta} = (\theta_1, \theta_2, \ldots, \theta_s)^T</math>. Eine Familie von Verteilungen gehört zu einer vektoriellen Exponentialfamilie wenn die Dichtefunktion (oder Wahrscheinlichkeitsfunktion der diskreten Verteilung) in folgender Form geschrieben werden kann:<br />
<br />
:<math> f_X(x; \theta) = h(x) \exp\left(\sum_{i=1}^s \eta_i({\boldsymbol \theta}) T_i(x) - A({\boldsymbol \theta}) \right) \,\!</math><br />
<br />
Wie im Fall mit skalarem Parameter, wird von einer Exponentialfamilie in kanonischer Form gesprochen, wenn <math>\eta_i({\boldsymbol \theta}) = \theta_i</math> für alle <math>i</math> gilt.<br />
<br />
Weiter unten findet sich eine Beispiel [[#Normalverteilung: Unbekannter Erwartungswert, unbekannte Varianz|einer Normalverteilung mit unbekanntem Erwartungswert und unbekannter Varianz]].<br />
<br />
=== Maßtheoretische Formulierung ===<br />
<br />
{{Überarbeiten}}<br />
<br />
Wir benutzen [[Verteilungsfunktion]]en, um sowohl den diskreten, als auch den stetigen Fall gleichzeitig abzuhandeln.<br />
<br />
Sei ''H'' eine nicht-fallende Funktion einer reellen Variable und ''H''(''x'') strebt gegen 0 wenn x gegen <math>-\infty</math> geht. Dann sind [[Lebesgue-Stieltjes-Integral]]e bezüglich ''dH''(''x'') Integrale bezüglich des "Referenz Maßes" der Exponentialfamilie, die von ''H'' erzeugt wird.<br />
<br />
Alle Mitglieder dieser Exponentialfamilie haben die (kumulative) Verteilungsfunktion<br />
:<math>dF(x|\eta) = e^{-\eta^{\top} T(x) - A(\eta)}\, dH(x).</math><br />
<br />
Falls ''F'' eine stetige Verteilung mit einer Dichte ist, kann man schreiben ''dF''(''x'') = ''f''(''x'')&nbsp;''dx''.<br />
<br />
''H''(''x'') ist ein [[Lebesgue-Stieltjes-Integral|Lebesgue-Stieltjes Integrator]] für das ''Referenz Maß''. Ist das Referenz Maß endlich, kann es normalisiert werden und ''H'' ist dann die [[Verteilungsfunktion|(kumulative) Verteilunsfunktion]] einer Wahrscheinlichkeitsverteilung. Falls ''F'' stetig ist mit einer Dichtefunktion, dann gilt das auch für ''H'', was folgendermaßen aufgeschrieben werden kann ''dH''(''x'') = ''h''(''x'')&nbsp;''dx''. Falls ''F'' diskret ist, dann ist ''H'' eine [[Treppenfunktion]] (mit Sprüngen auf dem [[Träger (Mathematik)|Träger]] von ''F'').<br />
<br />
== Interpretation ==<br />
<br />
Die Funktionen <math>T(x), \eta(\theta),</math> und <math>A(\theta)</math> in den Definitionen oben sind willkürlich gewählt. Sie spielen allerdings in der resultierenden Wahrscheinlichkeitsverteilung eine wichtige Rolle.<br />
<br />
* <math>T(x)</math> ist eine ''[[Suffizienz (Statistik)|suffiziente Statistik]]'' der Verteilung. Somit existiert für Exponentialfamilien eine suffiziente Statistik, deren Dimension äquivalent der Anzahl zu schätzender Parameter ist. Diese wichtige Eigenschaft wird [[#Classical estimation: sufficiency|weiter unten]] näher betrachtet. <br />
<br />
* <math>\eta</math> wird als ''natürlicher Parameter'' bezeichnet. Die Menge der Werte von <math>\eta</math> für die die Funktion <math>f_X(x;\theta)</math> endlich ist, wird ''natürlicher Parameterraum'' genannt. Es kann gezeigt werden, dass der natürliche Parameterraum immer [[Konvexe Menge|konvex]] ist. <br />
<br />
* <math>A(\theta)</math> ist ein [[Normalisierung (Mathematik)|Normalisierungsfaktor]] ohne den <math>f_X(x;\theta)</math> keine Wahrscheinlichkeitsverteilung wäre. Die Funktion ''A'' ist selbst wichtig, weil in Fällen in denen das Referenzmaß <math>dH(x)</math> ein Wahrscheinlichkeitsmaß ist (alternativ: falls <math>h(x)</math> eine Wahrscheinlichkeitsdichte ist), ist A die [[Kumulantenerzeugende Funktion]] der Wahrscheinlichkeitsverteilung der suffizienten Statistik <math>T(X)</math> wenn die Verteilung von <math>X</math> <math>dH(x)</math> ist. <br />
<br />
== Beispiele ==<br />
<br />
Die [[Normalverteilung|Normal-]], [[Exponentialverteilung|Exponential-]], [[Gammaverteilung|Gamma-]], [[Chi-Quadrat-Verteilung|Chi-Quadrat-]], [[Betaverteilung|Beta-]], [[Dirichlet-Verteilung|Dirichlet-]], [[Bernoulliverteilung|Bernoulli-]], [[Binomialverteilung|Binomial-]], [[Multinomialverteilung|Multinomial-]], [[Poissonverteilung|Poisson-]], [[Negative Binomialverteilung|Negative Binomial-]], [[Geometrische Verteilung|geometrische]] und [[Weibullverteilung]] sind alle Exponentialfamilien. Die [[Cauchyverteilung|Cauchy-]], [[Laplaceverteilung|Laplace-]] und [[Gleichverteilung]] sind keine Exponentialfamilien. <br />
<br />
Im Folgenden betrachten wir einige Verteilungen und wie sie in der Repräsentation der Exponentialfamilien geschrieben werden können.<br />
<br />
=== Normalverteilung: Unbekannter Erwartungswert, bekannte Varianz ===<br />
<br />
Im ersten Beispiel nehmen wir an, dass <math>x</math> normalverteilt ist, mit unbekanntem Erwartungswert <math>\mu</math> und Varianz 1. Die Dichte ist dann<br />
:<math>f_X(x;\mu) = \frac{1}{\sqrt{2 \pi}} e^{-(x-\mu)^2/2}.</math><br />
Man sieht, dass es sich dabei um eine einparametrische Exponentialfamilie in kanonischer Form handelt, wenn man wie folgt definiert: <br />
:<math>h(x) = e^{-x^2/2}/\sqrt{2\pi}</math><br />
:<math>T(x) = x\!\,</math><br />
:<math>A(\mu) = \mu^2/2\!\,</math><br />
:<math>\eta(\mu) = \mu.\!\,</math><br />
<br />
=== Normalverteilung: Unbekannter Erwartungswert, unbekannte Varianz ===<br />
<br />
Als nächstes betrachten wir eine Normalverteilung mit unbekanntem Erwartungswert und unbekannter Varianz. Die Dichte ist dann <br />
:<math>f_X(x) = \frac{1}{\sqrt{2 \pi \sigma^2}} e^{-(x-\mu)^2/2 \sigma^2}.</math><br />
Dies ist eine Exponentialfamilie, was man sieht, wenn man wie folgt definiert: <br />
:<math> {\boldsymbol \theta} = \left({\mu \over \sigma^2},{1 \over \sigma^2} \right)^T </math><br />
:<math> h(x) = {1 \over \sqrt{2 \pi}} </math><br />
:<math> T(x) = \left( x, -{x^2 \over 2} \right)^T </math><br />
:<math> A({\boldsymbol \theta}) = { \theta_1^2 \over 2 \theta_2} - \ln( \theta_2^{1/2} ) = { \mu^2 \over 2 \sigma^2} - \ln \left( {1 \over \sigma } \right) </math><br />
<br />
=== Binomialverteilung ===<br />
<br />
Als Beispiel einer diskreten Exponentialfamilie betrachten wir die [[Binomialverteilung]]. Die Wahrscheinlichkeitsfunktion dieser Verteilung ist<br />
:<math>f(x)={n \choose x}p^x (1-p)^{n-x}, \quad x \in \{0, 1, 2, \ldots, n\}.</math><br />
Dies kann auch geschrieben werden als<br />
:<math>f(x)={n \choose x}\exp\left(x \log\left({p \over 1-p}\right) + n \log\left(1-p\right)\right),</math><br />
was zeigt, dass es sich bei der Binomialverteilung auch um eine Exponentialverteilung handelt. Der natürliche Parameter ist<br />
:<math>\eta = \log{p \over 1-p}.</math><br />
<br />
== Rolle in der Statistik ==<br />
=== Klassisches Schätzen: Suffizienz ===<br />
<br />
Nach dem '''Pitman-Koopman-Darmois Theorem''' gibt es unter Wahrscheinlichkeitsfamilien, deren Träger nicht von den Parametern abhängt nur bei den Exponentialfamilien [[Suffizienz (Statistik)|suffiziente Statistiken]], deren Dimension bei wachsender Stichprobengröße beschränkt bleibt. Etwas ausführlicher: Seien ''X''<sub>''n''</sub>, ''n'' = 1, 2, 3, … unabhängig und identisch verteilte Zufallszahlen, deren Wahrscheinlichkeitsverteilungsfamilie bekannt ist. Nur wenn diese Familie eine Exponentialfamilie ist, gibt es eine (möglicherweise vektorielle) [[Suffizienz (Statistik)|suffiziente Statistik]] ''T''(''X''<sub>1</sub>, …, ''X''<sub>''n''</sub>) deren Anzahl skalarer Komponenten nicht ansteigt, sollte der Stichprobenumfang ''n'' erhöht werden.<br />
<br />
=== Bayesianisches Schätzen: konjugierte Verteilungen ===<br />
<br />
Exponentialfamilien sind auch für die [[Bayessche Statistik]] wichtig. In der Bayesschen Statistik wird eine A-priori-Verteilung mit einer [[Maximum-Likelihood-Methode|Likelihood Funktion]] multipliziert und dann normiert, um auf die A-posteriori-Verteilung zu kommen. Falls die Likelihood zu einer Exponentialfamilie gehört existiert eine konjugierte A-priori, die oft ebenfalls eine Exponentialfamilie ist. Eine konjugierte A-priori ''π'' für den Parameter ''η'' einer Exponentialfamilie ist definiert durch<br />
<br />
:<math>\pi(\eta) \propto \exp(-\eta^{\top} \alpha - \beta\, A(\eta)),</math><br />
<br />
wobei <math>\alpha \in \mathbb{R}^n</math> und <math>\beta>0</math> [[Hyperparameter]] sind (Parameter die Parameter kontrollieren).<br />
<br />
Eine konjugierte A-priori ist eine A-priori, die kombiniert mit einer Likelihood und dem Normalisierungsterm eine Posteriori Verteilung ergibt, die wiederum vom Typ der A-priori ist. Beispielsweise kann man die Betaverteilung als A-priori wählen, wenn man die Erfolgswahrscheinlichkeit einer Binomialverteilung schätzen möchte. Da die Betaverteilung die zur Binomialverteilung konjugierte Verteilung ist, ist die Posterioriverteilung wieder eine Betaverteilung. Die Verwendung von konjugierten A-prioris vereinfacht die Berechnung der Posterioriverteilung. <br />
<br />
Im Allgemeinen ist die Likelihood keine Exponentialfamilie, deshalb existiert im Allgemeinen auch keine konjugierte Prioriverteilung. Die Posteriori muss dann mit numerischen Methoden berechnet werden.<br />
<br />
=== Hypothesen Tests: gleichmäßig bester Test === <br />
<br />
{{Überarbeiten}}<br />
<br />
Die einparametrische Exponentialfamilie hat ein monotones nicht-fallendes Likelihood Ratio in der suffizienten Statistik ''T''(''x''), wenn η(θ) nicht-falllend ist. Daraus ergibt sich, dass ein gleichmäßig bester Test existiert, um die Hypthese ''H''<sub>0</sub>: θ ≥ θ<sub>0</sub> ''vs''. ''H''<sub>1</sub>: θ < θ<sub>0</sub> zu testen.<br />
<br />
<br />
== Referenzen ==<br />
<references/><br />
<br />
== Weiterführende Literatur ==<br />
* {{cite book<br />
| last = Lehmann<br />
| first = E. L.<br />
| coauthors = Casella, G.<br />
| title = Theory of Point Estimation<br />
| year = 1998<br />
| pages = 2nd ed., sec. 1.5<br />
}}<br />
* {{cite book <br />
| last = Keener <br />
| first = Robert W.<br />
| title = Statistical Theory: Notes for a Course in Theoretical Statistics<br />
| publisher = Springer <br />
| year = 2006<br />
| pages = 27–28, 32–33<br />
}}<br />
<br />
{{Navigationsleiste Wahrscheinlichkeitsverteilungen}}<br />
<br />
[[Kategorie:Stochastik]]<br />
[[Kategorie:Wahrscheinlichkeitsverteilung]]<br />
<br />
[[en:Exponential family]]<br />
[[nl:Exponentiële familie]]</div>138.246.2.103https://de.wikipedia.org/w/index.php?title=Exponentialfamilie&diff=80785797Exponentialfamilie2010-10-27T10:35:09Z<p>138.246.2.103: </p>
<hr />
<div>In der [[Wahrscheinlichkeitstheorie]] und in der [[Statistik]] ist eine '''Exponentialfamilie''' eine Klasse von [[Wahrscheinlichkeitsverteilung]]en einer ganz bestimmten Form. Man wählt diese spezielle Form, um bestimmte Rechenvorteile auszunutzen oder aus Gründen der Verallgemeinerung. Exponentialfamilien sind in gewissem Sinne sehr natürliche Verteilungen. Das Konzept der Exponentialfamilien geht zurück auf<ref>{{cite journal<br />
| last = Andersen <br />
| first = Erling<br />
| year = 1970<br />
| month = September<br />
| title = Sufficiency and Exponential Families for Discrete Sample Spaces<br />
| journal = Journal of the American Statistical Association<br />
| volume = 65<br />
| issue = 331<br />
| pages = 1248–1255<br />
| doi = 10.2307/2284291<br />
}}</ref> E. J. G. Pitman,<ref>{{cite journal<br />
| last = Pitman <br />
| first = E.<br />
| year = 1936<br />
| title = Sufficient statistics and intrinsic accuracy<br />
| journal = Proc. Camb. phil. Soc.<br />
| volume = 32<br />
| pages = 567–579<br />
}}</ref> G. Darmois,<ref>{{cite journal<br />
| last = Darmois <br />
| first = G.<br />
| year = 1935<br />
| title = Sur les lois de probabilites a estimation exhaustive<br />
| journal = C.R. Acad. sci. Paris<br />
| volume = 200<br />
| pages = 1265–1266<br />
| language = French<br />
}}</ref> <br />
und B. O. Koopman<ref>{{cite journal<br />
| last = Koopman <br />
| first = B<br />
| year = 1936<br />
| title = On distribution admitting a sufficient statistic<br />
| journal = Trans. Amer. math. Soc.<br />
| volume = 39<br />
| pages = 399–409<br />
| doi = 10.2307/1989758<br />
}}</ref> (1935–6).<br />
<br />
== Definition ==<br />
<br />
Es folgt eine Reihe immer allgemeinerer Definitionen einer Exponentialfamilie. Der gewöhnliche Leser möchte sich vielleicht auf die erste und einfachste Definition konzentrieren. Diese bezieht sich auf eine ein-parametrische Familie diskreter oder stetiger Wahrscheinlichkeitsverteilungen. <br />
<br />
=== Skalarer Parameter ===<br />
<br />
Eine einparametrische Exponentialfamilie ist eine Menge von Wahrscheinlichkeitsverteilungen, deren [[Dichtefunktion]] (oder im diskreten Fall: Wahrscheinlichkeitsfunktion) sich in der folgenden Form darstellen lässt:<br />
<br />
:<math> f_X(x; \theta) = h(x) \exp(\eta(\theta) T(x) - A(\theta)) \,\!</math><br />
wobei <math>T(x)</math>, <math>h(x)</math>, <math>\eta(\theta)</math>, und <math>A(\theta)</math> bekannte Funktionen sind. <br />
<br />
Der Wert [[Theta|<math>\theta</math>]] ist der Parameter der Familie.<br />
<br />
Beachte, dass ''x'' oft ein Vektor von Realisationen einer Zufallsgröße ist. In diesem Fall gilt: <math>T(x): \Omega \rightarrow \R</math> ([[Omega|<math>\Omega</math>]] bezeichnet den Raum der möglichen Ausprägungen von x).<br />
<br />
Die Exponentialfamilie ist in [[Kanonische Form|kanonischer Form]], falls <math>\eta(\theta)=\theta</math>. Indem man einen transformierten Parameter <math>\eta=\eta(\theta)</math> definiert, ist es immer möglich eine Exponentialfamilie in kanonische Form zu bringen. Die kanonische Form ist nicht eindeutig (man kann <math>\eta(\theta)</math> mit einer beliebigen Konstanten ungleich Null multiplizieren und gleichzeitig ''T''(''x'') durch die Konstante teilen).<br />
<br />
Weiter unten ist ein Beispiel [[#Normalverteilung: Unbekannter Erwartungswert, bekannte Varianz|einer Normalverteilung mit unbekannten Erwartungswert bei bekannter Varianz]].<br />
<br />
=== Vektorieller Parameter ===<br />
<br />
Die einparametrische Definition kann erweitert werden auf eine Definition mit einem vektoriellem Parameter <math>{\boldsymbol \theta} = (\theta_1, \theta_2, \ldots, \theta_s)^T</math>. Eine Familie von Verteilungen gehört zu einer vektoriellen Exponentialfamilie wenn die Dichtefunktion (oder Wahrscheinlichkeitsfunktion der diskreten Verteilung) in folgender Form geschrieben werden kann:<br />
<br />
:<math> f_X(x; \theta) = h(x) \exp\left(\sum_{i=1}^s \eta_i({\boldsymbol \theta}) T_i(x) - A({\boldsymbol \theta}) \right) \,\!</math><br />
<br />
Wie im Fall mit skalarem Parameter, wird von einer Exponentialfamilie in kanonischer Form gesprochen, wenn <math>\eta_i({\boldsymbol \theta}) = \theta_i</math> für alle <math>i</math> gilt.<br />
<br />
Weiter unten findet sich eine Beispiel [[#Normalverteilung: Unbekannter Erwartungswert, unbekannte Varianz|einer Normalverteilung mit unbekanntem Erwartungswert und unbekannter Varianz]].<br />
<br />
=== Maßtheoretische Formulierung ===<br />
<br />
{{Überarbeiten}}<br />
<br />
Wir benutzen [[Verteilungsfunktion]]en, um sowohl den diskreten, als auch den stetigen Fall gleichzeitig abzuhandeln.<br />
<br />
Sei ''H'' eine nicht-fallende Funktion einer reellen Variable und ''H''(''x'') strebt gegen 0 wenn x gegen <math>-\infty</math> geht. Dann sind [[Lebesgue-Stieltjes-Integral]]e bezüglich ''dH''(''x'') Integrale bezüglich des "Referenz Maßes" der Exponentialfamilie, die von ''H'' erzeugt wird.<br />
<br />
Alle Mitglieder dieser Exponentialfamilie haben die (kumulative) Verteilungsfunktion<br />
:<math>dF(x|\eta) = e^{-\eta^{\top} T(x) - A(\eta)}\, dH(x).</math><br />
<br />
Falls ''F'' eine stetige Verteilung mit einer Dichte ist, kann man schreiben ''dF''(''x'') = ''f''(''x'')&nbsp;''dx''.<br />
<br />
''H''(''x'') ist ein [[Lebesgue-Stieltjes-Integral|Lebesgue-Stieltjes Integrator]] für das ''Referenz Maß''. Ist das Referenz Maß endlich, kann es normalisiert werden und ''H'' ist dann die [[Verteilungsfunktion|(kumulative) Verteilunsfunktion]] einer Wahrscheinlichkeitsverteilung. Falls ''F'' stetig ist mit einer Dichtefunktion, dann gilt das auch für ''H'', was folgendermaßen aufgeschrieben werden kann ''dH''(''x'') = ''h''(''x'')&nbsp;''dx''. Falls ''F'' diskret ist, dann ist ''H'' eine [[Treppenfunktion]] (mit Sprüngen auf dem [[Träger (Mathematik)|Träger]] von ''F'').<br />
<br />
== Interpretation ==<br />
<br />
Die Funktionen <math>T(x), \eta(\theta),</math> und <math>A(\theta)</math> in den Definitionen oben sind willkürlich gewählt. Sie spielen allerdings in der resultierenden Wahrscheinlichkeitsverteilung eine wichtige Rolle.<br />
<br />
* <math>T(x)</math> ist eine ''[[Suffizienz (Statistik)|suffiziente Statistik]]'' der Verteilung. Somit existiert für Exponentialfamilien eine suffiziente Statistik, deren Dimension äquivalent der Anzahl zu schätzender Parameter ist. Diese wichtige Eigenschaft wird [[#Classical estimation: sufficiency|weiter unten]] näher betrachtet. <br />
<br />
* <math>\eta</math> wird als ''natürlicher Parameter'' bezeichnet. Die Menge der Werte von <math>\eta</math> für die die Funktion <math>f_X(x;\theta)</math> endlich ist, wird ''natürlicher Parameterraum'' genannt. Es kann gezeigt werden, dass der natürliche Parameterraum immer [[Konvexe Menge|konvex]] ist. <br />
<br />
* <math>A(\theta)</math> ist ein [[Normalisierung (Mathematik)|Normalisierungsfaktor]] ohne den <math>f_X(x;\theta)</math> keine Wahrscheinlichkeitsverteilung wäre. Die Funktion ''A'' ist selbst wichtig, weil in Fällen in denen das Referenzmaß <math>dH(x)</math> ein Wahrscheinlichkeitsmaß ist (alternativ: falls <math>h(x)</math> eine Wahrscheinlichkeitsdichte ist), ist A die [[Kumulantenerzeugende Funktion]] der Wahrscheinlichkeitsverteilung der suffizienten Statistik <math>T(X)</math> wenn die Verteilung von <math>X</math> <math>dH(x)</math> ist. <br />
<br />
== Beispiele ==<br />
<br />
Die [[Normalverteilung|Normal-]], [[Exponentialverteilung|Exponential-]], [[Gammaverteilung|Gamma-]], [[Chi-Quadrat-Verteilung|Chi-Quadrat-]], [[Betaverteilung|Beta-]], [[Dirichlet-Verteilung|Dirichlet-]], [[Bernoulliverteilung|Bernoulli-]], [[Binomialverteilung|Binomial-]], [[Multinomialverteilung|Multinomial-]], [[Poissonverteilung|Poisson-]], [[Negative Binomialverteilung|Negative Binomial-]], [[Geometrische Verteilung|geometrische]] und [[Weibullverteilung]] sind alle Exponentialfamilien. Die [[Cauchyverteilung|Cauchy-]], [[Laplaceverteilung|Laplace-]] und [[Gleichverteilung]] sind keine Exponentialfamilien. <br />
<br />
Im Folgenden betrachten wir einige Verteilungen und wie sie in der Repräsentation der Exponentialfamilien geschrieben werden können.<br />
<br />
=== Normalverteilung: Unbekannter Erwartungswert, bekannte Varianz ===<br />
<br />
Im ersten Beispiel nehmen wir an, dass <math>x</math> normalverteilt ist, mit unbekanntem Erwartungswert <math>\mu</math> und Varianz 1. Die Dichte ist dann<br />
:<math>f_X(x;\mu) = \frac{1}{\sqrt{2 \pi}} e^{-(x-\mu)^2/2}.</math><br />
Man sieht, dass es sich dabei um eine einparametrische Exponentialfamilie in kanonischer Form handelt, wenn man wie folgt definiert: <br />
:<math>h(x) = e^{-x^2/2}/\sqrt{2\pi}</math><br />
:<math>T(x) = x\!\,</math><br />
:<math>A(\mu) = \mu^2/2\!\,</math><br />
:<math>\eta(\mu) = \mu.\!\,</math><br />
<br />
=== Normalverteilung: Unbekannter Erwartungswert, unbekannte Varianz ===<br />
<br />
Als nächstes betrachten wir eine Normalverteilung mit unbekanntem Erwartungswert und unbekannter Varianz. Die Dichte ist dann <br />
:<math>f_X(x) = \frac{1}{\sqrt{2 \pi \sigma^2}} e^{-(x-\mu)^2/2 \sigma^2}.</math><br />
Dies ist eine Exponentialfamilie, was man sieht, wenn man wie folgt definiert: <br />
:<math> {\boldsymbol \theta} = \left({\mu \over \sigma^2},{1 \over \sigma^2} \right)^T </math><br />
:<math> h(x) = {1 \over \sqrt{2 \pi}} </math><br />
:<math> T(x) = \left( x, -{x^2 \over 2} \right)^T </math><br />
:<math> A({\boldsymbol \theta}) = { \theta_1^2 \over 2 \theta_2} - \ln( \theta_2^{1/2} ) = { \mu^2 \over 2 \sigma^2} - \ln \left( {1 \over \sigma } \right) </math><br />
<br />
=== Binomialverteilung ===<br />
<br />
Als Beispiel einer diskreten Exponentialfamilie betrachten wir die [[Binomialverteilung]]. Die Wahrscheinlichkeitsfunktion dieser Verteilung ist<br />
:<math>f(x)={n \choose x}p^x (1-p)^{n-x}, \quad x \in \{0, 1, 2, \ldots, n\}.</math><br />
Dies kann auch geschrieben werden als<br />
:<math>f(x)={n \choose x}\exp\left(x \log\left({p \over 1-p}\right) + n \log\left(1-p\right)\right),</math><br />
was zeigt, dass es sich bei der Binomialverteilung auch um eine Exponentialverteilung handelt. Der natürliche Parameter ist<br />
:<math>\eta = \log{p \over 1-p}.</math><br />
<br />
== Rolle in der Statistik ==<br />
=== Klassisches Schätzen: Suffizienz ===<br />
<br />
Nach dem '''Pitman-Koopman-Darmois Theorem''' gibt es unter Wahrscheinlichkeitsfamilien, deren Träger nicht von den Parametern abhängt nur bei den Exponentialfamilien [[Suffizienz (Statistik)|suffiziente Statistiken]], deren Dimension bei wachsender Stichprobengröße beschränkt bleibt. Etwas ausführlicher: Seien ''X''<sub>''n''</sub>, ''n'' = 1, 2, 3, … unabhängig und identisch verteilte Zufallszahlen, deren Wahrscheinlichkeitsverteilungsfamilie bekannt ist. Nur wenn diese Familie eine Exponentialfamilie ist, gibt es eine (möglicherweise vektorielle) [[Suffizienz (Statistik)|suffiziente Statistik]] ''T''(''X''<sub>1</sub>, …, ''X''<sub>''n''</sub>) deren Anzahl skalarer Komponenten nicht ansteigt, sollte der Stichprobenumfang ''n'' erhöht werden.<br />
<br />
=== Bayesianisches Schätzen: konjugierte Verteilungen ===<br />
<br />
Exponentialfamilien sind auch für die [[Bayessche Statistik]] wichtig. In der Bayesschen Statistik wird eine A-priori-Verteilung mit einer [[Maximum-Likelihood-Methode|Likelihood Funktion]] multipliziert und dann normiert, um auf die A-posteriori-Verteilung zu kommen. Falls die Likelihood zu einer Exponentialfamilie gehört existiert eine konjugierte Priori, die oft ebenfalls eine Exponentialfamilie ist. Eine konjugierte Priori ''π'' für den Parameter ''η'' einer Exponentialfamilie ist definiert durch<br />
<br />
:<math>\pi(\eta) \propto \exp(-\eta^{\top} \alpha - \beta\, A(\eta)),</math><br />
<br />
wobei <math>\alpha \in \mathbb{R}^n</math> und <math>\beta>0</math> [[Hyperparameter]] sind (Parameter die Parameter kontrollieren).<br />
<br />
Eine konjugierte Priori ist eine Priori, die kombiniert mit einer Likelihood und dem Normalisierungsterm eine Posteriori Verteilung ergibt, die wiederum vom Typ der Priori ist. Beispielsweise kann man die Betaverteilung als Priori wählen, wenn man die Erfolgswahrscheinlichkeit einer Binomialverteilung schätzen möchte. Da die Betaverteilung die zur Binomialverteilung konjugierte Verteilung ist, ist die Posterioriverteilung wieder eine Betaverteilung. Die Verwendung von konjugierten Prioris vereinfacht die Berechnung der Posterioriverteilung. <br />
<br />
Im Allgemeinen ist die Likelihood keine Exponentialfamilie, deshalb existiert im Allgemeinen auch keine konjugierte Prioriverteilung. Die Posteriori muss dann mit numerischen Methoden berechnet werden.<br />
<br />
=== Hypothesen Tests: gleichmäßig bester Test === <br />
<br />
{{Überarbeiten}}<br />
<br />
Die einparametrische Exponentialfamilie hat ein monotones nicht-fallendes Likelihood Ratio in der suffizienten Statistik ''T''(''x''), wenn η(θ) nicht-falllend ist. Daraus ergibt sich, dass ein gleichmäßig bester Test existiert, um die Hypthese ''H''<sub>0</sub>: θ ≥ θ<sub>0</sub> ''vs''. ''H''<sub>1</sub>: θ < θ<sub>0</sub> zu testen.<br />
<br />
<br />
== Referenzen ==<br />
<references/><br />
<br />
== Weiterführende Literatur ==<br />
* {{cite book<br />
| last = Lehmann<br />
| first = E. L.<br />
| coauthors = Casella, G.<br />
| title = Theory of Point Estimation<br />
| year = 1998<br />
| pages = 2nd ed., sec. 1.5<br />
}}<br />
* {{cite book <br />
| last = Keener <br />
| first = Robert W.<br />
| title = Statistical Theory: Notes for a Course in Theoretical Statistics<br />
| publisher = Springer <br />
| year = 2006<br />
| pages = 27–28, 32–33<br />
}}<br />
<br />
{{Navigationsleiste Wahrscheinlichkeitsverteilungen}}<br />
<br />
[[Kategorie:Stochastik]]<br />
[[Kategorie:Wahrscheinlichkeitsverteilung]]<br />
<br />
[[en:Exponential family]]<br />
[[nl:Exponentiële familie]]</div>138.246.2.103