Zum Inhalt springen

Diskussion:Kategorischer Imperativ

Seiteninhalte werden in anderen Sprachen nicht unterstützt.
aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 14. Juni 2004 um 20:35 Uhr durch Rrr (Diskussion | Beiträge) (Warum ist die Kritik nicht berechtigt?). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Wozu dient die Betonung, dass der KI für alle Vernunftwesen und nicht alleine für Menschen gelte, zumal da ja auch noch steht, dass Kant an keine anderen Vernunftwesen als an die Menschen gedacht hat? Muss man hier unbedingt schon einmal die Anpassung der Philosophie an eine mögliche zukünftige Existenz von intelligenten Robotern oder Aliens vornehmen, oder was hatte der Autor im Sinn?--El 19:40, 5. Sep 2003 (CEST)

Nein. Mit sowas hat sich Kant nicht beschäftigt. Für ihn heißt das, daß die Herleitung des KI so allgemein ist, daß keinerlei empirische Daten des Menschen benötigt werden, außer daß es sich um ein Vernunftwesen handelt.--WKr 18:02, 20. Jan 2004 (CET)

Beziehungsweise wird damit ausgedrückt, dass der KI an der vernunft fest gemacht wird, somit für jeden Menschen unbeschränkt gilt. Im übrigen, war bei Kant noch die theoretische Annahme, dass Engel reine Vernunftwesen sind. Für diese würde der KI also auch gelten, auch wenn sie diesen gar nicht brauchen, eben weil sie reine Vernunftwesen sind und "automatisch" gut handeln. Dima.

Kritik

Folgenden Absatz aus dem Artikel hierher verschoben (Hokanomono|Diskussion 12:54, 26. Apr 2004 (CEST)):

»Ein Hauptargument gegen den Kategorischen Imperativ ist, dass Allgemeingültigkeit allein keine Begründung für gutes Handeln sein kann. So hätte zur Zeit des Dritten Reiches in Deutschland die Maxime, Juden zu töten, ?als Prinzip einer allgemeinen Gesetzgebung gelten? können.«

Die Kritik am Ende des Artikels geht fehl. Die Maxime ist falsch abgeleitet. die Maxime der Nazi-Praxis müßte eher lauten "Du sollst Menschen, von denen Du glaubst, dass Sie schlecht sind, töten." Diese Maxime könnte nicht die Grundlage eines allgemeinen Gesetzes sein und würde auch die Menschen nicht als Selbstzweck behandeln. Hhc2 23:16, 25. Apr 2004 (CEST)

Ich stimme zu, dass die Kritik falsch ist, denn sie enthält eine fallacia consequentis. Sie unterstellt dem kategorischen Imperativ, er würde nicht nur eine notwendige sondern auch hinreichende Bedingung – ein Kriterium im engeren Sinn, das formal anwendbar ist – für ethisches Handeln darstellen; leicht zeigt der Kritiker nun per exemplum in contrarium, dass dieser unterstellte Anspruch unerfüllt ist. ? Hokanomono|Diskussion 12:54, 26. Apr 2004 (CEST)

Warum ist die Kritik nicht berechtigt?

Ich verstehe nicht ganz, warum die Kritik nicht berechtigt ist. Es ist lediglich ein Problem der Wortwahl.

NUR ein Pb der Wortwahl, das ist meines Erachtens nicht richtig. Die Aussage ist eine andere. Die Abstraktionesbene auch. Das ist ein KernPb des KI. Hhc2 12:20, 14. Jun 2004 (CEST)

Im dritten Reich wurden doch u. a. Juden als "Menschen" unterer Klasse (und manchmal nicht mal als Menschen) betrachtet. Dann kann die Maxime der Nazis ohne "Menschen" im Sinne aller Menschen formuliert werden, sondern nur auf die "Sklavenrassen" und bleibt aus der Sicht (Weltbild) der Nazis formal korrekt. Sie enthält dann auch den Menschen (im nazistischen Sinn: das arische Volk) als Zweck und nicht als Mittel. Es kann so in ihrem Sinne ein allgemeines Gesetz sein. Auserdem wurde die Rassenlehre ja auch als Naturgesetz verehrt.

Eine Überlegung, die in ähnliche Richtung geht, findet sich in der Dialektik der Aufklärung von Horkheimer/Adorno (Frankfurt a.M., 1971)
(Elemente des Antisemitismus - Grenzen der Aufklärung): Im Faschismus wird ... das Wahnsystem zur vernünftigen Norm in der Welt... (S. 168)
Der faschistische Antisemitismus muß sein Objekt gewissermaßen erst erfinden... (S. 185) - (Das Objekt = Der lebensunwerte Untermensch)
So funktioniert nach Adorno die paranoide Wahnvorstellung des Faschisten als Scheinrationalität. --Rrr 01:54, 14. Jun 2004 (CEST)
Daß etwas für ein Naturgesetz gehalten wird, macht es ja noch nicht dazu, und zu einem moralischen auch nicht. Und daß man eine Verhaltensvorstellung für rational hält, macht sie nicht rational, wenn sie es nicht ist. Ich glaube
nicht, daß Adorno etc. was anderes sagen wollten. Hhc2 12:20, 14. Jun 2004 (CEST)
Das stimmt schon, dass es aus UNSERER Sicht kein Naturgesetz oder moralisches Gesetz ist. Da jedoch der KI Subjektivität ("...Maxime DEINES Willens") auf die Allgemeinheit beziehen lässt, ist es doch aus der Sicht der Nazis gerechtfertigt. Ihre Subjektivität sieht es nicht anders und verallgemeinert. Das ist ja auch das, was ich als Kritik am KI sehe: Subjektivität -> Objektivität.
Nach deiner Argumentation, sehe ich keine Möglichkeit den KI auf irgendeine Art anzuwenden, weil sich in der Allgemeinheit stets jemand finden lassen kann, der deine Maxime nicht teilt und dir so unterstellen kann, dass du den KI nicht richtig angewendet hast. Korrigiere mich bitte, wenn ich etwas falsch verstanden habe. --Filip 15:40, 14. Jun 2004 (CEST)
Ich denke, der Preis, den der Argumentierer zahlen muss, ist, dass seine Weltvorstellung erkennbar an dem entscheidenden Punkt zur paranoiden Wahnvorstellung mutiert. Es kann doch nicht Kant vorgeworfen werden, dass es ihm nicht gelungen sei, sektiererische Völkermörder von ihrem Massenmord abzuhalten. Als ob irgendeine Ethik so funktionieren könnte! Glaubst du wirklich, Hitler wurde Kriegsverbrecher und Völkermörder, weil es das Gebot, du sollst nicht töten, noch nie vorher gehört oder verstanden hat? Ich frage mich ernsthaft, was du uns hinter deinem Argument in Wirklichkeit sagen willst.--Rrr 20:58, 14. Jun 2004 (CEST)

Weiterhin würde mich interessieren, warum der KI nur eine notwendige Bedingung ist.

Der KI ist nur notwendige Bedingung, weil es auch Maximen gibt, die selbst als auch in ihrem Gegenteil ein allg. G werden könnten.
Diese Handlungen / Max. sind moralisch neutral. Hhc2 12:21, 14. Jun 2004 (CEST)

Ich bitte um das Aufzeigen des "Exemplum in contrarium". Ich verstehe nicht, wie ein moralischer Grundsatz, welcher "a priori" im Menschen gegeben ist, nicht formal anwendbar sein soll.

Desweiteren habe ich in diesem Zusammenhang noch die Frage, ob mit dem KI "gut" und "schlecht" definiert wird/werden kann. Da das ja u. a. die Untersuchungsgrundlagen der Ethik sind und der KI als ethische Grundnorm betrachtet wird, müsste er ja dazu in der Lage sein. aus dem Artikel kann ich dies nicht erkennen.

mfg Filip