Sprachphilosophie
Die Sprachphilosophie ist die Disziplin der Philosophie, die sich mit dem Zusammenhang von Sprache, Bewusstsein und Realität beschäftigt. Damit ergeben sich zwei Untersuchungsfelder: die Beziehung zwischen Sprache und Realität und die Beziehung zwischen Sprache und Bewusstsein. Sprachphilosophische Untersuchungen können somit helfen, auch Fragen in benachbarten Gebieten wie der Metaphysik, der Erkenntnistheorie und der Philosophie des Geistes zu beantworten: Dank der von Gottlob Frege entwickelten Logik liess sich beispielsweise ein neues Argument gegen den ontologischen Gottesbeweis formulieren; und Hilary Putnam, Donald Davidson und Michael Dummett benützen sprachphilosophische Erkenntnisse für Argumente in der Debatte um Realismus und Antirealismus. Umgekehrt helfen Erkenntnisse in Metaphysik, Erkenntnistheorie und Philosophie des Geistes oft in sprachphilosophischen Belangen weiter. Sprachphilosophie als Teildisziplin ist wesentlich charakterisiert durch ihren Untersuchungsgegenstand, die Sprache. Sprachphilosophie ist aber weder Linguistik, deren Methoden weitgehend empirisch sind, noch Sprachanalyse (Begriffsanalyse), einer seit Sokrates’ „Was ist x?“-Fage verwendeten allgemeinen philosophischen Methode, sondern philosophische Auseinandersetzung mit dem Gegenstand Sprache.
Sprache und Realität
Referenz (Bezugnahme)
Dass es referierende (d.h. Bezug nehmende) Ausdrücke gibt, scheint unbezweifelbar: Der Name „Sokrates“ bezeichnet den griechischen Philosophen. Wenn man nun eine referentielle Bedeutungstheorie vertritt, d.h. wenn man behauptet, dass die Bedeutung eines Ausdrucks in seiner Referenz besteht, dann stellt sich folgendes Problem: Zwei Ausdrücke, welche dieselbe Referenz haben, d.h. die ko-extensional sind, haben nicht unbedingt denselben Erkenntniswert. Das berühmte Beispiel von Gottlob Frege ist:
„Der Abendstern ist der Morgenstern“.
Der Ausdruck „Abendstern“ und der Ausdruck „Morgenstern“ haben dieselbe Referenz, nämlich den Planeten Venus, aber der erste Ausdruck meint den hellsten Stern am Abend, der zweite den hellsten Stern am Morgen. Der Satz lässt sich also mit Hilfe von Kennzeichnungen, d.h. von Ausdrücken der Art „der/die/das A“ so formulieren:
„Der hellste Stern am Abend ist der hellste Stern am Morgen.“
Doch damit ist das Problem noch nicht gelöst, denn die erste Kennzeichnung hat dieselbe Referenz wie die zweite und müsste, wenn die referentielle Bedeutungstheorie wahr ist, dieselbe Bedeutung haben. Das ist jedoch nicht der Fall, denn jemand kann wissen, dass der hellste Stern am Abend die Venus ist, ohne zu wissen, dass der hellste Stern am Morgen auch die Venus ist. Wie ist das Problem zu lösen? Es bestehen grundsätzlich zwei Lösungsansätze, der Ansatz von Gottlob Frege und der Ansatz von Bertrand Russell.
(1) Frege schlägt vor, dass man Kennzeichnungen als Ausdrücke versteht, welche eine Extension (Bedeutung in Freges Terminologie) und eine Intension (Sinn in Freges Terminologie) aufweisen.
(2) Russell schlägt vor, dass man Kennzeichnungen gar nicht als referierende Ausdrücke ansieht, sondern dass man Sätze, in denen Kennzeichnungen vorkommen, als eine Konjunktion von drei quantifizierenden Sätzen versteht. Zum Beispiel würde der Satz „Der hellste Stern am Abend ist der hellste Stern am Morgen“ so analysiert: Es gibt mindestens einen hellsten Stern am Abend und höchstens einen hellsten Stern am Abend und dieser Stern ist der hellste Stern am Morgen. Damit würde erklärt, weshalb jemand wissen kann, dass der hellste Stern am Abend die Venus ist, ohne zu wissen, dass der hellste Stern am Morgen auch die Venus ist.
Peter Strawson hat beide Ansätze kritisiert, ebenso Keith Donnellan, der das Problem durch eine Unterscheidung in attributiven und referentiellen Gebrauch zu lösen versucht.
Siehe auch: Kennzeichnung
Ein weiteres Problem sind Eigennamen. Wie sind Eigennamen zu analysieren? Auch hierzu gibt es zwei Lösungsansätze, erstens der von Russell und Frege vertretene Ansatz, zweitens der von Saul Kripke und Hilary Putnam vertretene Ansatz.
(1) Frege und Russell – die sich im Unterschied zur Analyse von Kennzeichnungen bei der Analyse von Eigennamen einig sind – schlagen vor, dass Eigennamen im Grunde gar keine Eigennamen sind, sondern als Kennzeichnungen zu analysieren sind. Kripke hat diesen Ansatz folgender Kritik ausgesetzt: Wenn es so wäre, dass Eigennamen im Grunde Kennzeichnungen sind, dann wäre es nicht möglich, dass eine Person die mit der Kennzeichnung zugeschriebenen Eigenschaft nicht hätte; dies widerspricht jedoch unserer Intuition. Wenn man zum Beispiel den Namen „Sokrates“ als „der weiseste Philosoph Griechenlands“ interpretiert, dann wäre es nicht möglich, dass Sokrates nicht der weiseste Philosoph Griechenlands gewesen ist; aber das scheint uns sehr wohl möglich: Sokrates wäre immer noch Sokrates, auch wenn er nicht der weisester Philosoph Griechenlands wäre.
(2) Kripke schlägt vor, Eigennamen als direkt referierende Ausdrücke zu verstehen, welche ihre Bedeutung in einem ursprünglichen Taufakt erhalten. Putnam überträgt diesen Ansatz auf Namen für natürliche Arten wie zum Beispiel „Gold“ und „Wasser“.
Siehe Eigennamen (Philosophie)
Bedeutung
Traditionelle Bedeutungstheorien gehen davon aus, dass mit der Bedeutung ein Gegenstand bezeichnet ist. Diese Theorien haben jedoch das Problem, dass sie Sätze, in denen Ausdrücke vorkommen, die auf nichts referieren – zum Beispiel: „Pegasus ist ein geflügeltes Pferd“ -, ihnen gemäss keine Bedeutung hätten. Zudem gibt es viele Ausdrücke wie zum Beispiel Konjunktionen und Präpositionen, welche auf nichts zu referieren scheinen.
Moderne Bedeutungstheorien stellen die Frage, wie es überhaupt dazu kommt, dass ein Zeichen Bedeutung hat. Damit gelangen sie zur Ansicht, dass die Bedeutung eines Ausdrucks kein Gegenstand ist, sondern durch den Gebrauch des Zeichens gebildet ist. Man kann diese geschichtliche Wende in der Sprachphilosophie auch als Übergang von der Philosophie der idealen Sprache zur Philosophie der normalen Sprache (engl. Ordinary language philosophy) bezeichnen. Während die traditionellen Bedeutungstheorien die Frage zu beantworten suchen, wie die Sprache durch ein formales System revidiert oder gar ersetzt werden kann, versuchen die modernen Bedeutungstheorien die Sprache in ihrem sozialen Kontext zu untersuchen, wobei angenommen wird, dass die Sprache weder revidiert noch ersetzt, sondern lediglich beschrieben und allenfalls erklärt werden muss. Als bahnbrechend für diese Wende gilt Ludwig Wittgensteins Werk Philosophische Untersuchungen. In der Folge haben sich verschiedene Bedeutungstheorien entwickelt.
(1) Der von Wittgenstein selbst verfolgte Ansatz will lediglich eine Beschreibung der Sprache liefern, keine Erklärung. In dieser Beschreibung spielen die Begriffe Sprachspiel und Regel eine wesentliche Rolle.
(2) Der von Willard Van Orman Quine entwickelte Ansatz ersetzt den Begriff der Bedeutung durch den der Verifikation: Was ein Satz bedeutet, ist dadurch bestimmt, wie er hinsichtlich seiner Wahrheit überprüft (verifiziert) wird (siehe Verifikationismus). Donald Davidson konstruiert eine Bedeutungstheorie als Wahrheitstheorie gemäss der Theorie von Alfred Tarski.
(3) Der von Paul Grice entwickelte Ansatz versucht den Begriff der Bedeutung mit dem Absicht zu analysieren: Das, was ein Zeichen bedeutet, ist das, was ein Sprecher damit meint, d.h. was er damit in einem ganz bestimmten Sinn beabsichtigt (siehe Sprecherbedeutung).
Siehe Bedeutungstheorien
Sprechakte
Wer spricht, der stellt nicht nur etwas dar, der tut etwas. Diese Erkenntnis hat John Langshaw Austinin einer Vorlesungsreihe im Jahre 1955 formuliert (1962 als How To Do Things With Words publiziert). Austin unterscheidet in der Folge zwischen einem lokutionären, einem illokutionären und einem perlokutionären Akt, vereinfachend gesagt zwischen dem, was mit der Äusserung gesagt wird, was mit ihr getan wird und was mit ihr bewirkt wird. Wenn zum Beispiel jemand äussert "Schiess dieses Tier nieder!", dann hat er damit gesagt, dass die angesprochene Person das Tier niederschiessen soll (Lokution), er hat ihr geraten oder befohlen, das Tier niederzuschiessen (Illoktion) und er hat sie (unter Umständen) überzeugt, dass er das Tier niederschiessen soll (Perlokution).
Einige Äusserungen sind sogenannte explizit performative Äusserungen; der Sprecher gibt dabei die illokutionäre Rolle seiner Äusseurng explizit an. Zum Beispiel: "Hiermit warne ich Dich!". Eine explizit performative Äusserung ist weder wahr noch falsch; sie kann gelingen oder nicht gelingen. Untersucht werden die sogenannten Gelingensbedingungen von performativen Äusserungen.
John Searle versucht, die Austins Ansätze zu einer Sprechakttheorie zu systematisieren. Er unterscheidet fünf Typen von Sprechakten: Repräsentivum/Assertivum, Direktivum, Kommissivum, Expressivum und Deklarativum. Es ist umstritten, wie hilfreich diese Einteilung in der Linguistik ist.
Siehe Sprechakttheorie
Implikatur
Manchmal meinen wir das, was wir sagen; öfters meinen wir jedoch etwas anderes oder etwas mehr als das, was wir sagen; wir deuten es lediglich an. Zum Beispiel sagt jemand als Antwort auf die Frage, wo man Benzin tanken könne, dass es eine Tankstelle um die Ecke gebe. Damit hat die Person nicht gesagt, dass man dort Benzin tanken könne, sie hat es lediglich angedeutet.
Paul Grice hat versucht, diesen Aspekt der Bedeutung als Implikatur zu verstehen. Der Ausdruck „Implikatur“ ist ein Kunstwort, das nur innerhalb von Grice Theorie – und Weiterentwicklungen davon – eine klar umrissene Bedeutung hat. Die Grundidee von Grice ist, die sprachliche Verständigung als ein rationales Handeln anzsehen, das auf dem sogenannten Kooperationsprinzip beruht. Diesem Prinzip sind verschiedene Konversationsmaximen untergeordnet, beispielsweise dass ein Sprecher seinen Beitrag so informativ wie möglich gestalten soll. Wenn wir mehr oder etwas anderes sagen, als wir meinen, aber dennoch kooperativ sind, dann ist dies darauf zurückzuführen, dass eine dieser Maximen nicht eingehalten oder verletzt wird.
Siehe Implikatur, Kooperationsprinzip (Sprache) und Konversationsmaximen
Metapher
Wird ein Ausdruck nicht-wörtlich verwendet, so spricht man oftmals von einer Metapher. Zum Beispiel ist die Redeweise "Du bist meine Sonne" metaphorisch; damit ist nicht gemeint, dass die angesprochene Person tatsächlich eine Sonne ist. Was eine Metapher ist, wie sie erklärt werden soll und was es Hörern erlaubt, eine Metapher zu verstehen, sind allerdings umstrittene Fragen.
(1) Gemäss einer einfachen Theorie ist eine Metapher ein Art, auf eine Ähnlichkeit zwischen zwei Dingen zu verweisen. Gemäss Donald Davidson wird dieser Verweis kausal hergestellt, gemäss anderer Ansicht ist die Metapher nichts anderes als eine Abkürzung für diesen Verweis. Diese einfache Theorie scheint jedoch falsch zu sein: Das, was mit einer Metapher in Verbindung gebracht wird, sind selten (oder vielleicht sogar nie) Gegenstände, die überhaupt irgendwelche Ähnlichkeit haben oder haben können. Zum Beispiel: Inwiefern ist die Sonne einer Person ähnlich? Versucht man diese Frage zu beantworten, scheint man immer wieder auf Metaphern zurückgreifen zu müssen!
(2) Gemäss Donald Davidson ist es irreführend, von einer metaphorischen Bedeutung zu reden, weil Wörter immer nur ihre wörtliche Bedeutung hätten und es lediglich einen metaphorischen Gebrauch davon gebe. John Searle versucht, diesen Gebrauch mit Hilfe von Grice' Implikaturen zu erklären: Sagt ein Sprecher "Du bist meine Sonne", so implikiert er damit, dass die Person wie eine Sonne ist. Doch damit ist immer noch nicht geklärt, wie das "wie" zu analysieren ist, und genau das ist die Frage.
Siehe Metapher
Sprache und Bewusstsein
Sprachkompetenz
Wie können wir erklären, dass Menschen ihre Muttersprache so schnell erlernen können? In der Spracherwerbsforschung gibt es zwei klassische Ansichten, die von Noam Chomsky und von Jean Piaget erstmals formuliert wurden.
(1) Der von Chomsky vertretene Nativismus geht davon aus, dass Menschen über eine sogenannte Universalgrammatik verfügen. Unter einer Universalgrammatik stellen sich Natvisten wie Chomsky, Jerry Fodor und Steven Pinker ein angeborenes syntaktisches Wissen vor. Nur bei der Annahme von einem solchen Wissen könne man den Spracherwerb von Kindern erklären: So würde der sprachliche Input, den Kinder erhalten, die Konstruktion von ganz verschiedenen Grammatiken zulassen. Dass Kinder sich dennoch alle für die gleiche Grammatik entscheiden, könne man nur durch angeborene Prinzipien erklären.
(2) Der klassische Kontrahent des Nativismus ist der Kognitivismus, der erstmals in Piagets Theorie der Entwicklung kindlicher Kognition ausgearbeitet wurde. Kognitivistische Theorien gehen davon aus, dass sich der Spracherwerb durch die Denkfähigkeiten des Menschen erklären lasse und man nicht auf eine angeborene Universalgrammatik zurückgreifen müsse. In den letzten Jahren wurde der klassische Kognitivismus zunehmend durch einen Interaktionismus ergänzt, der ein stärkeres Gewicht auf die soziale Interaktion von Menschen legt. In diese Richtung geht auch der Vorschlag des Anthropologen Michael Tomasello. Tomasello schlägt vor, dass Menschen über allgemeine kognitive Fähigkeiten verfügen, die sie zur Kommunikation einsetzen. Eine Universalgrammatik im Sinne Chomskys ist nicht notwendig, um den Erstspracherwerb zu erklären.
Siehe Universalgrammatik
Verstehen
Wie können wir erklären, dass kompetente Sprecher einer Sprache neue Sätze auf Anhieb verstehen können? Die naheliegende Antwort ist die, dass die Sprache kompositional aufgebaut ist. Donald Davidson hat versucht, eine kompositionale Bedeutungstheorie als Wahrheitstheorie in der Form der Theorie von Alfred Tarski zu formulieren.
Michael Dummett glaubt, dass die Bedeutungstheorie im Grunde eine Interpretationstheorie ist. Zu philosophischen Erkenntnissen des Denkens gelangen wir gemäss Dummett nur über eine philosophische Untersuchung der Sprache.
Siehe Frege-Prinzip
Sprachliche Relativität
Edward Sapir und Benjamin Whorf vertreten die Theorie der sprachlichen Relativität: Sie behaupten, dass die Gedanken insofern relativ zu einer Sprache sind, dass sich gewisse Gedanken nur in bestimmten Sprachen formulieren und verstehen lassen. Sie glauben, dies unter anderem mit empirischen Studien der Sprache von Indianern und Eskimos belegen zu können. Donald Davidson vertritt dagegen die These, dass alle Menschen, insofern sie miteinander kommunizieren, über dasselbe Begriffsschema verfügen, weil ein grundsätzlich anderes Begriffsschema für uns gar nicht verständlich wäre.
Siehe Sapir-Whorf-Hypothese
Geschichte der Sprachphilosophie
Die Anfänge der Sprachphilosophie gehen bis in die Antike zurück. Die moderne Sprachphilosophie hat sich als eigenständige Disziplin erst mit der Entwicklung der modernen Logik durch den deutschen Mathematiker und Philosophen Gottlob Frege und im Anschluss an Ludwig Wittgenstein entwickelt. Entscheidend war der Linguistic Turn.
Literatur
Vorlage:Philosophiebibliographie1
- Einführungen in die analytische Sprachphilosophie in deutscher Sprache
- Ernst Tugendhat und Ursula Wolf, Logisch-semantische Propädeutik, Stuttgart: Reclam, 1983.
- Edmund Runggaldier, Analytische Sprachphilosophie, Stuttgart: Kohlhammer, 1990. (Führt in die sprachphilosophische Begrifflichkeit ein.)
- Peter Prechtl, Sprachphilosophie, Metzler, 1998. (Die gegenwärtig wohl umfassendste Einführung in die Sprachphilosophie in deutscher Sprache.)
- Einführungen in die analytische Sprachphilosophie in englischer Sprache
- William Lycan, Philosophy of Language, New York: Routledge, 2000. (Gegenwärtig das wohl beste Einführungsbuch. Einfach und anregend geschrieben.)
- Michael Devitt and Kim Sterelny, Language and Reality, Second Edition, Oxford: Blackwell, 1999. (Gutes Einführungsbuch, das von einem naturalistischen Standpunkt aus geschrieben ist.)
- Einführungen in die nichtanalytische Sprachphilosophie
- Erich Heintel, Einführung in die Sprachphilosophie,3. Aufl., Darmstadt : Wiss. Buchgesellschaft 1986
- Josef Simon, Sprachphilosophie, Freiburg: Alber 1981
Siehe auch
Weblinks
- meaning.ch – Homepage zu Paul Grice und zur Semantik/Pragmatik-Unterscheidung mit einer bibliographischen Datenbank