Zum Inhalt springen

Western (Begriffsklärung)

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 17. Oktober 2006 um 00:20 Uhr durch Amphibium (Diskussion | Beiträge) (linkfixes). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Western, das englische Wort für westlich, ist

  • die Bezeichnung einer Art von Film oder Buch, die meist im 19. Jahrhundert im westlichen Teil der USA spielen, im Wilden Westen. Siehe: Western

Es ist ferner der Name folgender Provinzen und Distrikte: