Kolonie (Begriffsklärung)
Erscheinungsbild
Eine Kolonie (v.lat.: colonia Länderei, v. colere bebauen, bewohnen) bezeichnet
- ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht. Siehe auch: Kolonialismus
- In der Antike gründeten viele Mächte (z. B. die Phönizier) Handelsniederlassungen in weit entfernten Gebieten, um dort die Kontrolle über den Handel zu etablieren.
- Diese Niederlassungen übernahmen die Kultur der Gründer, hatten aber eine gewisse Eigenständigkeit oder wurden später auch selbständig.
Beispielsweise war Karthago ursprünglich eine Kolonie der Phönizier.
- In der Kolonialzeit eroberten viele europäische Staaten (Spanien, Portugal, Frankreich, Großbritannien, Russland, Belgien, Niederlande, Deutschland, Dänemark) Gebiete auf allen anderen Kontinenten, und errichteten weltweite Kolonialreiche.
- Seit dem 2. Weltkrieg sind alle Kolonien (bis auf wenige Inseln) unabhängig geworden.
- Eine Siedlung. (Kzw. f. Laubenkolonie)
- In der Biologie ein Verband von Lebewesen der gleichen Art. Viele Tiere, aber auch Bakterien, Pilze und Algen bilden Kolonien, siehe Kolonie (Biologie).
- Ferienkolonie
- Strafkolonie