Zum Inhalt springen

Deutsche Kolonien

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 7. September 2002 um 16:17 Uhr durch Kurt Jansson (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Deutschland war eine der letzten Mächte, die im 18. Jahrhundert Kolonien begründete. Dennoch besaß das Deutsche Reich um die vorletzte Jahrhundertwende herum eines der größten Kolonialreiche der Welt.

Deutschland verlor alle seine Kolonien nach dem Verlust des Ersten Weltkriegs 1918 durch den Vertrag von Versailles.

Die deutschen Kolonien waren:

Joseph Goebbels gründete 1942 in Südamerika die nie offiziell anerkannte Colonia Dignidad, die 1998 aufgelöst wurde.


Quelle: "Kleiner deutscher Kolonialatlas", Berlin 1899