Zum Inhalt springen

Deutsche Kolonien

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 15. Mai 2003 um 13:47 Uhr durch 217.5.97.71 (Diskussion) (wikilinks). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Deutschland war eine der letzten Mächte, die im 18. Jahrhundert Kolonien begründete. Dennoch besaß das Deutsche Reich um die vorletzte Jahrhundertwende herum eines der größten Kolonialreiche der Welt.

Deutschland verlor alle seine Kolonien nach dem Verlust des Ersten Weltkriegs 1918 durch den Vertrag von Versailles.

Die deutschen Kolonien waren:

Joseph Goebbels gründete 1942 in Südamerika die nie offiziell anerkannte Colonia Dignidad, die 1998 aufgelöst wurde.

Verwandte Themen: Kolonialismus, Entwicklungsländer


Quelle: "Kleiner deutscher Kolonialatlas", Berlin 1899