Über ¿Deutschland, deine Kolonien¿
Eine Einführung in die deutsche Kolonialgeschichte - jetzt im Taschenbuch
Deutschland - eine Kolonialmacht? Die Legende von der zaghaften kleinen Möchtegern-Kolonialmacht, die sich zivilisierter betragen hat als andere, kommt allmählich ins Wanken. Und das zu Recht, denn das deutsche Kaiserreich beutete kolonisierte Länder in Afrika, in China oder der Südsee nicht weniger gierig und gewalttätig aus als andere Kolonialmächte.
Dieses Buch zeichnet den deutschen Kolonialismus von den Anfängen nach und bietet anhand eindrücklicher Zeitzeugenberichte und Abbildungen Einblicke in den Alltag in den kolonisierten Ländern. Vor allem aber zeigt es, wie andauernd die Folgen des deutschen Kolonialismus zu spüren sind und warum eine breite gesellschaftliche Auseinandersetzung mit dieser Epoche überfällig ist.
Ausstattung: mit Abbildungen
Mehr anzeigen