KAISERREICH DEUTSCHLAND
Die Gründung des Deutschen Reiches im Jahre 1871 im Spiegelsaal von Versailles beendete den preußisch-französischen Krieg ebenso wie die Existenz zahlreicher deutscher Kleinstaaten. Der Enkel des Kaisers Wilhelm I. betrieb eine Kolonisationspolitik mit dem Ziel aus Deutschland ein Weltreich nach dem Vorbild des britischen Empires und Frankreichs zu machen. Aufgrund des folgenden Wettrüstens der rivalisierenden europäischen Großmächten, und mit dem Aufstieg der Nationalismen war der Weltkrieg unausweichlich : ausgelöst wurde dieser durch das Attentat von Sarajewo auf den österreichischen Thronfolger Franz-Ferdinand und endete mit der Abdankung von Kaiser Wilhelm II. im Jahre 1918.