Erster Weltkrieg
Der Erste Weltkrieg, ursprünglich als „der Krieg, der alle Kriege beenden sollte“ bezeichnet, führte nicht zum Frieden, sondern bereitete den Boden für den Zweiten Weltkrieg. Die unklare Kapitulation Deutschlands und das Gefühl von Verrat unter den Deutschen trugen zu den nachfolgenden Konflikten bei. Die brutal neuen Kriegsführungsmethoden und die enormen Opfer, die im Namen des Friedens gebracht wurden, dürfen nicht vergessen werden.