Lugares importantes
Alemania
Información extraida de: La Segunda Guerra Mundial al completo: historia de un conflicto que cambió el mundo[1] de National Geographic.
Alemania fue un lugar importante para la guerra. Cuando la primera guerra mundial acabó, se firmó el Tratado de Versalles(1), que debía acabar con la guerra, pero fue el detonante de los hechos que acabaron por llevar a Adolf Hitler al poder y terminó desencadenando un nuevo conflicto que acarrearía episodios tan terribles como el Holocausto(2). La firma del tratado era un duro golpe de encajar para la delegación alemana. Tanto los representantes del país vencido, así como los periódicos y la población general, entendían que se trataba de un acto de imposición más que de una negociación.