Entradas

Mostrando entradas de mayo, 2017

Surgimiento Nazi

Imagen
Cultura de la Alemania Nazi La Alemania Nazi, antes de la primera guerra mundial era un país sobresaliente que luchaba para abrirse paso como potencia mundial. Al explotar la primera guerra mundial el 01 de agosto de 1914, Alemania se  lanzó al combate, apoyando al Imperio Austro-húngaro . En ese momento el país se dividió por culpa de los partidos Socialistas, buscando así la toma del poder político. La guerra para Alemania fue dirigida a los trabajadores de clase baja donde s acrificaron aproximadamente 1, 500,000 muertos , la mayoría eran jóvenes agricultores, mineros, etc. En 1917 se puso fin a la guerra, pero Francia y Gran Bretaña seguían en conflictos contra Alemania,  hasta el año 1919 donde los países involucrados en la guerra firmaron un tratado de paz denominado en Tratado de Versalles. Tratado de Versalles Alemania fue castigada severamente ligándolo a pagar una multa de 125 millones de Euros por reparación la...

El Nazismo y su Ideologia

Imagen
EL NAZISMO Y SU  IDEOLOGÍA Hitler al igual que los alemanes nazis, tal como lo confirman en sus programas y leyes tenían un sentido revanchista contra las personas que no fueran de la raza aria, pues ellos se creían superiores y no podían soportar estar viviendo en esas condiciones originadas por la derrota de la primera guerra mundial, por lo cual tenían que culpar a alguien por esa situación y culparon a la raza judía, a quien consideraban inferior, quitando sus derechos, para luego intentar llevarla al exterminio. IDEOLOGÍA Documental de la Ideología Nazi Según Hitler, los arios eran una raza privilegiada “forjadora de cultura” . Los judíos, en cambio, representaban para él un pueblo destructor de la cultura alemana. Hitler veía en el antisemitismo un fundamento de su misión histórica –llevar a la raza Aria a una posición privilegiada sobre otras y exterminar a los judíos que eran responsables del decaimiento de la raza alemana. Esto le llevó a desencad...

Historia del Nazismo

Imagen
Historia del Nazismo Nazi es la contracción de la palabra la alemana Nationalso ZIalistische, que se utiliza a todo lo que relaciona con el régimen que gobernó Alemania de 1933 a 1945 con la llegada al poder del partido nacionalista (El Tercer Reich). La Alemania de este periodo se conoce como la Alemania Nazi. El nazismo es una ideología que surge en Alemania de los años 30, momento en que las duras condiciones de paz impuestas en el Tratado de Versalles.   El Tratado de Versalles fue un tratado de paz que se firmó en la ciudad de Versalles al final de la Primera Guerra Mundial por más de 50 países. Este tratado terminó oficialmente con el estado de guerra entre la Alemania del segundo Reich y los Aliados de la Primera Guerra Mundial. Tratado de Versalles Era necesario buscar un culpable para la crisis alemana de pos guerra y además levantar el ánimo de un pueblo sumido en la derrota. Para ello, el Partido Nazi b...