El Nacionalismo en Alemania El nacionalismo en Alemania fue una ideología política y cultural que afirma que los alemanes son una nación y que promueve la unidad cultural entre ellos. Adolf Hitler fue uno de los promotores de el nacionalismo alemán. El gobierno de Hitler, tomo control de la educación y de las formas de comunicación. En su gobierno el racismo incrementó.