Livro revela como Hollywood deu as mãos ao nazismo
“O Pacto entre Hollywood e o Nazismo” é um livro absolutamente chocante para quem se interessa por história e especialmente por cinema. Escrito por Ben Urwand, mestre em cinema e doutor em história dos EUA, o livro vem causando furor desde 2013, quando foi lançado. No fim do ano passado chegou finalmente ao Brasil (ed. […]