Total de visualizações de página (desde out/2009)

segunda-feira, 25 de abril de 2022

Positivismo no Brasil

O Positivismo deriva dos ideais iluministas do séc. XVIII, tendo Augusto Comte como seu idealizador, pautado na ideia de que a ciência e o progresso são os pilares para evolução social. 

Ele afirma que a sociedade naturalmente evolui e segue seus estudos sociais nessa premissa. Sendo assim, para ele, a escravidão, por exemplo, existiu porque, naquele momento, os europeus portugueses eram superiores aos povos africanos.

Na prática, o positivismo influenciou, e muito, o exército brasileiro, especialmente aos Oficiais instrutores da Academia Militar da Praia Vermelha (RJ). Nesta perspectiva, o golpe da República seria uma evolução natural necessária ao progresso, visto que não havia mais monarquia nas Américas.

Porém, acreditar na evolução natural da sociedade, seria anular as responsabilidades dos governos que têm o dever de "conduzir" seus cidadãos e sua função de reduzir as desigualdades.

Neste diapasão, o positivismo caiu em desuso no Brasil, haja vista que é inviável aqui e em qualquer outro país, pois trata sociedades diferentes como iguais, implantando um modelo progressivo natural. Isso quer dizer que, àqueles que não seguissem o que o governo considera certo e importante ao progresso, seria naturalmente excluídos. Da mesma forma, aqueles que não acreditassem que a ciência nos rege estariam fadados à marginalização. 

Nenhum comentário:

Postar um comentário