Escrito por Fernando Coelho.
O termo liberalismo no Brasil é normalmente associado a vertentes do liberalismo econômico que advogam a redução do Estado na economia. Ser liberal no país significa ser de direita, ser a favor do mercado e, portanto, conservador! No senso comum, conservadorismo e