IA
quinta-feira, abril 09, 2026
O direito positivo é o conjunto de normas escritas e vigentes criadas pelo Estado (direito posto) para reger uma sociedade, caracterizado pela coerção e mutabilidade. O positivismo jurídico clássico, com Mateus Salvadori e Kelsen, defende a separação entre Direito e Moral, focando na validade formal da norma, não em seu conteúdo ético.
Assinar:
Postar comentários (Atom)

Nenhum comentário:
Postar um comentário