droit positif
- Domaine
-
- droit
Définition :
Ensemble des règles de droit édictées par un État et par les organismes à qui il a accordé le pouvoir d'édicter des règles de droit (soit les lois et les règlements), par opposition aux principes généraux du droit non déjà prévus par de telles règles et par opposition, s'il y a lieu, au droit naturel.
Note :
Le droit positif est le droit édicté par l'État ou par une institution à qui il a délégué le pouvoir d'édicter des règles de droit.
Terme :
- droit positif