droits des femmes

Les droits des femmes sont des droits, théoriques ou réels, dont la défense est un objectif afin de parvenir à une société plus égalitaire. Dans les faits, ils peuvent être réduits par les lois ou coutumes de chaque pays ou société particulière. Les droits des femmes font partie de la notion plus générale de droits de l’homme.

Laisser un commentaire