Lexique :
Psychologie et santé
Terme :
Féminisme
Le féminisme est, selon les définitions du dictionnaire Merriam-Webster : « la théorie de l'égalité politique, économique et sociale des sexes » et « l'activité organisée au nom des droits et des intérêts des femmes ».