Durante mucho tiempo, las mujeres no han recibido la misma atención y respeto que los hombres en términos de derechos. Sin embargo, ahora las cosas están cambiando y se están empezando a reconocer y valorar los derechos de las mujeres. Esto significa que se les está dando la importancia que merecen y se están tomando medidas para garantizar que tengan las mismas oportunidades y trato justo que los hombres.