La Violencia de Género sólo incluye las agresiones del hombre hacia la mujer.
Se generaliza la idea de que las mujeres son las víctimas y los hombres los agresores. Esto es debido a que vivimos en un país en el que el hombre ejerce el poder sobre la mujer en diferentes ámbitos, aunque me gustaría destacar y reiterar que este dato da una idea no del todo cierta y supone una imagen injusta para los varones, ya que no siempre es así.
No hay comentarios:
Publicar un comentario