Uns interessiert deine Meinung, dein Denken, deine Einstellung.
In den Medien wie TV, Zeitschriften, Internet etc. werden Frauen in fast jeglicher unbekleideter Form gezeigt, ob in der Werbung oder als "Lockmittel" für andere Produkte oder für diverse Reportagen.
In einigen Fällen, wird der ganze Körper, egal ob Rückseite oder Vorderseite unverhüllt gezeigt.
Warum werden bei der männlichen Darstellung Maximum nur der nackte Hintern gezeigt, wenn überhaupt.
Nur weil das markante Geschlechtsteil von Körper, auch ohne Erregung, hervorgeht? Das man ein Sexualorgan offensichtlich sieht?
Wie ist es bei Frauen? Diese können gezeigt werden, weil die markanten Geschlechtsteile am oder im Körper Anliegen?
Nur weil man eventuell ihre Erregung nicht offensichtlich sieht?
Warum ist es normal und nicht verwerflich, wenn eine Frau sich an den Landungsbrücken komplett nackt zeigt und sich fotografieren lässt? (Gerade am Wochenende gesehen)
Was würde da ein Aufschrei passieren, wenn sich ein Mann komplett nackt an den Landungsbrücken zeigt ....
Es müssen sich mehr Männer zusammen tun und sich öffentlich frei bewegen können ohne das es ein Nachruf gibt, in der Form wie Exhibitionist oder "geiler Bock" etc.
Also, raus in die Natur und spazieren, Fahrrad fahren etc., ohne sexistische Gedanken, so wie die Naturisten und FKKler.
Würdest du dich einfach so öffentlich zeigen und als Vorwand, um Sexismus auszuschließen, dich fotografieren lassen?