Franken
Aktives Mitglied
Thread Starter
- Dabei seit
- 07.09.2005
- Beiträge
- 3.659
- Reaktionspunkte
- 536
Mich würde mal interessieren, was ihr so zum Thema Frauenfußball denkt.
Gefällte es Euch, ist es zwingend wichtig, dass auch Frauen Fußball spielen oder sollte es doch eine Männersache bleiben?
Oder ist es ein Sport für Männer wie für Frauen.
Oder sieht es affig aus, wenn Frauen kicken?
War es die letzte Hürde der Emanzipation oder ist es vielleicht nur ein Hype, der mal wieder verschwinden wird?
Meine Meinung.
Ich bin etwas unschlüssig und weiß nicht so recht, wie ich dazu stehen soll - daher auch dieser Fred.
Gruss
Franke
Gefällte es Euch, ist es zwingend wichtig, dass auch Frauen Fußball spielen oder sollte es doch eine Männersache bleiben?
Oder ist es ein Sport für Männer wie für Frauen.
Oder sieht es affig aus, wenn Frauen kicken?
War es die letzte Hürde der Emanzipation oder ist es vielleicht nur ein Hype, der mal wieder verschwinden wird?
Meine Meinung.
Ich bin etwas unschlüssig und weiß nicht so recht, wie ich dazu stehen soll - daher auch dieser Fred.
Gruss
Franke