Mondial 2023 : Les Bleues veulent ramener la Coupe et faire progresser le foot féminin

par France 24 FR

Le football est né au milieu du 19e siècle en Angleterre. Sa pratique s’est ensuite étendue à d’autres pays et… aux femmes. En France, le foot féminin connaît son âge d’or dans les années 20 avant d’être interdit par le régime de Vichy et de réapparaître officiellement en 1971. Aujourd’hui, alors que débute la 9e Coupe du monde féminine en Australie et en Nouvelle-Zélande, Actuelles fait le point sur cette discipline encore trop peu développée.

Vidéo suivante dans 5 secondes

Autres vidéos

Liens commerciaux