DFB
Der Deutsche Fußball-Bund (DFB) ist der Dachverband für den Fußballsport in Deutschland. Er organisiert die nationalen Fußballwettbewerbe wie die Bundesliga und die Nationalmannschaften der Männer, Frauen und Jugend. Der DFB setzt sich außerdem für die Förderung des Fußballsports, die Ausbildung von Trainern und Schiedsrichtern sowie die Durchführung von Fußballveranstaltungen ein. Er vertritt die Interessen der deutschen Fußballvereine auf nationaler und internationaler Ebene.
-
WM 2022: Rewe beendet Zusammenarbeit mit dem DFB
/
Die Fußball Weltmeisterschaft hat gerade erst begonnen und schon gibt es die ersten Kontroversen. Der DFB hatte angekündigt, dass Kapitän Manuel Neuer die Armbinde zur Unterstützung der Kampagne “One Love” tragen würde, die den sozialen Zusammenhalt fördert und Rassismus und Diskriminierung bekämpft. Nach dem Druck der Fifa hat der DFB jedoch einen Rückzieher gemacht und…