Fußball

Fußball ist nicht nur Sport, er ist längst Populärkultur geworden. Lenkt er im Sinne eines "Brot und Spiele" von den wichtigen Themen ab? Perpetuiert er Rassismen durch seine nationalen Spektakel oder hat er integrative Effenkte? Ist er ein Spiegel der Gesellschaft oder gibt er sogar Impulse für gesellschaftliche Entwicklungen?