Deutsche Schauspieler hatten im Hollywood-Kino jahrzehntelang vor allem eine Rolle – die des Bösen. Doch im US-Fernsehen zeichnet sich derzeit ein neuer Trend ab: Immer mehr Anspielungen auf Deutschland und deutsche Stereotype tauchen in Serien auf – und zeichnen ein sehr anderes Bild.
Source: SD Medien