Imageweltmeister Deutschland  
     
 

Zumindest die schon etwas älteren Deutschen hatten sich früh daran gewöhnt, dass Deutschland und die Deutschen im Ausland überwiegend unbeliebt waren. Adolf Hitler und der Faschismus der dreißiger und vierziger Jahre hatten ja leider auch Gründe im Überfluss dafür geliefert, Deutschland und die Deutschen nicht besonders zu mögen.
Umso überraschender muss es jetzt für die Deutschen sein, dass Deutschland und die Deutschen einer viel zitierten Studie der BBC zufolge weltweit das höchste Ansehen genießen.
56% 17.000 von der BBC in 34 Ländern befragten Personen ist der Meinung, dass Deutschland einen ‚überwiegend positiven Einfluss in der Welt’ hat. Nur 18% der Befragten sehen ein negatives Bild von Deutschland und den Deutschen.
Die Positionen hinter Deutschland werden von Japan, der Europäischen Union, Frankreich und Großbritannien belegt.
Die höchste Zustimmung finden Deutschland und die Deutschen bei den Italienern (82%). Und nur in zwei Ländern der Welt überwiegt ein negatives Bild: In Ägypten und der Türkei.
Offensichtlich haben sich die Deutschen in den mehr als 60 Jahren seit dem Ende des Zweiten Weltkriegs erfolgreich um eine nachhaltige Verbesserung ihres Bildes in der Welt bemüht.

Was meinen Sie? Schicken Sie uns eine Mail:

 
       
  Niels@deutschland-und-die-deutschen.de    
 
 

Deutschland und die Deutschen

Orientierung Deutschland

Deutsch in Deutschland

Intensivkurs Deutsch