Deutschlands wichtigster Verbündeter: Frankreich oder die USA?
Wer ist Deutschlands wichtigster Verbündeter und warum? Deutschland hat in der Geschichte viele Verbündete gehabt, aber wenn es darum geht, wer der wichtigste ist, verlässt man sich oft auf die Größe und Stärke der Partner. In der Vergangenheit wurden die USA oft als wichtigster Verbündeter Deutschlands angesehen, vor allem während der Amtszeit von Barack Obama. …