Das Amerika nach dem Zweiten Weltkrieg war niemals ein Imperium. Du kannst den Ausdruck "amerikanisches Imperium" immer wieder wiederholen – und viele Menschen tun das – aber das war niemals das, was es war. Und es so zu nennen, wird es nur viel schwieriger machen, zu verstehen, was passiert ist.