Les États-Unis en déclin | Le Monde de Demain

Les États-Unis en déclin

Commenter cet article

De nouveaux sondages indiquent que le rôle des États-Unis est en déclin et devient de moins en moins important sur la scène internationale (Washington Post, 27 juillet 2017). Une récente interview avec un Nigérian a démontré le triste constat de beaucoup de gens à l’égard des États-Unis : « Votre pays est devenu fou [dit-il ...] Je viens d’Afrique – où je reconnais que les pays sont fous –  mais je n’aurais jamais cru que je verrais cela un jour en Amérique. » Dans un récent sondage du centre de recherches Pew, les Américains ont exprimé davantage de confiance envers les dirigeants étrangers (notamment Angela Merkel) qu’à l’égard de leur propre président. Même si la politique étrangère américaine était impopulaire par le passé : « Les gens dans le monde entier croyaient encore en l’Amérique – le pays, le concept. C’est moins vrai aujourd’hui. »

Un ordre post-américain et post-britannique a été prophétisé à la fin de cette ère, mais il est toujours triste d’en voir son accomplissement. Il y a longtemps, Dieu a averti que si les nations israélites ne parvenaient pas à vivre selon Ses commandements, elles perdraient leur position dominante en restant dans l’ombre et sous l’emprise d’autres nations (Lévitique 26 :14, 19 ; Deutéronome 28 :15, 44). Cependant, au retour du Christ, les nations israélites, ainsi que l’Égypte et l’Assyrie (l’Allemagne moderne) serviront Dieu de façon tout à fait remarquable (Ésaïe 19 :24-25). Pour en savoir plus sur les jours difficiles à venir, n’oubliez pas de lire : « Le déclin de l’Occident ».