Intelligence artificielle et décision stratégique : l’illusion de la certitude

Mis en ligne le 19 Fév 2026

David S. Soriano, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons

Lever pour partie le « Brouillard de la Guerre » s’avère une quête permanente des décideurs, dès lors qu’ils sont confrontés à des choix de portée stratégique. Alors que les outils d’Intelligence Artificielle (IA) générative sont devenus d’usage de plus en plus courant dans les processus décisionnels, le risque d’en occulter la fiabilité relative va croissant. Le présent papier aborde cette question désormais clef des conditions et précautions d’utilisation de l’IA. Une IA qui certes peut permettre de faciliter en amont la compréhension d’un problème posé, mais qui suppose une formation et une expertise préalables.

Les opinions exprimées dans cet article n'engagent pas le CNAM.

Les références originales de cet article sont : Emmanuel BÉGUÉ, « Intelligence artificielle et décision stratégique : l’illusion de la certitude », RDN, revue n°886 de janvier 2026. Ce texte, ainsi que d’autres publications, peuvent être consultés sur le site de la RDN.

McKinsey, un important cabinet de conseil en stratégie dont le métier est de conseiller les dirigeants, déclarait en 2024 que 40 % de ses projets portaient sur l’Intelligence artificielle (IA) générative [1]. L’ancien Premier ministre britannique Boris Johnson se vante d’utiliser l’IA pour écrire ses livres [2]. D’après Satya Nadella, PDG de Microsoft, 30 % du code produit par la société serait écrit par l’IA [3]. En août 2025, le Premier ministre suédois Ulf Kristersson fut vivement critiqué pour avoir déclaré que lui et ses collaborateurs demandaient souvent à ChatGPT « un deuxième avis » [4].

Le major general William Taylor, commandant la 8e Armée américaine stationnée en Corée, vient de révéler [5], lors de la conférence annuelle de l’Association of the United States Army [6] à Washington, qu’il utilisait couramment ChatGPT, expliquant qu’en tant que chef, il voulait « prendre de meilleures décisions » et ajoutant même « Chat et moi sommes devenus vraiment proches ces derniers temps ». L’article qui rapporte l’anecdote mériterait d’être cité en entier. D’autres haut gradés soutiennent, eux aussi, que l’IA permet de produire « de meilleures décisions, plus vite ». Les généraux, les PDG, les chefs d’État sont-ils vraiment en train de déléguer la prise de décision à des machines ? Quelles peuvent en être les conséquences ?

Bonne et mauvaise critique de l’IA générative

À la fin du XVIIIe siècle, Johann Gottfried Herder (1744-1803), pasteur et chef de file, avec Burke, des anti-Lumières, voit dans l’esprit français (celui de Voltaire et de Diderot) un rationalisme « mécanique ». Le mot l’obsède et revient souvent sous sa plume. Il reproche, par exemple, à l’Encyclopédie de n’être rien d’autre qu’un remix facile, inutile et à la limite du plagiat : « À présent on fabrique des encyclopédies : même un d’Alembert et un Diderot s’abaissent à cela et c’est justement cet ouvrage dont les Français se font gloire qui est pour moi le premier indice de leur décadence. Ils n’ont rien à écrire et font donc des “abrégés”, des “dictionnaires”, (…) des “encyclopédies”. Les œuvres originales manquent [7]. »

L’avènement de l’IA générative a suscité un enthousiasme considérable, souvent sincère, mais que les promoteurs de cette technologie entretiennent avec ardeur. Par contrecoup, sont apparus de bruyants détracteurs qui en rejettent en bloc tous les bénéfices, souvent au mépris de l’évidence. La virulence de certains de ces critiques (parmi lesquels Ed Zitron, Cory Doctorow, Gary Marcus ou, en France, des gens comme Luc Julia ou Éric Sadin) n’est pas sans rappeler les vociférations de Herder : « L’IA est cet amiante dont on remplit les murs de la société, et que nos descendants devront passer leur vie à retirer, pendant des générations. » (notre traduction) [8].

L’accusation de fond est double : l’IA générative est un perroquet aléatoire (stochastic parrot [9] ) qui régurgite, sans rien comprendre, ce qu’on a mis dedans ; mais en plus, à l’instar de l’Encyclopédie qui n’aurait été qu’un « abrégé », l’IA répète mal, parce que c’est un système de compression avec perte (lossy compression [10] ). La question de savoir si le terme « intelligence » est justifié pour parler d’IA (si l’IA générative n’est rien d’autre qu’un psittacidé ivre) est centrale et constamment débattue. Elle est loin d’être tranchée ; mais une expérience astucieuse semble montrer que les Grands modèles de langage (LLM) sont bien capables de construire une vision du monde qui va au-delà des simples données d’entraînement.

Des chercheurs ont injecté dans un LLM ensemble limité et connu de parties d’échecs, puis ont évalué sa performance contre Stockfish ; non seulement le LLM a été capable de jouer, c’est-à-dire de produire, à chaque tour, un coup légal, ce qui montre qu’il a intégré les règles du jeu, et de gagner un nombre significatif de parties contre le programme d’échecs réglé sur son plus bas niveau, mais encore et surtout, les conditions de l’expérience permettent de vérifier que le LLM analyse des positions et joue des coups qui ne figurent pas dans ses données d’entraînement [11].

Qu’un système mécanique, fondé sur la « capacité à estimer la probabilité de la présence de symboles dans un corpus » [12] [13] [14] puisse développer une compréhension autonome du monde, s’oppose de fait à une longue tradition philosophique qui va du « moulin » de Leibniz [15] à l’expérience de pensée de la chambre chinoise (Searle, 1980 [16] ), pour arriver aux déclarations récentes de Yann Le Cun, jusqu’à récemment directeur scientifique IA de Meta, la maison mère de Facebook. Et pourtant… il est bien établi que la prédictibilité est une mesure de la complexité [17] [18] [19]. On peut en déduire que, réciproquement, la capacité à prédire est une mesure de la compréhension.

La science expérimentale est fondée sur l’idée que « comprendre, c’est prédire » et même, plus spécifiquement, prédire l’inattendu [20] ; une des définitions de l’apprentissage est un « système de minimisation des surprises » [21], et une des définitions de l’intelligence est la « capacité à réduire la surprise » [22].

On le voit : en soulignant les limites de l’IA générative, notre propos n’est pas de joindre le chœur de ses critiques radicaux. En effet, s’il est encore trop tôt pour affirmer que l’IA générative « pense » [23], il est à notre avis trop tard pour affirmer qu’elle ne produit pas, dans certains cas, quelque chose qui ressemble à de la pensée. Et c’est bien ce qui rend cet outil irrésistible.

L’avènement de l’IA générative est une révolution cognitive et culturelle majeure. Il ne s’agit pas d’essayer de s’en passer, mais bien plutôt d’apprendre à s’en servir.

Décider dans l’incertitude

Décider veut dire : choisir de mener une action qui contribue à atteindre l’état final recherché et, ce que ne peut pas faire une machine, en assumer les conséquences. « A computer can never be held accountable, therefore a computer must never make a management decision [24]. »

L’incertitude est « l’écart entre ce qui est connu et ce qui a [aurait] besoin d’être connu, pour prendre une décision » [25]. L’incertitude est distincte du risque [26]. Le risque est une situation où les conséquences de l’action sont connues et leurs probabilités mesurables, ce qui permet de calculer l’espérance de gain totale (« espérance d’utilité »), et donc de prendre des décisions rationnelles ou, a minima, de calculer un prix pour s’assurer contre la réalisation du risque. Au contraire, il est impossible de s’assurer contre l’incertitude. Car outre les informations nécessaires à la prise de décision, l’incertitude recouvre aussi les conséquences de la décision lorsque celles-ci sont non seulement non mesurables, mais inconnaissables, soit à cause de leur complexité intrinsèque (chaos), soit parce qu’elles dépassent les capacités de l’entendement humain.

L’incertitude ne peut jamais être entièrement éliminée, mais elle est réduite par l’information : acquisition de données nouvelles, renseignement, analyse, etc. L’IA générative y joue naturellement, de plus en plus, un rôle primordial.

Les limites de l’IA générative dans l’aide à la décision

La décision dans l’incertitude fait l’objet d’une très vaste littérature, d’analyses conceptuelles et d’études expérimentales. Notre ambition n’est pas d’aborder ce sujet au fond, ni d’en faire la synthèse, mais de relever les limites de l’apport de l’IA dans ce processus et d’en souligner les biais intrinsèques [27].

Biais de représentation

Le biais de représentation, ou de sélection, est celui créé par « le choix de textes qui constituent les données d’entraînement » [28]. Il est considéré comme « involontaire » et en tout état de cause, inhérent aux méthodes de production. Un LLM ne peut utiliser que ce qu’il connaît, et même si nous avons vu précédemment qu’il peut construire, dans certains cas, un modèle du monde qui va au-delà de ses strictes données d’entraînement, il ne peut certainement pas reconstruire des pans entiers de la connaissance humaine qui ne lui auraient pas été soumis. Cela pose un ensemble de problèmes, dont deux sont plus pertinents ici : la surreprésentation des textes en anglais et, inversement, la sous-représentation de cultures entières.

La première source de données des LLM est le Common Crawl, qui désigne à la fois l’ensemble des données collectées sur le Web ouvert et l’association responsable de leur collecte. Les statistiques de cette association [29] montrent que l’anglais représente 44 % des textes relevés, le russe 6 %, le français 4,5 % et l’arabe… 0,7 %. Une telle répartition produit mécaniquement des stéréotypes caricaturaux [30]. Cependant, ceux-ci restent faciles à détecter, et font en outre l’objet de corrections systématiques de la part des producteurs de modèles. Ils ne constituent donc pas, à notre avis, le problème le plus important.

On sait que la langue a une influence majeure sur la vision du monde des locuteurs [31] et que, par exemple, un concept en apparence aussi universel que le temps est interprété très différemment dans des langues indo-européennes, où le temps est une chose qu’on peut « donner » ou « prendre », qu’en arabe, où le temps est un lieu par rapport auquel on se situe [32]. Comment comprendre l’adversaire, et donc anticiper ses actions, si on ne voit pas ce qu’il voit, si on n’entend pas ce qu’il entend ? On objectera que, bien sûr, les barrières linguistiques précèdent les LLM. Mais on doit retenir que loin d’éliminer ces biais, les LLM les renforcent, d’une manière d’autant plus dangereuse qu’elle est invisible. Utiliser un LLM revient, sinon à adhérer à la vision du monde associée à son corpus, du moins à s’en rendre dépendant.

Biais de rareté

À l’inverse, et paradoxalement, des informations trop peu nombreuses peuvent avoir une influence disproportionnée sur le résultat final. Un « hapax » [33] désigne en linguistique un mot qui n’apparaît qu’une seule fois dans un corpus, rendant son interprétation plus difficile. On pense instinctivement que les hapax sont rares dans un corpus donné. Or c’est le contraire qui est vrai. Dans une distribution qui suit la loi dite « d’Estoup-Zipf » [34] (Zipf’s law), ce qui est le cas des corpus textuels, la fréquence d’occurrence d’un élément (un mot ou un concept) est inversement proportionnelle à son rang. Ainsi, dans de grands corpus, entre 40 et 60 % des mots ou des concepts n’apparaissent qu’une seule fois [35] [36] (voir aussi la loi des LNRE ou « grand nombre d’événements rares » [37] ). Il est clair dès lors que chaque représentation unique d’un concept a une influence majeure sur le résultat final, lorsque ledit concept est mobilisé.

Intuitivement, on peut se figurer les notions contenues dans un LLM par des sacs contenant des billes de la même couleur mais de forme différente : si le sac des billes rouges contient dix mille billes, chacune a une chance sur dix mille d’être tirée au sort, mais si le sac des billes vertes n’en contient qu’une seule, c’est celle-là qui sortira à chaque fois, quand on demande une bille verte [38].

Le corollaire de ce principe est que les notions peu représentées ont tendance à être restituées mot pour mot par les modèles : « les LLM ont tendance à fuiter directement des séquences de texte mémorisées, ce qui pose un risque sérieux de confidentialité des données [39] ».

Biais de pollution

Si le biais de représentation est considéré comme inhérent à la façon dont les LLM sont alimentés et entraînés, le biais de pollution est sa variante volontaire. Des acteurs déterminés tentent régulièrement de produire des données tendancieuses et orientées (« biaisées ») sur le web ouvert, qui terminent dans le « common crawl » et donc, dans les corpus des LLM. Si certains acteurs malveillants participent à cette pollution de manière cachée, d’autres ne font aucun mystère de leurs intentions ni de leurs méthodes. Le Premier ministre israélien Benjamin Netanyahu considère que « les réseaux sociaux constituent l’arme la plus importante des nouveaux champs de bataille » [40]. L’État d’Israël a ainsi missionné la firme américaine Clock Tower X pour créer des contenus à destination de la « génération Z » (jeunes adultes de moins de 30 ans), avec « un minimum de 50 millions d’impressions par mois » [41]. Naturellement, l’IA générative permet d’industrialiser la production de données biaisées [42], de sorte que les LLM contribuent eux-mêmes à leur propre contamination.

Biais d’empoisonnement

L’empoisonnement est souvent confondu avec la pollution, mais il en est bien distinct ; il est en quelque sorte le résultat de la combinaison des biais de pollution et de rareté. Il s’agit, pour un acteur malveillant, d’injecter dans les modèles de courtes suites de mots (ou jetons) qui déclenchent un résultat spécifique lorsqu’elles sont utilisées dans un prompt. L’empoisonnement permet de contrôler le comportement du modèle et facilite ainsi d’autres types de cyber-attaques telles que l’hameçonnage (phishing), l’exfiltration de données sensibles, etc. Les modèles open source et librement téléchargeables sont particulièrement susceptibles d’être empoisonnés ; en 2024, on recensait sur la plateforme de partage Hugging Face plus de cent modèles contenant du code hostile [43].

Toutefois, on pensait jusqu’à récemment que les grands modèles (les frontier models proposés par les grands noms du secteur) n’étaient pas vulnérables à ce type d’attaque, parce qu’elle supposait de contrôler les données et le processus d’entraînement, et d’injecter une grande quantité de documents spécialement préparés. On se trompait. Conséquence du biais de rareté, il suffit en réalité d’injecter un très petit nombre de documents malicieux pour empoisonner un modèle. C’est ce que révèle, avec candeur et non sans courage, une étude [44] d’Anthropic (le principal concurrent d’OpenAI). Celle-ci démontre que « les attaques d’empoisonnement nécessitent un nombre constant de documents, indépendamment de la taille du modèle ou des données d’entraînement » (notre traduction). En pratique, ce nombre est de l’ordre de 250 documents (« environ 420 k jetons, représentant 0,00016 % des données d’entraînement »). Cela veut dire qu’injecter 250 documents malicieux dans un corpus de plusieurs milliards de documents (comme le common crawl) suffit à l’empoisonner. Les conséquences de cette observation sont que, d’une part, les attaques par empoisonnement ne sont pas réservées à des acteurs étatiques ou proto-étatiques disposant d’immenses ressources, mais sont au contraire à la portée de n’importe qui, et que d’autre part, tous les modèles sont susceptibles d’en être victime, y compris les plus gros et les plus récents, et qu’il est extrêmement difficile de s’en prémunir ; c’est même, pour l’instant, impossible !

Non-déterminisme

Les LLM sont non-déterministes : ils ne donnent pas la même réponse lorsqu’on leur pose plusieurs fois la même question. Ce comportement est inattendu de la part d’une machine. Un tableur qui ne serait pas déterministe, dans lequel les mêmes calculs ne donneraient pas toujours exactement le même résultat, serait inutilisable. Dans le cas des LLM, on peut soutenir que cela fait en quelque sorte « partie de leur charme » et aide à les anthropomorphiser ; mais cela interroge naturellement sur leur fiabilité. Non seulement les LLM sont non-déterministes quand on leur pose exactement la même question (mot pour mot, jeton pour jeton), mais ils sont sensibles à la façon dont la question est posée. Par exemple, et d’une manière assez spectaculaire qui n’est pas sans rappeler, peut-être, le comportement de certains étudiants, l’ordre des réponses dans un QCM a une influence sur leur complétion [45].

Un article récent [46], assez clair et lisible, compte tenu de la nature technique du sujet, analyse la cause du non-déterminisme (le résultat des multiplications de matrices (matmul) dépend en partie de la charge de travail du serveur) et conclut qu’il n’est pas une fatalité. Il propose même in fine une implémentation déterministe d’un moteur d’inférence open source (PyTorch). Toutefois, à notre connaissance, cette solution n’a pas été reprise par les principaux fournisseurs de modèles, qui doivent donc et jusqu’à preuve du contraire, être considérés comme non-déterministes.

Fiabilité

Au-delà des biais discutés plus haut, les LLM ont tendance à produire des informations qui n’existent pas (hallucinations) ou à ignorer celles qui existent (angles morts). Le problème des hallucinations étant très documenté et désormais très connu, nous n’y reviendrons pas ici, sauf pour souligner que ce reproche fait aux LLM est bien injuste. Extrapoler, sans se limiter aux données d’entraînement, est précisément ce qu’on leur demande. Cette contradiction est insoluble. Éliminer les hallucinations à la source reviendrait à rendre les LLM entièrement inutiles.

On ne peut lutter contre les hallucinations qu’en vérifiant systématiquement, a posteriori, les résultats produits. Toutefois, les LLM sont aussi utilisés pour analyser de grandes quantités d’informations qui ne font pas partie de leurs données d’entraînement (données récentes ou propriétaires, etc.) On avait pour cela recours traditionnellement à deux techniques (si on peut parler de « tradition » pour des méthodes inventées il y a seulement quelques années) : le fine-tuning et le RAG.

Le fine-tuning consiste à enrichir le modèle, de façon plus ou moins permanente, en y injectant les données à analyser. Le RAG (Retrieval-Augmented Generation) consiste à fournir directement dans le contexte du prompt, au moment de la requête, des informations « pertinentes » extraites du corpus à analyser. Un processus analyse la question, mène une recherche dans le corpus pour en extraire des bouts de documents ou des paragraphes qui semblent avoir un rapport avec la question posée, et soumet l’ensemble au LLM. Le fine-tuning est un processus lourd, qui demande une longue préparation, et qui présente d’autres inconvénients comme le surapprentissage (overfitting) ; au contraire, le RAG est une approche dynamique qui permet d’utiliser des données en constante évolution. Pour cette raison, le RAG l’a emporté et est désormais d’utilisation extrêmement répandue, partout où l’on doit analyser des informations mises à jour en temps réel ou des corpus propriétaires ou confidentiels. Il peut sembler particulièrement approprié dans une situation où l’on cherche à réduire l’incertitude par la synthèse d’une grande quantité d’information.

Le RAG présente pourtant un inconvénient majeur : sa fiabilité « dépend entièrement de la précision de la phase de récupération (retrieval) » [47]. La récupération des informations « pertinentes » est un art difficile, sujet à erreurs fréquentes. Il est facile de récupérer de mauvaises informations ou d’ignorer des pans entiers du sujet à traiter. Si les informations soumises au LLM sont incomplètes, la réponse le sera aussi. Le RAG est dans une certaine mesure, une machine à produire des angles morts, des trous [48]. Il existe d’autres techniques d’analyse au-delà du RAG, dont les « agents » ou l’augmentation de la fenêtre de contexte [49]. On peut retenir toutefois qu’aucune n’est aujourd’hui parfaite et que les angles morts sont un risque permanent.

Flagornerie, dimension psychologique

Tout flatteur vit aux dépens de celui qui l’écoute » : on ignore si les producteurs de LLM ont lu La Fontaine ou s’ils sont, plus simplement, bons connaisseurs de l’âme humaine, mais la flagornerie (sycophancy) des moteurs est désormais de notoriété publique et parfois si exagérée qu’elle contraint certains opérateurs à faire machine arrière, comme Google/Gemini en juin dernier [50]. Une étude d’octobre 2025 [51] a établi que les modèles d’IA générative sont 50 % plus flagorneurs que des humains dans les mêmes circonstances. Lorsqu’elles sont accompagnées de flatterie, les réponses de l’IA sont préférées par les utilisateurs, et les conseils associés sont plus souvent suivis. L’étude rappelle et montre aussi que la flagornerie réduit l’empathie de qui la reçoit, et l’encourage à se croire dans son bon droit, même lorsqu’à l’évidence ce n’est pas le cas, comme à ignorer les conséquences de ses actions sur autrui. Car la prise de décision comporte une importante dimension psychologique : « c’est notre besoin inné d’agir qui fait marcher le monde (…) nos motivations se réduisent souvent au caprice, aux sentiments, au hasard [52] ». Cette dimension psychologique a été vérifiée expérimentalement [53] et ne doit pas, à notre avis, être perdue de vue lorsqu’on analyse les usages de l’IA par des acteurs prétendus « rationnels ». La manière dont le Maj. Gen. Taylor parle de l’IA générative, semble, à ce titre, inquiétante. L’utilisation du diminutif « Chat » pour nommer ChatGPT évoque par consonance le prénom « Chad » qui désigne, dans l’imaginaire populaire américain, un « mâle alpha » musclé, séduisant, décidé mais irréfléchi, à l’opposé d’un intellectuel ou d’un analyste. Un LLM est un outil, pas un ami

Économie des LLM

Le prix de l’IA générative n’est pas, aujourd’hui, son juste prix. Le prix payé, qui est parfois nul ou proche de zéro, n’est pas suffisant pour couvrir le coût marginal d’utilisation (« l’inférence »), sans compter les coûts fixes (amortissement de la conception des modèles et de leur entraînement). L’IA générative semble reposer sur une bulle financière et s’alimenter d’une économie circulaire, dans laquelle les fabricants de matériels (et notamment de processeurs) « investissent dans les compagnies d’IA pour qu’elles achètent leurs produits [54] ». Cela favorise des valorisations boursières très élevées : c’est ce qui permet aux entreprises d’IA de vendre à perte. Les investissements matériels (infrastructure et processeurs) se mesurent en centaines de milliards de dollars ; chaque nouveau modèle coûte entre 3 et 5 fois plus que le précédent [55]. Les vrais chiffres sont difficiles à trouver [56], mais on estime que le coût réel total d’utilisation d’un modèle, incluant l’amortissement de ,son entraînement, est entre dix et cent fois supérieur au prix payé par l’utilisateur final (qui, lui, a tendance à baisser de façon continue, pour doper l’usage). Or, le truisme de Stein doit toujours être rappelé, selon lequel « si quelque chose ne peut pas continuer éternellement, alors ça s’arrêtera » [57].

Qu’elle se dégonfle doucement ou qu’elle explose, l’arrêt de la bulle IA aura les mêmes conséquences : les prix d’utilisation remonteront pour couvrir les coûts réels (donc seront multipliés par dix ou cent) et, en outre, la production de nouveaux modèles deviendra beaucoup plus rare. Une organisation qui déciderait aujourd’hui de « tout miser sur l’IA » s’expose à ces risques : explosion des coûts, perte de savoir-faire et dépendance vis-à-vis de forces qu’elle ne maîtrise pas.

Conclusion

Les modèles d’IA générative sont biaisés, incertains, manipulateurs et potentiellement empoisonnés par des acteurs malveillants. Leur déléguer la prise de décision ou leur demander leur « avis », voire les considérer comme des amis ou des confidents, est imprudent et peut se révéler catastrophique.

Ils peuvent cependant jouer un rôle important dans la réduction de l’incertitude et le « déblaiement du terrain » cognitif, préalable à la prise de décision, pourvu qu’on soit d’une part, conscient de leurs limites, et d’autre part, capable d’inspecter (ou de faire inspecter) certains détails de leur implémentation. À court terme, l’enjeu est d’abord un enjeu de formation, qui ne doit pas se limiter au prompting mais doit viser à créer chez l’utilisateur des réflexes tels que l’identification des biais, le croisement et la vérification de 100 % des informations retournées. En complément d’une nécessaire bonne « connaissance métier » (expertise des sujets étudiés), une certaine compréhension des technologies sous-jacentes aide à circonscrire le risque d’angles morts.

À moyen terme, la question qui se pose et que nous n’avons pas abordée ici, est celle de la souveraineté. Elle ne se résume pas à la nationalité des fondateurs de telle ou telle entreprise, mais passe par la maîtrise pérenne des outils, des technologies, des personnels et des capitaux [58].

Références[+]


Du même partenaire

La défense européenne entre volonté d’affirmation stratégique et renoncement politique

Pensées Stratégiques et Prospectives

Par Louis GAUTIER

Source : Revue Défense Nationale

Mis en ligne le 23 Oct 2025

Les États-Unis de Joe Biden et le reset manqué de la primauté en...

Géopolitique et Géoéconomie

Par Maud QUESSARD

Source : Revue Défense Nationale

Mis en ligne le 25 Juil 2024

L’Alliance atlantique a 75 ans

Défense et Sécurité

Par Benoît D'ABOVILLE

Source : Revue Défense Nationale

Mis en ligne le 23 Mai 2024


Articles de la catégorie Pensées Stratégiques et Prospectives

La mondialisation est de plus en plus perçue comme un espace...

Pensées Stratégiques et Prospectives

Par Martial FOUCAULT

Source : IHEDN

Mis en ligne le 23 Apr 2026

Le miroir toxique de la Russie

Pensées Stratégiques et Prospectives

Par Dimitri MINIC

Source : IFRI

Mis en ligne le 23 Apr 2026

Guerre d’Iran : entre Pyrrhus et Massada

Pensées Stratégiques et Prospectives

Par Alain BAUER

Source : ESDR3C

Mis en ligne le 26 Mar 2026

Nos partenaires

 

afficher nos partenaires