IA souveraine ou dépendance choisie : quel avenir pour l’Europe ?

Pierre Bongrand — Chercheur en intelligence artificielle, Harvard Medical School.
Adrien Joly — London School of Economics, promotion 2026.

Pierre Bongrand


Adrien Joly

Aujourd’hui, il ne fait guère de doute que le contrôle de l’intelligence artificielle (IA) aura des implications déterminantes à long terme, qui définiront les alliances et les grandes confrontations du XXIe siècle. Deux pôles, les États-Unis et la Chine, ont émergé en tant que puissances hégémoniques, portés par des avancées rapides vers l’intelligence artificielle générale (AGI) et des modèles de langage génératif d’une performance remarquable. Face à ce duopole, l’Europe doit de toute urgence opérer les choix qui détermineront le rôle qu’elle entend jouer demain dans l’économie et la géopolitique mondiales.

Pour les États-Unis, l’IA constitue non seulement un levier de croissance économique, mais aussi un enjeu de politique étrangère. Le tournant pris par l’administration Trump est net : il ne s’agit plus de rivaliser avec la Chine, mais d’établir une hégémonie technologique en intelligence artificielle1. Lors du mandat Biden, le gouvernement américain avait introduit la « AI diffusion rule », qui classait les pays en fonction de leur probabilité de donner accès à des technologies sensibles — puces et grands modèles de langage2 (LLM) — à la Chine ; cette réglementation imposait en particulier des restrictions à l’exportation de certains modèles à « poids fermé » ou propriétaires (closed weight) qui ne sont pas accessibles au grand public3. L’administration Trump a remplacé cette réglementation en mai 2025 et oblige dorénavant les entreprises dont le siège se trouve aux États-Unis à maintenir, sur le sol américain, au moins 50 % de leur capacité totale de calcul dédiée à l’IA4. En outre, les tarifs de 25 % imposés sur des puces d’IA avancées en janvier 2026 visent à pousser les producteurs américains à relocaliser leur production aux États-Unis5. Enfin, une politique de dérégulation massive, conjuguée à l’euphorie des investissements dans les entreprises technologiques et dans la construction de centres de données, alimente la croissance américaine depuis le début de l’année 20256.

La Chine poursuit les mêmes fins technologiques, tant sur le plan intérieur qu’international, mais au travers d’une logique d’État autoritaire et des instruments qui lui sont propres. Elle a protégé son secteur technologique de la concurrence étrangère et favorisé le développement de l’industrie — en particulier les grands modèles de langage, les puces dédiées à l’IA et les centres de calcul haute performance — par un soutien étatique, des subventions, des avantages fiscaux et des politiques préférentielles. De plus, la législation chinoise contraint les entreprises nationales à mettre leur technologie à la disposition de l’État. Par ailleurs, en matière de politique extérieure, la Chine cherche à étendre sa stratégie de la « nouvelle route de la soie » (Belt and Road) dans la sphère numérique, en exportant des modèles d’IA non-propriétaires « open weight » partout dans le monde. Face à cette offensive chinoise, le traité « Pax Silica » ratifié en décembre 2025 par les États-Unis et plusieurs pays majeurs, dont l’Inde, souligne l’importance que les Américains accordent au découplage progressif de la Chine, dans le but de sécuriser leur chaîne d’approvisionnement en IA, notamment en ce qui concerne les minéraux critiques7.

L’Europe, tout comme le reste du monde, accuse un retard considérable par rapport aux États-Unis et à la Chine dans le domaine des grands modèles de langage (LLM) : selon les derniers classements LMArena, 97 des 100 meilleurs modèles d’IA sont américains ou chinois, tandis que le modèle européen le mieux classé ne figure qu’à la 62e place, avec les trois modèles non chinois ou américains provenant d’ailleurs de la même entreprise française, Mistral8. Du fait de leurs performances et fonctionnalités supérieures, les modèles propriétaires américains représentent l’écrasante majorité de l’utilisation de modèles de langage par les consommateurs européens. Par ailleurs, il a été révélé en décembre 2025 que le grand modèle de langage Mistral 3 reposait sur une architecture9 fortement inspirée de celle du modèle à poids ouverts chinois DeepSeek V310.

En parallèle, le jour où le développement des modèles d’IA sera intégralement automatisé par l’IA elle-même approche rapidement11. Le développement de l’IA est une course de fond dans laquelle tout retard réduit exponentiellement les chances de victoire technologique. En effet, un concept clé du monde de l’IA est celui de l’auto-amélioration récursive, processus par lequel l’IA est utilisée pour améliorer plus efficacement la prochaine IA. Aujourd’hui, le modèle Claude d’Anthropic, premier du classement LMArena, contribue à écrire près de la totalité du code de sa prochaine version. Cela signifie qu’un écart significatif pourrait se creuser entre les modèles propriétaires de pointe — aujourd’hui Gemini, ChatGPT et Claude — et le reste des cent premiers modèles du classement, dont Mistral. Il sera alors impossible à l’Europe de rattraper son retard en utilisant l’IA des Américains, car afin de conserver un avantage technologique sur leurs concurrents, les entreprises d’IA américaines interdisent l’utilisation de leurs modèles pour en entraîner d’autres. Anthropic, par exemple, restreint l’accès de ses services aux chercheurs d’OpenAI et de xAI12.

Aujourd’hui, les ressorts de l’IA ne sont pas seulement technologiques ou économiques : ils concernent aussi la sécurité nationale des États. Ainsi, l’IA est profondément imbriquée dans le processus de collecte de données et dans son exploitation à des fins de décision stratégique dans le domaine du renseignement et de la défense. Son application dans la cybersécurité est maintenant démontrée, depuis que Claude Opus 4.6 a été capable d’identifier en complète autonomie des vulnérabilités critiques sur un logiciel utilisé par 200 millions d’utilisateurs mensuels13. Dans le domaine de la cybersécurité, où les failles exploitables apparaissent en permanence, disposer d’une IA plus performante devient un facteur déterminant de sécurité. Une IA avancée peut identifier et exploiter des vulnérabilités et ainsi mettre en péril tout système de défense informatique ou réseau de renseignement qui ne disposerait pas d’une IA performante.

Face à un environnement géopolitique dégradé, deux options s’offrent à l’Europe : développer une IA souveraine — à l’image de Mistral — afin d’assurer sa cyberdéfense et tout autre usage confidentiel et critique, ou s’en remettre aux modèles plus performants de puissances étrangères, américaines ou chinoises. Le recours à des modèles étrangers soulève deux catégories de risques.

Le développement de l’IA est une course de fond dans laquelle tout retard réduit exponentiellement les chances de victoire technologique.

D’une part, des risques de cybersécurité : si l’Europe dépendait d’OpenAI pour sa cyberdéfense, une divergence stratégique avec les États-Unis pourrait conduire le gouvernement américain à invoquer l’AI Diffusion Act pour interdire la commercialisation de ses modèles les plus avancés en Europe. En outre, on pourrait imaginer un scénario dans lequel les États-Unis utilisent GPT-5.4, mais l’Europe, faute de modèle souverain équivalent, se trouverait contrainte d’opérer avec GPT-5 — un modèle américain certes, mais vulnérable face aux IA plus avancées d’un adversaire. Ces modèles pourraient également dissimuler des portes dérobées — des comportements cachés, programmés à l’avance et activables sur commande14. Un modèle pourrait ainsi paraître parfaitement normal et performant, alors qu’une séquence de « tokens »15, un mot rare ou un motif particulier dans le prompt suffirait à activer un comportement malveillant. Si un tel modèle était déployé au sein d’un gouvernement, cette porte dérobée pourrait alors être exploitée pour manipuler les réponses du système, contourner ses garde-fous ou faciliter l’exfiltration d’informations sensibles.

D’autre part, des risques géopolitiques : une telle dépendance pourrait être utilisée comme arme de négociation militaire ou économique contre l’Europe. L’accès des gouvernements européens aux capacités des grands modèles de langage américains pourrait être conditionné à des garanties stratégiques ou à un alignement réglementaire dictés par Washington. L’Europe pourrait perdre son rôle de garant des règles de sécurité applicables aux grands modèles de langage, un rôle aujourd’hui au cœur de l’agenda de la Commission européenne avec l’AI Act.

Sans intelligence artificielle souveraine, l’Europe s’expose à une dépendance technologique croissante envers les États-Unis ou la Chine. Cette dépendance affaiblirait sa position géopolitique et pourrait compromettre sa cybersécurité, que ce soit en raison de la moindre performance de ses modèles ou d’un accès restreint aux modèles de pointe étrangers. Le risque est d’autant plus pressant que nous traversons la phase d’accélération de l’IA : la durée des tâches que les grands modèles de langage de pointe peuvent accomplir de manière autonome double environ tous les six mois. Si l’Europe ne saisit pas ce moment charnière, elle pourrait ne jamais combler son retard — à l’image de celui qu’elle a accumulé en manquant la révolution Internet à la fin des années 1990, et qui explique qu’aucune des grandes entreprises technologiques mondiales ne soit européenne. Prise en étau entre les géants technologiques américains et l’offensive industrielle chinoise, c’est à l’Europe qu’il revient de créer sa propre voie vers la souveraineté en intelligence artificielle.

Les auteurs tiennent à remercier chaleureusement Anne Prost pour ses commentaires précieux lors de la rédaction de cet article.


1. Sona Muzikárová, “Europe Cannot Avoid an AI Reckoning,” Project Syndicate, 5 février 2026.

2. Les grands modèles de langage (LLM, pour Large Language Models) sont les systèmes d’IA capables de comprendre et de générer du texte, tels que ChatGPT ou Claude. Il en existe trois grandes catégories selon leur degré d’ouverture : les modèles open source, dont le code et les paramètres sont entièrement publics ; les modèles à poids ouverts (open weight), dont les paramètres sont accessibles mais pas nécessairement le code d’entraînement ; et les modèles à poids fermés (closed weight) ou propriétaires, dont l’architecture interne reste confidentielle — ce qui n’empêche pas leur utilisation par le grand public via des interfaces en ligne.

3. Ian Bremmer, “The Politics, and Geopolitics, of Artificial Intelligence,” TIME, 11 août 2025.

4. Center for Strategic and International Studies, “AI Diffusion Framework: Securing U.S. AI Leadership While Preempting Strategic Drift,” CSIS, 18 février 2025.

5. The White House, “Fact Sheet: President Donald J. Trump Takes Action on Certain Advanced Computing Chips to Protect America’s Economic and National Security,” The White House, janvier 2026.

6. Jason Furman, “Data Centers Drove GDP Growth to Zero in the First Half of 2025,” Fortune, 7 octobre 2025.

7. L’administration Trump maintient l’accès à la Chine de puces NVIDIA en raison de besoin critique d’accès aux minéraux rares chinois.

8. Arena, « Arena », arena.ai.

9. L’innovation dans le domaine des grands modèles de langage repose sur plusieurs leviers : l’architecture du modèle (c’est-à-dire la manière dont ses composants sont structurés et interagissent pour traiter l’information), mais aussi les données d’entraînement, les techniques d’optimisation et les stratégies de déploiement. Un changement d’architecture peut néanmoins permettre des gains considérables en termes de performance ou d’efficacité, à puissance de calcul égale. C’est pourquoi le recours par deux modèles distincts à une architecture quasi identique soulève des questions sur l’origine de l’innovation et sur d’éventuels transferts de savoir-faire technologique.

10. Sebastian Raschka, “With Mistral-3 and DeepSeek-V3.2 We Got…,” LinkedIn, 2026.

11. Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland et Romeo Dean, “AI 2027,” ai-2027.com, 3 avril 2025.

12. Anthropic, “Commercial Terms,” anthropic.com.

13. Will Knight, “Anthropic Revokes OpenAI’s Access to Claude,” WIRED, 1 août 2026.

14. Jan Betley, Jorio Cocola, Dylan Feng, James Chua, Andy Arditi, Anna Sztyber-Betley et Owain Evans, “Weird Generalization and Inductive Backdoors: New Ways to Corrupt LLMs,” arXiv, 10 décembre 2025.

15. Un « token » est l’unité de base que traite un grand modèle de langage. Avant d’analyser un texte, le modèle le découpe en fragments — mots, sous-mots ou caractères — appelés tokens. Par exemple, le mot « cybersécurité » peut être décomposé en plusieurs tokens (« cyber », « sécu », « rité »). C’est à partir de ces fragments que le modèle interprète et génère du texte. Une séquence de tokens spécifique, invisible à l’œil de l’utilisateur, pourrait ainsi servir de signal d’activation pour un comportement caché.

Retour en haut