#7 Le sommet sur l'investissement dans l'IA ou la dissonance cognitive - The AI Investment Summit or the cognitive dissonance
Quelle est la prochaine étape pour la gouvernance internationale? What's next for international governance?
See below for an English version of this newsletter.
Points clés :
L'analyse : Le bilan du sommet de Paris sur l'IA est mitigé. Le sommet a semblé motivé par le désir de la France d'attirer des investissements au lieu de s'attaquer aux questions urgentes de la gouvernance internationale de l'IA. Alors que le sommet a permis de récolter 400 millions de dollars pour une fondation d'intérêt public sur l'IA, les conclusions du premier rapport complet au monde - le rapport international sur la sécurité de l'IA - n'ont pas figuré en bonne place dans la déclaration finale. Un tiers des pays participants, dont les États-Unis, ont refusé d'approuver la déclaration, ce qui représente une occasion manquée de progresser en matière de gouvernance de l'IA dans le cadre du seul forum thématique auquel participent les États-Unis et la Chine.
Les questions : Quelle est la prochaine étape pour la gouvernance internationale ? Quelles leçons peut-on tirer de la dichotomie entre gouvernance internationale et investissement national mise en évidence par la France ?
Le mot : Investissement.
Le Tweet :
Le sommet de l'investissement dans l'IA
1. Contexte
Le sommet d'action sur l'IA, qui s'est tenu à Paris ces deux derniers jours, a rassemblé plus de 100 pays et organisations internationales et 700 personnalités de premier plan issues de l'industrie, du monde universitaire et de la société civile.
Des dirigeants du monde entier ont participé à ce sommet de deux jours, notamment le vice-président américain JD Vance, le premier ministre indien Narendra Modi, le vice-premier ministre chinois Zhang Guoqing et la présidente de la Commission européenne Ursula von der Leyen. Des PDG d'entreprises créant certains des modèles d'IA avancés, comme Sam Altman d'OpenAI, Sundar Pichai de Google et Dario Amodei d'Anthropic, étaient également présents. Le sommet a impliqué des acteurs clés dans des panels tels que Meredith Whittaker (Signal, Foundation), Reid Hoffman (LinkedIn, US, société), Clement Delangue (HuggingFace, US, Société) et Nabiha Syed (Mozilla, US, Fondation).
La série de sommets sur l'IA a été créée à l'origine pour faire progresser la sécurité de l'IA au niveau international. Les deux sommets qui ont précédé celui de Paris, au Royaume-Uni et en Corée du Sud, ont donné les résultats suivants :
Le rapport scientifique international sur la sécurité de l'IA avancée, qui vise à développer une compréhension scientifique commune des risques liés aux systèmes d'IA à usage général. Le rapport international sur la sécurité de l'IA a été publié le mois dernier avec le soutien de 30 pays, des Nations unies et de l'Union européenne. Il aborde les risques liés à l'utilisation malveillante, à la désinformation, aux perturbations du travail, aux préoccupations environnementales et à la perte de contrôle. Ce rapport représente un effort sans précédent et à grande échelle de la part de plus de 100 experts indépendants en IA du monde entier - souvent appelé familièrement le « rapport du GIEC sur l'IA ».
Une norme minimale non contraignante pour les entreprises qui développent ces systèmes en définissant des seuils à partir desquels les risques d'un système d'IA à usage général deviennent intolérables en l'absence de mesures d'atténuation, c'est-à-dire les “Frontier AI Safety Commitments”.
La participation des gouvernements aux essais de sécurité et la création de centres de sécurité de l'IA, ainsi que la mise en place d’un réseau regroupant certains d'entre eux.
Sur le plan technologique, des progrès décisifs ont été réalisés entre les sommets de Séoul et de Paris et ont mis en évidence le raccourcissement des cycles de développement. Le modèle o3 de OpenAI, publié seulement trois mois après son prédécesseur o1, a battu de nombreux critères de performance. Des évaluations récentes (ARC-AGI, CodeForce, GPQA) montrent que les modèles surpassent désormais systématiquement les experts humains dans des domaines clés.
OpenAI a notamment démontré des capacités de raisonnement sans précédent avec le modèle o3 en décembre 2024, suivi par les modèles chinois DeepSeek R1 et V3 publiés respectivement en janvier 2025 et décembre 2024. Par ces publications, la société chinoise DeepSeek a démontré sa capacité à développer des modèles d'IA avancés dotés de fortes capacités de raisonnement malgré les restrictions américaines à l'exportation de semi-conducteurs haut de gamme. Les modèles de DeepSeek semblent correspondre aux normes les plus élevées de l'IA générative, bien qu'ils aient été développés avec un budget plus restreint - et une puissance de calcul plus limitée - que ce que l'on pensait possible jusqu'à présent. Toutefois, les experts en IA avertissent que le modèle ne représente pas une véritable percée scientifique, et le traiter comme tel risque d'intensifier le récit de la « course à l'IA » qui affaiblit les efforts sérieux visant à répondre aux préoccupations en matière de sûreté et de sécurité de l'IA.
2. Principaux enseignements du Sommet pour l'action sur l'IA
Le sommet de Paris sur l'IA s'est concentré sur les applications pratiques de l'IA et les investissements visant à présenter la France comme un leader dans le domaine de l'IA, dans le but de replacer le pays « dans la course à l'IA ». Cette orientation représente clairement une rupture par rapport aux sommets du Royaume-Uni et de la Corée du Sud, qui s'étaient concentrés sur la gouvernance internationale des modèles d'IA à usage général et sur leurs implications en matière de sécurité mondiale. Le sommet de Paris semblait plus étroitement axé sur les intérêts nationaux français.
La pièce maîtresse du sommet a été une session plénière retransmise. Elle a permis au Premier ministre indien Modi et au vice-président américain Vance, ainsi qu'à d'autres dirigeants, de prononcer des discours officiels. Quatre entreprises - Magic, Minimax, 01.ai, NVIDIA - ont également profité du sommet pour approuver les engagements volontaires pris à Séoul en mai 2024.
A. Un "Choose France" pour l'IA
Le sommet a démarré sur le mode d'un « Choose France » pour l'IA, avec une série d'annonces et d'initiatives majeures en matière d'investissements publics et privés qui se sont succédé :
À la veille du sommet, le président Macron a annoncé 109 milliards d'euros d'investissements dans l'IA en France, en les comparant au projet américain Stargate. Cet investissement est considérable. Il comprend des contributions des Émirats Arabes Unis (allant de 30 à 50 milliards d'euros) et un investissement de 20 milliards d'euros du fonds canadien Brookfield pour la construction de centres de données à grande échelle sur le sol français. Amazon a annoncé que l'entreprise allait également mobiliser 6 milliards d'euros d'ici 2031 - dont 1,2 milliard déjà annoncé en mai 2024 - pour construire de nouveaux sites pour sa filiale cloud. Cet investissement s'inscrit dans le cadre de la stratégie nationale française en matière d'IA, qui a été mise à jour juste avant le sommet.
Dans ses orientations politiques pour la prochaine Commission européenne, la présidente de la Commission européenne, Mme von der Leyen, avait déjà proposé la création d'un Conseil européen de la recherche en IA, à l'instar du CERN (Organisation européenne pour la recherche nucléaire). Lors du sommet de Paris, elle a annoncé une initiative investAI de 50 milliards d'euros et 8 milliards d'euros supplémentaires pour des « usines d'IA » - un concept visant à industrialiser et à automatiser l'ensemble du processus de création et de gestion des modèles d'IA, tout comme une usine gère la production d'un produit. Mettant l'accent sur la croissance et l'innovation, Mme von der Leyen a déclaré que « la course à l'IA est loin d'être terminée » afin de positionner l'Union européenne comme un concurrent sérieux dans ce domaine. Cette nouvelle vient s'ajouter à l'initiative des champions européens de l'IA, dotée de 150 milliards d'euros, annoncée le 10 février dernier et pour laquelle Mme Von der Leyen a exprimé son vif soutien.
B. Une tentative infructueuse de créer une vision commune
Pour que le sommet soit couronné de succès, les chercheurs et les experts avaient noté en amont du Sommet que Paris devait garantir un engagement de haut niveau de la part des États-Unis et de la Chine et démontrer un engagement vis-à-vis des engagements pris par le passé. En tant que seul forum où la Chine se considère comme un membre fondateur, Paris représentait une opportunité clé pour un dialogue significatif. Pourtant, aucun autre engagement n'a été dévoilé par et lors du sommet.
Bien qu'il ait fait l'objet d'une grande attention dans les médias du monde entier, notamment en Chine, le sommet de Paris a également largement ignoré les discussions sur le rapport international sur la sécurité de l'IA. En d'autres termes, le sommet a largement ignoré les modèles d'IA de pointe et leurs implications politiques. Les participants ont à peine eu l'occasion d'absorber les conclusions rigoureuses du rapport et peu d'espace leur a été accordé pour partager leurs solutions et leurs préoccupations en matière de sécurité de l'IA.
Les aspirations du sommet en tant que forum central pour la gouvernance internationale de l'IA n'ont pas été à la hauteur des attentes. Le lauréat du prix Turing, Yoshua Bengio, a notamment déclaré : « La science montre que l'IA présente des risques majeurs à un horizon temporel qui exige que les dirigeants du monde les prennent beaucoup plus au sérieux. Le sommet a manqué cette occasion ». L'entreprise américaine Anthropic a publié une déclaration allant dans le même sens : « Lors du prochain sommet international, nous ne devrions pas répéter cette occasion manquée. [...] La nécessité pour les démocraties de garder le leadership, les risques de l'IA et les transitions économiques qui approchent à grands pas devraient tous être au cœur du prochain sommet. »
Sur les 100 pays représentés, seuls 61 ont approuvé la déclaration visant à promouvoir « une intelligence artificielle inclusive et durable pour les personnes et la planète ». Les États-Unis et le Royaume-Uni n’ont pas signé la déclaration, le Royaume-Uni citant le manque de « clarté pratique » en matière de gouvernance.
Le sommet de Paris a également organisé des discussions militaires parallèles, qui ont abouti à une déclaration sur le maintien du contrôle humain dans les systèmes d'armes dotés d'IA, approuvée par 25 pays. Tous les pays signataires de cette déclaration militaire étaient européens, ce qui soulève quelques doutes quant à la pertinence mondiale du document.
Enfin, tout en se félicitant que l'IA durable soit à l'ordre du jour, les organisations de la société civile ont critiqué l'accent mis par le président Macron sur « l'énergie nucléaire propre » comme un moyen de justifier le fait de « copier les États-Unis » en construisant « plus et plus grand ». Elles ont regretté que la coalition pour une IA durable soit une « façade » et ont appelé, dans leur déclaration commune, à « de véritables efforts pour aligner le développement et l'utilisation de l'IA sur les limites planétaires et pour s'attaquer à la concentration du pouvoir qui la sous-tend ».
C. Une réalisation prometteuse en matière d'IA d'intérêt public
L'un des axes de travail du sommet, géré par Martin Tisné (AI Collaborative), était axé sur l'intérêt public pour l'IA. Une étape concrète a été franchie puisque le sommet a marqué le lancement d'une fondation pour l'IA, Current AI, afin de doter les pays en développement d'outils d'IA à code source ouvert, de puissance de calcul et de talents qualifiés.
Pour financer cette initiative, les organisateurs du sommet cherchent à réunir 2,5 milliards d'euros sur cinq ans grâce aux contributions de fondations philanthropiques, de gouvernements et d'entreprises. Un financement initial de 400 millions de dollars a été annoncé et les huit pays suivants ont annoncé leur soutien à l'initiative française : Allemagne, Chili, Finlande, Kenya, Maroc, Nigeria, Slovénie, Suisse.
D. Davantage de pays créent des instituts de sécurité de l'IA
La Chine a annoncé la création de son institut de sécurité, l'Institut chinois de sécurité et de développement de l'IA. La France, quant à elle, a créé son Institut de sécurité et l'Inde a également annoncé la création de son réseau national de sécurité. Enfin, le Chili et la France ont dévoilé leur centre binational sur l'IA, qui travaillera également à l'évaluation conjointe des systèmes d'IA.
3. Les prochaines étapes
Comme annoncé lors du sommet de Paris, le prochain sommet devrait avoir lieu en Inde, en novembre 2025. La Suisse a également évoqué la possibilité d'accueillir un futur sommet sur l'IA.
Dans un fil de discussion suivant le sommet, Robert Trager, expert international en gouvernance de l'IA, a fait remarquer que la série de sommets doit maintenant passer d'une séquence improvisée de sommets à une structure plus formelle. Pour que cette évolution soit couronnée de succès, les organisateurs doivent examiner attentivement les réussites passées et évaluer de manière réaliste les défis à venir.
Pour maintenir un équilibre entre un engagement large et des résultats ciblés, une structure rationalisée en deux volets pourrait être envisagée : le premier volet, le volet principal, se concentrerait sur la gouvernance et la sécurité de l'IA avancée, en s'appuyant sur le mandat établi lors des sommets précédents et en impliquant principalement les pays disposant de capacités importantes en matière de développement de l'IA avancée, ainsi que les grandes entreprises d'IA. Le second volet, s'inspirant du précédent français, explorerait les possibilités d'intérêt public offertes par l'IA avancée, ce qui permettrait une participation et une discussion plus larges.
Le mot de la fin et les questions
Mot de la fin : Investissement.
Les questions : Quelle est la prochaine étape pour la gouvernance internationale ? Quelles leçons peut-on tirer de la dichotomie entre gouvernance internationale et investissement national mise en évidence par la France ?
A lire :
Rapport sur la sécurité des systèmes d’IA avancés, janv. 2025
Médiapart, Le grand sommet de la dissonance cognitive, fév. 2025
Velasco, Trager, et al. (2025). "The Future of the AI Summit Series", Oxford Martin School AI Governance Initiative Policy Memo
Elysée, Les actions de Paris pour l'intelligence artificielle, fev. 2025
A écouter :
Djadja - Aya Nakamura
“Hello Papi, mais que pasa?”
#7 - The AI Investment Summit or the cognitive dissonance
Key points:
Analysis: Reviews of the Paris AI Action Summit are mixed. The Summit seemed driven by a French national desire to attract investment instead of tackling urgent questions of international AI governance. Whilst the Summit raised 400 million dollars for a public interest AI foundation, the findings of the world’s first comprehensive report - the International AI Safety Report - did not feature prominently in the final declaration. A third of countries participating, including the US, refused to endorse the declaration, which represents a missed opportunity to make progress on AI governance at the one thematic forum that includes both the US and China.
The Questions: What is next for international governance? What lessons can be drawn from the dichotomy between international governance and national investment highlighted by France?
Word of this Edition: Investment
The Tweet:
The AI Investment Summit
1. Context
The AI Action Summit, held in Paris over the past two days, brought together over 100 countries and international organisations and 700 leading figures from industry, academia, and some civil society.
The two-day Summit was attended by world leaders including U.S. Vice President JD Vance, Indian Prime Minister Narendra Modi, Chinese Vice Premier Zhang Guoqing and European Commission President Ursula von der Leyen. CEOs from companies creating some of the most advanced AI models like OpenAI’s Sam Altman, Google’s Sundar Pichai and Anthropic’s Dario Amodei were also present. The Summit involved key stakeholders in panels such as Meredith Whittaker (Signal, Foundation), Reid Hoffman (LinkedIn, US Company), Clement Delangue (HuggingFace, US Company) and Nabiha Syed (Executive Director Mozilla, US Fondation).
The AI Summit Series was initially created to advance international AI Safety. The two Summits preceding Paris, in the UK and South Korea, delivered the following results:
The international scientific report on the safety of advanced AI, to develop a shared scientific understanding of the risks of general-purpose AI systems. The International AI Safety Report was published last month with the support of 30 countries, the UN, and the EU, addressing risks including malicious use, misinformation, labor disruptions, environmental concerns, and loss of control. This Report represents an unprecedented, large-scale effort by 100+ independent AI experts from around the world - often colloquially referred to as the “IPCC for AI Report”.
A voluntary minimum standard for companies developing these systems by defining thresholds at which the risks of a general-purpose AI system become intolerable in the absence of mitigation measures, i.e the Frontier AI Safety Commitments.
A role for governments to participate in safety testing and the creation of AI safety centers, as well as the establishment of a network bringing some of them together.
On the technological side, critical progress was made between the Seoul and Paris Summits, which indicates the shortening of development cycles. OpenAI’s o3 model, released just three months after its predecessor o1, beat multiple hard performance benchmarks. Recent evaluations (ARC-AGI, CodeForce, GPQA) show models now consistently outperform human experts in key areas.
OpenAI in particular demonstrated unprecedented reasoning capabilities with the model o3 in December 2024, followed by China's DeepSeek R1 and V3 models released in January 2025 and December 2024 respectively. Through these releases, the Chinese company DeepSeek demonstrated its capacity to develop advanced AI models with strong reasoning capabilities despite U.S. export restrictions on high-end semiconductors. DeepSeek’s models appear to match best-in-class performance in generative AI despite having been developed with a smaller budget – and more limited computing power – than previously thought possible. However, AI experts caution that the model represents no real scientific breakthrough, and treating it as such risks intensifying the ‘AI race’ narrative that often undermines serious efforts to address AI safety and security concerns.
2. Key takeaways from the Paris AI Summit
The Paris AI Action Summit focused on practical applications of AI and investments to showcase France as a leader in AI in an attempt to put the country “back in the AI race”. This focus clearly represented a break with both the UK and South Korea Summits, which had focused on international governance of general purpose AI models and their global safety implications. The Paris Summit seemed to be more narrowly focused on French national interest.
The central showpiece of the Summit was a broadcasted plenary session. The format featured formal addresses from Indian Prime Minister Modi and US Vice President Vance, alongside other leaders. Four companies - Magic, Minimax, 01.ai, NVIDIA - also used the Summit to endorse the May 2024 Seoul voluntary commitments.
A. “Choose France” for AI
The Summit kicked off in the style of a 'Choose France' for AI, with a series of major public and private investment announcements and initiatives following one another:
On the eve of the International Summit, President Macron announced €109 billion in investments in AI in France, comparing it to the US Stargate project. This investment is substantial. It includes contributions from the United Arab Emirates (ranging from €30 to €50 billion) and a €20 billion investment from the Canadian fund Brookfield for the construction of large-scale data centers on French soil. Amazon announced that the company will also mobilize 6 billion euros by 2031 - including 1.2 billion already announced in May 2024 - to construct new sites for its cloud subsidiary. The investment is in line with the French National AI Strategy, which was updated just before the Summit.
In her Political guidelines for the next European Commission, European Commission President von der Leyen had already proposed setting up a European AI Research Council, similar to CERN (the European Organisation for Nuclear Research). At the Paris Summit, she announced a €50 billion investAI initiative and an additional €8 billion for “AI Factories” - a concept aimed at industrializing and automating the entire process of creating and managing AI models, much like a factory manages the production of a product. Emphasizing growth and innovation, von der Leyen declared that “the AI race is far from over” in order to position the European Union as a serious contender in the field. Additionally, the €150 billion EU AI Champions initiative was announced on February 10th and Von der Leyen expressed strong support.
B. A failed attempt to create a shared vision
For the Summit to succeed, researchers and experts had noted beforehand that Paris had to secure senior US-China engagement and demonstrate accountability for past commitments. As the only forum where China sees itself as a founding member, Paris represented a key opportunity for meaningful dialogue. Yet, no further commitments were unveiled by and at the Summit.
Despite receiving much attention in media around the world, such as in China, the Paris Summit also largely overlooked discussions of the International AI Safety Report. In other words, the Summit largely ignored cutting-edge AI models and their policy implications. Participants were barely given a chance to absorb the report’s rigorous findings and little space was provided to participants to share their solutions for and concerns around AI safety.
The Summit's aspirations as a pivotal forum for international AI governance fell short of expectations. Notably, Turing Award recipient Yoshua Bengio stated: “Science shows that AI poses major risks in a time horizon that requires world leaders to take them much more seriously. The Summit missed this opportunity.” The US company Anthropic issued a statement among similar lines: “At the next international summit, we should not repeat this missed opportunity. [...] The need for democracies to keep the lead, the risks of AI, and the economic transitions that are fast approaching—these should all be central features of the next summit."
Out of the 100 countries represented, only 61 endorsed the declaration to promote “an inclusive and sustainable artificial intelligence for people and the planet”. Both the US and the UK were not among them, with the UK citing concerns about the lack of ‘practical clarity’ on governance.
The Paris Summit also convened parallel military talks, which led to a Declaration on Maintaining Human Control in AI enabled Weapon Systems that was endorsed by 25 countries. All of the endorsing countries of this military declaration were European, which raises some doubts over the global relevance of the document.
Finally, while welcoming that sustainable AI was on the agenda, civil society organizations criticised President Macron’s emphasis on ‘clean nuclear energy’ as a way to justify “copy-pasting the US” in building “more and bigger”. They regretted the “window-dressing” sustainable AI coalition and called, in their joint statement, for “genuine efforts to align the development and use of AI with planetary boundaries and to address the power concentration behind it”.
C. A promising achievement on public interest AI
One of the workstreams of the Summit, handled by Martin Tisné (AI Collaborative), was focused on Public Interest for AI. A concrete step was achieved as the Summit marked the launch of an AI Foundation, Current AI, to equip developing countries with open-source AI tools, computing power, and skilled talent.
To fund this initiative, Summit organizers seek to raise €2.5 billion over five years through contributions from philanthropic foundations, governments, and businesses. $400 million of initial funding was announced and the following eight countries announced their support for the French initiative: Chile, Finland, Germany, Kenya, Morocco, Nigeria, Slovenia, Switzerland.
D. More countries establish AI Safety Institutes
China announced its Safety Institute, the Chinese AI Safety and Development Institute. France, in turn, established its Safety Institute and India also announced the creation of its national safety network. Finally, Chile and France unveiled their binational Center on AI, which will also work on joint evaluation of AI systems.
3. Path forward
As announced at the Paris Summit, the next Summit should take place in India, in November 2025. Switzerland has also raised the possibility of hosting a future AI summit.
In an X thread following the Summit, international AI governance expert Robert Trager noted that the Summit series must now transition from an improvised sequence of summits towards a more formalized structure. For this evolution to succeed, organizers must carefully examine past successes and realistically assess future challenges.
To maintain a balance between broad engagement and focused outcomes, a streamlined two-track structure could be considered: the first and core track would focus on the governance and safety of advanced AI, building on the mandate established in earlier summits and primarily involving countries with significant capabilities in advanced AI development, along with major AI companies. The second track, building on the French precedent, would explore the public interest opportunities presented by advanced AI, allowing for broader participation and discussion.
Closing Word and Questions
Word of this Edition: Investment.
The Questions: What is next for international governance? What lessons can be drawn from the dichotomy between international governance and national investment highlighted by France?
To Read:
International AI Safety Report, Jan. 2025
Médiapart, Le grand sommet de la dissonance cognitive, Feb. 2025
Velasco, Trager, et al. (2025). "The Future of the AI Summit Series", Oxford Martin School AI Governance Initiative Policy Memo
Elysée, Paris Actions for AI, Feb. 2025
To Listen:
Djadja - Aya Nakamura
“Hello Papi, mais que pasa?”
Hi! I’m Ima Bello, AI Action Summit Lead for the non-profit FLI. Thank you for reading! Feel free to share your comments, constructive disagreements, or your interest in reading a specific analysis in the future.