L'Europe régule l'IA pendant que les États-Unis et la Chine accélèrent. Sommes-nous en train de protéger nos valeurs ou de sacrifier notre compétitivité ? La question se pose avec une acuité croissante, et les réponses binaires qu'on entend des deux côtés du débat méritent d'être nuancées.

L'AI Act européen est entré en vigueur en 2024. C'est la première réglementation au monde sur l'intelligence artificielle. Une avancée historique — ou un handicap structurel, selon l'angle depuis lequel on l'observe.

L'argument de la protection : légitime, mais insuffisant

Les partisans d'une régulation forte avancent des arguments solides. Une IA non régulée peut reproduire et amplifier des biais discriminatoires, être utilisée pour de la surveillance de masse, alimenter des campagnes de désinformation ou prendre des décisions à fort impact (crédit, emploi, santé) sans aucun recours possible.

Ces risques sont réels. L'AI Act cherche à les encadrer en classifiant les systèmes d'IA par niveau de risque, avec des obligations croissantes pour les applications les plus sensibles. C'est une approche qui a du sens.

Le problème, c'est que la réglementation s'applique aux entreprises européennes, pas aux modèles américains ou chinois qui atterrissent en Europe via des API. GPT-4 n'est pas développé à Paris. Mistral — la grande exception française — est une startup, pas un groupe mondial.

L'argument de la compétitivité : réel, mais incomplet

L'autre camp souligne que pendant que l'Europe légifère, les États-Unis investissent 50 milliards par an en capital-risque IA, et la Chine en fait une priorité nationale. Les startups européennes, elles, doivent naviguer dans un cadre réglementaire complexe qui alourdit les coûts de mise en conformité et ralentit le time-to-market.

C'est vrai. Et ça pèse surtout sur les PME et les startups, qui n'ont pas les ressources légales des grandes entreprises pour absorber la conformité.

Mais ce qui est omis dans cet argument : une IA non régulée finit toujours par produire des dégâts qui ont un coût. La question n'est pas de savoir si on régule — c'est de savoir qui régule, quand, et comment.

La vraie question : la souveraineté

Le débat régulation vs. compétitivité masque l'enjeu central : la dépendance technologique. Aujourd'hui, l'essentiel de l'infrastructure IA mondiale est entre les mains de cinq à dix entreprises américaines. Les modèles fondamentaux (GPT, Gemini, Claude) sont développés et hébergés aux États-Unis, soumis au droit américain, dont le CLOUD Act.

Cela signifie concrètement que les données traitées par ces systèmes peuvent, en vertu de la loi américaine, être accessibles aux autorités américaines — même si le serveur est localisé en Europe.

Le vrai sujet pour l'Europe n'est pas de choisir entre réglementation et innovation. C'est de construire une capacité autonome — des modèles souverains, une infrastructure propre, des champions industriels. La réglementation peut être un avantage concurrentiel si elle est accompagnée d'une ambition industrielle.

Ce qu'on en fait chez MAO

On utilise l'IA au quotidien — pour de la recherche, du brief créatif, de l'analyse de données, de la rédaction assistée. Ce serait absurde de ne pas le faire. Mais on est attentifs à ce qu'on y met : pas de données clients sans accord explicite, pas de dépendance à un seul outil, une supervision humaine systématique sur les outputs.

L'IA est un outil. Un outil puissant, qui amplifie ce qu'on lui donne — le bon comme le mauvais. Comme tous les outils, son usage responsable relève d'une décision humaine, pas d'un algorithme.

MAO. — Agence de communication digitale & création de site internet à Nice, Côte d'Azur