Intelligence artificielle : la régulation européenne inquiète les grandes entreprises




Le 3 Juillet 2023, par Aurélien Delacroix

Plus de 150 grandes entreprises, dont Meta, Airbus, Peugeot, Renault et Siemens, expriment leur inquiétude face au projet de régulation de l'intelligence artificielle de l'Union européenne, craignant une atteinte à la compétitivité de l'Europe. Les eurodéputés qui défendent ce texte novateur soulignent cependant la nécessité de gérer les risques associés à l'IA.


Une régulation de l'intelligence artificielle qui suscite la controverse

L'Union européenne a l'ambition d'instaurer le premier règlement au monde destiné à encadrer l'innovation dans le domaine de l'intelligence artificielle (IA). Cette initiative, qui entend conjuguer développement technologique et gestion des risques, a néanmoins suscité une vive opposition de la part de nombreuses entreprises du secteur. Le 14 juin dernier, un projet de texte a été approuvé par les eurodéputés, qui doit maintenant être négocié avec les États membres.

Les signataires d'une lettre ouverte adressée aux institutions de l'UE, dirigées par des entreprises de renom telles que Meta, Airbus, Peugeot, Renault et Siemens, ont exprimé leur préoccupation quant aux implications de ce projet de législation. Ils estiment que le texte pourrait non seulement compromettre la compétitivité de l'Europe, mais également sa souveraineté technologique, sans pour autant répondre de manière efficace aux défis posés par l'IA.

Un débat sur l'équilibre entre régulation et innovation

Selon les entreprises signataires de la lettre, la proposition législative actuelle imposerait une réglementation sévère sur l'IA générative. Cela pourrait inciter les entreprises innovantes à délocaliser leurs activités et dissuader les investisseurs de s'engager dans le développement de l'IA européenne. En conséquence, ils anticipent un « écart de productivité critique » entre l'Europe et les États-Unis.

Le texte prévoit une série de règles destinées uniquement aux applications d'IA considérées comme « à haut risque ». Cela concerne les systèmes utilisés dans des secteurs sensibles tels que les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre ou la gestion des migrations. Parmi les obligations stipulées, figurent le contrôle humain sur la machine, la mise en place d'une documentation technique, et la mise en œuvre d'un système de gestion des risques.