Une régulation de l'intelligence artificielle qui suscite la controverse
L'Union européenne a l'ambition d'instaurer le premier règlement au monde destiné à encadrer l'innovation dans le domaine de l'intelligence artificielle (IA). Cette initiative, qui entend conjuguer développement technologique et gestion des risques, a néanmoins suscité une vive opposition de la part de nombreuses entreprises du secteur. Le 14 juin dernier, un projet de texte a été approuvé par les eurodéputés, qui doit maintenant être négocié avec les États membres.
Les signataires d'une lettre ouverte adressée aux institutions de l'UE, dirigées par des entreprises de renom telles que Meta, Airbus, Peugeot, Renault et Siemens, ont exprimé leur préoccupation quant aux implications de ce projet de législation. Ils estiment que le texte pourrait non seulement compromettre la compétitivité de l'Europe, mais également sa souveraineté technologique, sans pour autant répondre de manière efficace aux défis posés par l'IA.
Les signataires d'une lettre ouverte adressée aux institutions de l'UE, dirigées par des entreprises de renom telles que Meta, Airbus, Peugeot, Renault et Siemens, ont exprimé leur préoccupation quant aux implications de ce projet de législation. Ils estiment que le texte pourrait non seulement compromettre la compétitivité de l'Europe, mais également sa souveraineté technologique, sans pour autant répondre de manière efficace aux défis posés par l'IA.
Un débat sur l'équilibre entre régulation et innovation
Selon les entreprises signataires de la lettre, la proposition législative actuelle imposerait une réglementation sévère sur l'IA générative. Cela pourrait inciter les entreprises innovantes à délocaliser leurs activités et dissuader les investisseurs de s'engager dans le développement de l'IA européenne. En conséquence, ils anticipent un « écart de productivité critique » entre l'Europe et les États-Unis.
Le texte prévoit une série de règles destinées uniquement aux applications d'IA considérées comme « à haut risque ». Cela concerne les systèmes utilisés dans des secteurs sensibles tels que les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre ou la gestion des migrations. Parmi les obligations stipulées, figurent le contrôle humain sur la machine, la mise en place d'une documentation technique, et la mise en œuvre d'un système de gestion des risques.
Le texte prévoit une série de règles destinées uniquement aux applications d'IA considérées comme « à haut risque ». Cela concerne les systèmes utilisés dans des secteurs sensibles tels que les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre ou la gestion des migrations. Parmi les obligations stipulées, figurent le contrôle humain sur la machine, la mise en place d'une documentation technique, et la mise en œuvre d'un système de gestion des risques.