Journal de l'économie

Envoyer à un ami
Version imprimable

Intelligence artificielle : la régulation européenne inquiète les grandes entreprises





Le 3 Juillet 2023, par Aurélien Delacroix

Plus de 150 grandes entreprises, dont Meta, Airbus, Peugeot, Renault et Siemens, expriment leur inquiétude face au projet de régulation de l'intelligence artificielle de l'Union européenne, craignant une atteinte à la compétitivité de l'Europe. Les eurodéputés qui défendent ce texte novateur soulignent cependant la nécessité de gérer les risques associés à l'IA.


Une régulation de l'intelligence artificielle qui suscite la controverse

L'Union européenne a l'ambition d'instaurer le premier règlement au monde destiné à encadrer l'innovation dans le domaine de l'intelligence artificielle (IA). Cette initiative, qui entend conjuguer développement technologique et gestion des risques, a néanmoins suscité une vive opposition de la part de nombreuses entreprises du secteur. Le 14 juin dernier, un projet de texte a été approuvé par les eurodéputés, qui doit maintenant être négocié avec les États membres.

Les signataires d'une lettre ouverte adressée aux institutions de l'UE, dirigées par des entreprises de renom telles que Meta, Airbus, Peugeot, Renault et Siemens, ont exprimé leur préoccupation quant aux implications de ce projet de législation. Ils estiment que le texte pourrait non seulement compromettre la compétitivité de l'Europe, mais également sa souveraineté technologique, sans pour autant répondre de manière efficace aux défis posés par l'IA.

Un débat sur l'équilibre entre régulation et innovation

Selon les entreprises signataires de la lettre, la proposition législative actuelle imposerait une réglementation sévère sur l'IA générative. Cela pourrait inciter les entreprises innovantes à délocaliser leurs activités et dissuader les investisseurs de s'engager dans le développement de l'IA européenne. En conséquence, ils anticipent un « écart de productivité critique » entre l'Europe et les États-Unis.

Le texte prévoit une série de règles destinées uniquement aux applications d'IA considérées comme « à haut risque ». Cela concerne les systèmes utilisés dans des secteurs sensibles tels que les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre ou la gestion des migrations. Parmi les obligations stipulées, figurent le contrôle humain sur la machine, la mise en place d'une documentation technique, et la mise en œuvre d'un système de gestion des risques.




Nouveau commentaire :
Twitter

Le JDE promeut la liberté d'expression, dans le respect des personnes et des opinions. La rédaction du JDE se réserve le droit de supprimer, sans préavis, tout commentaire à caractère insultant, diffamatoire, péremptoire, ou commercial.

France | International | Mémoire des familles, généalogie, héraldique | Entreprises | Management | Lifestyle | Blogs de la rédaction | Divers | Native Advertising | Juris | Art & Culture | Prospective | Immobilier, Achats et Ethique des affaires | Intelligence et sécurité économique - "Les carnets de Vauban"



Les entretiens du JDE

Les Arpents du Soleil: un vignoble normand dans la cour des grands

Tarek El Kahodi, président de l'ONG LIFE : "Il faut savoir prendre de la hauteur pour être réellement efficace dans des situations d’urgence"

Jean-Marie Baron : "Le fils du Gouverneur"

Les irrégularisables

Les régularisables

Aude de Kerros : "L'Art caché enfin dévoilé"

Robert Salmon : « Voyages insolites en contrées spirituelles »

Antoine Arjakovsky : "Pour sortir de la guerre"











Rss
Twitter
Facebook