L’Europe à la croisée des chemins en matière d’Intelligence artificielle




Le 7 Juin 2021, par Alexandre Mandil


Le développement et la maitrise de l’intelligence artificielle (IA), sujet, certes, fortement médiatique constitue l’un des principaux enjeux stratégiques de ce XXIe siècle. Mis en exergue par une célèbre formule du président russe Vladimir Poutine en 2017 - « celui qui deviendra le leader dans ce domaine sera le maître du monde » - les enjeux de l’IA ont conduit les États-Unis et la Chine à y investir massivement au cours de ces dernières années.




Dans un rapport publié mardi 1er juin, la Banque européenne d’investissement (BEI) et la Commission européenne (CE) reviennent sur les enjeux économiques, scientifiques, géostratégiques, militaires et sociétaux de cette technologie (et de la blockchain) pour l’Europe. Elles rappellent que l’IA aurait par exemple joué un rôle clé dans l’accélération du développement et de la production de vaccins contre le Covid-19.

Soulignant le fait que les régions à la traîne dans la course à l’IA verront probablement leurs parts de marché mondiales diminuer dans plusieurs secteurs clés, de la finance et du commerce électronique à la fabrication et à l’exploitation minière, et pourraient voir à terme leur sécurité et leur indépendance menacées, le rapport s’alarme du retard pris par l’Union européenne en la matière. Le rapport s’inquiète en particulier du manque d’investissement de l’Europe dans la recherche et le développement (R&D) en matière d’IA et pointe le faible rôle joué par les grands investisseurs institutionnels comme les fonds de pension et assureurs dans le financement des start-ups européennes en phase avancée dans ce secteur. Le rapport indique en particulier que si les entreprises et gouvernements européens fournissent principalement des financements aux jeunes pousses qui débutent leurs recherches sur ces sujets, les investissements sont en revanche moindres, voire inexistants, lorsqu’il s’agit de soutenir les start-up et entreprises dans leurs phases d’expansion et de croissance qui nécessitent des investissements plus massifs.

Ce déficit annuel d’investissement dans ces technologies pour rattraper le retard européen par rapport aux leaders mondiaux chinois et américains est ainsi évalué à 10 milliards d’euros par an. En effet, d’après le rapport, sur les 25 milliards d’euros investis par an dans ce secteur, les États-Unis et la Chine représentent aujourd’hui à eux seuls 80 % des investissements contre 7 % (soit environ 1,75 milliard d’euros) pour l’Union européenne. Ces investissements européens proviennent en outre très majoritairement d’Allemagne et de France.

Le retard européen face à la prédominance américaine et chinoise a déjà été mis en avant par de nombreuses études et en particulier une étude publiée en début d’année par la Fondation pour les technologies de l’information et l’innovation (Information Technology and Innovation Foundation) qui a comparé les politiques et atouts de la Chine, des États-Unis et de l’Union européenne à l’aide de 30 paramètres, dont le talent humain, l’activité de recherche, le développement commercial et l’investissement dans le matériel et les logiciels.

Pourtant, l’Union européenne dispose de nombreux atouts et, en premier lieu, du plus grand réservoir de chercheurs en IA (de l’ordre de 43 000 pour 28 000 aux États-Unis et 18 000 en Chine) ainsi que d’une grande quantité de données industrielles, susceptible de lui attribuer un avantage comparatif de taille si elles étaient correctement utilisées. Mais là encore, le manque d’investissement de l’UE ne lui permet pas d’éviter la 'fuite des cerveaux' et l’érosion de son vivier de talents numériques. Force est ainsi de constater que les conditions (salaires, promesses de carrières…) n’ont absolument rien à voir en Europe et aux États-Unis, les meilleurs experts du secteur étant rapidement rémunérés outre-Atlantique des centaines de milliers (voire de millions) d’euros par an.

Afin de renforcer le financement des entreprises européennes du secteur, la BEI s’est enorgueilli fin 2020 du lancement d’un mécanisme de co-investissement doté d’une enveloppe de 150 millions d’euros pour investir aux côtés des gestionnaires de fonds et d’investisseurs privés dans les entreprises du secteur de l’IA. Cette initiative, qui s’ajoute aux autres mesures déjà été prises par l’UE en faveur de l’IA (le programme Horizon 2020 de 1,5 milliard d’euros pour la période 2018-2020 et le programme pour une Europe numérique consacrant 2,5 milliards à l’IA) reste néanmoins particulièrement modeste et ne permettra pas à l’UE de combler son retard.

Par ailleurs, au-delà de l’explication financière largement abordée dans le rapport, l’Union européenne souffre également d’une sur régulation du secteur. Si la règlementation applicable en matière de protection des données à caractère personnel, et en particulier le RGPD, n’a pas été en mesure de protéger les entreprises européennes de leurs concurrents sino-américains (et n’avait pas légalement été pensé pour un tel objectif), elle limite en revanche les possibilités de traitement de données au sein de l’UE et par la même les opportunités d’alimenter et de développer des IA comme c’est le cas aux États-Unis et en Chine. De même, l’ambition de l’UE de réguler l’IA sur un plan éthique, intention évidemment louable, il convient de le souligner, aura également pour effet de ralentir les avancées technologiques et de brider la créativité des chercheurs européens en la matière.

C’est dans ce contexte règlementaire que la Commission européenne a publié le 21 avril dernier, une proposition de règlement européen visant à établir des règles harmonisées en matière d’intelligence artificielle (« Artificial Intelligence Act ») qui vise à proposer une approche harmonisée au sein de l’UE afin d’encadrer les utilisations risquées de l’IA. Ce texte s’inscrit dans le prolongement de trois résolutions adoptées par le Parlement européen le 20 octobre 2020 en matière d’IA (1, 2 et 3), des travaux en cours du Conseil de l’Europe, de la publication par la Commission européenne le 19 février 2020 du Livre Blanc sur l’IA et de deux années de consultations d’acteurs privés, publics, académiques et de la société civile.

Si le texte affiche clairement sa volonté de se limiter à un niveau minimum d’exigences (« limited to the minimum necessary requirements to address the risks and problems linked to AI ») pour ne pas contraindre ou entraver indûment le développement technologique, ni augmenter de manière disproportionnée les coûts de mise sur le marché, les règles qu’il édicte n’en constituent pas moins en pratique de nouvelles règles contraignantes pour le secteur. Le texte poursuit en effet quatre objectifs assez ambitieux sur le plan éthique :
  veiller à ce que les systèmes d’IA mis sur le marché de l’Union et utilisés soient sûrs et respectent la législation existante sur les droits fondamentaux et les valeurs de l’Union ; assurer la sécurité juridique pour faciliter l’investissement et l’innovation dans l’IA ; améliorer la gouvernance et l’application effective de la législation existante sur les droits fondamentaux et les exigences de sécurité applicables aux systèmes d’IA ; faciliter le développement d’un marché unique pour l’utilisation d’IA légales, sûres et dignes de confiance et prévenir la fragmentation du marché. Pour ce faire, la proposition de règlement adopte une approche fondée sur le risque afin d’éviter d’imposer des obligations identiques pour tout type de système IA.
  IA présentant un risque inacceptable : la proposition de règlement établit une liste d’usages interdits qui sont considérés comme contrevenant aux valeurs de l’Union, notamment aux droits fondamentaux (manipulation des personnes au moyen de techniques subliminales afin de modifier leur comportement, exploitation des vulnérabilités de groupes de personnes spécifiques, scoring social basé sur l’IA, systèmes d’identification biométrique à distance et « en temps réel » pour faire appliquer la loi). IA présentant des risques élevés : le texte prévoit ensuite l’application de règles spécifiques aux systèmes d’IA présentant un risque élevé pour la santé, la sécurité ou les droits fondamentaux des personnes et dont l’usage sera autorisé sous réserve du respect de certaines exigences obligatoires et d’une évaluation de conformité ex ante, notamment de documentation des process qui rappelle le principe des analyses d’impact sur la vie privée prévu par l’article 35 du RGPD. Cette catégorie fait notamment référence à une Annexe que la Commission voudrait se donner la possibilité d’ajuster en fonction des développements technologiques à venir et de l’état de l’art. IA présentant un risque faible ou moyen : pour les systèmes d’IA ne présentant pas de risques élevés, la Commission propose d’établir un cadre destiné à favoriser la création volontaire de codes de conduite contraignants par les fournisseurs de tels systèmes. Pour assurer le respect de ces dispositions, la Commission propose également des pénalités supérieures à celle du RGPD pouvant aller jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires annuel mondial.

L’Union européenne est donc à la croisée des chemins si elle veut éviter un déclassement technologique (et donc économique, militaire et politique) et devra impérativement se poser la bonne question : l’Europe est-elle prête à tout mettre en œuvre pour empêcher demain ses rivaux mondiaux de développer des IA contraires à ses valeurs ou, à tout le moins de se les voir imposées ?

Une chose est sûre, sans un investissement financier massif dans l’IA, la question précédente ne se posera même pas.
 
Alexandre Mandil
Avocat membre de Lex-Squared