L’Europe présente son Digital Services Act, que faut-il en retenir ?

L’avenir de l’espace numérique européen va être défini dans deux volets de lois :

  • le Digital Services Act (DSA)
  • Digital Market Act (DMA)

La lecture de ces deux accord est très instructif.

Le Digital Services Act et Digital Market Act en 6 questions

Quels sont les principaux apports du Digital Services Act ?

Le Digital Services Act va apporter aux citoyens et aux entreprises européennes plusieurs avantages notables. Le premier concerne surtout les utilisateurs puisqu’il est question des contenus publiés sur la toile. L’UE veut non seulement que les plateformes agissent pour rendre l’expérience plus sûre, mais elles devront également apporter plus d’explications sur les contenus qui sont retirés et les raisons de leur suppression.

Le second grand sujet du DSA, c’est la transparence, notamment dans le classement des contenus. Au début du mois, la Commission Européenne a présenté les lignes directrices pour cette partie. Elle attendra des grandes plateformes qu’elles détaillent le classement des résultats de recherche qu’elles présentent.

Enfin, le troisième pilier du DSA concerne l’application des règles pour les États-Membres à un niveau national. L’objectif étant non seulement de leur permettre d’être plus fort indépendamment, mais aussi de collaborer avec d’autres juridictions plus facilement, dans le but de faire appliquer les nouvelles règles.

Quelles différences entre le Digital Services Act et le Digital Markets Act ?

Dans les intitulés, on distingue aisément la notion de services d’un côté, et marché de l’autre. En effet, le DSA doit réguler le fonctionnement des plateformes, peu importe leur taille. Ses règles placent un cadre principalement centré sur les processus de contrôle des contenus : comment et pourquoi ils sont publiés ; comment et pourquoi ils sont supprimés.

Le DMA lui, ne regarde pas les contenus, mais le comportement des grandes plateformes sur le marché unique européen. Il va faire office de code sur les comportements anticoncurrentiels et abus de position dominante. Le DMA baptise les entreprises concernées des gatekeepers.

Qui sont les “gatekeepers” évoqués dans le DMA ?

L’Europe ne veut pas les nommer, alors elle a trouvé un terme pour le faire indirectement. Ces fameux gatekeepers seront qualifiés par un lot de critères relativement complexes :

  • Avoir un impact significatif sur le marché unique. Cela veut dire réaliser un chiffre d’affaires annuel dans l’Espace économique européen d’au moins 6,5 milliards d’euros sur les trois dernières années fiscales, ou bien la capitalisation boursière, ou la valeur de l’entreprise s’est élevée à au moins 65 milliards d’euros lors du dernier exercice financier. L’entreprise doit également proposer sa plateforme dans au moins trois États-Membres
  • Avoir au cœur de son business une plateforme de service qui permet aux utilisateurs commerciaux de toucher des utilisateurs finaux. Pour cela, elle doit avoir plus de 45 millions d’utilisateurs actifs mensuels en Europe, et plus de 10 000 utilisateurs commerciaux annuels établis en Europe
  • Jouir d’une position affirmée et durable laisse entendre que cette entreprise en bénéficie encore dans un avenir proche. Pour remplir ce critère, il faut que les deux précédents soient validés lors des trois dernières années.

Ni le projet de loi, ni ses auteurs lors de leurs diverses allocutions le 15 décembre 2020 n’ont mentionné quelque entreprise en particulier. Lors de la conférence de presse qui accompagnait la présentation des deux règlements, Margrethe Vestager a précisé qu’il était difficile de pointer du doigt qui que ce soit, tant on est peu sûr de la correspondance de chaque entreprise à tous les critères cités. Pour autant, il semble logique que les GAFA soient les premières cibles : Google, Amazon, Apple, Facebook, auquel est parfois ajouté Microsoft.

Quels sont les principaux outils pour les réguler ?

Maintenant que l’on est en mesure, techniquement, d’identifier ce qui est pour l’UE un “gatekeeper”, reste à savoir comment on les régule. Dans ce sens, le DMA liste 7 obligations majeures traitant de l’interopérabilité, du traitement des données, ou de la transparence, dont 3 sont à noter :

  • La mise en place de silos empêchant la mutualisation des données entre les différents services de l’entreprise. Si le gatekeeper souhaite brasser ces données, il devra demander le consentement explicite de l’utilisateur
  • L’obligation de ne pas bloquer l’accès à une plateforme, à un utilisateur commercial ou final qui ne serait pas inscrit à cette même plateforme
  • Donner aux annonceurs et aux éditeurs à qui le gatekeeper offre des services publicitaires, à leur demande, le prix payé par l’annonceur, ou l’argent récolté par l’éditeur.

Pour le Digital Services Act, les obligations concernent principalement les contenus. Notamment les contenus illégaux, définis par l’UE comme comprenant le discours de haine, le harcèlement, la contrefaçon, l’utilisation de matériels protégés par le droit d’auteur, le contenu terroriste, discriminatoire, pédophile, ou encore le dévoilement d’images privées. À défaut d’une action rapide et efficace pour traiter leur suppression, les plateformes devront prouver leur méconnaissance des faits afin d’échapper à une amende.

Quelles sanctions pour les entreprises ?

L’organisation des amendes est assez simple. Qu’il s’agisse du DSA ou du DMA, elles représenteront un pourcentage des revenus globaux de l’entreprise en question. Dans le DMA, il est prévu que les sanctions se rapportent à 10% des revenus, et 6% dans le DSA.

Les récidivistes pourraient également risquer des reprises structurelles. Une plateforme tentaculaire comme Google, détenue par la holding Alphabet, pourrait ainsi se voir démantelée si elle ne s’aligne pas sur les exigences de la Commission.

Quand est-ce que la nouvelle législation pourrait prendre effet ?

Pour Margrethe Vestager, le Digital Services Act et le Digital Markets Act doivent être intégrés “aussitôt que possible”, dès l’année prochaine. Néanmoins, étant donné le parcours législatif d’un texte, il faudra sans doute au moins 1 an et demi afin de faire adopter le texte, suivi de 6 mois pour qu’il prenne effet.

En général, lorsque l’Union Européenne adopte un nouveau texte de lois, celui-ci doit passer plusieurs étapes. D’abord, la Commission réalise des analyses d’impact, puis elle consulte les citoyens lors des fameuses “consultations publiques”. Cela permet de rédiger une proposition qui répond aux attentes de la population, comme l’ont rappelé Margrethe Vestager et Thierry Breton lors de leur conférence de presse. Ensuite, une fois le texte finalisé, il doit passer par le Parlement et le Conseil, qui ont le pouvoir de lui ajouter des amendements. Il peut ainsi y avoir des va-et-vient entre les deux institutions (jusqu’à trois lectures) qui peuvent faire durer le processus… assez longtemps. 2 ans est donc une estimation, ambitieuse mais espérée, prenant en compte également que les règlements vont en général plus vite.

Gardons cependant à l’esprit que les débats pour le règlement général sur la protection des données (RGPD), autre pierre angulaire de l’Europe numérique, avaient pris 4 ans.

L’Internet que nous connaissons aujourd’hui s’est construit en plusieurs décennies, et grâce à une multitude d’acteurs. S’il n’a pas été régulé à temps, l’Europe fait preuve de témérité et même d’avant-gardisme. Demain, le numérique européen pourra prospérer en reposant sur les solides fondations que sont le Digital Services Act et le Digital Markets Act.

Lire aussi :

L’UE impose une régulation aux réseaux sociaux comme Facebook, Instagram, Twitter ou TikTok, et aux sites de vente en ligne comme Amazon ou Leboncoin
Publié sur Le Monde le 23 avril 2022 par Alexandre Piquard

Les Européens mal protégés face à l’intelligence artificielle

La technologie évolue plus vite que la loi. Nous devons maintenant nous assurer que le futur cadre réglementaire de l’UE pour l’intelligence artificielle soit basé sur le respect des droits de l’homme et des droits fondamentaux.

Sur ce sujet :

 

Pas d’Europe numérique du futur sans mettre fin aux cyberviolences

Tous les indicateurs le prouvent, des plus officiels chiffres d’Eurostat aux différents baromètres de la haine produits par la société civile, le taux de cyberviolences atteint des sommets inacceptables. Alors que les réseaux sociaux ont tout d’abord été pensés comme des opportunités de rapprocher les citoyens européens, notamment les plus jeunes d’entre eux, force est de constater que l’atmosphère digitale est devenue irrespirable. Près de 61% des internautes européens ont été témoins ou la cible, au moins une fois, d’un discours de haine, de menaces pour leur intégrité physique, de fake news ou de cyberharcèlement. La haine en ligne est devenue aussi omniprésente qu’intolérable.

Alors que la Commission européenne publie son projet pour le Digital Services Act, nous en venons donc à demander ouvertement: “La Commission européenne est-elle prête à prendre pleinement en compte l’ampleur du phénomène et à adopter en conséquence les mesures concrètes et efficaces de responsabilisation qui s’imposent?”

La DSA doit être l’occasion de relever enfin le défi législatif de la lutte contre la haine en ligne et ses auteurs qui menacent et éprouvent les valeurs démocratiques de l’Europe.

Nous n’avons que trop tardé à porter un regard objectif sur la prolifération des contenus haineux, et à affirmer l’importance d’une modération efficace en minimisant les effets néfastes de cette pollution numérique.

 

Les députés européens s’intéressent aux dérives potentielles de l’IA

Un enjeu fondamental pour que les progrès technologiques profitent au plus grand nombre.

Comment bénéficier des apports de l’intelligence artificielle, tout en encadrant les risques liés au développement de ces technologies. C’était l’enjeu d’une réunion organisée il y a quelques jours par la commission spéciale du Parlement européen sur l’intelligence artificielle à l’ère du numérique.

Nos confrères d’Euractiv ont assisté à ces échanges passionnants qui en disent assez long sur le débat entourant ce sujet en Europe. L’une des intervenantes, Francesca Lagioia, chercheuse à Institut universitaire européen, a résumé les enjeux : « L’IA offre certainement de grandes opportunités aux individus et aux sociétés mondiales en ce qui concerne la durabilité et la possibilité d’accroître les connaissances. Mais cela implique également des risques importants, comme par exemple le chômage, la discrimination et l’exclusion. »

Les eurodéputés approuvent un rapport sur la régulation de l’IA

Parmi les problèmes potentiels, on cite souvent les risques de biais sexistes des algorithmes utilisés pour les recrutements. La reconnaissance faciale est aussi régulièrement pointée du doigt pour de potentielles dérives racistes.

Cette problématique est bien prise en compte par les décideurs européens. Un livre blanc a par exemple été publié en 2020 sur ce dossier. La Commission a toutefois choisi de temporiser en lançant un débat sur l’utilisation de l’identification biométrique à distance dans tout le continent.

La régulation de l’intelligence artificielle finit tout de même par avancer. Ainsi, la semaine dernière, les députés européens ont adopté un rapport sur l’intelligence artificielle visant à fixer des lignes directrices. Il devrait notamment servir de boussole à la Commission dans le cadre de sa proposition législative. Les domaines militaires, éducatifs et de santé sont notamment abordés dans ce texte qui traite par ailleurs des deepfakes.

 

Article publié sur Presse Citron le 31 janvier 2021 par Jean-Yves Alric

Une étude pointe les retards de l’Union européenne en matière d’IA

L’Union européenne est à la traîne en matière d’intelligence artificielle.

C’est ce que l’on peut retenir d’une étude rendue par l’Information Technology and Innovation Fondation (ITIF), un think tank américain qui s’intéresse aux politiques publiques qui stimulent l’innovation technologique.

Pour comparer l’avancée des différents acteurs en matière de développement et d’utilisation de l’IA en 2020, les auteurs ont établi une trentaine de critères autour de la recherche, du développement commercial ou encore des investissements. Ces éléments mis bout à bout permettent d’établir un score global.

L’UE mise sur l’IA mais veut aussi la réguler pour éviter les dérives

Dans ce cadre, les États-Unis obtiennent 44,6 points sur une échelle de cent, la Chine en récolte 32, tandis que l’UE ferme la marche avec 23,3 points. Selon Euractiv, les investissements dans les startups et le financement de la recherche et du développement sont les principaux atouts des USA. De son côté, l’Empire du milieu a réalisé de grands progrès dans plusieurs domaines et compte par exemple 500 supercalculateurs parmi les plus puissants du monde.

Pour l’Union européenne, le retard s’explique notamment par un problème de financement par capital-investissement. Le document note toutefois que le vieux continent a publié de nombreux documents de recherche sur l’IA, ce qui est encourageant.

Notons d’ailleurs que l’Europe a l’intention d’investir dans l’IA au cours des prochaines années. Lors d’un discours prononcé au parlement européen l’an dernier, la présidente de la Commission, Ursula von der Leyen est revenue sur ce sujet. Elle estime que ces technologies peuvent être porteuses d’innovations dans des domaines tels que « l’agriculture, la médecine ou encore les voitures autonomes. » La dirigeante précisait alors qu’elle était consciente des controverses liées notamment à la reconnaissance faciale. L’objectif est selon elle de réguler l’intelligence artificielle pour qu’elle soit « centrée sur l’humain ».

Le rapport confirme par ailleurs la montée en puissance de la Chine.

« Le gouvernement chinois a fait de l’IA une priorité absolue et les résultats sont visibles », a déclaré Daniel Castro, directeur du Centre pour l’innovation des données de ce think tank, et auteur principal du rapport. « Les États-Unis et l’Union européenne doivent prêter attention à ce que fait la Chine et y répondre, car les pays qui mènent le développement et l’utilisation de l’IA façonneront son avenir et amélioreront considérablement leur compétitivité économique, tandis que ceux qui prennent du retard risquent de perdre leur compétitivité dans des industries clés », a-t-il souligné.

La Chine a publié 24.929 articles de recherche sur l’IA en 2018, selon les données les plus récentes, contre 20.418 pour l’Union européenne et 16.233 pour les États-Unis, détaille le rapport. Cependant, « la qualité moyenne de la recherche américaine est toujours supérieure à celle de la Chine et de l’Union européenne », précise Daniel Castro, ajoutant que les États-Unis « restent le leader mondial dans la conception de puces pour les systèmes d’IA ».

Pour rester compétitive, l’Europe doit, selon le rapport, renforcer les incitations fiscales à la recherche et développer les instituts de recherche publics dans ce domaine. Quant aux Etats-Unis, ils doivent, pour maintenir leur avance, renforcer le soutien à la recherche et au déploiement de l’IA, et redoubler d’efforts pour développer les talents dans le pays tout en attirant ceux du monde entier.

Pour aller plus loin : Conseil de l’Europe et intelligence artificielle

 

Lancement du Partenariat Mondial pour l’IA par 15 membres fondateurs

Un consortium d’acteurs public-privé émanant de quinze pays, dont la France et le Canada, vient de se former pour à réfléchir sur les technologies d’intelligence artificielle et leurs applications. Ce « Partenariat mondial pour l’IA » est porté par l’OCDE, l’Unesco et deux centres de recherche à Paris et Montréal. D’autres Etats pourront se joindre à cette initiative par la suite.

Le Canada et la France s’unissent avec l’Allemagne, l’Australie, la République de Corée, les États-Unis d’Amérique, l’Italie, l’Inde, le Japon, le Mexique, la Nouvelle-Zélande, le Royaume-Uni, Singapour, la Slovénie et l’Union européenne pour créer le Partenariat Mondial sur l’intelligence artificielle (PMIA).

Conscients de la nécessité d’une coopération à l’échelle internationale pour exploiter le plein potentiel de l’intelligence artificielle (IA) et en faire bénéficier l’ensemble des citoyens, tout en respectant les valeurs démocratiques et la primauté de l’humain, les 15 membres fondateurs entendent encourager et guider le développement responsable d’une intelligence artificielle fondée sur les droits de l’Homme, l’inclusion, la diversité, tout comme favorisant l’innovation et la croissance économique.

Quelques sources officielles :

La Commission européenne propose de nouvelles règles pour permettre aux startups d’attirer les meilleurs talents

La commission européenne veut faire évoluer la législation sur l’immigration et les stock-options pour permettre aux startups européennes d’aller chercher des talents du monde entier.

Fin mars 2021, la Commission européenne a proposé un ensemble de nouvelles règles pour accélérer la croissance des startups européennes. Selon CNBC, l’organisme européen souhaite notamment faciliter l’immigration pour que nos jeunes pousses puissent attirer les talents du monde entier. Derrière cette évolution de la législation, l’objectif est de rattraper le retard sur la Chine et les États-Unis (voire article précédent).

La Commission européenne veut favoriser la venue de nouveaux talents

Sur les 28 pays membres de l’Union européenne, 25 ont accepté les nouvelles règles proposées par la Commission. La Hongrie, la Bulgarie et la Croatie sont les seuls pays à ne pas avoir voté en faveur de cette évolution. Trois pays très réticents à l’idée de favoriser l’immigration au sein de l’Union. Car en effet, c’est bien l’objectif de la Commission européenne : favoriser et faciliter l’immigration pour permettre aux startups européennes d’aller chercher des talents partout à travers le monde et de gagner en attractivité.

Dans la nouvelle législation adoptée par la Commission européenne, nous pouvons lire ceci : « nous avons besoin d’un plus grand nombre de startups en Europe, qui se développent rapidement pour devenir des petites et moyennes entreprises innovantes, avant de se transformer en de grandes sociétés prospères qui contribuent à la souveraineté numérique et à l’autonomie stratégique de l’Europe. Pour ce faire, nous devons leur proposer les meilleures conditions pour se développer à chaque étape de leur cycle de vie ».

Cette stratégie a autrefois été adoptée par les États-Unis. De grandes entreprises comme Google ou Facebook ont largement usé de cette technique pour se développer. L’Union espère à son tour créer des géants technologiques capables de jouer dans la cour des grands. Les startups européennes réclament depuis très longtemps des réformes pour leur permettre de se développer et de prospérer. D’un côté du globe nous avons Google, Facebook, Apple et Amazon, tandis que de l’autre il y a Alibaba, Tencent, Huawei et Xiaomi. Des entreprises technologiques nettement plus puissantes que les acteurs de la tech européens.

51 organisations non gouvernementales demandent l’interdiction de la reconnaissance faciale en Europe

La Commission européenne doit interdire les pratiques de surveillance de masse biométrique”, c’est ce que réclame dans une lettre ouverte adressée au commissaire européen à la justice ce 1er avril 2021 et signée par 51 organisations européennes.

La reconnaissance faciale, est l’une des technologies qui inquiètent le plus les défenseurs des droits à la vie privée. L’utilisation de l’IA biométrique, la reconnaissance des individus, pour la surveillance des foules viole en effet la Charte des droits fondamentaux de l’Union européenne. Selon la lettre, sont bafoués en particulier : “les droits à la vie privée, à la protection des données, à l’égalité, à la non-discrimination, à la liberté d’expression et d’association, à une application régulière de la loi et à une bonne administration, à la présomption d’innocence, aux droits sociaux, aux droits des travailleurs, à la dignité, ainsi qu’aux principes fondamentaux de la justice, de la démocratie et de l’État de droit”.

Ce constat fait mouche alors que cette technologie séduit de nombreux pays européens qui voudraient renforcer leur sécurité intérieure. La société américaine controversée de reconnaissance faciale Clearview AI voulait ainsi s’associer avec 9 pays européens dont l’Italie, la Grèce et les Pays-Bas avant que le projet soit avorté par les autorités européennes. De plus, l’utilisation de reconnaissance biométrique a déjà été expérimentée dans les aéroports français de Nice et Lyon. L’UE s’est également dotée du système IA iBorderCtrl, sorte de détecteur de mensonges intelligent analysant les visages des nouveaux arrivants dans l’espace Schengen. La police allemande a par ailleurs utilisé des vidéos de manifestation pour retrouver des individus qui y avaient manifesté lors du G20 en 2019. Mesure jugée extrêmement antidémocratique.

 

Une utilisation raisonnable est-elle possible ?

Les partisans des technologies de reconnaissance faciale emploient généralement l’argument de l’utilisation raisonnable. Ils veulent la déployer dans des circonstances précises, souvent pour s’assurer que les citoyens respectent la loi et pour pointer les malfaiteurs. En 2019, le ministre de l’Intérieur belge de l’époque Pieter De Crem ne s’était d’ailleurs pas dit contre l’implémentation de la reconnaissance biométrique pour appuyer les forces de l’ordre.

Ella Jakubowska est responsable des politiques et des campagnes à l’EDRi (European Digital Rights), organisation signataire de la lettre. Interrogée par ZDnet, elle soutient qu’une interdiction générale de ces technologies doit être imposée, peu importe l’utilisation : “Nous pensons que toute utilisation qui cible indistinctement ou arbitrairement des personnes dans un espace public va toujours, et sans aucun doute, enfreindre les droits fondamentaux. Elle n’atteindra jamais le seuil de nécessité et de proportionnalité”.

Le RGPD incomplet ?

Outre la campagne Reclaim Your Face menée par l’EDRi qui a récolté 43.000 signataires à travers l’EU pour l’interdiction de la reconnaissance biométrique de masse, un livre blanc de la Commission européenne appelait à faire de même ou, du moins, avertissait de ses dangers.

Margrethe Vestager, vice-présidente de l’UE au numérique, rappelait que l’utilisation d’IA de reconnaissance faciale de masse pour identifier automatiquement les citoyens était en contradiction avec le Règlement Général sur la Protection des Données (RGPD). Cette technologie ne répond pas en effet à un des points les plus importants du règlement : l’obtention du consentement d’une personne pour le traitement de ses données personnelles.

L’EDRi nuance tout de même et rappelle que le RGPD comporte des exceptions, notamment en cas “d’extrême nécessité”. Le manque de clarté sur les critères d’exemption a déjà mené à des dérives de mauvaise application de la règle de consentement au sein de l’Union, comme vu plus haut. Selon Ella Jakubowska, le cadre juridique est encore trop flou : “Nous avons la preuve que le cadre juridique existant est mal appliqué et présente des problèmes de mise en œuvre. Ainsi, bien que les commissaires semblent convenir qu’en principe, ces technologies devraient être interdites par le RGPD, cette interdiction n’existe pas dans la réalité. C’est pourquoi nous souhaitons que la Commission publie une interdiction plus spécifique et plus claire, qui s’appuie sur les interdictions existant dans le droit général de la protection des données”.

L’opportunité d’être exemplaire pour les pays Européens

Selon les détracteurs de la reconnaissance biométrique de masse, cette technologie n’est pas inévitable. Son interdiction est également l’opportunité pour l’UE d’être un exemple mondial de liberté individuelle et démocratique. Selon l’EDRi, nous sommes à une époque charnière en matière de libertés démocratiques :  “Nous sommes à un point de basculement important où nous pourrions en fait prévenir un grand nombre de préjudices futurs et de pratiques technologiques autoritaires avant qu’ils n’aillent plus loin”.

Les associations de défense de la vie privée rappellent également les biais et les préjudices que peut poser l’utilisation d’une IA : “Pour une législation sur l’IA véritablement centrée sur l’humain, nous réitérons qu’il doit y avoir des utilisations que l’UE n’autorise pas dans une société démocratique”. Ils ont ainsi désigné des lignes rouges sur les utilisations qu’ils ont jugées contrevenantes aux droits fondamentaux des citoyens.Texte à re

Les systèmes judiciaires européens à l’épreuve du développement de l’intelligence artificielle

La forte médiatisation des derniers développements de l’intelligence artificielle n’est pas le fruit d’une révolution en recherche fondamentale mais provient de l’amélioration des performances des algorithmes d’apprentissage automatique, qui cherchent à représenter par des techniques statistiques d’un environnement donné. L’application à la justice de cette technologie à des fins « prédictives » reste toutefois une entreprise extrêmement périlleuse pour laquelle il est urgent de produire un cadre éthique. Discriminations, restrictions de l’accès au juge, atteintes à la vie privée sont autant de risques à prévenir de la conception des modèles à leur utilisation.

La présentation de M. Yannick MENECEUR (Magistrat détaché, conseiller en politiques du Conseil de l’Europe) est disponible en ligne (PDF) :
Les systèmes judiciaires européens à l’épreuve du développement de l’intelligence artificielle

 

Le Parlement européen se prononce pour une IA plus éthique

Les eurodéputés ne sont pas insensibles aux risques et appellent à une meilleure régulation.

Le problème est désormais bien connu, si l’intelligence artificielle présente de nombreux atouts, elle comprend aussi certains risques de dérives potentielles. Nous vous avions déjà parlé des biais sexistes de certaines IA de recrutement, ou encore des préjugés racistes souvent dénoncés pour la reconnaissance faciale.

Récemment, la Commission de la culture et de l’éducation du Parlement européen s’est prononcé en faveur d’une résolution visant à encadrer l’intelligence artificielle. L’idée est de « réduire les préjugés de genre, sociaux ou culturels dans les technologies ».

En matière d’IA, l’Europe a pris du retard sur les États-Unis et la Chine

Le média en ligne nous apprend ainsi que que cette disposition a été adoptée par 25 voix pour et 4 abstentions.

Elle énonce très clairement son objectif :

Pour être éthique, l’IA doit être développée, déployée et utilisée de manière durable et socialement responsable, en suivant une stratégie d’égalité des sexes, en respectant la diversité culturelle, en promouvant la culture numérique, en comblant la fracture numérique et en préservant les droits de propriété intellectuelle.
L’enjeu est de taille au sein de l’Union, alors que la Commission européenne devrait présenter un nouveau cadre législatif sur l’intelligence artificielle au cours du mois d’avril. Les parlementaires estiment donc qu’une IA mieux encadrée « profiterait pleinement aux utilisateurs ».

Autre proposition originale : encadrer les recommandations de contenu fondées sur les algorithmes. Euractiv cite le cas des plateformes de streaming à qui il serait demandé de prendre en compte la diversité culturelle et linguistique européenne.

Ce thème de la régulation de l’intelligence artificielle est suivi de près par le Parlement européen. Ainsi, en janvier dernier, une réunion a déjà été organisée sur ce thème. Là encore, l’idée des échanges était de voir comment bénéficier des apports de ces technologies, tout en prenant en compte les risques importants qu’elles présentent en matière de chômage, de discrimination, ou d’exclusion.

Dans ce secteur hautement stratégique, le vieux continent a pris du retard. Selon une étude de l’Information Technology and Innovation Fondation, l’UE est largement à la traîne derrière les États-Unis et la Chine.

Texte adopté : Cadre pour les aspects éthiques de l’intelligence artificielle

 

Bruxelles promet d’interdire les usages « inacceptables » de l’IA

Création d’un comité européen de l’IA chargé de stimuler l’élaboration de normes

Les systèmes d’IA qui présentent des risques élevés pourront bien être mis sur le marché, mais ils devront répondre à certains critères tels que la mise en place de systèmes adéquats d’évaluation et d’atténuation des risques, d’ensembles de données de « qualité élevée », la garantie de traçabilité des résultats, ou encore un contrôle humain « approprié ». Cette catégorie englobe, entre autres, les systèmes d’IA utilisés dans les infrastructures de transport, l’éducation, la santé, l’accès à l’emploi, l’évaluation du risque de crédit, le maintien de l’ordre, la gestion de la migration, la reconnaissance facial ou encore l’administration de la justice et des processus démocratiques.

Le projet de réglementation prévoit également des obligations de transparence pour les systèmes d’IA présentant des « risques limités » comme les chatbots, par exemple. Leurs gestionnaires devront s’assurer que les utilisateurs sont conscients qu’ils interagissent avec une machine, « afin de pouvoir décider en connaissance de cause de poursuivre ou non ».

Enfin, le projet n’envisage pas d’intervention pour les systèmes d’IA relevant de la catégorie « risques minimes », tels que les jeux vidéo ou les filtres anti-spam reposant sur l’intelligence artificielle. Selon la Commission européenne, « ces systèmes ne représentent qu’un risque minime, voire nul, pour les droits ou la sécurité des citoyens ».

Les autorités nationales compétentes en surveillance du marché devront veiller au respect des nouvelles règles. Un comité européen de l’IA chargé de stimuler l’élaboration de normes serait également créé dès que possible.

Pour plus de détails : Les normes relatives à l’IA seront développées conjointement par les organismes européens de normalisation
Publié sur Euractiv le 30 mai 2022 par Arthur Riffaud

Quel cadre juridique pour l’intelligence artificielle en Europe ?

Un an et demi après l’annonce par la présidente de la Commission européenne, Ursula Von der Leyen, de la volonté de réglementer l’IA dans les “100 jours”, la proposition de loi vient de naître. Au beau milieu d’une période de restrictions sanitaires qui a vu augmenter l’usage et la pénétration des nouvelles technologies dans nos vies, l’UE souhaite réguler l’un des secteurs clés.

La situation

L’intelligence artificielle, transversale, utilisée dans de nombreux secteurs, de la santé aux transports, pour la reconnaissance faciale en passant par les réseaux sociaux, est un mot qui renferme de nombreuses technologies. En termes simples, Nicolas Méric, CEO de DreamQuark, la définit comme “l’ensemble des technologies qui permettent à la machine de reproduire des comportements considérés comme intelligents par les humains”. C’est par exemple le système qui permet à Spotify de vous proposer des playlists adaptées à votre style, aux réseaux sociaux comme Facebook de trier le contenu intéressant de votre fil d’actualité et d’y supprimer ceux indésirables ou illégaux, ou encore à une voiture autonome de se mouvoir seule. C’est aussi les programmes qui aident à cartographier et reconstruire la Cathédrale Notre-Dame, ou certains logiciels pouvant diagnostiquer une tumeur ou une maladie grave bien plus rapidement qu’un médecin.

AI Liability Directive : l’Union veut une loi pour mieux réguler les professionnels de l’IA

L’IA est partout, et constitue tout ce qui n’a pas encore été fait. “Plusieurs choses se dégagent des comportements reproduits par les machines” précise Nicolas Méric, “il y a la perception (c’est repérer ce qu’il y a autour de moi, dans mon environnement), la communication (c’est le mouvement, la robotique), la compréhension (c’est la capacité à analyser et prendre des décisions), et l’apprentissage (c’est pouvoir apprendre avec l’expérience)”. Il y a donc autant d’aspects à l’intelligence qu’il n’y a d’applications pratiques qui en contiennent.

Or, un des grands débats sur la thématique reste la fameuse question de la conscience au sein de l’intelligence, et des limites éthiques auxquelles fait souvent face l’IA. On se souvient des livres de Cathy O’Neil, rendue célèbre par son apparition dans The Social Dilemma, qui pointait depuis longtemps déjà la menace pour la démocratie et les droits humains que pouvaient représenter les algorithmes. On se souvient également de Coded Bias, le documentaire Netflix qui suivait Joy Buolamwini, chercheuse du MIT, dans sa quête contre les biais racistes et misogynes au sein des systèmes d’intelligence artificielle, et notamment de reconnaissance faciale. Une chose est claire : l’intelligence artificielle comporte des risques. Et de cela, l’Union européenne en est bien consciente.

Problème : l’UE est un Far West législatif quand il est question d’IA.

Le message de cette proposition est donc le suivant : l’IA a des potentiels, et c’est la raison pour laquelle il faut l’encadrer. “Qu’il soit question d’agriculture de précision, de diagnostics médicaux plus fiables ou de conduite autonome sécurisée, l’intelligence artificielle nous ouvrira de nouveaux mondes. Mais ces mondes ont aussi besoin de règles”, avait déclaré en septembre la présidente de la Commission européenne, dans son discours sur l’état de l’Union.

Par cette proposition de loi qui réglemente l’IA, la Commission met la barre des exigences haute pour le secteur tech, comme elle l’a fait avec le Digital Market Act et le Digital Services Act. C’est une dynamique de réglementation du numérique qui se dessine depuis plus d’un an, avec un continent affichant une volonté de s’attaquer aux domaines clés de nos économies, et à ses acteurs. Par la cybersécurité, par la protection des données personnelles, par une garantie à la concurrence, et maintenant par la réglementation de l’intelligence artificielle.

La réglementation de l’IA présente une opportunité, pour l’UE, qui fait du numérique un de ses chevaux de bataille, donnant l’exemple à travers des textes ambitieux à l’échelle internationale. C’est l’occasion de faire progresser son programme de souveraineté numérique et d’établir une autre norme mondiale, comme elle l’a fait avec succès via le RGPD. Depuis des années, la Commission travaille sur l’IA. “La réglementation ne tombe pas de rien. Ce sont des groupes de travail, d’experts, qui ont réfléchi. Il y a eu un vrai travail pour rendre cette réglementation opérationnelle” nous apprend Nicolas Méric. En effet, la stratégie européenne pour l’IA date de 2018 ; déjà, une tentative d’explication de la technologie et de son importance en société y figurait. En 2019, le groupe d’experts de haut niveau appointé publiait ses lignes directrices, invitant à bâtir une confiance durable au sein des systèmes IA, par sa régulation. Puis, en 2020, le document le plus précis naissait, en ce qu’on connaît encore sous le nom de livre blanc sur l’IA, jetant les fondations de la proposition officielle qui vient d’être dévoilée.

Le mercredi 21 avril, c’est dans ce contexte qu’a été dévoilée la proposition de directive de la Commission Européenne, une première dans le monde. Une proposition ambitieuse, longue de 100 pages, aux termes parfois vagues mais aux intentions certaines : faire de l’IA un allié des citoyens, de leurs droits et de la démocratie, et non une menace. Les critiques ont fusé, les commentaires ne se sont pas fait attendre, à son propos : le texte n’est pas parfait, et comporte des omissions, des imprécisions, qui pourraient s’avérer dangereuses. Explications, en compagnie de l’expert en intelligence artificielle et PDG de Dreamquark Nicolas Méric.

 

Une approche fondée sur le risque

Le plan de l’UE pour réglementer l’IA recourt à une approche en fonction des risques des différents systèmes. Quatre catégories de risque sont différenciées : le risque inacceptable, le risque élevé, le risque limité et le risque minimal.

Concernant les systèmes au risque inacceptable, leur nombre est plutôt réduit. Seuls la notation sociale (ou système de crédit social, rendu tristement célèbre par l’exemple fictif fourni par Black Mirror, ou très réel de la Chine), l’exploitation de la vulnérabilité des enfants à travers les jouets utilisant l’IA, l’utilisation de techniques subliminales et la surveillance dans les espaces publics seront interdits. Ce dernier, cependant, comporte plusieurs exceptions, que critiquent vivement les associations de défense des droits numériques.

Par ailleurs, on peut reprocher à l’UE cette approche basée sur le risque, qui empêche de vraies décisions d’interdiction d’avoir lieu. Beaucoup des usages les plus dangereux, dont de nombreux cas empiriques ont pu violer les droits humains et créer des inégalités, sont relayés au rang de “haut risque”. Par exemple, la police prédictive, l’utilisation de l’IA pour le contrôle de l’immigration, la catégorisation biométrique ethnique, du sexe, du genre, ou encore l’IA utilisée par/sur les travailleurs.

Tous ces usages dépendent de la perfection des systèmes d’intelligence artificiels utilisés, et des données récoltées. Or, comme le détaille Nicolas Méric, “aujourd’hui, dès qu’on a de la donnée, celle-ci a des biais. Les humains qui ont conçu les systèmes ont eux-mêmes des biais cognitifs, peuvent être en proie à la misogynie, au racisme, ce qui amène encore d’autres biais intégrés dans les systèmes”. L’UE y répond ainsi en introduisant des critères et des exigences qualitatives sur ces facteurs, sans bannir l’utilisation de l’IA dans ces secteurs sensibles, avec pour but de protéger les droits humains. Une formule qui reste à prouver.

Le cadre juridique que vient de développer l’Union Européenne s’appliquera à la fois aux acteurs publics et privés, à l’intérieur comme à l’extérieur. Le simple critère pour que le texte s’applique à une entreprise repose sur le fait que son IA est ou non disponible sur le marché européen. Si elle l’est, l’entreprise doit se conformer, qu’elle soit un développeur (comme Amazon avec AWS) ou une entreprise utilisatrice d’un système tiers (comme Netflix ou Tinder, qui utilisent AWS). À l’inverse, le texte ne s’appliquera pas aux utilisations privées et non professionnelles.

 

Les droits humains au cœur de l’IA ?

Le texte évoque à maintes reprises l’importance des droits humains, et leurs liens complexes avec les systèmes d’IA. Comme nous l’a expliqué le PDG de Dreamquark, l’opacité et la composition de nombreux algorithmes ont le potentiel d’affecter la sécurité des citoyens, et leurs droits fondamentaux. “Pour la reconnaissance faciale par exemple, les systèmes marchent beaucoup mieux sur des personnes de type caucasien, tout simplement car c’est de ce type de profils qu’ont appris les algorithmes. Le but, ici, c’est d’avoir des données qui représentent la population, qui sont également réparties entre hommes et femmes, et entre nationalités et couleurs de peau” détaille-t-il.

Nous pourrions aussi simplement nous poser la question des usages : pourrait-il y avoir des secteurs où l’usage de l’AI devrait être par nature interdit ? Le problème est que c’est précisément dans les secteurs les plus sensibles, comme la santé ou le champ militaire, que les intelligences artificielles comportent les potentiels les plus impressionnants pour aider l’humain. “On peut aussi ajouter qu’il y a certains secteurs critiques en eux-mêmes. La santé, l’éducation, l’accès à l’information… Ceux-ci sont liés à de nombreux droits fondamentaux” ajoute Alessandro Ciociola, CIO d’Occupy AI. C’est précisément la raison de l’action législative de l’UE : prendre en considération les risques et les avantages des systèmes d’IA, en fonction de leurs secteurs d’application, et imposer des exigences à ces secteurs classés à “haut risque”.

La proposition de directive cite une longue liste de droits mis en question par l’IA, et que l’on trouve dans la Charte Européenne des droits fondamentaux. Parmi eux, le respect de la vie privée et la protection des données personnelles, lié au fait que les algorithmes de machine learning sont bien souvent consommateurs de données pour se perfectionner, ce qui peut pousser les plateformes comme Facebook à exiger toujours moins de confidentialité pour leurs utilisateurs. La non-discrimination y figure aussi, liée aux biais évoqués par Nicolas Méric, qui peuvent se traduire dans des systèmes de reconnaissance faciale. Pour le spécialiste de l’IA, “certains biais ne sont pas tolérables, du point de vue des valeurs de notre société. On considère naturellement qu’il ne doit pas y avoir de traitement différent entre hommes et femmes, entre les couleurs de peau, ou entre les religions dans la vie, cela devrait être pareil au sein de la technologie”.

Parmi les nouveautés, l’introduction du principe de garantie humaine. Dans l’article 14 du projet de règlement, la Commission introduit en effet la nécessité de “supervision humaine”. Ce principe de régulation positive avait été introduit en 2017, dans le cadre de la révision bioéthique, et renforce l’idée de la nécessité d’une alliance entre l’humain et l’IA, qui ne doit pas être laissée libre à elle-même.

Pour ce qui est de la responsabilité, l’accent est mis sur le fournisseur de service, même si les développeurs seront tenus de suivre tout un processus de mise en conformité avant d’introduire leur produit sur le marché. Le tampon CE sera utilisé pour manifester cette conformité, et attester du respect du règlement. “La responsabilité reste dans les mains de celui qui fournit le service final. Si on parle d’une banque qui propose un service de crédit pour lequel elle utilise un système d’intelligence artificielle, le responsable final n’est pas le créateur de la solution d’intelligence artificielle, même s’il devra également s’assurer de la conformité, mais la banque” explique Nicolas Méric.

 

L’interdiction de l’utilisation de l’IA à des fins de surveillance ?

En général, les technologies d’IA destinée à “une surveillance indiscriminée appliquée de manière généralisée à toutes les personnes physiques sans différenciation” seront interdites, dans la mesure où l’État ne les met pas en place pour garantir la sécurité publique, comme dans le cadre de la lutte contre le terrorisme. Tout ce qui est en fait de l’ordre de la manipulation, de l’exploitation des données, et de l’identification biométrique à distance dans les lieux publics, est interdit (sous quelques exceptions).

Réguler la surveillance recourant à “l’identification biométrique à distance”, comme la reconnaissance faciale, ainsi que toute sorte de tracking des données qui peut être effectuée, est donc le credo de la Commission. “La reconnaissance faciale n’est qu’un type de surveillance biométrique. La surveillance biométrique, elle, peut aussi inclure le relevé d’empreinte digitale [qui peut servir à déverrouiller un smartphone, ndlr] ou d’informations génétiques, c’est un vaste terme” nous explique le CIO de l’entreprise Occupy AI, Alessandro Ciociola.

Selon cette nouvelle proposition, en principe, l’identification biométrique à distance dans des lieux publics est interdite, à moins que l’on ne se trouve dans les cas qualifiés “d’exceptions” : une utilisation par l’État, soumise à autorisation d’un organe judiciaire, pour un motif garantissant la sécurité publique (traque d’un terroriste, localisation d’une personne disparue), limitée dans le temps et dans la géographie.

“Pour les données biométriques, la difficulté, c’est que pour un certain nombre d’activités, par exemple la conformité, avec des systèmes qui valident l’identité d’une personne, on a besoin de données biométriques. Faire de la télésurveillance et utiliser toutes ces informations pour suivre une personne, en revanche, cela devient interdit. Toute donnée biométrique utilisée pour influer sur la décision d’une personne, décision qu’elle n’aurait pas prise sans un système d’intelligence artificielle, est elle interdite par le texte” analyse le PDG de Dreamquark.

 

Un œil attentif sur les systèmes d’IA à haut risque

Le commissaire chargé du marché intérieur, Thierry Breton, résume à merveille l’enjeu de régulation des systèmes à haut risque : “l’IA est un moyen, pas une fin. Il existe depuis des décennies, mais a atteint de nouvelles capacités alimentées par la puissance de calcul. Cela offre un immense potentiel dans des domaines aussi divers que la santé, les transports, l’énergie, l’agriculture, le tourisme ou la cybersécurité. Elle présente également un certain nombre de risques”. La liste est longue, pour ces systèmes à haut risque, et elle est même perçue comme infinie, puisque le marché change sans cesse. Pour cela, une entité sera créee, chargée de superviser l’application de la directive et “d’émettre des recommandations et des avis pertinents à la Commission, en ce qui concerne la liste des pratiques d’intelligence artificielle interdites et la liste des systèmes d’IA à haut risque”. Mais alors, quelles sont vraiment les exigences pour ces secteurs à haut risque ?

Tous ces systèmes seront strictement encadrés pendant leur cycle de vie, nous dit le texte. Ils devront subir une évaluation de conformité avant mise sur le marché, par des organismes tiers. De plus, leurs systèmes seront enregistrés dans une base de données de l’UE qui assurera la traçabilité, et délivrera ou non la déclaration de conformité et le marquage CE. Il sera nécessaire pour pouvoir accéder au marché du continent. “Il y a en fait une entité qui délivrera la marque CE, qui s’assurera que la solution fonctionne et qu’elle répond aux exigences réglementaires. Jusqu’à présent, le tampon était pour les dispositifs médicaux” explique Nicolas Méric.

Pour chaque changement apporté au système, le texte indique que le système d’IA devra repasser un test de conformité. Tous ces systèmes seront tenus de montrer un niveau approprié de surveillance humaine sur le fonctionnement de leurs produits, et de respecter les exigences de qualité concernant les données utilisées pour construire les logiciels. En cas de non-respect des règles, les entreprises pourraient être condamnées à une amende pouvant aller jusqu’à 6% de leur chiffre d’affaires.

Par ailleurs, des règles de transparence sont mises en place avec l’exigence de documentation. Le but ? Que les gens comprennent la technologie qu’ils utilisent, et soient informés sur les fonctionnements et les risques. “Tout le monde devrait pouvoir comprendre les systèmes IA qu’ils utilisent, pas en profondeur évidemment, mais simplement de manière à savoir comment cela fonctionne, de comprendre les résultats” commente le PDG de Dreamquark.

D’autres usages de l’IA, à bas risque, ne sont presque pas soumis à des exigences. Les chatbots, par exemple, ces formes d’intelligence artificielle utilisées dans des services de messagerie, particulièrement utilisés dans la relation client-entreprise, seront soumis à des obligations de transparence minimales, et devront simplement informer les utilisateurs qu’ils ne sont pas de vraies personnes. La même exigence sera appliquée pour les deepfakes, qui devront étiqueter leurs services, indiquant produire de faux contenus. De même, les jeux vidéo compatibles avec l’IA ou les filtres anti-spam, qui ne présentent que des risques minimes pour la sécurité des citoyens européens, sont tolérés.

Légiférer pour donner l’exemple

“Avec ces règles historiques, l’UE est le fer de lance du développement de nouvelles normes mondiales pour garantir la confiance en l’IA. En établissant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et garantir que l’UE reste compétitive en cours de route” a déclaré Margrethe Vestager, vice-présidente exécutive pour une Europe à de l’ère numérique. L’UE, en créant cette législation qui fait office de première “constitution” pour l’IA, et premier texte légiférant sur le secteur dans le monde, espère engager un débat avec des pays comme les États-Unis.

Au pays du Président Joe Biden, les Big Tech sont rois, et l’IA est à un tout autre niveau de pénétration dans la société. C’est le pays de Tesla et des voitures autonomes, ou encore des algorithmes au sein de la justice, pour prédire les récidives, ou encore au sein du système éducatif. Dans le pays, il existe déjà un consensus général sur la valeur de l’IA. L’ex président Donald Trump avait par exemple proposé de nouveaux investissements massifs. Cependant, il semble y avoir moins d’intérêt pour l’établissement d’un cadre réglementaire solide.

Dans son livre Algorithmes, la bombe à retardement, Cathy O’Neil détaille l’application concrète des algorithmes d’apprentissage automatique dans la société américaine, et toutes les conséquences qu’ils engendrent. Dès les premières pages du livre, on découvre par exemple le logiciel IMPACT, utilisé en 2009 pour noter les professeurs, ayant battu des records d’injustices et d’imperfections. Un véritable écosystème algorithmique et américain d’usages sociaux, politiques et économiques se dévoile ainsi sous nos yeux, écosystème aujourd’hui grandement questionné, et incarné par des personnalités comme Timnit Gebru. Par ce texte ambitieux, la Commission Européenne souhaite ainsi encourager le voisin américain à réglementer. Jake Sullivan, conseiller de la Maison Blanche pour la sécurité nationale, a très vite réagi sur Twitter : “Les États-Unis se félicitent des nouvelles initiatives de l’UE en matière d’intelligence artificielle. Nous travaillerons avec nos amis et alliés pour favoriser une IA digne de confiance qui reflète nos valeurs communes et notre engagement à protéger les droits et la dignité de tous nos citoyens”.

À une plus grande échelle, l’UE souhaite ouvrir la porte à d’autres initiatives pour encadrer l’IA. Les Nations-Unies, notamment, réfléchissent en ce moment à la régulation de l’intelligence artificielle dans le secteur militaire. L’idée d’un standard international est définitivement active. Les responsables des deux côtés de l’Atlantique affirment que ces ambitions de réglementation devront converger pour contrebalancer les ambitions technologiques de Pékin, comme le rapporte l’institut Brookings.

En Chine, où l’on a pu assister récemment au premier procès concernant un cas de reconnaissance faciale, les espoirs sont plus limités sur de futures lois allant dans le sens de l’Union Européenne et de sa vision des droits humains. “Il y aura sûrement des législations, mais on peut difficilement espérer le même niveau de liberté à la fin. La loi peut servir des buts bien différents”. Dans le pays, la surveillance de masse est utilisée par le Parti Communiste pour contrôler sa population, usant grandement de moyens technologiques comme les systèmes de reconnaissance faciale. Les Ouïghours, population turcophone et musulmane de la région du Xinjiang persécutée par le pays, en font particulièrement les frais.

 

Des enjeux soulevés, des problèmes soulignés

Avant le dévoilement du texte officiel, les associations de défense des droits sur internet avaient déjà réagi à une version ayant fuité, et ce pour de nombreuses raisons. Politico, qui s’est procuré la version provisoire du texte de réglementation, a permis au débat d’émerger. “Si le texte a fuité, c’est probablement pour que le marché réponde en déclarant ce qui n’est pas possible, et ce qui est possible dans ce texte. Il y avait encore des éléments qui devaient être approfondis” analyse Nicolas Méric.

Aussi bien avant qu’après la proposition officielle du texte, les critiques ont fusé, pointant divers aspects omis, mal compris, ou mal traités. Il ne fait nul doute que la partie du texte ayant fait le plus polémique est celle qui autorise la surveillance biométrique de masse par les autorités publiques et dans des contextes particuliers.

“La liste des exemptions est incroyablement large », cela “va en quelque sorte à l’encontre du but de prétendre que quelque chose est une interdiction”, a commenté Sarah Chander, conseillère politique principale à European Digital Rights, rapporté par le Wall Street Journal. EDRi pointe la définition floue des systèmes d’identification biométriques “à distance”, et s’inquiète de la disparition de l’interdiction de la surveillance de masse, pourtant présente dans une version de janvier ayant fuité dans les médias.

Les exceptions pointées à l’usage de la surveillance biométrique effraient quelque peu les associations, qui craignent de voir des dérives au sein des gouvernements. EDRi pointe également le seuil “très bas” pour le type de comportement criminel (présumé) qui permettrait à la police de procéder à de la surveillance biométrique : un crime passible d’une peine de trois ans “seulement”. “Le fait de laisser aux autorités nationales le pouvoir de décider quels cas d’utilisation autoriser ou non recrée simplement les lacunes et les zones d’ombre que nous avons déjà en vertu de la législation actuelle et qui ont conduit à des dommages et des abus généralisés”, a déclaré Ella Jakubowska, du groupe de défense des droits numériques. Il est à noter cependant, sur la surveillance biométrique, le retrait des articles 42 et 43, présent dans la version de janvier, retirés suite à la lettre de Membres du Parlement et des campagnes des associations.

Par ailleurs, les associations pointent le manque de rôle des citoyens au sein du texte. Les commentateurs notent par exemple l’absence d’évocation de possibilité pour les citoyens ou les consommateurs de déposer une plainte auprès de l’autorité de contrôle, ou de demander réparation s’ils ont été victimes d’un non-respect du règlement.

Beaucoup craignent aussi des effets négatifs sur le marché européen, avec une législation qui pourrait effrayer les nouvelles entreprises IA de s’y installer. Mais l’UE s’en défend bien, avec quelques garanties mises en place, et un plan coordonné qui prévoit des mécanismes de relance et de résilience. Pour Nicolas Méric, “l’aspect SMEs est également intéressant. L’UE essaie de créer un cadre pouvant donner un avantage aux petites et moyennes entreprises, notamment en mettant en avant la certification et la conformité, avec le tampon CE. De même avec les sandboxes réglementaires, qui sont des outils qui permettent des expérimentations techniques sur quelques utilisateurs, avant qu’un système ne soit massivement déployé.” Le spécialiste pointe le côté bénéfique d’une “mise au clair” des règles, qui seraient dorénavant les mêmes pour tous. “Maintenant, il va falloir innover, faire des choix stratégiques, se développer”.

Par ailleurs, des commentateurs ont fait valoir que les règles proposées par l’UE donneraient un avantage concurrentiel aux entreprises en Chine, aux États-Unis ou en Russie, qui ne leur feraient pas face si elles ne sont pas présentes aussi en Europe. “La particularité de l’Europe en termes d’intelligence artificielle, c’est que l’on a très peu de gros acteurs. On a un marché qui a adopté moins vite les technologies qu’aux États-Unis. Il y a un retard, et il faut le combler” selon Nicolas Méric de Dreamquark. Reste à voir si cette proposition de loi en a le potentiel.

 

Quel avenir pour l’IA en Europe face au lobby ?

Le parcours de cette nouvelle proposition de la Commission ne fait que commencer. Comme toute nouvelle proposition de loi, et comme les très récents Digital Services Act (DSA) et Digital Market Act (DMA), cette nouvelle réglementation a encore un bout de chemin à parcourir avant de devenir effective, et ne pourrait l’être que dans quelques années. Bientôt, le texte passera par le Parlement Européen, où il sera débattu et possiblement amendé, puis par le Conseil, qui pourra en faire de même. Le processus complet risque bien de prendre des années, au vu des discussions qui semblent se profiler.

Un intense lobby de la part des entreprises de la tech, notamment américaine, est attendu en réponse à ce texte. Déjà en 2019, pour la directive sur le droit d’auteur, la campagne avait été impressionnante de la part des entreprises technologiques. L’eurodéputée Virginie Rozière affirmait alors avoir reçu 40 000 e-mails, tandis que Geoffroy Didier, eurodéputé conservateur, parlait de 100 000 e-mails, ainsi que de menaces. Plus récemment, dans le contexte du DMA et du DSA, Google et d’autres géants américains de la technologie se sont engagés dans une campagne visant à minimiser la réglementation européenne avant qu’elle ne soit dévoilée. Transparency International a ainsi décompté plus de 160 réunions organisées, et 19 millions d’euros dépensés.

“Les lobbies américains sont beaucoup plus nombreux à Bruxelles. Ils poussent beaucoup les MEPs [membres du Parlement Européen, ndlr], afin de communiquer ce qui serait, pour eux, une bonne réglementation. Il s’agira également d’écouter ce qu’est une bonne réglementation pour les européens” tempère Nicolas Méric. L’Europe, par cette législation, pourrait bien tracer la voie d’une IA plus éthique, plus juste, plus fiable, en allié et non en ennemi, en dépit de toutes les dystopies.

 

Ndrl : J’avais dans un petit coin de mon esprit l’idée de rédaction d’un article sur ce sujet, mais je n’aurai jamais pu être et aussi clair que celui-ci.

Quelle réglementation pour l’intelligence artificielle en Europe ?
Article publié sur Siècle Digital le 23 avril 2021 par Clémence Maquet

Autres articles intéressant :

 

Une majorité d’européens souhaiteraient remplacer leurs élus… par une IA

Un article sympathique ou rigolo trouvé sur Presse Citron…

L’idée peut apparaître séduisante à certains mais ce n’est pas demain la veille que des algorithmes remplaceront nos députés.

C’est une question pour le moins provocatrice qu’ont posé les chercheurs de l’IE Center for the Governance of Change dans un sondage. L’idée était de savoir si les citoyens européens seraient favorables ou non au remplacement des députés de leurs parlements par des systèmes d’intelligence artificielle.

2769 personnes appartenant à diverses catégories démographiques se sont donc positionnées sur ce sujet. Le constat est clair puisque 51 % des répondants sont favorable à la réduction du nombre de parlementaires nationaux et à leur remplacement par un algorithme. Dans le détail, ce sont les jeunes âgés de 25 à 34 ans qui soutiennent le plus cette idée : 60 %. Ils sont suivis de près par les 35-44 ans qui sont pour à 56 %.

Confier le destin d’un pays à un algorithme est une très mauvaise idée

Cette perspective est appréciée par 66 % des Espagnols et 59 % des Italiens. En revanche, 69 % des britanniques et 54 % des Allemands préfèrent conserver leurs élus humains. En dehors de l’Europe, ce projet enchanterait les Chinois que le valident à 75 % mais ne séduit pas les Américains : 60 % s’y opposent.

Bien sûr, cette étude reste à prendre avec beaucoup de pincettes et repose en grande partie des particularités politiques nationales. Utiliser une IA pour faire de la politique ne serait clairement pas une bonne idée. Comme l’expliquent à raison nos confrères de TheNextWeb, un algorithme serait rempli des préjugés de ceux qui l’ont conçu et notamment du gouvernement qui décide de le mettre en place.

Elle n’aurait donc rien de neutre ou d’éclairé mais serait basée sur des critères parfaitement humains et discutables. De plus, l’IA ne pourrait pas expliquer ses choix. Cela serait donc une remise en cause d’un des fondements de la démocratie représentative où les élus sont, en théorie, tenus de rendre des comptes.

Source : Une majorité d’européens souhaiteraient remplacer leurs élus… par une IA
Publié le 6 juin 2021 sur Presse Citron par Jean-Yves Alric

EuroHPC inaugure Vega, le premier supercalculateur commun aux états membres de l’Union Européenne

Le 20 avril 2021, l’entreprise commune européenne pour le calcul à haute performance (EuroHPC), la commission européenne et le gouvernement slovène ont inauguré le supercalculateur Vega, à Maribor, en Slovénie. Vega a été fourni par Atos et sera hébergé par l’Institut slovène des sciences de l’information (IZUM). Ce supercalculateur est le premier en Europe acquis grâce à des fonds de l’Union Européenne et de ses états membres, un investissement à hauteur de 17,2 millions d’euros.

Article complet : EuroHPC inaugure Vega, le premier supercalculateur commun aux états membres de l’Union Européenne
Publié sur ActuIA le 21 avril 2021

Quelques articles complémentaire