L’IA n’est pas reconnue comme « inventeur »

Le prétexte : l’inventeur doit être un humain et non un algorithme

C’était la première fois qu’une IA déposait un brevet. Cette décision va servir de jurisprudence.

Une intelligence artificielle peut-elle avoir le statut d’inventeur ?

Non suite à l’arrêt de l’Office européen des brevets. L’histoire commence l’été dernier avec le projet The Artificial Inventor, qui milite pour reconnaître à l’intelligence artificielle le droit de se voir attribuer le statut d’inventeur. Il a été lancé par des spécialistes de la propriété industrielle et des ingénieurs en informatique. Celui-ci a créé un algorithme, baptisé « Dabus », capable, selon lui, de créativité et même d’inventer des concepts. L’équipe de The Artificial Inventor a aidé le dépôt des demandes de brevets pour deux inventions pour lesquelles Dabus est désigné comme inventeur. L’une est un conteneur pour aliments dont la conception fait appel à la théorie mathématique des fractales avec une forme qui permet d’en emboîter plusieurs. L’autre est une source lumineuse destinée au sauvetage et dont le rythme de scintillement attire l’attention. L’OEB a refusé d’examiner ces demandes de brevets au motif que « l’inventeur désigné pour l’application doit être un être humain et non une machine. » Le sujet n’est toutefois pas clos, car l’Office a promis d’apporter une réponse plus argumentée dans les semaines à venir.

 

Pour mieux protéger les consommateurs, la DGCCRF utilise l’intelligence artificielle

Afin d’être plus efficace dans ses enquêtes visant à cibler fraudes et entorses à la concurrence, la Direction générale de la consommation, de la concurrence et de la répression des fraudes utilise désormais l’intelligence artificielle. Un procédé qui sert à la lutte contre les faux avis sur internet, mais aussi à l’analyse des contrats, pour y repérer d’éventuelles clauses abusives.
D
L’an dernier, la Direction générale de la consommation, de la concurrence et de la répression des fraudes (DGCCRF) a contrôlé 100.000 établissements (entreprises, commerces, restaurants) et 15.000 sites internet avec, à la clé, des avertissements, mais aussi des sanctions administratives, voire pénales. Pour être plus efficace dans ses enquêtes, notamment pour mieux cibler les fraudes et les entorses à la concurrence, l’administration utilise maintenant l’intelligence artificielle.

Certes, l’IA ne remplacera pas la collecte des données sur le terrain (qui constitue toujours le métier de base des fonctionnaires de la répression des fraudes), mais elle commence toutefois à s’imposer dans les méthodes de travail des enquêteurs. Parmi ses objectifs, la traque des faux avis qui pullulent sur les sites de commerce en ligne et sur les plateformes de réservations d’hôtels ou de restaurants.

Traque des faux avis, analyse de contrats…

« Aujourd’hui, les gens choisissent souvent des produits ou des services grâce à des avis », explique Virginie Beaumenier, directrice de la DGCCRF. « Mais certains utilisent aussi des officines pour se créer des avis positifs, voire pour dénigrer leurs concurrents », poursuit-elle. « Il faut absolument qu’on lutte contre ça si on veut que les gens aient confiance. Pour cela, des données sont donc cherchées sur internet avec des critères permettant de repérer ces faux avis de manière plus rapide. »

Le procédé est tenu secret, tout comme les techniques permettant d’analyser les profils à l’origine d’un grand nombre de commentaires. Le mouvement, en tout cas, ne s’arrête pas là. Dans un tout autre domaine, la DGCCRF avance ses pions : celui de l’analyse systématique des contrats, des devis et des factures. Ici, il s’agit de repérer les clauses et les pratiques abusives, et de permettre ainsi aux fonctionnaires de mieux cibler leurs contrôles.

 

 

“Il y a deux sortes de justice : vous avez l’avocat qui connaît bien la loi, et l’avocat qui connaît bien le juge !”

 

Coluche

L’intelligence artificielle sur le banc des accusés

Imaginez un monde dans lequel l’intelligence artificielle aurait pris le pouvoir. C’est le contexte fictif qu’ont inventé des étudiants de BTS du lycée Lapérouse. Ils ont participé à un faux procès ce vendredi après-midi, au tribunal administratif de Nouméa.

C’est dans les années 2030, au coeur d’un monde singulier, au sein duquel l’intelligence artificielle a pris le pouvoir que se déroule le procès fictif, imaginé par les étudiants en BTS Management commercial opérationnel du lycée Lapérouse. Sur le banc des accusés : Thot. Un logiciel qui collecte des données et note les cabinets comptables. Un outil qui est au fil du temps, devenu un patron tyrannique.

La suite sur : L’IA sur le banc des accusés
Publié sur France Info Nouvelle Calédonie le 5 décembre 2020.

Comment l’IA transforme le métier d’expert-comptable

En 2018, une étude publiée par l’institut Sapiens prédisait la disparition du métier de comptable à partir de 2040 avec la digitalisation croissante de la fonction. Nous n’y sommes pas encore. En ces temps de crise sanitaire et économique, l’expert-comptable tient même un rôle clé. Au chevet de millions de TPE et PME, il agit comme un médecin prodiguant des conseils avisés pour aider les entrepreneurs à traverser une période troublée. En vérifiant la régularité des comptes, des factures aux encaissements, il aide au maintien du fonds de roulement. Il conseille aussi le chef d’entreprise en matière de gestion, de fiscalité et de droit social. Il l’accompagne dans la constitution des dossiers de prêt. Depuis la loi Pacte de 2019, il peut être également mandaté pour procéder au recouvrement à l’amiable des créances de ses clients. Une succession de tâches qui peuvent être digitalisées dans le cycle du « procure to pay », de l’achat jusqu’au paiement.

Si la crise du Covid-19 rend de facto obligatoire la dématérialisation de la relation entre l’expert-comptable et ses clients, le cadre réglementaire avait préparé le terrain. Alors que la facturation électronique est déjà obligatoire lors du passage de marchés publics via le portail Chorus Pro, cette obligation devrait s’étendre au secteur privé comme le prévoit le projet de loi de finances 2020. A défaut, la reconnaissance optique de caractères permet d’extraire automatiquement les informations pertinentes d’un bon de commande ou d’une facture, une fois ces documents papiers numérisés. L’OCR (pour optical character recognition) est historiquement le tout premier apport de l’intelligence artificielle à la fonction comptable.

D’autres solutions d’IA interviennent dans le contrôle des données des fournisseurs (Iban, Siren, numéro de TVA intracommunautaire…).

Homogénéiser les pratiques

L’IA permet par ailleurs d’homogénéiser la pratique comptable au sein d’un cabinet en exerçant un contrôle qualité à travers une multitude de points de vérification. Un enjeu clé pour cette profession très réglementée. Le recouvrement de la TVA est, par exemple, un sujet particulièrement sensible au sein de la profession à l’heure où le fisc renforce sa chasse aux fraudeurs. La Direction générale des Finances publiques (DGFiP) utilise d’ailleurs l’IA dans ce but via Alto 2, un logiciel développé en interne.

Enfin, l’IA peut être un levier d’attractivité et de rétention des talents pour un métier qui souffre d’un déficit d’image et subit un turnover élevé.

Voire aussi les pages suivantes : Comptabilité et Contrôle de Gestion

Comment l’IA va changer le droit du travail

Article publié sur LeBigData :

À l’heure où l’intelligence artificielle et la robotique s’immiscent de plus en plus en entreprise, beaucoup s’inquiètent de la façon dont ces technologies risquent de bouleverser le droit du travail en France. Afin de mieux comprendre l’impact potentiel de l’IA sur cette branche du droit social, nous nous sommes entretenus avec l’avocat spécialisé Mickaël d’Allende du cabinet Altana

Le 9 janvier 2020, dans le cadre de la séance publique du sénat, les sénateurs ont débattu autour de l’impact de la robotique et de l’intelligence artificielle sur les emplois de service. Un débat faisant suite au rapport d’information de Mme Marie Mercier et M. René-Paul Savary intitulé  :  » Demain les robots : vers une transformation des emplois de service   » fait au nom de la délégation sénatoriale à la prospective et publié le 28 novembre 2019.

Afin de recueillir l’avis d’un expert sur le sujet, nous sommes allés à la rencontre de Mickaël d’Allende, avocat associé qui co-dirige l’équipe spécialisée dans le droit social chez Altana. En septembre 2019, ce spécialiste en droit du travail, en droit de la sécurité sociale et en protection sociale a publié un ouvrage intitulé   » Stratégie d’entreprise et droit du travail « .

L’article complet : Comment l’IA va changer le droit du travail Publié sur Le BigData le 8 février 2020

Les services cloud face aux défis juridiques

Au cœur des services cloud se trouvent les données. Leur utilisation occupe nombre de législateurs, notamment vis-à-vis de leur protection et de leur conformité au RGPD.

« Il n’y a pas de moyen pour savoir ce que fait l’entreprise avec les données qu’elle a ramassées. C’est pour ça que je propose de limiter le ramassage des données et d’interdire celui des données personnelles au-delà d’une limite », soutient à Siècle Digital Richard Stallman. Qualifiées de nouvel or noir, les données ont une valeur indéniable, et leur conservation pose des questions sur leur utilisation et leur protection. Avec la croissance des services cloud, majoritairement assurée par les hyperscalers américains, les questions autour de l’accessibilité, la protection et la sécurité des données gagnent en importance.

En Europe, les données numériques sont encadrées par le règlement général sur la protection des données (RGPD). En application depuis le 27 avril 2016, le texte met en avant deux notions centrales : la privacy by design et la privacy by default. La privacy by design implique que les problématiques liées à la protection des données soient abordées et anticipées dès la conception du service ou de l’objet. La privacy by default oblige les services à proposer à l’utilisateur le niveau de protection maximal et donc de limiter les informations collectées par les entreprises.

Pour veiller à l’application du RGPD, des gardiens de la liberté numérique sont rassemblés dans le groupe de travail Article 29 (G29) qui regroupe les “CNIL européennes”. Leur mission est de veiller à ce que les nouvelles technologies ne portent pas atteinte aux droits de l’Homme, à la vie privée et plus largement aux libertés individuelles et publiques. En France, la Commission nationale de l’informatique et des libertés (CNIL) a été créée à la suite de la loi Informatique et Libertés de 1978. En tant qu’autorité administrative indépendante, la CNIL veille au respect des législations, et donc à l’application du RGPD. Afin de remplir ce rôle, elle a un pouvoir de contrôle et de sanction.

Bien que ce soit pas directement notre sujet ; je vous invite à lire cet article : Les services cloud face aux défis juridiques
Publié sur Siècle Digital par Julia Guinamard le 6 avril 2021

 

L’intelligence artificielle doit-elle obéir à la loi?

À qui revient la responsabilité en cas d’accident?

Je dirais «non», on est vraiment à la préhistoire de cette idée.

En fait, aujourd’hui on est au stade où on se demande qui est responsable quand une voiture autonome provoque un accident par exemple (une fois qu’on a prouvé que le conducteur n’y est pour rien).

Tout le monde est d’accord pour dire que si un programmeur a délibérément codé des lignes qui font faire à l’automate quelque chose d’illégal, c’est lui qui doit être puni. Mais, en pratique, ça n’arrive pas trop, et s’il y a une erreur (non volontaire) qui cause des dommages… la responsabilité se dilue déjà entre le programmeur, le chef de projet, le responsable des tests, et toute la hiérarchie jusqu’au PDG.

Des machines hors-la-loi

Il y a énormément de discussions et de travaux passionnants en cours, mais vraiment pas de consensus général. Il y a des procès en cours, et on se débrouille avec nos lois actuelles, chaque partie préparant ses arguments à partir d’enquêtes. Faites une recherche internet «procès Tesla autopilot», vous verrez qu’on est en plein dedans, et que c’est au cas par cas. Et il y a des associations de consommateurs ou d’utilisateurs qui se mettent en place pour lutter contre d’éventuels abus des entreprises.

Par exemple, à la suite de récents accidents, Tesla va certainement devoir revoir sa communication et être beaucoup plus claire sur le fait que ses voitures ne pilotent pas toutes seules et qu’elles nécessitent un utilisateur attentif prêt à reprendre les commandes très, très rapidement.

Mais comprenez bien que tant que nos IA ne sont pas conscientes (et ce n’est pas pour demain!), ce sont juste des machines qui n’ont aucune existence légale. Le problème est donc le même que lorsqu’une quelconque machine est à l’origine d’un accident (crash d’avion…).

Et il n’est vraiment pas à l’ordre du jour de vouloir imposer les lois de la robotique d’Asimov, qui veulent notamment qu’«un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger».

Actuellement, cela n’a aucun sens, car les IA ne sont pas à ce niveau de compréhension, et les «lois» qui les régissent sont infiniment plus explicites.

Formidable texte : L’intelligence artificielle doit-elle obéir à la loi?
Publié sur Slate le 20 août 2022

NDLR : cet avis recoupe les points vus pour la conduite autonome.

Une entreprise vient de nommer le premier robot PDG au monde

Article trouvé sur Le journal du Geek.

Une nomination avant tout symboliques, mais qui rend tangible une problématique dont les législateurs vont devoir s’emparer sans trop tarder.

L’intelligence artificielle continue de se démocratiser dans de très nombreux domaines, et certains n’ont pas peur de mettre la charrue avant les bœufs. Le 26 août 2022, NetDragon Websoft, un éditeur de jeux mobiles chinois, a annoncé la nomination de sa nouvelle PDG, et son identité à quoi surprendre… puisqu’il s’agit d’un robot humanoïde dopé à l’IA.
Baptisée Tang Yu par ses concepteurs, la machine n’est pas là pour faire de la figuration, bien au contraire. Le communiqué de la firme, repéré par Interesting Engineering, explique sans détour qu’elle participera activement aux décisions de l’entreprise.

En premier lieu, elle servira de datacenter et sera équipée d’un tas d’outils analytiques. Ils permettront au comité d’administration d’être plus efficace sur le plan de la gestion du risque et de mettre en place de nouveaux protocoles pour « rationaliser les flux de travail, améliorer la qualité des tâches et augmenter la vitesse d’exécution ».

Ce qui est plus étonnant, c’est qu’elle héritera même de préretraites habituellement réservées au département DRH ; elle jouera un « rôle critique » dans l’identification et le développement des jeunes talents. Tang Yu sera aussi chargée de mettre en place un « environnement de travail équitable, sain et productif pour tous les employés ».

Une nomination avant tout symbolique

Une approche qui ferait pousser des cris d’orfraie à n’importe quel syndicaliste européen ; il faut bien admettre qu’il existe une liste longue comme le bras de dérives potentielles. Mais il faut aussi nuancer la portée de cette nomination. Car même si le communiqué ne le précise pas explicitement, il semble assez improbable que ce PDG virtuel ait le dernier mot lors du processus de prise de décision.

En l’état, ce titre de PDG semble surtout symbolique ; Tang Yu sera en premier lieu un outil au service des vrais décideurs qui permettra d’affiner le processus de décision. Il y a peu de chances que les employés de NetDragon se mettent à faire des courbettes au robot.

S’agit-il donc d’un coup de communication savamment orchestré ? Probablement… mais pas seulement. Tour de passe-passe publicitaire ou pas, Tang Yu pourrait tout de même établir un précédent important. Et ce n’est pas une question d’organigramme.

En pratique, peu importe si cet androïde a hérité du titre de PDG sur le papier ; une fois qu’on gratte la couche de vernis, on réalise qu’en pratique, NetDragon a simplement annoncé l’acquisition d’un outil basé sur l’IA qui l’aidera à prendre des décisions plus objectives.

Mais ce qui est important, c’est que ce robot donne une dimension plus tangible, et même très concrète à l’utilisation de ces outils analytiques en entreprise. Et c’est un geste assez significatif, dans un contexte où ces technologies sont en train de s’implanter de plus en plus profondément dans le monde du travail.

Robot PDG ou pas, l’IA arrive déjà au pas de charge

Cela vaut aussi pour les entreprises normales qui n’ont pas prévu de remplacer leur grand manitou en chair et en os par un robot. Et c’est d’autant plus vrai dans les très grandes firmes qui ont tendance à prendre leurs décisions stratégiques sur la base d’analyses statistiques poussées. Et il faut admettre que cette approche n’est pas dénuée de sens.

Ce n’est pas un hasard si ces systèmes ont déjà permis de réaliser des exploits algorithmiques très concrets ; on peut par exemple citer l’incroyable base de données du repliement des protéines d’AlphaFold qui a déjà révolutionné le quotidien de nombreux chercheur (voir notre article).

Il est de notoriété publique que ces programmes basés sur des réseaux neuronaux sont extrêmement performants lorsqu’il s’agit de traiter des données brutes ; en résumé, ils sont capables de faire émerger des tendances claires à partir de données complètement indigestes qui feraient perdre son latin à n’importe quel humain.

Et il ne faut pas chercher bien loin pour comprendre en quoi cela intéresse les chefs d’entreprises. Ces systèmes basés sur l’IA pourraient faire des merveilles pour accompagner certaines décisions compliquées, surtout lorsqu’elles dépendent d’une multitude de facteurs sans corrélation évidente. Et il pourrait y avoir de gros bénéfices potentiels à la clé… pour les privilégiés qui y auront accès, en tout cas.

Les législateurs vont avoir du pain sur la planche

Mais d’un autre côté, on peut aussi imaginer tout un tas de questions qui renvoient à des dérives qu’on qualifiera volontiers de dystopiques. Quelques exemples parmi d’autres : un chef d’entreprise pourrait-il se cacher derrière un outil de ce genre pour ne pas avoir à assumer un licenciement massif ? Un robot pourrait-il sabrer systématiquement les employés les moins efficaces sur le plan statistique, voire même décider les remplacer par des machines capables d’opérer 24 heures sur 24 ?

Difficile à dire aujourd’hui ; nous n’en sommes de toute façon pas encore là, et la réponse à ces questions un peu tirées par les cheveux dépendra d’un grand nombre de facteurs. Mais même accorder trop d’importance à cette nomination finalement assez anecdotique, il convient donc de ne pas sous-estimer la portée de ce genre de décisions.

Pour les décideurs politiques, il sera en tout cas fondamental d’observer la direction que prendra cette tendance sur les différents marchés. Si les législateurs ne négocient pas ce virage avec précaution, l’explosion des outils basés sur l’IA pourrait faire trembler le Code du travail de certains pays jusque dans ses fondements, avec des conséquences non négligeables sur les sociétés et leurs économies respectives.

Quid des banques d’images face aux générateurs à base d’intelligence artificielle

 

Le cas Getty Images

L’agence Getty Images vient d’annoncer quelle n’accepte pas les images générées par L’IA.

Getty Images ne veut pas se mettre à dos les artistes publiant sur sa plateforme. Le site d’hébergement d’images a donc décidé de supprimer toutes les photos créées par des IA, tant que les débats sur le plagiat et le droit d’auteur ne seront pas clos.

Espionnage : Les menaces qui guettent du côté du quantique et de l’IA

Dans un rare discours public, le chef du MI6 avertit que les Etats hostiles se concentrent sur le quantique et l’intelligence artificielle.

L’essor de technologies telles que l’intelligence artificielle (IA) et l’informatique quantique est en train de changer le monde, et les services de renseignement doivent s’adapter afin de fonctionner dans un environnement de plus en plus numérique, avertit le chef du MI6.

De nouvelles menaces

Dans son premier discours public depuis qu’il a pris le rôle de directeur des services secrets britanniques (MI6) en octobre 2020, Richard Moore a évoqué les défis posés par l’évolution rapide de la technologie.

Alors que les développements informatiques comme l’IA et l’informatique quantique peuvent offrir à la société ce qu’il décrit comme des « avancées révolutionnaires », Richard Moore prévient qu’ils entraînent également des menaces supplémentaires pour la sécurité, auxquelles le MI6 devra faire face.

« D’autres vous parleraient des avantages de ces nouvelles découvertes – et ils sont innombrables – mais je suis payé pour regarder le côté menace du grand livre. Le MI6 traite avec le monde tel qu’il est, et non tel que nous aimerions qu’il soit, et la surface d’attaque numérique que les criminels, les terroristes et les États hostiles cherchent à exploiter contre nous croît de manière exponentielle », a-t-il déclaré dans un discours prononcé à l’Institut international d’études stratégiques (IISS).

Cybermenaces des États hostiles

Richard Moore indique que la Chine, la Russie et l’Iran sont les États nations les plus menaçants pour le Royaume-Uni et qu’ils pourraient exploiter la technologie pour atteindre leurs objectifs. Il cite la cyberattaque de SolarWinds, qui a été attribuée aux services de renseignement étrangers russes, comme un exemple clé de cette situation.

Afin de relever les défis posés par l’environnement numérique mondial en pleine expansion, le MI6 doit s’assurer qu’il dispose des capacités de renseignement humain nécessaires pour analyser et comprendre les données qui pourraient aider à fournir des informations, à tenir les agents sur le terrain informés et, en fin de compte, à protéger le Royaume-Uni contre les menaces.

« Il n’existe plus d’opération de renseignement analogique dans ce monde numérique », affirme Richard Moore. « Tout cela nécessite des aperçus à partir de données, les outils pour manipuler les données et, plus important encore, le talent pour transformer des données complexes en aperçu humain. La combinaison de prouesses technologiques et d’insights issus du renseignement humain donne au Royaume-Uni un avantage puissant. »

Et d’ajouter : « nos adversaires consacrent beaucoup d’argent et d’ambition à la maîtrise de l’intelligence artificielle, de l’informatique quantique et de la biologie synthétique, car ils savent que la maîtrise de ces technologies leur donnera un avantage ».

Richard Moore ajoute que le MI6 « doit être à l’avant-garde de ce qui est technologiquement possible » afin d’avoir les meilleures chances de protéger le Royaume-Uni contre les menaces à sa sécurité.

Le MI6 s’ouvre à des technologies émergentes

Mais si le MI6 a traditionnellement travaillé dans l’ombre, il en sort aujourd’hui afin de s’assurer qu’il a accès aux personnes nécessaires pour aider à résoudre les problèmes rencontrés par les nouvelles technologies.

« Nous ne pouvons pas égaler l’ampleur et les ressources de l’industrie technologique mondiale, et nous ne devrions pas essayer. Nous devrions plutôt solliciter leur aide. Grâce au Fonds d’investissement stratégique pour la sécurité nationale, nous ouvrons les problèmes de notre mission à ceux qui ont du talent dans des organisations qui ne travailleraient normalement pas dans le domaine de la sécurité nationale. Contrairement à Q dans les films de James Bond, nous ne pouvons pas tout faire en interne », explique Richard Moore.

En faisant appel à des experts extérieurs dans le domaine des technologies émergentes, l’objectif est d’améliorer les opérations du MI6 et d’innover plus rapidement que les adversaires du Royaume-Uni – et cela représente un changement important par rapport aux opérations secrètes du passé, un changement qui, souligne-t-il, nécessite également une diversité accrue pour mieux représenter la population que le MI6 sert.

« Je ne saurais trop insister sur le fait qu’il s’agit d’un changement radical de la culture, de l’éthique et de la façon de travailler du MI6, car nous avons toujours compté principalement sur nos propres capacités pour développer les technologies de classe mondiale dont nous avons besoin pour rester secrets et remplir notre mission », souligne Richard Moore, ajoutant : « nous devons devenir plus ouverts pour rester secrets ».

En adaptant le MI6 pour qu’il soit en mesure de faire appel à des experts pour l’aider à travailler avec les technologies émergentes, il espère que cela permettra aux services de renseignement de protéger le Royaume-Uni contre les menaces, d’où qu’elles viennent dans le monde. « Ma mission en tant que chef est d’assurer la réussite de la transformation et de la modernisation de notre organisation : étendre les relations humaines secrètes du MI6 pour refléter la nature changeante du pouvoir et de l’influence dans le monde ; investir dans les compétences dont une agence de renseignement mondiale a besoin à l’ère numérique ; et relever le défi technologique en s’ouvrant – à un degré sans précédent – à des partenaires qui peuvent nous aider à maîtriser les technologies dont nous avons besoin pour nos opérations, et nous permettre d’innover plus rapidement que nos adversaires », affirme Richard Moore.

Une artiste américaine dépose au registre des droits d’auteur un livre réalisé par une IA

Artist receives first known US copyright registration for latent diffusion AI art

L’artiste américaine Kris Kashtanova a obtenu l’enregistrement d’un copyright pour son roman graphique qui met en avant des œuvres d’art générées par une IA. Il s’agit très probablement d’une première pour ce type de contenu.

Une œuvre en partie générée par l’IA, selon l’artiste

Baptisé Zarya of the Dawn, le roman graphique a été réalisé à l’aide de la plateforme de génération d’images Mid-Journey. Kris Kashtanova a expliqué au United States Copyright Office, institution qui se charge d’enregistrer les droits d’auteur, que le travail artistique était assisté par l’IA et non entièrement créé par celle-ci. En effet, l’artiste a rédigé l’histoire, réalisé la mise en page et fait des choix précis pour assembler les images.
« J’ai obtenu le droit d’auteur de l’Office du droit d’auteur des États-Unis pour mon roman graphique généré par IA. J’ai été transparente sur la façon dont il a été fait et j’ai mis Midjourney sur la page de couverture. Il n’a été modifié d’aucune autre manière. », écrit-elle sur son compte Instagram.
Comme l’explique Ars Technica, il est probable que des artistes aient déjà enregistré des œuvres créées par des machines ou des algorithmes, car l’histoire de l’art génératif remonte aux années 1960.

Les IA génératrices d’art font polémique

Ces plateformes, capables de générer une œuvre d’art en un temps record à partir de simples mots-clés, ont été formées grâce à des millions d’images déjà existantes et notamment des œuvres créées par des humains.

Quelques articles complémentaires

 

Les articles cités ci-dessous mériterai un peu plus de développement de ma part…

  • L’IA génère de nouvelles formes d’inégalités entre les femmes et les hommes
    Les groupes vulnérables englobent notamment les femmes et les groupes ethniques, le sexe/genre et la race/l’origine ethnique étant des caractéristiques protégées par le droit de l’UE. Au regard de ces deux variables sensibles, les femmes noires sont particulièrement exposées aux erreurs et biais de l’IA, comme l’ont montré les mauvaises performances des systèmes de reconnaissance faciale.
    Publié sur The Conversation le 7 décembre 2022
  • La Cour de Cassation se tourne vers l’IA pour identifier les divergences des jurisprudences
    Après avoir eu recours à l’intelligence artificielle pour la publication en open data des décisions de justice, la Cour de cassation décide de l’utiliser à nouveau pour détecter les divergences de jurisprudences entre les différents tribunaux et vérifier si la justice rendue est la même pour tous. Dans cet objectif, elle a fait appel aux experts scientifiques du Lab IA, rattaché à Etalab au sein de la Direction interministérielle du numérique.
    Publié sur ActuIA
  • Les avocats doivent-ils avoir peur de l’intelligence artificielle ?
    On s’est ému ces temps-ci du danger que représenterait l’intelligence artificielle pour la profession d’avocat. Preuve en est le tollé provoqué en début d’année par le lancement de la provoquante application « I-avocat », censée dans son premier spot publicitaire pouvoir « rivaliser avec n’importe quel avocat », et traiter en une minute pour la modique somme de 69 euros un sujet qui prendrait un an à l’avocat en contrepartie d’une facture de 1.000 euros. Une mise en demeure de l’Ordre et une pluie de réactions indignées plus tard, la communication s’est lissée.
    Excellente tribune de Mme Isabelle Renard Avocat au barreau de Paris
    Publié sur La Tribune le 31 janvier 2024
  • D’autres articles pour bientôt…

IA et profilages : la conférence de Julie-Michèle Morin

« Intelligence artificielle : jeux de données et jeux de pouvoir »

 

Julie-Michèle Morin est doctorante en Littératures de langue française à l’Université de Montréal, sa thèse porte sur la robotique dans les arts vivants. Elle mobilise une approche technoféministe pour réfléchir aux enjeux politiques soulevés par la rencontre entre les arts, les cultures numériques et les dispositifs technoscientifiques. Elle est également conseillère dramaturgique et se spécialise dans l’accompagnement des écritures médiatiques.

Jeux de données et leur influence

Julie-Michèle Morin souligne tout d’abord que les systèmes d’IA sont toujours le fruit d’une coopération entre humains (programmeur·euses, mathématicien·nes, algorithmicien·nes, technicien·es informatiques…) et des agents autres qu’humains (protocoles informatiques, statistiques, formules mathématiques, diverses applications d’apprentissage automatisé ou semi-automatisé…). Elles sont toujours initiées par des humains qui peuvent influencer les recommandations.

Encodage des valeurs humaines

La conférencière aborde le mythe des IA autonomes, capables de dépasser les capacités humaines, responsables des résultats erronés qui ne seraient donc pas imputables à l’humain. Celui-ci nourrirait la conception de la prétendue neutralité technologique : selon  les compagnies ou les autorités, elles seraient plus impartiales que les humains, ce qui permet de banaliser de nouvelles formes de profilages et discrimination.

La technologisation des oppressions

Julie-Michèle Morin fait référence à la technologie de reconnaissance faciale, son incapacité à authentifier de la même façon les personnes suivant leur couleur.

Les personnes de couleur noire sont particulièrement impactées par cette technologie : en ne les reconnaissant pas, l’IA invisibilise les personnes. Dans le cas de recherche d’identification comme dans les aéroports au Royaume-Uni, elle les survisibilise.

Les étapes de processus de fabrication d’une IA : à quel moment les biais sont-ils insérés ?

La conférencière choisit d’aborder la conception d’un algorithme de ML : les biais, les stéréotypes et les préjugés humains peuvent être encodés lors du choix des données, de leur étiquetage, de la création du modèle pour les entraîner.

Des données insuffisantes peuvent être source de discrimination, trop de données sur un groupe, source de stéréotype. Julie-Michèle Morin donne le cas d’une IA entraînée sur de grandes ensembles de données collectées sur le web : les femmes étaient identifiées comme des ménagères, les hommes noirs à 10% de plus que les blancs comme des criminels…

L’étiquetage biaisé des données

Les données étiquetées manuellement par un humain peuvent l’être de manière subjective, elles doivent être encadrées. Lorsqu’elles le sont de manière automatisée ou semi-automatisée, elles peuvent reconduire des biais historiques. L’exemple donné est celui d’un algorithme de recommandation utilisé par Amazon pour le recrutement qui ne retenait que les candidatures des hommes car dans le passé, les CV retenus étaient majoritairement ceux d’hommes, bien que cela puisse être motivé par une faible candidature de femmes.

L’analyse biaisée des données

Les biais d’analyse surviennent lorsque les humains créent des corrélations illusoires ou biaisées entre les jeux de données et les objectifs de l’algorithme. Les biais de confirmation reflètent un point de vue préexistant que l’IA va renforcer…

Les biais de discrimination peuvent être aussi dus à la combinaison de divers biais insérés  dans différentes étapes du processus.

PredPol, un cas de justice prédictive

PredPol est un logiciel utilisé depuis 2012, abandonné cette année, pour déterminer où les patrouilles devaient avoir lieu le plus fréquemment. Entraîné à base d’archives policières, il recommandait qu’elles aient surtout lieu dans des quartiers défavorisés, à majorité noire. Une étude à son sujet a démontré qu’il utilisait des « dirty datas ».

Comme Céline Castets-Renard, Julie-Michèle Morin envisage ensuite comme exemple de justice prédictive l’affaire COMPAS, un score de calcul de récidive par rapport à certaines catégories de population, qui présentait un même taux d’erreur que ce soit pour les individus noirs ou de type caucasien, mais il n’était pas précisé que ce même taux était en faveur de ces derniers et en défaveur des premiers…

NDLR : je me permets de reproduite in extenso cet excellent article.

Source : IA et profilages : la conférence de Julie-Michèle Morin « Intelligence artificielle : jeux de données et jeux de pouvoir »
Publié sur ActuIA (Je ne fais pas mystère que ce site est génial !)

Les moyens juridiques issus de l’intelligence artificielle

Regroupé dans la notion de « justice prédictive » issue de l’accès à l’internet et aux décisions de justice couplé à la sphère algorithmique, l’intelligence artificielle grappille des points en développant des mécanismes intelligents et performants, facilitant le travail des acteurs du droit, ce à moindre coût. Sont notamment concernées les legaltechs, accompagnés par les contrats intelligents dits smart contracts et d’autres alternatives à la résolution de litiges.

L’approche « legaltech »

La legaltech est le concept dont on entend parler le plus souvent lorsqu’il s’agit d’évoquer l’intelligence artificielle dans le droit, ainsi avant d’aborder le principe même de la legaltech, il faut comprendre les technologies qui l’entourent. Le « contract analytics », sous-secteur de la legaltech est quant à lui un secteur intéressant qui évolue mais demeure plus discret.

Les technologies de l’intelligence artificielle dans le droit

Entre autres, l’intelligence artificielle s’exprime à travers quatre technologies dans le monde juridique, dont une cinquième entre IA, linguistique et informatique (le traitement automatique du langage naturel). Elles sont composées, tout d’abord, par des systèmes experts, ce sont des outils qui reproduisent les capacités intellectuelles des experts juridiques comme dans le cadre des logiciels de la gestion des contrats ensuite le big data, regroupant des technologies permettant un traitement massif de données, et enfin, un ensemble « learning » avec une première approche par le learning consistant à apprendre aux machines, en leur fournissant des données précises, à reconnaître des objets, des images dans un premier temps, qui s’apparentent dans le domaine juridique à des décisions de jurisprudence. In fine ces machines rendront des décisions autonomes lorsqu’elles devront faire face à un litige. Cet outil est complété par le deep learning, qui va au-delà du fonctionnement d’une machine puisqu’il s’agit d’attribuer à l’outil un système cognitif s’apparentant à celui de l’Homme pour pouvoir se passer d’une intervention humaine.

La spécificité des legaltechs

Les legaltechs sont des phénomènes intelligents apparus dans le domaine juridique français en 2014. Il s’agit d’entreprises qui en récoltant des informations et ce dans certains cas à l’aide de systèmes algorithmiques, proposent des outils de gestion de contenus juridiques (rédaction d’actes, litiges en ligne, information juridiques…) ou de manière plus classique d’accompagnement (facturation, comptabilité). Commençant par la classification en catégories de multitudes de jurisprudences, de textes de lois et de doctrines, l’activité s’est peu à peu développée vers des services en ligne produisant des contrats juridiques et autres documents. Enfin la dynamique s’est déployée vers une prédiction de la justice, en probabilisant les chances de succès ou d’échec d’une affaire, en déterminant les montants des condamnations ou encore le classement des arguments par pertinence et les textes légaux y associés.
Cette automatisation soulève des interrogations déontologiques, seulement son accessibilité ne peut être déplorée. Les particuliers ne se trouvant pas dans la capacité de faire appel à un professionnel peuvent voir dans cette nouvelle approche à leur portée, une proximité, une aisance et un gain économique non négligeables.
Du côté des professionnels, les entreprises sont tout autant favorisées en utilisant des outils prédictifs en termes de contrats ou de formulaires et quant aux avocats, ils peuvent déléguer certaines tâches nécessitant une capacité humaine et un coût important à un service plus rapide et plus abordable.

Le « contract analytics » ou audit de contrats

En 2018, le logiciel LawGeex AI est sorti victorieux d’un test de rapidité et de pertinence face à 20 juristes de droit des affaires très expérimentés. Le test consistait en une analyse des risques et failles présents dans cinq contrats de confidentialité (non disclosure agreement). Le « contract review », consiste en l’analyse en masse de contrats pour en extraire les informations et les clauses contestables ou à revoir. Ce sous-secteur de la legaltech se rattache au sous-secteur des « alternative legal process providers » (ALSP, prestataires de services juridiques en ligne), en partie utilisateur d’IA (au sens de technologies informatiques très récentes à base de NLP et de machine learning), il est également celui qui fait le plus de chiffre d’affaires, devant même la justice prédictive. Selon une étude de Thomson Reuters, le groupe d’édition juridique américain, les « legal process providers » ont fait 13 milliards USD en 2019 contre 8 en 2015.
En France, la startup française Softlaw agit en audit de contrats pour des fusions acquisitions et en compliance. Hyperlex quant à elle est une société française de gestion et d’analyse de contrats pour les entreprises, le projet étant qu’à terme, Hyperlex fasse aussi de l’« audit des contrats ».

Les outils de règlement des litiges

L’utilisation de l’intelligence artificielle trouve sa diversité également sur le plan procédural, en intervenant dans la résolution de conflits. Pour répondre à l’exigence de célérité de la justice, les algorithmes sont utiles pour désengorger les tribunaux et rendre certains aspects de la justice plus vifs notamment dans le domaine du e-commerce, il est possible de faire appel à un médiateur en ligne, il est également possible de mettre en place une négociation en ligne pour des litiges plus simples ou d’autres plus complexes.
Concernant la médiation en ligne, c’est en outre-Atlantique que le phénomène est le mieux connu puisqu’il est possible d’y voir une forme de négociation en ligne quasi-automatisée, où 80% de cas en première phase de négociation assistée par ordinateur, donnent lieu à une transaction. Une autre pratique est l’offre à l’aveugle qui comprend les offres de chaque partie dont aucune ne connait le contenu mais lui est indiqué que son offre est insuffisante pour que tous les participants continuent à négocier jusqu’à ce qu’il y ait une offre compatible pour chaque partie. Ce type d’instrument en France, pourrait être favorisé par la loi sur la réforme de la justice qui instaure l’obligation du recours à la médiation ou à la conciliation pour les litiges inférieurs à 5000 euros avant de pouvoir saisir un juge.
Des plateformes du type Justice.cool, sont justement créées pour encadrer cette nouvelle forme de litiges. Elles évaluent la situation des requérants et les dispositifs législatifs et leur proposent des statistiques qui leur permettront de parvenir à un accord. Cependant ces mécanismes bien que bienvenus, auront un coût, face à un accès au juge étatique qui est aujourd’hui gratuit pour le justiciable.

L’approche « smart contract »

Un autre outil issu de l’intelligence artificielle, sont les smart contracts dits aussi contrats intelligents. Ils sont basés sur la fonctionnalité de la blockchain. Plus précisément, ces smart contracts se caractérisent par leur automaticité. En effet il s’agit d’un contrat qui se forme, qui vit et qui s’éteint de lui-même si l’objet du contrat est réalisé. Par exemple s’il existe un smart contract sur les indemnités de pertes d’exploitation d’un agriculteur qui serait confronté à une période de sécheresse, les informations climatiques sont transmises à la blockchain y afférant. Automatiquement, une indemnité conventionnelle lui sera versée sur la base des informations récoltées algorithmiquement et ce sans intervention humaine.
Outil novateur néanmoins suscitant plusieurs interrogations :

  • Quelle est sa place dans la législation ?
  • Quelles conséquences peut-il avoir sur le droit actuel ?
  • Quelles conséquences sur les acteurs du droit ?

Tout d’abord l’appellation même, prête à confusion, il ne s’agit pas d’un contrat à proprement parlé mais davantage d’un mécanisme accompagnant la phase contractuelle, des contrats auto-exécutants. Le régime de l’article 1101 n’est donc pas respecté. Ce qui amène au droit des contrats général, et l’observation au sein du mécanisme de smart contract, du défaut de l’aléa ou encore du consentement.
Il y a lieu de préciser par ailleurs, que ce type d’instrument a pour effet de créer un déséquilibre au sein des parties et n’avantage pour le moment que la partie forte : dans le cadre d’un smart contract automatique basé sur un contrat de location, si le locataire ne paye pas, le mécanisme bloque la porte d’entrée. En dehors de la problématique du déséquilibre, ce mécanisme présente une autre limite, celle de l’interactivité avec le réel. En effet, lorsque le contrat est basé sur une transaction d’un objet immatériel, cet outil pourra être exploité à des fins commerciales, puisque le paiement du prix du bien débloquera l’accès au bien. Néanmoins lorsqu’il s’agit d’acheter un bien matériel, le paiement bien qu’effectué à travers une plateforme électronique, ne débloquera pas automatiquement l’accès au bien.
Comme cela a pu être observé, l’intelligence artificielle offre de nombreuses issues. Il n’est pas possible d’y voir que du positif ou que du négatif. C’est une technologie qui est novatrice et qui permet d’alléger les professions, mais un équilibre doit se créer pour que les métiers juridiques actuels ne soient pas lésés dans leurs capacités autant intellectuelles que humaines. Ainsi l’intelligence artificielle doit rester un outil de performance.

Cet excellent article de Isabelle Eid, Avocate à la Cour, a été publié sur Les Échos
Le 28 décembre 2022

Droit d’auteur : trois IA génératrices d’images attaquées en justice aux USA

Trois artistes américains viennent d’attaquer en justice les services de génération d’images Midjourney, DreamUp (DeviantArt) et Stability AI. Ils reprochent à ces entreprises d’avoir utilisé, sans autorisation, des milliards d’images protégées par le droit d’auteur pour entraîner leurs algorithmes. Et d’en avoir « bénéficié commercialement ».

L’affaire

Les tribunaux seront-ils bientôt remplacés par des débats entre IA par écrans interposés ? Souvenez-vous : la semaine dernière, on apprend qu’une start-up du nom de DoNotPay prévoit de « révolutionner » le marché de l’intelligence artificielle en faisant entrer son propre chatbot dans les salles en huis clos du tribunal de San Francisco. Avec deux affaires de contravention pour excès de vitesse en ligne de mire, l’entreprise compte faire porter à l’assistant juridique de la défense une oreillette sans fil, et ce directement dans la salle d’audience le jour du procès, prévu en février prochain. À travers les écouteurs, l’IA doit enregistrer les arguments du plaignant en temps réel avant d’expliquer à l’avocat, sur cette base, ce qu’il devrait dire aux juges. Et DoNotPay de se vanter d’avoir créé le « tout premier robot-avocat du monde ».

Droit d’auteur et propriété intellectuelle

Voilà pour la défense. Mais, en pleine montée en puissance des outils générateurs d’images et de textes, d’autres voix nettement moins technophiles se font aussi entendre. Au point d’attaquer des intelligences artificielles en justice. Dans une toute autre affaire, le média américain Ars Technica nous apprend ainsi que trois artistes américains se sont réunis, le 13 janvier dernier, pour poursuivre les créateurs de Midjourney, DreamUp (DeviantArt) et Stability AI. Trois services de génération d’images en ligne particulièrement populaires depuis quelques mois, à qui ils reprochent d’avoir utilisé, sans autorisation, des milliards d’images protégées par le droit d’auteur pour entraîner leurs algorithmes. Ironie du sort, le recours collectif a également été déposé à San Francisco. En toute logique, on peut donc s’attendre à ce que la plainte soit examinée au moment même où l’IA de DoNotPay s’entraînera à plaider dans une salle voisine…

Dans le détail, les trois artistes concernées, Kelly McKernan (connue pour ses illustrations futuristes et psychédéliques), Karla Ortiz (illustratrice au style plutôt réaliste) et Sarah Andersen (autrice de bande-dessinée très populaire, notamment depuis le succès de sa série Sarah’s Scribbles), seront représentées par le cabinet d’avocats Joseph Saveri. Celui-ci invoque le Digital Millennium Copyright Act, une loi américaine adoptée en 1998 pour protéger le droit d’auteur et la propriété intellectuelle à l’ère numérique, tout en accusant les entreprises éditrices de ces IA de pratiques « anticoncurrentielles ». Sans prétendre s’être fait dérober son propre travail, le trio de créatrices cherche surtout « à mettre fin à cette violation flagrante et énorme des droits [des artistes], et ce avant que la profession dans son ensemble ne soit éliminée par un programme informatique entièrement alimenté par leur travail acharné », selon le texte officiel issu de la plainte déposée au tribunal.

Concrètement, les plaignants espèrent ainsi « prouver que les entreprises d’IA bénéficient commercialement et profitent largement de cette utilisation d’images protégées par le droit d’auteur », selon ArsTechnica. Selon toute vraisemblance, les deux reproches imputés aux IA concernent une forme de concurrence illégale (parce qu’elles s’inspirent du style des artistes et le reproduisent grâce à un algorithme), ainsi que la violation du droit de la publicité (parce qu’elles permettent aux gens de demander des œuvres « dans le style » de certains artistes sans leur autorisation). Deux points qui devraient être favorablement reçus par le juge.

Pas de copier-coller

En revanche, contrairement à ce que laisse entendre le texte de la plainte, Midjourney, DreamUp (DeviantArt) et Stability AI ne se contentent pas de « reproduire » ou de « copier » des images pré-existantes. Boostés à l’apprentissage automatique, les algorithmes en question génèrent systématiquement des illustrations nouvelles, dont le contenu dévie toujours plus ou moins (et sans grande originalité, certes) de ceux dont ils s’inspirent. Pour le site ArsTechnica, c’est là que le bât blesse, cette « réalité technique » étant « potentiellement à même de saper l’argument des plaignants concernant la violation du droit d’auteur ».

L’annonce semble en tout cas avoir suscité l’intérêt d’un certain nombre d’acteurs du secteur. Dès le lendemain, mardi 17 janvier, l’agence photo américaine Getty Images a annoncé être également sur le point de poursuivre Stability AI devant la Haute Cour de Londres, lui reprochant d’avoir utilisé ses clichés pour entraîner son algorithme de génération d’images. « Stability AI a illégalement copié » sur Internet « et retraité des millions d’images protégées par un droit de reproduction », accuse ainsi Getty dans une déclaration officielle. Pour l’heure, un porte-parole de Stability AI s’est contenté de déclarer que l’entreprise « prend ces questions très au sérieux ». Il serait temps.

Article original : Droit d’auteur : trois IA génératrices d’images attaquées en justice
Publié sur Usbek & Rica par Pablo Maillé le 19 janvier 2023

ndlr : vu le flou actuel des législation pour ce type de création, nous allons avoir beaucoup d’affaires de ce genre…

Droit à l’oubli: Une entreprise israélienne dit pouvoir supprimer le passé numérique

Après avoir servi au sein de cyber-unités militaires, trois jeunes Israéliens, peuvent localiser votre empreinte digitale et vous donner les moyens de la supprimer.

La société Mine, cofondée par Gal Ringel, Gal Golan et Kobi Nissan, affirme utiliser l’intelligence artificielle pour aide les utilisateurs à trouver où leurs informations sont stockées, comme par exemple lorsqu’un magasin de chaussures en ligne conserve vos données suite à un achat de baskets trois ans auparavant.

Be smarter with your personal data online

Depuis le site de l’entreprise :

  1. Discover where your personal data is online, in less than 30 seconds
    Découvrez où se trouvent vos données personnelles en ligne, en moins de 30 secondes
  2. Quickly understand your online exposure and avoid digital risks
    Comprendre rapidement votre exposition en ligne et éviter les risques numériques
  3. Be proactive and take action to remove unnecessary data
    Soyez proactif et prenez des mesures pour supprimer les données inutiles
  4. Continuously know where you stand
    Savoir en permanence où vous en êtes
  5. If you care about your friends and family, share the word
    Si vous vous souciez de vos amis et de votre famille, faites passer le mot.

Pour plus d’informations vous pouvez consulter la section FAQ

Cette application Mine a été lancé après que le règlement général sur la protection des données (RGPD) de l’Union européenne – qui s’est imposé comme une référence internationale – ait défini les principaux droits des utilisateurs, dont celui à la suppression des données personnelles partagées avec un site à des fins limitées.

La technologie d’IA de la société scanne l’objet des e-mails des utilisateurs et signale l’emplacement de stockage de leurs données.

Les utilisateurs peuvent ensuite décider quelles informations ils souhaitent supprimer et utiliser le modèle d’e-mail mis à leur disposition par Mine pour mettre en œuvre leur droit à l’oubli.

Accès direct au site de cette entreprise : Mine

Ce que dit la loi sur les images pédopornographiques générées par IA

La loi prévoit déjà le coup !

 

C’est un phénomène assez récent : des outils de génération par IA servent désormais à produire des images de pornographie infantile, parfois très réalistes. Des sites et des forums regorgent déjà de ces contenus. Que dit la loi au sujet des images fictives, mais montrant des abus sur mineur ?

Ces créations profitent de l’essor des outils d’IA génératives. Du côté des images, on trouve des plateformes comme Midjourney, Dall-E et Stable Diffusion — ce sont les plus connues aujourd’hui. En principe, leurs conditions d’utilisation interdisent de créer ce genre de contenu. Certains prompts peuvent d’ailleurs être interdits — avec une efficacité parfois relative.

Mais, il peut exister aussi des modèles de création de contenu libres, qui se baladent dans la nature, sans intégrer des limitations techniques excluant certaines requêtes. Au-delà du cas des visuels imaginaires de mineurs, de plus en plus de photos par IA mettent en scène des célébrités ou des personnages de dessins animés — étendant ce qui se faisait déjà de façon plus « artisanale ».

Ce sujet n’est pas nouveau : la représentation imaginaire de la pornographie infantile est un sujet qui existe depuis des années avec le « lolicon » (mot-valise pour lolita complex). Ce terme exprime l’attirance pour des filles prépubères, mais aussi une catégorie de dessin et de manga les mettant en scène de façon érotique ou pornographique.

Que dit la loi sur ces contenus imaginaires en France ?

Juridiquement, néanmoins, les choses sont claires : la pédopornographie est un crime, que les mineurs représentés soient réels ou non. Le Code pénal, dans son article 227-23, prévoit jusqu’à 5 ans de prison et 75 000 euros d’amende pour « l’image ou la représentation d’un mineur » lorsque celle-ci « présente un caractère pornographique ».

L’article précise qu’il s’applique aussi « aux images pornographiques d’une personne dont l’aspect physique est celui d’un mineur », sauf si elle était majeure à ce moment-là (dans le cas d’une personne réelle). Des sanctions additionnelles sont prévues, notamment pour s’attaquer à la diffusion, la détention ou la consultation de ces contenus, y compris sur Internet.

La Cour de cassation s’est montrée aussi très claire à ce sujet. En 2007, la plus haute juridiction de l’ordre judiciaire français rendait une décision clé. Elle a déclaré que « les images non réelles représentant un mineur imaginaire, telles que des dessins ou des images résultant de la transformation d’une image réelle, entrent » dans le champ d’application de cet article.

Si les choses sont claires à l’échelle hexagonale, elles peuvent être observées différemment à l’étranger. C’est ce que relève Bloomberg en citant le cas des États-Unis : la production de fausses images d’abus d’enfants n’est pas illégale aux États-Unis, ce qui a pour effet d’épargner des forums et des sites spécialisés regorgeant de ces contenus « lolicons », dessinés ou générés par IA.

Dans ce cas de figure, la France dispose toutefois d’un levier : celui du blocage sur décision administrative. Des sites spécialisés dans le hentai (du manga porno) avaient ainsi été ciblés en 2015, sur instruction du ministère de l’Intérieur. Les fournisseurs d’accès à Internet (FAI) se sont exécutés pour bloquer sans délai ces sites, grâce à la technique du blocage par DNS.

Cette prérogative vient d’un décret paru la même année. Les internautes allant sur ces adresses sont redirigés sur une page du ministère de l’Intérieur, dans laquelle on peut lire un avertissement : « Vous avez été redirigé vers cette page du ministère de l’intérieur car vous avez tenté de vous connecter à un site comportant des images de pornographie enfantine. »

Ce levier pourrait également servir dans le cas de la pornographie infantile produite par intelligence artificielle générative. Un levier toutefois imparfait : le blocage par DNS, qui est aussi utilisé dans d’autres circonstances, comme la lutte antiterroriste, est contournable assez facilement, en modifiant certains paramètres dans son ordinateur.

Article source : Ce que dit la loi sur les images pédopornographiques générées par IA
Publié sur numerama par Julien Lausson le 25 mai 2023

L’IA générative va entraîner des considérations juridiques nouvelles sur le droit d’auteur

Une interview d’Arthur Millerand, associé du cabinet Parallel Avocats publié sur L’Usine Digitale

Vraiment à lire !

Source : L’IA générative va entraîner des considérations juridiques nouvelles sur le droit d’auteur
Publié sur L’Usine Digitale le 23 mars 2023

LegiGPT : le chatbot français qui répond à vos questions juridiques

Découvrons les capacités de ce « ChatGPT du droit », accessible gratuitement en ligne

 

LegiGPT est spécialisé en droit français

Le chatbot LegiGPT est basé sur ChatGPT et a été créé par Steeve Morin et  peut répondre à toutes sortes de questions juridiques car il est spécialisé dans la compréhension et l’application de la loi française.

« Je suis en mesure de fournir des informations précises sur les différents codes de loi et je peux rédiger des documents en lien avec la loi. Cependant, je ne suis pas spécialisé dans un domaine particulier de la loi, je couvre l’ensemble des domaines juridiques de la législation française », indique lui-même LegiGPT.

LegiGPT peut vous aider à rédiger des lettres faisant appel à la loi

Nous ne sommes pas encore au stade où LegiGPT peut avoir la prétention de remplacer un avocat (car il a encore des limites !) mais il peut se révéler d’une aide précieuse pour vos interrogations et problématiques du quotidien.

Effectuons un test : conditions d’obtention du RSA

En moins de 25 secondes, la réponse est limpide :

Pour obtenir le Revenu de Solidarité Active (RSA) en France, il faut remplir certaines conditions. Voici les principales conditions d’obtention du RSA :

1. Résidence stable et régulière : Vous devez justifier d’une résidence stable et régulière sur le territoire français. Cela signifie que vous devez vivre en France de manière permanente.

2. Âge minimum : Vous devez avoir atteint un âge minimum pour bénéficier du RSA. Cet âge minimum varie en fonction de votre situation. En règle générale, l’âge minimum est de 25 ans. Cependant, il peut être abaissé en cas d’inaptitude au travail ou si vous bénéficiez de certaines dispositions légales.

3. Ressources : Vos ressources doivent être inférieures à un certain seuil pour pouvoir prétendre au RSA. Ce seuil dépend de votre situation familiale (personne seule, couple, avec ou sans enfants) et est révisé chaque année. Il est important de noter que certaines ressources sont exclues du calcul, comme les allocations familiales ou les prestations familiales.

4. Activité professionnelle : Si vous êtes en âge de travailler, vous devez rechercher activement un emploi, entreprendre les démarches nécessaires pour créer votre propre activité ou entreprendre des actions visant à une meilleure insertion sociale ou professionnelle. Le montant des revenus tirés de votre activité professionnelle en dessous duquel vous êtes tenu de rechercher un emploi est fixé à 500 € en moyenne mensuelle calculée sur le trimestre de référence.

5. Nationalité : Le RSA est ouvert aux personnes de nationalité française, mais également aux ressortissants de l’Union européenne ou de l’Espace économique européen, ainsi qu’aux étrangers titulaires d’un titre de séjour les autorisant à travailler en France.

Il est important de noter que ces conditions peuvent varier en fonction de votre situation personnelle et familiale. De plus, d’autres critères peuvent également être pris en compte, tels que la composition de votre foyer, votre situation professionnelle, etc.

Si vous remplissez ces conditions, vous pouvez faire une demande de RSA auprès de la Caisse d’Allocations Familiales (CAF) de votre département de résidence. La demande se fait généralement en remplissant un formulaire spécifique, fixé par arrêté conjoint des ministres chargés de l’action sociale, de la sécurité sociale et des collectivités territoriales.

N’hésitez pas à consulter le Code de l’action sociale et des familles, notamment les articles R262-118 et R262-31, pour plus de détails sur les conditions d’obtention du RSA.

Sur le même sujet : GenIA-L : Lefebvre Dalloz lance son IA spécialisée dans les contenus juridiques
Lefebvre Dalloz, acteur important dans le domaine juridique et fiscal en France, a annoncé le lancement de GenIA-L, une première en France en matière d’intelligence artificielle (IA) générative spécialisée dans les contenus juridiques de haute qualité.
Publié sur Actualitté par Hocine Bouhadjera  le 23 janvier 2024