On a testé l’IA censée nous rendre hyper beaux (ça tourne mal)

On pense que notre beauté a tout simplement cassé la machine.

Cette semaine, on est tombées sur un article du site Futurism, qui nous vantait les mérites de STRMR, une intelligence artificielle capable de rendre BG quiconque l’essaierait.

En atteste cet essai

Après avoir créé un compte, nous découvrons, avec surprise et après une trentaine d’années d’existence, que rien n’est gratuit dans ce fucking monde. Et comme on aime bien se faire arnaquer, on a lâché 3 dollars pour avoir accès au service. “3 dollars, c’est assez cher pour générer une image à la con”, pensais-je, radine comme je suis. Mais ma boss était d’accord pour faire chauffer sa carte bancaire.

Une fois la moula insérée, je me mis à l’ouvrage. Pour générer une image, l’outil demande un minimum de quatre photos du sujet, dans des expressions et styles différents, de donner un titre à ladite œuvre, et de renseigner le genre auquel votre sujet s’identifie. J’essaie avec un selfie exclusif et quelques clichés de ma boss trouvés sur le Web, car elle est assez connue : elle travaillait à la radio et elle a coécrit un livre. Et puis elle a payé, donc elle méritait de profiter entièrement de l’expérience.

Après cette étape, l’IA me demande d’entrer une description pour aiguiser l’esthétique de l’image à produire. Je tape en anglais : “femme dans un champ de fleurs avec un look élégant”. Je ne sais pas bien pourquoi, mais je voulais voir ma cheffe ravissante dans un champ de fleurs. Ça m’a pris, comme ça.

Quelle n’a pas été notre surprise quand nous avons découvert qu’une image mettait 88 minutes à être créée. Et que les 3 dollars ne payaient qu’une seule image. Mes collègues dégainant leurs selfies pour servir de cobayes furent déçu·e·s que l’attraction s’arrête là.

Le résultat n’en est que plus décevant

La suite sur : On a testé l’IA censée nous rendre hyper beaux
Publié sur Konbini le 19 octobre 2022

 

Quelques articles en vrac

 

Un peu n’importe comment, quelques articles :

Une intelligence artificielle transforme des artistes en héros Disney

Article trouvé sur Konbini.

Un mystérieux compte TikTok intitulé saltshaker.ai poste depuis un mois des représentations de fausses affiches Disney, dont le personnage principal est un artiste. Le propriétaire du compte précise au début de chacune de ses vidéos qu’il a demandé à une intelligence artificielle de générer ces illustrations.

Certaines des affiches donnent même envie d’aller voir le film qui, vous l’aurez compris, n’existe pas. Drake, Eminem, Travis Scott… : vous pourrez trouver de belles illustrations en fouillant son profil, et peut-être même en mettre une en fond d’écran. Il propose déjà de le faire dans certaines de ses vidéos.

La suite sur : Une intelligence artificielle transforme des artistes en héros Disney
Publié sur Konbini le 12 octobre 2022

Bientôt des algorithmes pour détecter les théories complotistes en ligne ?

Je me permet de publié l’ensemble de ce magnifique article :

Manque de cohérence et lexique uniforme : voilà ce qui caractérise les articles complotistes, selon une nouvelle étude publiée dans la revue Science Advances, le 26 octobre 2022. Ces recherches – les plus poussées sur le sujet – pourraient donner naissance à des algorithmes plus aboutis pour repérer des théories complotistes en ligne et limiter la portée des fake news.

Explications

C’est une étude « révolutionnaire ». Des chercheurs ont mis au point une liste détaillée des principales caractéristiques linguistiques des textes complotistes, à partir d’une analyse monumentale de plus de 96 000 articles en ligne. Du Covid-19 à la 5G en passant par le décès de Lady Diana, les théories du complot les plus répandues au monde ont été passées au peigne fin par des chercheurs des universités de Neuchâtel, en Suisse, et de Warwick, au Royaume-Uni, qui ont publié une étude conjointe dans la revue Science Advances le 26 octobre dernier. « C’est la première à examiner le langage des théories du complot dans un ensemble de données aussi vaste, composé de milliers d’articles », a déclaré Thomas Hills, professeur à l’université de Warwick, dans un communiqué de presse. Plus encore que de déterminer ce qui fait l’essence d’une théorie complotiste, ces recherches « contribuent au développement d’algorithmes automatiques pour détecter les fausses informations » et les limiter, estiment les auteurs du rapport. Pour l’heure, aucun algorithme ne permet de détecter efficacement et systématiquement des textes complotistes, malgré les ambitions affichées par les réseaux sociaux pour améliorer leur modération en ligne face à la propagation des fake news.

Des sujets peu cohérents et un lexique uniforme

Les chercheurs ont donc comparé 72 000 articles jugés fiables et près de 24 000 articles identifiés comme conspirationnistes, à l’aide d’un programme de traitement du langage, tout en ciblant des événements controversés tels que la pandémie de Covid-19, les attentats du 11 septembre 2001 ou encore l’assassinat de John Fitzgerald Kennedy. Ces mots clés ont ensuite permis d’identifier des textes complotistes, sur la base d’une sélection de sites étiquetés comme hautement conspirationnistes par la plateforme Media Bias/Fact Check, parmi lesquels le méida Info Wars du complotiste américain Alex Jones, récemment condamné à verser près d’1 milliard de dollars de dommages et intérêts aux victimes de la tuerie de masse de l’école Sandy Hook, dans le Connecticut, dont il niait la réalité.

Résultat : les textes conspirationnistes sont plus interconnectés, plus hétérogènes sur le plan thématique et plus similaires les uns aux autres que les textes jugés sourcés et fiables. En plus d’avoir recours à un lexique quasiment identique, les complotistes s’appuient généralement sur d’autres théories pour « prouver » leurs affirmations, engendrant un manque de cohérence entre ces différentes idées.

Par exemple, les théories liées à la pandémie de Covid-19 sont souvent associées à d’autres thèses complotistes sur la 5G, Bill Gates et les entreprises pharmaceutiques, sans que des liens clairs ne soient établis entre ces différentes théories. « Cela soutient l’idée d’une ‘vision du monde conspirationniste’, à savoir que les personnes enclines à croire à une conspiration particulière sont susceptibles de croire à de nombreuses autres et de les utiliser comme preuves pour étayer leurs arguments », expliquent les chercheurs.

Algorithmes : saints-saveurs face à des théories complotistes néfastes ?

Fort de ces conclusions, les chercheurs suisses et britanniques espèrent voir émerger des algorithmes permettant de détecter rapidement les fake news, sur la base de leur sémantique. Du refus de se faire vacciner contre la grippe au rejet des préservatifs en passant par un risque accru de tomber dans la criminalité quotidienne, les théories du complot ont des conséquences parfois « désastreuses » sur la société, avancent les chercheurs. «C’est pourquoi notre travail s’inscrit dans un effort collectif cherchant à limiter les conséquences négatives de la désinformation  », concluent-ils.

En effet, les projets visant à limiter la propagation des fake news et théories complotistes en ligne se sont multipliées ces dernières années. En novembre 2020, le groupe d’analyse culturelle de l’université de Californie a développé un modèle d’apprentissage automatique capable d’identifier de manière précoce les éléments de récits qui se rapprochent de théories du complot. En janvier 2021, une chercheuse de l’Institut de technologie Stevens, aux États-Unis, a mis au point une intelligence artificielle permettant de détecter des fake news sur la base de leur vocabulaire et des émotions convoquées. Mais ces innovations demeurent imparfaites puisque les caractéristiques associées au langage distinctif des théories complotistes étaient jusqu’alors lors peu définies.

Autre problème, les algorithmes sont eux-mêmes responsables de la propagation de fake news et théories du complot sur les réseaux sociaux. « Les AI sont programmées pour “maximiser le temps de vue”, ce qui a un effet secondaire : elles favorisent les contenus qui font passer moins de temps ailleurs. En particulier, des discours comme “les médias vous mentent” pourraient ainsi avoir bénéficié de milliards d’euros de publicité gratuite », rapporte Guillaume Chaslot, docteur en informatique, dans un article posté sur Médium. L’enjeu est donc colossal pour les régulateurs des principaux réseaux sociaux, dont Facebook et Twitter. D’autant que, selon une étude de l’Ifop datant de mars 2022, 35 % des Français disent croire à des thèses complotistes…

Article publié sur Usbek & Rica par Emilie Echaroux le 2 novembre 2022

Il se crée une fausse vie pendant un mois grâce à l’intelligence artificielle

Pendant un mois, il s’est inventé une nouvelle vie (parfaite) sur Instagram en postant des images très réalistes générées par une intelligence artificielle. Tout le monde y a cru.

On vous l’a peut-être déjà dit, mais sur les réseaux sociaux, et notamment sur Instagram, les gens ont généralement tendance à nous faire croire qu’ils ont une vie parfaite. Cependant, pour avoir une belle photo sur la plage, ou dans un bel appartement, les gens doivent s’y trouver physiquement afin de prendre cette belle photo (qu’on peut éventuellement retoucher) et cumuler les likes et les réactions.

L’histoire de Kyle Vorbach, un producteur qui s’est créé une fausse vie parfaite pendant un mois, est différente. Au lieu de prendre de vraies photos pour faire croire à ses amis sur les réseaux sociaux qu’il a une vie de rêve, il a utilisé l’intelligence artificielle. En effet, aujourd’hui, certaines IA sont si performantes qu’elles sont capables de générer des images ultra-réalistes, sans que l’utilisateur ait besoin de prendre son appareil photo.

Tout a commencé par une image de profil

Dans la vidéo qu’il a publiée sur YouTube (à la fin de l’article), Kyle Vorbach raconte que tout à commencé, au mois d’octobre, par une image de profil. En utilisant l’IA Stable Diffusion, qui génère des images photoréalistes à partir d’une description texte fournie par l’utilisateur, Vorbach avait déjà généré de belles images de son chien, portant des chapeaux. Et lorsqu’il a souhaité avoir une nouvelle photo de profil pour les réseaux sociaux, il a décidé d’utiliser la même technique.

L’article complet : Il se crée une fausse vie pendant un mois grâce à l’intelligence artificielle
Publié sur Presse Citron par Setra le 16 décembre 2022

Bloom, un nouvel outil de traduction automatique d’une efficacité redoutable

Announcing Bloom Translations & Internationalization

En tout, plus de mille chercheurs ont travaillé sur “Bloom”. Anglais, français, basques, espagnol… Ce système de traduction et de prédiction des langues automatique prend en charge 46 langages.

Les biais des modèles de langages existants

Les générateurs d’écriture sont capables de traduire, de résumer et de rédiger des textes, mais aussi d’alimenter des bots de chat, de modérer du contenu, de résumer des articles de presse et de traduire du texte en ligne.

Pour accomplir ces tâches, les modèles de langages ont besoin de quantités massives de données d’entraînement pour trouver les associations statistiques. Seul problème, en cas de base de données trop pauvre, trop approximative ou trop problématique d’un point de vue éthique, les générateurs d’écriture ont tendance à dire des faussetés et à faire preuve de préjugés à l’égard des religions, des sexes, des races et des personnes handicapées. Par exemple, un article publié en 2021 a révélé que le modèle linguistique le plus récent publié par OpenAI, un laboratoire d’intelligence artificielle basé à San Francisco, associait systématiquement les musulmans à la violence, rappelle le Washington Post.

Pour pallier ces biais, la start-up BigScience et Bloom, son système, adoptent une nouvelle approche. Dans le cadre de ce projet, ce sont les individus eux-mêmes, donc, pas la technologie, qui génère 60 % des données d’apprentissage. À noter tout de même que près de 40% de l’ensemble des données de BigScience proviennent toujours d’une exploration classique de l’internet.

Plus de 40 langues

Bloom s’entraîne sur le supercalculateur français Jean Zay. “Pendant son apprentissage, le modèle a acquis la capacité de gérer 176 milliards de paramètres sur des textes”, indique l’Usine Digitale. Grâce à ce système, les scientifiques peuvent travailler sur 46 langues en même temps, le logiciel étant capable de prédire le mot qui sera écrit en ne connaissant que le début d’un texte.

Ce système devrait être très utile pour les systèmes de traduction automatique, mais aussi pour améliorer la fiabilité des générateurs d’écriture. “Bien qu’il n’ait jamais été entraîné à l’une de ces tâches spécifiques, on peut demander à Bloom de produire des résumés ou des traductions de texte, de produire du code à partir d’instructions, et de suivre des invites pour effectuer des tâches originales telles que l’écriture de recettes, l’extraction d’informations d’un article de presse, ou la composition de phrases utilisant un mot inventé nouvellement défini… Les performances de Bloom continueront à s’améliorer à mesure que l’atelier continuera à expérimenter et à progresser sur Bloom”, peut-on lire dans un billet de blog partagé avec TechCrunch avant le lancement.

Susciter de nouvelles recherches

Un des autres principaux objectifs de Bloom est de fournir aux chercheurs du monde entier une base de travail commune. Il existe déjà d’autres modèles de langage similaires, mais ces programmes sont le projet d’entreprises privées. Conséquence : ils ne sont pas totalement transparents. Contrairement à Bloom qui est 100% open source et accessible à tous, à condition d’avoir la puissance de calcul nécessaire. La startup Hugging Face a d’ailleurs lancé une application Web gratuite qui permet à tout le monde d’essayer Bloom sans avoir à le télécharger. Le projet devrait être rendu public dans les prochaines semaines.

Lire également : La traduction automatique fait un bon en avant avec Bloom Publié sur Presse Citron par Tristan Carballeda le 23 juillet 2022

Rejoindre le site de l’entreprise : bloom.co

Cédille : une IA qui écrit toute seule montre que les biais racistes et homophobes peuvent être évités

Une intelligence artificielle qui génère des textes en français impressionne par sa qualité. Pour l’instant, l’algorithme semble ne pas avoir été influencé par des biais racistes ou sexistes.

Your writing assistant. Powerful. Yeah! Creative

Your writing assistant. Powerful. Yeah! Creative

Écrire n’a jamais été aussi simple

Pour l’instant, l’algorithme semble ne pas avoir été influencé par des biais racistes ou sexistes.

Les consignes sont simples : « écrivez le début d’une phrase puis cliquez sur “Générer”. Cédille se charge de rédiger la suite ». Et Cédille, une intelligence artificielle (IA) créée par l’agence suisse Coteries, se charge très très bien de sa mission. Peu importe l’exemple qu’on donne pour commencer le texte, l’intelligence artificielle arrive à remplir le reste du bloc de manière impressionnante.

Cédille, qui est accessible en version bêta depuis le 9 novembre 2021, est un outil de génération d’écriture en français. De nombreux exemples d’intelligence artificielle du genre existent depuis des années : on se souvient de Clever Bot, l’IA de Google, ou encore le plus récent Copilot, un logiciel de Github pensé pour aider les développeurs à coder.

Mais Cédille a la particularité de faire tout ça en Français. En ayant été entrainée avec un modèle en français, et non pas en anglais comme c’est le cas la plupart du temps, Cédille est devenue l’une des premières intelligences artificielles à fonctionner de manière convaincante.

Les point mis en avant sur le site

  • Generate text quickly and easily – Générez du texte rapidement et facilement
  • Use a powerful artificial intelligence – Utilisez un moteur d’IA puissant
  • Work with an easy to use online platform – Travaillez facilement avec une plateforme en ligne
  • Rework high quality contents within seconds – Retravailler des contenus de haute qualité en quelques secondes

Comment aller sur le site de l’entreprise : Cédille

Ben Morin imagine les personnages emblématiques façon bébé

À l’aide de l’intelligence artificielle, l’artiste Ben Morin a décidé de réaliser les portraits de plusieurs personnages de « Friends », « Harry Potter », « Game of Thrones » ou encore « Star Wars ». Et la ressemblance est quasi parfaite ! Ben Morin a principalement utilisé l’intelligence artificielle Midjourney, générant des images au réalisme surprenant à l’aide seulement de textes descriptifs.

Vous voulez regarder quelques exemples ?

Suivez tout simplement ce lien : Personnages emblématiques façon bébé

Article source : Cet artiste imagine les personnages emblématiques façon bébé
Publié sur Les Éclaireuses par Celia Barnade le 19 décembre 2022

« Il devient fou »: aux États-Unis, les déboires du robot vocal de McDo deviennent viraux sur TikTok

Je ne veux pas tirer sur l’ambulance, mais c’est trop drôle !

Outre-Atlantique, plusieurs groupes de fast-food tentent d’implanter des robots vocaux pour la commande aux drives. Celui de McDonald’s a provoqué des fous rires.

Les robots vont-ils remplacer les hommes? Chez McDonald’s, il y a visiblement un peu de marge. Sur TikTok, plusieurs vidéos sont devenues virales en présentant les déboires des robots vocaux installés pour la prise de commande des drives.

« Le robot devient fou » écrit une cliente, hilare, alors que le robot entasse les commandes de menus McNuggets, au point d’afficher une facture de plusieurs centaines de dollars pour deux personnes.

Pour vous amusez : Aux États-Unis, les déboires du robot vocal de McDo deviennent viraux sur TikTok

Cette IA vous permet de discuter avec les célébrités de votre choix

Des anciens ingénieurs de Google ont conçu Character AI, un modèle de langage neural qui permet d’échanger avec une Intelligence artificielle à travers une interface Web.

Character AI permet de discuter avec des personnes réelles ou fictives

En plus de pouvoir générer des réponses vraisemblablement humaines, Character.ai participe activement à une conversation. Mieux encore, cette IA est capable d’incarner des personnalités célèbres, réelles ou fictives. Souhaitez-vous débattre avec Socrate, Einstein, Daenerys Targaryen ou même Tony Stark ? C’est possible avec cette IA basée sur LaMDA (Language Model for Dialogue Applications), une technologie développée par Google. Cette dernière avait fait des vagues en juin 2022 lorsqu’un de ses concepteurs avait affirmé que leur IA était dotée d’émotions.

Noam Shazeer et Daniel de Freitas, les deux fondateurs de l’application, ne vont pas jusqu’à affirmer que leur IA est dotée de conscience. Leur invention a pour ambition de divertir, et non d’informer. Dans un entretien accordé au New York Times, ils déclarent : « ces systèmes ne sont pas conçus pour dire la vérité. Ils sont conçus pour entretenir une conversation plausible […] Aujourd’hui, Character.ai est utile pour l’amusement, pour le soutien émotionnel, pour générer des idées, pour toutes sortes de projets créatifs ».

Une rapide conversation avec le chatbot confirme les dires des concepteurs. Votre interlocuteur n’est pas humain, et son discours n’est pas toujours cohérent. Rien ne vous oblige cependant à deviser avec une célébrité. La plateforme donne la possibilité de créer votre propre personnage de toutes pièces. L’application est de plus en plus souvent utilisée par les studios de développement de jeux vidéo ou même pour générer des aventures textuelles. Le site regorge d’ailleurs d’exemples de ce type.

Ne pas hésiter à aller sur site Character.ai pour s’amuser !

Le Petit Poucet français de l’IA qui veut défier ChatGPT : LightOn

Après avoir développé son propre grand modèle de langage, la start-up française LightOn lance officiellement Paradigm, une plateforme d’IA générative à destination des grandes entreprises européennes. LightOn espère notamment se démarquer de ChatGPT en promettant aux utilisateurs le contrôle total de leurs données, car sa solution est déployable sur leur propre infrastructure.

L’histoire de LightOn

Fondée en 2016 avec l’ambition de repousser les limites de l’IA à grande échelle, tant au niveau logiciel que matériel, les premières contributions significatives de LightOn incluent la conception de l’unité de traitement optique (OPU), le premier coprocesseur d’IA photonique au monde. L’OPU a été utilisé par des chercheurs du monde entier sur une plate-forme cloud dédiée et intégré à l’un des plus grands supercalculateurs au monde – une autre première mondiale. Depuis 2020, l’équipe de LightOn se concentre sur la construction et la commercialisation de modèles de base pour l’IA générative, y compris de grands modèles de langage capables de comprendre, d’analyser, d’écrire, de raisonner et de planifier.

LightOn, start-up française spécialisée dans l’intelligence artificielle, lance officiellement la commercialisation de Paradigm, sa plateforme d’IA générative ce 9 mars 2023. Elle le mettait déjà en avant sur son site web depuis plusieurs semaines. Elle présente Paradigm comme une alternative à ChatGPT spécialement pensée pour les entreprises européennes, et qui s’en démarque car elle peut être installée sur leur propre infrastructure informatique.

Accélérer les tâches fastidieuses liées au texte

Profitant de la sortie très remarquée de ChatGPT, un chatbot simplifiant l’interaction avec ce « Large Language Model » (LLM), LightOn accélère la commercialisation de sa propre solution. Paradigm s’adresse aux grandes entreprises et aux ETI, et a l’avantage de prendre en charge les principales langues européennes. Il est présenté comme permettant aux collaborateurs, sur simple requête en langage naturel, d’accélérer ou d’automatiser complètement certaines tâches fastidieuses.

LightOn cite comme exemple le fait de rédiger des fiches produits adaptées à différents public à la place des équipes marketing, produire des textes et des vidéos aux titres accrocheurs pour les services de communication ou créer un système de questions/réponses avec interaction personnalisée pour alléger le travail du support client. Paradigm serait également capable de faire de la veille en ligne, de synthétiser des documents ou encore de retranscrire des réunions.

Les données ne sortent pas des serveurs des clients

Face à OpenAI et aux autres acteurs américains sur le marché, l’atout sur lequel compte LightOn est la souveraineté. Le logiciel étant directement installé on-premise ou sur un cloud privé, « aucune donnée ne sort de leurs serveurs », assure le communiqué de l’entreprise, « ce qui assure la confidentialité de leurs données et de leur savoir-faire, contrairement aux modèles utilisés via une API ».

Reste néanmoins la question du coût, à la fois de la solution mais aussi de l’exploitation nécessaire pour faire tourner la solution à grande échelle, qui sera donc à la charge du client. Une question non négligeable, le succès des grands fournisseurs de cloud américains (Amazon, Microsoft, Google) tenant au moins autant à leurs prix défiant toute concurrence qu’aux fonctionnalités qu’ils proposent.

 

Le site de l’entreprise : LightOn.ai

LightOn lance la V2 de son LLM open source Alfred

Moins d’hallucinations contextuelle

Le Français a dévoilé aujourd’hui 17 novembre 2023 Alfred-40B-1023, la dernière itération de son modèle de langage open source. Le positionnement de LightOn consiste à développer des solutions dédiées aux entreprises et services publics.

Le nouveau modèle a été entraîné sur Amazon SageMaker. Alfred-40B-1023 sera prochainement disponible sur HuggingFace et AWS Jumpstart, de quoi selon lui faciliter son intégration à d’autres environnements de travail.

Pour le directeur général et cofondateur de LightOn, Laurent Daudet, l’amélioration continue des LLM en cours “contribue à accroître l’adoption des IA génératives en renforçant l’efficacité et la qualité des tâches pouvant être menées.” Dans ce contexte, Alfred apporterait donc son lot d’améliorations. LightOn insiste en particulier sur la réduction des hallucinations contextuelles, principaux maux dont souffrent les modèles généralistes tels que ceux d’OpenAI.

Soigner le cas d’usage de la recherche documentaire

L’éditeur français revendique aussi pour sa technologie une meilleure connaissance de soi. Plus concrètement, cela signifie que le modèle, lorsqu’il ne dispose pas d’une réponse satisfaisante, est programmé pour ne pas répondre. « Je ne sais pas », pourra ainsi indiquer Alfred V2, “ce qui améliore sa transparence et sa fiabilité” pour ses concepteurs. LightOn soigne en outre un cas d’usage très en vogue dans les entreprises : la recherche dans des bases documentaires. Cette fonctionnalité intitulée « Chat with docs » a été améliorée. Le LLM open source est entraîné spécialement pour ces tâches consistant pour un utilisateur à poser une question en langage naturel sur une base de documents internes.

“Le modèle simplifie ainsi l’interaction avec les documents et optimise la recherche d’information”, affirme LightOn. Enfin, l’éditeur met en avant un contexte élargi (8192 tokens), donnant la possibilité au modèle de comprendre et générer des contenus plus longs et plus complexes.

Des fonctions en plus sur Paradigm

Toujours pour répondre aux préoccupations des clients entreprises, LightOn accorderait aussi plus d’importance à la sécurité des données.

“Lorsqu’il est déployé dans l’infrastructure d’un client (on premise ou dans un cloud privé), toutes les interactions de données sont confinées à cet environnement, garantissant ainsi la confidentialité et la sécurité des données”, détaille-t-il.

Mais LightOn, c’est une double approche dans le domaine de l’IA générative : des modèles open source autonomes et aussi une plateforme complète nommée Paradigm. En optant pour la version d’Alfred v2 intégré à Paradigm, les utilisateurs disposent d’une “version plus avancée”.

L’éditeur cite “des améliorations et des fonctionnalités supplémentaires, leur garantissant de toujours bénéficier des capacités les plus performantes.” Au travers de sa plateforme, LightOn entend aussi simplifier l’usage de l’IA générative.

« Nous avons également mis l’accent sur la création d’interfaces et de flux de travail intuitifs, afin que chacun, quelle que soit son expertise technique, puisse exploiter la puissance de l’IA générative. Des fonctionnalités telles que « Task Factory » permettent ainsi aux non-experts d’intégrer l’IA dans leurs tâches quotidiennes de manière transparente », déclare Laurent Daudet.

Grace à l’IA, voici à quoi auraient ressemblé ces stars à une autre époque !

Comme s’ils étaient sortis tout droit des toiles les plus célèbres du XVIe siècle, et grâce à l’intelligence artificielle, vous verrez Leonardo DiCaprio, Kate Winslet et d’autres en seigneurs, ducs et duchesses.

Voici à quoi ressembleraient la femme et l’homme parfaits, selon l’IA

Article trouvé sur Geeko

Sur demande de The Bulimia Project, une intelligence artificielle a produit son idée de l’homme et de la femme « parfaits ». Le tout, en se basant sur les données disponibles sur les réseaux sociaux.

Voici le résultat

Une IA imagine à quoi ressemblent les conducteurs de 15 voitures

Rendez-vous sur : Une IA imagine à quoi ressemblent les conducteurs de 15 voitures
Publié sur le site Turbo par Khalil Bouguerra le 14 août 2023

Quelques articles en vrac

 

  • Cette présentatrice météo n’existe pas
    La chaîne télé suisse M Le Média utilise une présentatrice générée par intelligence artificielle pour présenter le bulletin météo matinal depuis le début du mois. Ce n’est pas la première fois que des médias font appel à ce genre de technologie, mais la pratique soulève toujours autant de questions.
    Publié sur Numerama par Aurore Gayte le 20 avril 2023
  • Cette IA propose des noms pour votre site web
    Smartynames génère des noms de domaine à partir d’une description. Lorsque vous y êtes, vous n’avez plus qu’à décrire l’activité de votre entreprise sur le champ prévu à cet effet. Et en 20 secondes, le site vous propose une liste de noms de domaines que vous pourriez utiliser.
    Publié sur Presse Citron par Setra le 12 décembre 2022

Porc de pêche, Forêt de pains, Mètre nageur… quand le Bescherelle s’amuse avec l’IA

L’intelligence artificielle toujours plus omniprésente peut faire de belles choses… à condition de lui fournir des instructions bien écrites.

Bescherelle et Brainsonic se sont ainsi amusés à générer des images par le biais de requêtes mal orthographiées, pour des résultats plutôt loufoques.

 

Pour vous amuser avec l’IA, ne manquez pas les cours de français

L’autorité en matière d’orthographe qu’est le Bescherelle, avec le concours de l’agence Brainsonic, s’est fendue d’une campagne visant à sensibiliser les Français quant à l’importance de l’orthographe, même s’agissant des interactions avec une intelligence artificielle.

De manière humoristique et ludique, la marque s’est ainsi amusée à demander à une IA génératrice de créer des images à partir de requêtes incorrectement écrites. « Forêt de pains », « Porc de pêche », « Mètre nageur » ou « Seau en hauteur » sont autant d’exemples de requêtes pour lesquelles l’IA apporte une interprétation somme toute singulière.

Avec cette campagne, Bescherelle illustre donc l’importance de maîtriser la langue française (et surtout d’acheter ses manuels), même avec les nouvelles technologies à la mode. L’IA n’étant pas encore armée d’un correcteur orthographique, elle a besoin de requêtes dans une langue de Molière parfaite pour générer ce qu’on lui demande.

Une IA encore dépendante de l’humain, et un humain encore dépendant de l’orthographe

« Quelle ironie du sort, c’est l’intelligence artificielle qui vient rappeler à quel point maîtriser la langue et l’écrit, c’est la base ! Avec cette campagne, on explique que Bescherelle a encore un rôle tout à fait légitime dans notre monde moderne et technologique. Comme quoi, il faut encore des êtres humains derrière tout cela », indique Alban Pénicaut, Directeur de la Création chez Brainsonic.

Alors que le développement extrêmement rapide de l’intelligence artificielle soulève plusieurs questions et inquiétudes, entre autres éthiques, ce petit trait d’humour est en effet là pour rappeler quelques fondamentaux. Pour exister, elle a ainsi encore besoin d’une intervention humaine, qui se doit de lui apprendre une grammaire et une orthographe impeccables.

Peut-être cela va-t-il motiver les prochaines générations à améliorer leur maîtrise de la langue, afin de pouvoir interagir avec ces nouvelles technologies, voire pourquoi pas travailler dans ces domaines. Le niveau de maîtrise de la langue française régresse en effet malheureusement année après année. La faute peut-être à un manque de motivation, qui pourrait être ravivée entre autres par cette campagne de sensibilisation.

Une nouvelle application qui veut remplacer Google Actu s’arme d’IA pour vous résumer les articles

Vous souhaitez consulter des résumés d’articles ? C’est désormais possible avec Artifact

Créée par Kevin Systrom et Mike Kriegerpar, les têtes pensantes derrière Instagram, l’application Artifact a officiellement été lancée au mois de février 2023.

Le concept est simple : faire appel aux services de l’intelligence artificielle (tiens donc, c’est étonnant) afin de vous suggérer des news qui pourraient potentiellement vous intéresser. Mais afin de rendre leur application encore plus attrayante, les deux hommes ont annoncé hier l’arrivée d’une fonctionnalité capable de vous proposer des résumés d’articles.

Pour profiter de ces résumés générés par l’intelligence artificielle, il vous suffit d’appuyer sur « Aa », puis sur « Résumer » dans le menu supérieur de n’importe quel article. Avec un tel outil, les créateurs d’Artifact ont à cœur de donner un aperçu des points clés d’un article avant d’entamer sa lecture, et non de remplacer la lecture du texte original. Ces derniers ont par ailleurs indiqué dans un post de blog que l’IA, aussi puissante soit-elle, peut parfois faire des erreurs.

Des résumés d’articles… dans 5 styles différents ?

Avec l’intégration de cette fonctionnalité, Artifact continue de se démarquer de Google Actualités et autres service équivalents. D’ailleurs, l’application ne se contente pas de synthétiser les articles que vous lisez, elle vous offre également le choix quant au type de résumé que vous souhaitez. En cliquant sur les trois petits points situés dans le coin supérieur droit d’un résumé, vous pourrez en effet constater la présence de différents styles : un résumé composé uniquement d’émojis, un résumé sous forme de poème, ou encore dans le style de la génération Z.

Les créateurs d’Artifact ont intégré un ultime choix qui s’appelle « Expliquez comme si j’avais cinq ans ». Le nom parle relativement de lui-même, puisque cette option a pour objectif de vous proposer un résumé de l’article comme s’il était expliqué à un enfant. Si le but est avant tout de faire sourire, nos confrères de The Verge semblent tout de même avoir pris un malin plaisir à essayer les diverses possibilités. Et malgré quelques approximations, cela semble globalement plutôt bien fonctionner.

Vous trouverez plus d’informations sur : Artifact can now summarize and explain articles to you like you’re five
Publié sur The Verge par Jay Peters le 26 avril 2023

Passer à la partie suivantes de ce dossier : IA le Fun – 5