Des œufs de vache ? L’IA Lucie éteinte après un déluge de moqueries sur les réseaux sociaux

paultensor
Lecture en 2 min
À propos des liens affiliés : Sur ce site, certains liens sont affiliés. Cela signifie que si vous cliquez et effectuez un achat, je peux recevoir une petite commission, sans frais supplémentaires pour vous. Je m’engage à recommander uniquement des produits et services que j’ai testés ou qui reflètent des standards de qualité élevés. Ces contributions me permettent de maintenir ce site et de continuer à partager du contenu qui vous est utile. Merci pour votre confiance et votre soutien !

Un petit coucou et un grand au revoir. Le chatbot français Lucie a fait l’objet de telles moqueries sur les réseaux sociaux que son éditeur a décidé de le fermer. Mais pourquoi avoir lancé Lucie alors qu’elle n’est visiblement pas au point ?

Elle s’appelle Lucie, c’est une IA Made in France, mais elle n’a pas l’airair très maligne. L’IA a du mal à compter, elle affirme que les œufs de vachevache existent et les captures d’écran illustrant ses réponses fantaisistes ou erronées pullulent désormais sur les réseaux sociauxréseaux sociaux.

Tout juste lancé, le chatbot a fait l’objet d’une telle avalancheavalanche de moqueries que Lucie vient d’être fermée par son éditeur. Objectivement, il est clair qu’elle ne brille vraiment pas par ses performances. Cela surprend quand on connaît la puissance du chatbot de l’IA française Mistral, qui n’a pas grand-chose à envier à ses concurrents américains. Le problème, c’est que Lucie est issue d’un plan d’investissement public misant sur la compétitivité française. L’IA est pilotée par l’entreprise Linagora et le CNRS et c’est justement ce qui enfonce un peu plus le clou de l’impact des moqueries dont elle fait l’objet.

Un malentendu ?

Pourtant, sur le papier, le projet se veut vertueux. Il a été développé avec la communauté OpenLLM-France et son enjeu repose sur une transparencetransparence totale, notamment sur les sources employées pour l’entraînement de l’IA. Une ouverture qui permet de mieux comprendre les mécanismes de l’intelligence artificielle, ses contraintes de modération… Autrement dit, il s’agit d’un outil à vocation pédagogique.

Pour sa défense, Linagora explique que le chatbot n’est pas une IA finalisée ni un démonstrateurdémonstrateur, mais un projet en cours de développement. Cette excuse n’excuse pas le fait d’avoir proposé au public ce chatbot bancal. Une mauvaise idée, dont les conséquences étaient prévisibles. À moins, bien sûr, que les développeurs aient demandé à Lucie si elle se sentait prête à affronter le public… En tout cas, depuis samedi, Lucie a été éteinte. S’il l’objectif était de faire parler du projet, c’est réussi, mais peut-être pas comme Linagora et le CNRS l’espéraient.

Partager cet article