Société

IA : attention à ne pas tomber dans le "botshit"

Rêvons un peu. Considérons que l'agent conversationnel de votre compagnie de trains préférée vous garantit un remboursement intégral de votre billet sur des trajets retardés de plus de 30 minutes. Si tel était le cas, vous prendriez le risque de voyager avec un retard conséquent sans vous soucier du prix du billet (généralement plus équivalent à une nuit d'hôtel sur la Riviera qu'à un séjour en camping). Or, en France, le prix du billet de train n'est remboursé intégralement qu'en cas de trajet annulé. Le bot vous a raconté n'importe quoi : il souffre d'hallucinations informatives. Si vous y avez cru, on dira que vous avez été victime de "botshit". Ce terme, qui combine les mots "bot" et "shit" (respectivement "robot" et "merde" en anglais), souligne le caractère particulièrement nuisible du phénomène qui consiste à utiliser les yeux fermés le contenu produit par une intelligence artificielle générative pas toujours fiable.

Sources troubles

Peu de temps après le lancement d'IA Overview, la fonctionnalité dopée à l'intelligence artificielle de Google, la firme américaine a été contrainte de prendre des mesures pour corriger son outil. Les réponses proposées aux requêtes des internautes étaient en effet... extravagantes. L'IA a par exemple répondu qu'il était recommandé de manger "au moins un petit caillou par jour", car ils sont riches en minéraux et vitamines. Ou encore, qu'il suffisait d'"ajouter environ 25 ml de colle non-toxique" à notre sauce si nous souhaitions faire adhérer le fromage à notre pizza.

Selon le média The Verge, "la porte-parole de Google, Meghann Farnsworth, a déclaré que les erreurs provenaient de requêtes généralement très rares et ne sont pas représentatives des expériences de la plupart des gens. La société a pris des mesures contre les violations de ses politiques, a-t-elle déclaré, et utilise ces exemples isolés pour continuer à affiner le produit."

@lehuffpostfr Pourquoi l'IA de Google vous conseille de mettre de la colle sur votre pizza #sinformersurtiktok #google #pizza #reddit ♬ son original - Le Huffpost

Si l'IA déraille, c'est qu'elle ne fait pas le tri dans son assiette. Pour rappel, elle se nourrit de quantité de données trouvées sur le web, y compris sur des forums de discussions comme Reddit ou sur des sites parodiques. Il n'est pas exclu que la réponse de votre chatbot préféré tire ses sources d'un média humoristique comme Le Gorafi. Les blagues sont ainsi placées au même niveau d'importance que les informations issues du journal Le Figaro. Et quand ChatGPT sèche, il va même jusqu'à inventer des faits. On dit qu'il hallucine. Alors, quand ces données trompeuses ou incorrectes sont utilisées au premier degré, les conséquences dans le vrai monde peuvent être désastreuses. En juin 2023, deux avocats américains ont été condamnés à une amende de 5000 dollars après avoir avoué qu'ils avaient utilisé ChatGPT pour rédiger un dossier judiciaire. L'IA avait joint de fausses citations pour des cas qui n'avaient jamais existé.

Stagiaire sous stéroïdes

Pour éviter les écueils du botshit, gardons en tête l'excellente comparaison que Julien Rio du Journal du Net fait entre les chatbots et des "stagiaires boostés aux stéroïdes". "Ils sont capables de récupérer et d'automatiser toutes les tâches simples et répétitives à une vitesse incroyable, écrit-il mais ils ne possèdent pas encore l'expertise et le jugement d'un employé senior. Comme tout stagiaire, ils sont encore en phase d'apprentissage et nécessitent une supervision et une vérification de leur travail. Il est donc crucial de repasser derrière eux pour s'assurer que les tâches sont exécutées correctement et que les informations fournies sont exactes."

Copilot, le nouveau stagiaire ?

Synthétiser une réunion de 1h54 ? Réaliser une présentation béton sur PowerPoint ? Créer des formules sur Excel ? Ces missions ne seront désormais plus un fardeau avec l'IA de Microsoft.

Aujourd'hui, un botshit peut être tellement sophistiqué qu'il est difficilement repérable. Néanmoins, un manque évident de personnalité dans le texte et une publication à des rythmes effrénés ou à des heures étonnantes, comme en pleine nuit, peut alerter. En début d'année, une étude consacrée au phénomène a même été dévoilée, "Attention aux botshit : Comment gérer les risques épistémiques des Chatbots génératifs" soulignant qu'un botshit réussi pouvait bel et bien provoquer des hallucinations chez les humains au point d'agir sur son comportement.

publié le 17 juillet à 11h30,

Liens commerciaux