Couvrir la pizza de colle – L'IA de Google hallucine

La recherche hallucine, le réseau rit
L'IA de Google fait d'Obama un président musulman

Veuillez fixer le fromage sur la pizza avec de la colle, mais uniquement avec de la colle non toxique. Et les États-Unis avaient déjà un président musulman. Google commet des erreurs de ce type dans ses nouveaux aperçus de l'IA aux États-Unis. Le logiciel ne semble pas connaître de différence cruciale.

Depuis que Google a ajouté les aperçus de l'IA à son moteur de recherche aux États-Unis, des erreurs embarrassantes, voire inquiétantes, dans le logiciel circulent sur Internet. Un utilisateur a publié la recommandation de fixer le fromage sur une pizza avec une colle non toxique. Dans d'autres, le moteur de recherche a affirmé dans les réponses de l'IA, selon des captures d'écran, que les chiens jouaient dans la ligue de basket-ball NBA et la ligue de football NFL et que Barack Obama était le premier président musulman des États-Unis.

Les résumés créés grâce à l'intelligence artificielle – appelés « AI Overviews » aux États-Unis – visent à donner plus rapidement aux utilisateurs une réponse directe à leurs questions, au lieu de leur présenter une liste de liens Web. Plusieurs startups souhaitent utiliser les réponses de l'IA pour contester la domination de Google dans la recherche sur le Web. Mais la société Internet suit également elle-même cette voie. Des réponses courtes aux questions factuelles sont disponibles depuis longtemps dans le moteur de recherche via les liens. Certains d’entre eux sont désormais des textes comportant plusieurs paragraphes.

Cette fonction sera également introduite dans d'autres pays d'ici la fin de l'année. De nombreux propriétaires de sites Web et médias craignent que les résumés de l'IA de Google n'attirent moins de personnes vers eux et que leur entreprise en souffre. Google rétorque qu'il y a encore plus de trafic de données vers les sources d'informations qui aboutissent dans les aperçus. Comment se portent les autres reste incertain.

Soldats et colons nazis non blancs

Cependant, l'introduction généralisée de la fonction a révélé un problème complètement différent : dans de nombreux cas, le logiciel d'IA ne semble pas être capable de distinguer les informations sérieuses des blagues ou de la satire. Les sources de certaines affirmations particulièrement stupides étaient des publications humoristiques sur des plateformes en ligne ou des articles du site satirique « The Onion », comme l'affirmation selon laquelle les géologues recommandent de manger une petite pierre par jour.

Une porte-parole de Google a déclaré au blog technologique The Verge que les erreurs étaient « généralement dues à des requêtes très inhabituelles et ne correspondent pas à ce que la plupart des gens vivent ». Ces « exemples isolés » seraient utilisés pour améliorer le produit.

Google a dû subir des moqueries en ligne en février à cause d'un programme d'IA. Le logiciel Gemini a généré des images de soldats nazis non blancs et de colons américains non blancs. Google a expliqué qu'il n'avait pas programmé d'exceptions pour les cas où la diversité n'était définitivement pas à sa place. Après cela, la société Gemini a cessé pour le moment de générer des images de personnes.