Quand l’IA fait inventer des livres et des experts à des journalistes américains

feature-image

Play all audios:

Loading...

QUAND L’IA FAIT INVENTER DES LIVRES ET DES EXPERTS À DES JOURNALISTES AMÉRICAINS


Ils auraient, sans nul doute, préféré que l'information passe sous les radars. Le _Chicago Sun-Times _et le _Philadelphia Inquirer _sont au cœur d'une intense polémique après une


gaffe liée à l'intelligence artificielle. En effet, les deux journaux américains ont publié du contenu généré par IA rempli de citations non identifiables de faux experts, avec


également des titres d'ouvrages imaginaires.


Recevez l’information analysée et décryptée par la rédaction du Point.


Merci ! Votre inscription a bien été prise en compte avec l'adresse email :


Pour découvrir toutes nos autres newsletters, rendez-vous ici : MonCompte


En vous inscrivant, vous acceptez les conditions générales d’utilisations et notre politique de confidentialité.


Selon plusieurs médias américains, dont _The Atlantic_, ces erreurs ont été retrouvées dans Heat Index, un guide d'été de plus de 50 pages inséré comme un magazine indépendant dans le


_Sun-Times_. Il conseille notamment aux lecteurs des randonnées ou des activités gustatives. Mais des détails ont attiré leur attention : dans une rubrique « Liste de lecture estivale pour


2025 », l'ouvrage _Nightshade Market _est attribué à Min Jin Lee, _The Last Algorithm _à Andy Weir. Mais ces auteurs n'ont jamais écrit ces livres. Des titres ont même été


inventés.


À LIRE AUSSI COMMENT LES GÉANTS DU NUMÉRIQUE RENDENT NOS ADOS ACCROS À LEUR PORTABLESi ce Heat Index n'est pas signé, l'auteur a été retrouvé. Il s'agit d'un pigiste,


Marco Buscaglia. Contacté par _The Atlantic_, il a admis avoir demandé à ChatGPT de l'aider à formuler des recommandations de livres. Mais ce n'est pas la seule erreur due à


l'intelligence artificielle qui a été retrouvée dans ces journaux.


Dans un article sur « l'éthique de l'accrochage du hamac » est cité un certain Mark Ellison, « coordinateur de la gestion des ressources pour le parc national des Great Smoky


Mountains ». Problème : ce Mark Ellison existe bien, travaille bien dans la région des Great Smoky Moutains, mais pas pour le parc national. La confusion serait venue d'un article


qu'il aurait écrit pour l'office de tourisme de Caroline du Nord qui aurait induit en erreur le chatbot.


Un autre article de « Heat Index » cite une « Dr Catherine Furst », soi-disant anthropologue de l'alimentation à l'université Cornell, qui, selon un porte-parole de


l'établissement, n'y travaille pas. Au-delà de telles bourdes, une question se pose : comment le contenu n'a-t-il pas été vérifié, en aval, par les rédactions, « Il


s'agit d'un contenu sous licence qui n'a pas été créé ni approuvé par la rédaction du _Sun-Times_, mais il est inacceptable que tout contenu que nous fournissons à nos


lecteurs soit inexact », a défendu Victor Lim, porte-parole du _Sun-Times_. À LIRE AUSSI L'INDUSTRIE MUSICALE SONNE L'ALARME FACE AU SÉISME DE L'IA « Ça devrait être une leçon


pour toutes les organisations journalistiques : notre travail est valorisé – et précieux – par l'humanité qui le sous-tend », a encore expliqué le journal dans une plus longue


déclaration sur son site. « Il est inacceptable que ce contenu soit inexact et il est tout aussi inacceptable que nous n'ayons pas clairement indiqué à nos lecteurs que cet article a


été produit en dehors de la rédaction du _Sun-Times_. »


À Découvrir LE KANGOUROU DU JOUR Répondre Le média a promis de rendre à l'avenir tout contenu éditorial conforme à ses normes journalistiques en identifiant clairement le contenu


éditorial sous licence de tiers et en assurant la transparence quant à son origine. Lisa Hughes, éditrice et PDG du _Philadelphia Inquirer_, a déclaré que la section spéciale avait été


supprimée de l'édition électronique après la découverte.


À LIRE AUSSI « DÉJÀ, NOTRE RELATION S'EN RESSENT » : L'IA PEUT-ELLE NOUS AIDER À RÉGLER NOS PROBLÈMES DE COUPLE ? « Utiliser l'intelligence artificielle pour produire du


contenu, comme cela a apparemment été le cas pour certains éléments du Heat Index, constitue une violation de nos propres politiques internes et une grave infraction », a-t-elle déclaré au


_Washington Post_. « Je suis très responsable. Je vérifie les choses, mais là, je suis complètement passé à côté », a admis Marco Buscaglia. Une bourde, à l'heure de l'avènement de


l'IA, qui a de quoi inquiéter.