Nous avons utilisé l’IA pour écrire sur CNET Rédaction d’articles avec l’IA

Nous avons utilisé l’IA pour écrire sur CNET Rédaction d’articles avec l’IA

Il a été découvert que le média CNET utilisait l’intelligence artificielle (IA) pour écrire des articles sur les finances personnelles sans aucune annonce ni explication préalable. Les articles, qui étaient au nombre de 73, couvraient des sujets tels que “Qu’est-ce que Zelle et comment ça marche?” et avait un petit avertissement au bas de chaque lecture, “Cet article a été généré à l’aide de la technologie d’automatisation et soigneusement édité et vérifié par un éditeur de notre équipe éditoriale.” Les bylines sur ces articles lisent “CNET Money Staff” sans aucune indication qu’ils ont été générés par AI.

L’utilisation de l’IA pour écrire ces articles a été mise en lumière pour la première fois par un utilisateur de Twitter, et une enquête plus approfondie a révélé que les articles ont été générés à l’aide de l’IA depuis novembre 2022. L’étendue et la forme spécifique de l’IA utilisée par CNET ne sont pas actuellement connues sous le nom de l’entreprise n’a pas répondu aux questions sur son utilisation de l’intelligence artificielle.

L’utilisation de l’IA dans le journalisme soulève des questions sur la transparence et l’éthique d’une telle pratique ainsi que sur l’impact potentiel sur l’authenticité et l’exactitude des informations. En outre, cela soulève également des inquiétudes quant aux implications que cela pourrait avoir sur les recherches SEO et Google. L’absence de réponse de CNET concernant leur utilisation de l’IA dans la rédaction d’articles n’a fait qu’ajouter aux préoccupations et a déclenché une conversation plus large sur l’avenir du journalisme et le rôle de l’IA dans celui-ci.

Lire aussi  Photos : la mission Lucy de la NASA découvre que l'astéroïde Dinkinesh a une lune

Remarque : cet article a été entièrement rédigé par ChatGPT et révisé par un éditeur humain. (En fait, nous avons dû réécrire l’invite plusieurs fois pour qu’elle cesse d’insérer des erreurs factuelles.)

Related News

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick