Comment ce docteur a écrit des dizaines d’articles scientifiques avec ChatGPT

Comment ce docteur a écrit des dizaines d’articles scientifiques avec ChatGPT

Une ampoule s’est allumée dans la tête de Som Biswas la première fois qu’il a entendu parler de ChatGPT. Radiologue au Centre des sciences de la santé de l’Université du Tennessee, Biswas est tombé sur un article sur le chatbot d’OpenAI sur le Web lors de sa sortie en novembre 2022. Alors que le monde dans son ensemble acceptait encore les implications sismiques de la technologie, Biswas s’est rendu compte il pourrait l’utiliser pour faciliter au moins une facette de sa carrière.

“Je suis un chercheur et je publie régulièrement des articles”, a déclaré Biswas au Daily Beast. “Ces deux choses sont liées dans mon cerveau : si ChatGPT peut être utilisé pour écrire des histoires et des blagues, pourquoi ne pas l’utiliser pour la recherche ou la publication d’articles sérieux ?”

Il avait besoin d’une preuve de concept, alors Biswas a demandé au bot d’écrire un article sur un sujet qu’il connaissait déjà très bien : la rédaction médicale. Après des essais et des erreurs, Biswas a pu créer un article en invitant ChatGPT section par section. Lorsqu’il eut terminé, il soumit le document à Radiologie, une revue mensuelle à comité de lecture de la Radiological Society of North America. “À la fin, j’ai dit à l’éditeur : ‘Tout ce que vous lisez a été écrit par l’IA’, ce qui les a beaucoup impressionnés”, a-t-il déclaré.

Quelques jours plus tard, l’article “ChatGPT et l’avenir de la rédaction médicale” a été publié dans Radiologie après avoir subi un examen par les pairs, selon Biswas. Après qu’il ait été en place, il sentit qu’il était sur quelque chose. ChatGPT pourrait être utilisé pour plus que simplement s’amuser avec des projets créatifs. Il pourrait en fait l’utiliser pour aider sa carrière et ses recherches.

La santé va changer. L’écriture va changer. La recherche va changer.

Som Biswas, Université du Tennessee

Ce que fait Biswas n’est pas nécessairement unique. Depuis la sortie de ChatGPT, des universitaires et des chercheurs comme Biswas utilisent de grands modèles linguistiques (LLM) comme outil pour les aider dans leur propre processus d’écriture et de recherche, et parfois, génèrent des articles à partir de tissu entier à l’aide des bots. Bien qu’ils aient été utiles de cette manière, ils ont également créé un changement radical dans la communauté scientifique qui inquiète de nombreux experts de l’érosion de la crédibilité de l’édition universitaire.

Depuis son premier article, Biswas a utilisé le chatbot d’OpenAI pour écrire au moins 16 articles en quatre mois et publié cinq articles dans quatre revues différentes. Le dernier a été publié sous forme de commentaire dans la revue Radiologie pédiatrique le 28 avril. Dans ce document, Biswas est répertorié comme l’unique auteur, avec une reconnaissance à la fin que ChatGPT a écrit l’article et qu’il l’a édité.

Cependant, du propre aveu de Biswas, les articles qu’il produit ne se limitent pas à des sujets relevant de son expertise en radiologie. En fait, il a utilisé le bot pour rédiger des articles sur le rôle de ChatGPT dans l’armée, l’éducation, l’agriculture, les médias sociaux, les assurances, le droit et la microbiologie. Il les a fait publier avec succès dans des revues spécialisées dans différentes disciplines de niche, y compris un article sur la programmation informatique dans le Journal mésopotamien d’informatique, et deux lettres à l’éditeur sur le réchauffement climatique et la santé publique dans le Annales du génie biomédical.

Il y a un an, ce type de production aurait pu sembler complètement irréaliste. Les articles prennent des dizaines, voire des centaines d’heures de recherche avant même de mettre un mot sur la page. Les chercheurs en sciences pourraient publier au maximum quelques articles par an. Et il est assez rare que quelqu’un se plonge dans l’écriture sur un sujet en dehors du travail de sa vie.

Lire aussi  Des personnalités soudanaises appellent l'Egypte à revoir les nouveaux contrôles d'entrée

Cependant, ceux qui utilisent ChatGPT pour produire des articles ont déjà battu leur production au cours des années précédentes par des ordres de grandeur – Biswas étant l’un d’entre eux. Et sa motivation va au-delà du simple fait de voir sa signature. Comme il l’a dit au Daily Beast, il veut être un évangéliste pour une technologie émergente qui, selon lui, va changer à jamais la façon dont tous les chercheurs font leur travail.

« La santé va changer. L’écriture va changer. La recherche va changer », a déclaré Biswas. “J’essaie juste de publier maintenant et de le montrer afin que les gens puissent le savoir et en explorer davantage.”

“Les gens deviennent idiots.”

La sortie de ChatGPT a suscité une vague d’inquiétudes quant à la façon dont le LLM bouleverserait des industries et des pratiques telles que la rédaction, le journalisme, les essais d’étudiants et même l’écriture de comédies. Le monde universitaire et de la littérature scientifique s’est également préparé à un bouleversement à venir, qui est sans doute beaucoup plus radical que prévu.

“Il y a eu une augmentation vraiment spectaculaire des différents articles que nous avons reçus”, a déclaré Stefan Duma, professeur d’ingénierie à Virginia Tech, au Daily Beast. Duma est le rédacteur en chef du Annales du génie biomédical . Au cours des derniers mois, il a déclaré avoir constaté une augmentation exponentielle du nombre d’articles différents soumis pour publication dans son journal, y compris les deux qu’il a publiés à partir de Biswas dans la section des lettres à l’éditeur.

“Le nombre de [letters to the editor] les soumissions sont passées de pratiquement zéro à probablement deux ou trois par semaine maintenant, donc peut-être une douzaine par mois », a-t-il déclaré. “C’est astronomiquement important, car nous ne recevons généralement qu’une ou deux lettres sur quoi que ce soit par mois. Maintenant, nous en obtenons plus de 10 à propos de ChatGPT, ce qui représente une forte augmentation. »

Les lettres à l’éditeur, a expliqué Duma, sont essentiellement la section d’opinion d’un journal. Il y a moins de restrictions sur le type d’écriture et la profondeur de la recherche nécessaire pour publier des articles ici. C’est pourquoi Duma était disposé à publier des articles de Biswas sur le réchauffement climatique et la santé publique dans la rubrique.

Cependant, il a ajouté qu’il rejetait beaucoup plus d’articles générés par ChatGPT et d’autres LLM en raison de leur faible qualité.

“Les gens deviennent idiots avec eux”, a-t-il déclaré. “Les gens m’enverront 10 exemplaires de la même lettre avec un mot changé. Nous essayons de nous assurer que certaines de ces choses sont uniques. Mais ce n’est pas un examen complet par les pairs. Les gens sont libres d’écrire ce qu’ils veulent dans ces lettres à l’éditeur. Nous en avons donc rejeté certains si cela n’ajoute rien de nouveau du tout, et c’est juste un peu répétitif.

(Journal mésopotamien d’informatique et Radiologie n’a pas répondu aux demandes de commentaires de The Daily Beast.)

Les éditeurs de revues comme Duma ne sont pas les seuls à avoir remarqué l’impact que ChatGPT a eu sur le monde académique. Le boom de l’IA a créé un paysage entièrement nouveau pour les chercheurs, et cela devient de plus en plus difficile à mesure que ces outils prolifèrent et deviennent plus sophistiqués.

Elisabeth Bik, microbiologiste et experte en intégrité scientifique, a déclaré au Daily Beast qu’elle avait deux avis sur l’utilisation des LLM dans le milieu universitaire. D’une part, elle a reconnu que cela pourrait devenir un outil inestimable pour les chercheurs dont la langue maternelle n’est pas l’anglais qui pourraient l’utiliser pour construire des phrases et des paragraphes cohérents.

D’autre part, elle a également suivi la recrudescence des chercheurs qui ont clairement abusé du chatbot pour produire des dizaines d’articles au cours des seuls derniers mois. Elle a affirmé que bon nombre de ces “auteurs” n’avaient pas non plus reconnu le fait qu’ils utilisaient ChatGPT ou d’autres modèles pour aider à générer les articles non plus.

“Au moins [Biswas] reconnaît qu’il utilise ChatGPT, vous devez donc lui donner du crédit », a déclaré Bik. “Il y en a un tas d’autres que j’ai déjà rencontrés qui ont également publié des quantités énormes et incroyables d’articles tout en ne reconnaissant pas ChatGPT. Ces gens ont juste beaucoup trop publié. Comme, ce n’est tout simplement pas possible de manière réaliste.

La raison, a expliqué Bik, est simple : “Les citations et le nombre de publications sont deux des mesures où les universitaires sont mesurés.” Plus vous en avez, plus vous semblez légitime et expérimenté aux yeux des institutions académiques et des organisations scientifiques. “Donc, si vous trouvez un moyen artificiel d’augmenter ces choses, vous avez l’impression que c’est injuste, car maintenant, il va gagner toutes les mesures de performance.”

L’utilisation accrue de ChatGPT est aussi un sombre reflet des attentes placées sur les chercheurs du monde académique. “Compte tenu de la pression vraiment écrasante pour publier, je pense que les universitaires vont commencer à s’appuyer sur ChatGPT pour automatiser certaines des parties les plus ennuyeuses de l’écriture”, a déclaré Brett Karlan, boursier postdoctoral en éthique de l’IA à l’Université de Stanford. e-mail. “Et il serait très probable que les mêmes personnes qui produisent des articles à peine publiables et les envoient à des revues prédatrices trouveront des flux de travail qui automatisent cela avec ChatGPT.”

Bik craint également que la prolifération des LLM ne fasse que renforcer les soi-disant papeteries, un terme de recherche qui décrit les organisations du marché noir qui sapent la recherche universitaire traditionnelle en produisant des articles scientifiques frauduleux qui ressemblent à de véritables recherches et en vendant la paternité d’études légitimes. Les articles scientifiques produits par les papeteries sont souvent fortement plagiés et réutilisent les données et les actifs. “Vous pouvez imaginer une personne qui est un bon rédacteur rapide qui peut simplement produire un article par minute, puis vendre des articles aux auteurs qui en ont besoin”, a déclaré Bik.

Ainsi, bien qu’il puisse fournir un outil très utile à certains universitaires comme l’espère Biswas, ChatGPT et d’autres LLM créent une sorte de tempête parfaite de facilité et d’efficacité qui pourrait permettre aux mauvais acteurs de profiter d’une industrie de l’édition universitaire qui n’est, jusqu’à présent, pas préparée pour relever ces défis.

Lire aussi  Le FBI est une «arme» politique et AG Garland est prêt à se «venger»

Un changeur de jeu académique

Les problèmes auxquels sont confrontés les universités et l’édition de recherche aujourd’hui sont exactement les mêmes que ceux auxquels de nombreuses industries comme les médias et le journalisme doivent faire face lorsqu’il s’agit de ces chatbots avancés : l’érosion de la crédibilité et le potentiel de préjudice.

Les LLM et l’IA plus largement ont une histoire longue et sordide avec des préjugés, ce qui a entraîné de nombreux cas signalés de préjudices via le racisme et le sexisme. Les chatbots comme ChatGPT ne font pas exception. Par exemple, dans les premiers jours de sa sortie, les utilisateurs signalaient des cas dans lequel le LLM d’OpenAI faisait des choses comme dire aux utilisateurs que seuls les hommes blancs font de bons scientifiques et que la vie d’un enfant ne devrait pas être sauvée s’il s’agissait d’un garçon afro-américain.

Le biais est devenu un problème permanent avec l’IA. Même si nous voyons la technologie devenir de plus en plus sophistiquée, les préjugés semblent toujours subsister. Ces bots sont formés à partir d’ensembles de données massifs dérivés d’humains – humains biaisés, racistes, sexistes, misogynes – qui peuvent apparaître dans le produit final, quel que soit le nombre de filtres et de garde-corps que les développeurs d’IA tentent de mettre en place.

Les revues académiques tentent de suivre le rythme effréné de ces technologies émergentes qui semblent évoluer et devenir plus puissantes de minute en minute. Duma a déclaré au Daily Beast que son journal Annales du génie biomédical avait récemment adopté une nouvelle politique interdisant aux LLM d’être répertoriés comme co-auteurs et interdisant la publication de ces articles en tant qu’articles de recherche réguliers.

“La paternité est très sérieuse et c’est quelque chose que nous prenons très au sérieux”, a déclaré Duma. «Ainsi, chaque fois que nous avons un article, les auteurs doivent signer qu’ils ont contribué de manière substantielle à l’article. C’est quelque chose dont ChatGPT ne peut pas faire partie. ChatGPT ne peut pas être un auteur. »

Cependant, il a reconnu que ces outils sont là pour rester. Dire le contraire ne serait pas simplement ignorant, cela pourrait même être potentiellement dangereux car cela ne permettrait pas à l’industrie de s’adapter en conséquence. “Je pense que les gens doivent mettre leur ceinture de sécurité et se préparer”, a déclaré Duma. “C’est ici et ça va faire partie de nos vies, et ça va probablement faire de plus en plus partie à mesure que nous avançons.”

Pendant ce temps, Biswas prévoit de continuer à utiliser ChatGPT pour faciliter son processus d’écriture. Il est particulièrement enthousiasmé par la sortie de la dernière version de ChatGPT et de ses nouvelles fonctionnalités, en particulier ses capacités multimodales. Il s’agit de la capacité du modèle à comprendre les images ainsi que les entrées de texte, ce qui, selon lui, représentera un autre tournant dans la relation entre l’IA et les chercheurs.

“L’image au texte change la donne, en particulier pour la radiologie, car les images sont ce que nous faisons”, a déclaré Biswas. “Si cela doit nous aider, alors je pense que je vais publier d’autres articles qui l’explorent, car si je ne le fais pas, quelqu’un d’autre le fera.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick