L’IA ne peut pas être créditée en tant qu’auteur, la règle des meilleures revues académiques

  • Français


  • Science et Springer Nature, deux éditeurs de revues universitaires de premier plan, ont introduit jeudi de nouvelles règles concernant l’utilisation d’outils d’IA générative pour rédiger des articles dans leurs politiques éditoriales.

    Les politiques mises à jour s’attaquent à la montée en puissance des universitaires expérimentant le dernier produit d’OpenAI, ChatGPT. Le grand modèle de langage (LLM) peut générer des paragraphes de texte cohérents et peut être chargé d’écrire sur toutes sortes de choses, y compris la science. Les universitaires l’utilisent pour rédiger leurs propres articles de recherche, certains allant même jusqu’à créditer ChatGPT en tant qu’auteur.

    La revue Science, cependant, a averti les chercheurs que la soumission de tout manuscrit produit à l’aide de ces outils équivaut à une faute scientifique.

    “Le texte généré à partir de l’IA, de l’apprentissage automatique ou d’outils algorithmiques similaires ne peut pas être utilisé dans des articles publiés dans des revues scientifiques, et les figures, images ou graphiques qui l’accompagnent ne peuvent pas non plus être les produits de ces outils, sans l’autorisation explicite des éditeurs”, son éditorial état des politiques.

    “De plus, un programme d’IA ne peut pas être l’auteur d’un article dans une revue scientifique. Une violation de cette politique constitue une faute scientifique.”

    La revue Nature a également introduit des règles similaires et n’acceptera aucun article citant ChatGPT ou tout autre logiciel d’IA comme auteurs, mais n’a pas complètement interdit ces types d’outils.

    “Les chercheurs utilisant les outils LLM doivent documenter cette utilisation dans les sections méthodes ou remerciements. Si un article n’inclut pas ces sections, l’introduction ou une autre section appropriée peut être utilisée pour documenter l’utilisation du LLM”, a déclaré Nature.

    Le rédacteur en chef de Science, Holden Thorp, a déclaré que toutes les soumissions d’articles doivent être l’œuvre originale des auteurs et que le contenu produit par l’IA est une forme de plagiat. Les auteurs ne peuvent utiliser l’outil que s’ils l’ont entièrement divulgué et que la science l’a approuvé. Les grands modèles de langage comme ChatGPT sont formés sur d’énormes quantités de texte extraits d’Internet et peuvent régurgiter des phrases très similaires à celles de ses données de formation.

    “Pendant des années, les auteurs de la famille de revues Science ont signé une licence certifiant que” l’Œuvre est un original “. Pour les revues Science, le mot “original” suffit à signaler que le texte écrit par ChatGPT n’est pas acceptable : c’est , après tout, plagié à partir de ChatGPT. De plus, nos auteurs certifient qu’ils sont eux-mêmes responsables de la recherche dans l’article “, a déclaré Thorp.

    Bien que des outils comme ChatGPT produisent du texte sans erreurs grammaticales, ils ont tendance à se tromper sur les faits. Ils peuvent citer des études charabia contenant de faux chiffres, mais assez convaincantes pour tromper les humains. L’écriture académique est souvent étouffante et pleine de jargon que même les experts peuvent être trompés en leur faisant croire que de faux résumés écrits par ChatGPT sont réels.

    Les scientifiques peuvent être tentés de falsifier leurs résultats dans des articles et d’utiliser toutes sortes de méthodes pour essayer de faire publier leurs faux travaux. Les derniers développements de l’IA générative offrent de nouveaux moyens simples de générer du contenu factice. Thorp a averti que “beaucoup de textes générés par l’IA pourraient bientôt se retrouver dans la littérature” et a exhorté les éditeurs et les réviseurs à être vigilants quant aux signes qui suggèrent qu’un article a été écrit avec l’aide de l’IA.

    Ces éditeurs peuvent avoir du mal à s’assurer que les chercheurs respectent leurs politiques éditoriales car ils ne semblent pas avoir de moyen infaillible de détecter le texte écrit par l’IA pour l’instant. “Les éditeurs se tiennent informés du contenu généré par l’IA qu’ils pourraient s’attendre à voir dans la littérature, améliorant ainsi leur capacité à le repérer”, a déclaré un porte-parole de Science. Le registre. “Mais encore une fois, leur objectif est de s’assurer que les auteurs ne soumettent pas en premier lieu de manuscrits contenant du contenu généré par l’IA.”

    “Les éditeurs et les éditeurs peuvent-ils détecter le texte généré par les LLM ? À l’heure actuelle, la réponse est” peut-être “. La sortie brute de ChatGPT est détectable lors d’une inspection minutieuse, en particulier lorsque plus de quelques paragraphes sont impliqués et que le sujet est lié à un travail scientifique. Les LLM produisent des modèles de mots basés sur des associations statistiques dans leurs données de formation et les invites qu’ils voient, ce qui signifie que leur sortie peut sembler fade et générique, ou contenir de simples erreurs. De plus, ils ne peuvent pas encore citer de sources pour documenter leurs sorties “, a déclaré Nature. .

    L’éditeur parent de Nature, Springer Nature, développe actuellement son propre logiciel pour détecter le texte généré par l’IA. Pendant ce temps, Science a déclaré qu’il envisagerait d’utiliser un logiciel de détection construit par d’autres sociétés. “Les revues de la famille Science sont ouvertes aux outils d’essai qui améliorent notre capacité à détecter la fraude, que nous évaluons au cas par cas, et qui complètent le travail de nos éditeurs pour s’assurer que les auteurs comprennent et respectent nos directives pour publier et procéder à un examen rigoureux par les pairs en plusieurs étapes. »

    Thorp a exhorté les chercheurs à penser par eux-mêmes et à s’abstenir de s’appuyer sur la technologie.

    “À une époque où la confiance dans la science s’érode, il est important que les scientifiques s’engagent à nouveau à porter une attention particulière et méticuleuse aux détails. Le dossier scientifique est en fin de compte l’un des efforts humains[s] de se débattre avec des questions importantes. Les machines jouent un rôle important, mais en tant qu’outils pour les personnes qui posent les hypothèses, conçoivent les expériences et donnent un sens aux résultats. En fin de compte, le produit doit provenir et être exprimé par le merveilleux ordinateur dans nos têtes », a-t-il conclu. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *