Les meilleurs médecins critiquent Google pour ne pas avoir soutenu les affirmations incroyables de l’IA de détection du cancer surhumain

  • FrançaisFrançais


  • Des médecins éminents ont publiquement critiqué Google et d’autres pour avoir fait de grandes déclarations sur la recherche sur l’IA, puis pour ne pas avoir partagé le code source et les modèles pour permettre à d’autres de répliquer et de vérifier les expériences.

    En janvier, une équipe dirigée par Scott Mayer McKinney de Google Brain a publié un article dans Nature se vantant que son intelligence artificielle était meilleure que les médecins humains pour détecter le cancer du sein dans les mammographies. Les allégations ont été largement rapportées dans la presse grand public. Maintenant, les meilleurs médecins se sont plaints dans un article publié cette semaine dans Nature que les Googleurs n’ont pas étayé leurs affirmations avec des preuves utilisables.

    «Sur le papier et en théorie, l’étude de McKinney et al est magnifique», a déclaré le Dr Benjamin Haibe-Kains, chercheur principal au Princess Margaret Cancer Center du Canada et premier auteur de l’article. “Mais si nous ne pouvons pas en tirer des leçons, cela n’a que peu ou pas de valeur scientifique.”

    “Sans le code informatique et le modèle adapté, il sera très difficile de s’appuyer sur leur travail”, a déclaré Haibe-Kains Le registre.

    “Répliquer leur modèle n’est pas impossible mais cela prendra des mois sans aucune garantie que le modèle nouvellement généré sera même proche du leur même avec l’accès à toutes les données qu’ils ont utilisées pour la formation. Le diable est dans les détails.”

    Sans le code informatique et le modèle ajusté, il sera très difficile de s’appuyer sur leur travail

    Par exemple, les informations sur les hyperparamètres du système et le pipeline de formation n’ont pas été incluses dans le document. Les chercheurs devraient publier le code source pertinent afin que les allégations puissent être vérifiées et testées plus facilement, a déclaré Haibe-Kains. C’est juste une bonne science pour le faire.

    En plus de Haibe-Kains, 22 autres experts d’institutions de premier plan – dont l’Université de Toronto, la Stanford University School of Medicine, le MIT, le Brigham and Women’s Hospital et la Massive Analysis Quality Control Society, un groupe dédié à la science reproductible – ont mis leur noms à l’article. Haibe-Kains et ses collègues ont déclaré que “la publication par Google d’une recherche insuffisamment documentée ne répond pas aux exigences fondamentales qui sous-tendent la découverte scientifique”.

    «De simples descriptions textuelles de modèles d’apprentissage en profondeur peuvent masquer leur haut niveau de complexité. Les nuances dans le code informatique peuvent avoir des effets marqués sur la formation et l’évaluation des résultats, conduisant potentiellement à des conséquences inattendues. Par conséquent, la transparence sous la forme du code informatique utilisé pour entraîner un modèle et arriver à son ensemble final de paramètres est essentielle pour la reproductibilité de la recherche », ont-ils écrit.

    Il n’est pas difficile de publier le code source, comme le publier sur des sites comme GitHub, GitLab ou Bitbucket, ont-ils recommandé. Il y a maintenant un onglet pour les articles sur le service de pré-impression arXiv à leur code source associé, aussi.

    Il est vrai que le déploiement des modèles sur des systèmes réels est plus délicat, bien qu’il existe des logiciels qui peuvent faciliter ce processus, tels que Docker, Code Ocean, Gigantum et Colaboratory.

    “Il est important de préciser qu’il s’agit de recherches préliminaires”, a déclaré un porte-parole de Google Le registre. Il semble que le géant du Web ne souhaite pas que son code source soit publié tant qu’il n’a pas été soumis à un processus d’assurance qualité en raison de la nature médicale du projet: «Nous avons l’intention de soumettre notre logiciel à des tests approfondis avant son utilisation dans un environnement clinique. aux côtés des patients, des prestataires et des régulateurs pour garantir l’efficacité et la sécurité », a déclaré le porte-parole.

    Ce n’est pas seulement le géant de l’internet

    Haibe-Kains a déclaré que ce problème de code retenu n’est pas spécifique à Google; de nombreux articles scientifiques sur les utilisations de l’IA rédigés par toutes sortes d’équipes manquent de matériel pour recréer leurs expériences. «Les chercheurs sont plus incités à publier leurs résultats plutôt que de consacrer du temps et des ressources à assurer que leur étude puisse être reproduite», a-t-il déclaré.

    «Les revues sont vulnérables au« battage médiatique »de l’IA et peuvent abaisser les normes d’acceptation d’articles qui n’incluent pas tous les matériaux nécessaires pour rendre l’étude reproductible – souvent en contradiction avec leurs propres directives.»

    Retenir des détails cruciaux, tels que le code source utilisé pour créer le logiciel d’apprentissage automatique, dans la recherche nuit au progrès scientifique et empêche les algorithmes d’être testés dans le monde réel en milieu clinique.

    Ne faites pas confiance aux algorithmes d’apprentissage en profondeur pour retoucher les scans médicaux: Boffins avertit que la technologie “ hautement instable ” conduit à de mauvais diagnostics

    LIRE LA SUITE

    L’équipe McKinney a répondu, poliment, à l’article des médecins dans une réponse publiée dans Nature, remerciant les experts pour leur «contribution réfléchie».

    “Nous convenons que la transparence et la reproductibilité sont primordiales pour le progrès scientifique”, ont-ils écrit. “Nous convenons que la transparence et la reproductibilité sont primordiales pour le progrès scientifique. Conformément à ce principe, la plus grande source de données utilisée dans notre publication est à la disposition de la communauté universitaire.”

    Pourtant, ils ne publieront pas le code de leurs algorithmes et ont affirmé que la plupart des composants du modèle sont déjà ouverts au public, dont beaucoup ont été publiés par Google lui-même. Il y a aussi d’autres préoccupations.

    «Les problèmes de responsabilité liés à l’intelligence artificielle dans les soins de santé n’étant toujours pas résolus, fournir un accès illimité à ces technologies peut mettre en danger les patients, les prestataires et les développeurs», ont déclaré les Googleurs. «En outre, le développement de technologies médicales percutantes doit rester une entreprise durable pour promouvoir un écosystème dynamique qui soutient l’innovation future. Des parallèles avec les dispositifs médicaux matériels et les produits pharmaceutiques peuvent être utiles à considérer à cet égard.

    Étant donné que les problèmes de responsabilité liés à l’intelligence artificielle dans les soins de santé restent non résolus, fournir un accès illimité à ces technologies peut mettre en danger les patients, les prestataires et les développeurs.

    Haibe-Kains a dit El Reg il n’est pas surpris que Google ait décidé de ne pas publier le code, malgré de nombreux appels: “Ils ont eu l’opportunité une fois avec la publication de leur étude originale, et une seconde fois avec la publication de notre article. Ils ne l’ont pas saisi opportunités, il est donc clair qu’ils ne veulent pas partager leur code informatique. “

    Il est possible que Google retienne le code pour des raisons commerciales. En le gardant pour lui, le géant de la publicité a le dessus pour faire avancer les essais cliniques et développer un produit pouvant être vendu aux prestataires de soins de santé.

    “Il n’y a rien de mal à cela, mais cela n’a pas grand-chose à voir avec la science en soi, car aucune nouvelle connaissance en dehors de Google n’est générée et partagée pour faire avancer la recherche dans son ensemble”, nous a dit Haibe-Kain. “Il y a une possibilité plus sombre à laquelle je préfère ne pas croire: il ne veut pas que quiconque examine son code parce qu’il craint que son modèle ne soit pas stable ou qu’il puisse y avoir des biais cachés ou des facteurs de confusion qui invalideraient la prédiction du modèle.

    “Ce ne serait pas la première fois que des analyses ultérieures révèlent de telles limitations ou erreurs et c’est exactement pourquoi nous, les scientifiques, devrions toujours être transparents.” ®

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *