Le conte de fées britannique sur l’IA décrit sa feuille de route en briques jaunes

  • FrançaisFrançais


  • Le Conseil britannique de l’IA n’aurait pas pu choisir une pire semaine pour lancer sa feuille de route. Alors que les médias du monde étaient naturellement obsédés par la saison panto-insurrectionnelle américaine, qui soulignerait sa tentative de mettre cette nation insulaire, nouvellement libérée de l’UE, sur la voie d’une augmentation de 10% du PIB grâce à l’IA d’ici 2030?

    Les observateurs ont peut-être soulevé quelques signaux d’alarme lorsqu’ils ont regardé qui est derrière le corps, chargé de fournir une contribution indépendante à la stratégie britannique en matière d’intelligence artificielle, qui devrait provenir de l’Office for Artificial Intelligence (une unité conjointe du Department for Business, Energy et Stratégie industrielle et Département du numérique, de la culture, des médias et du sport).

    La société d’IA Faculty, une sorte de bête noire avec les médias de gauche, a collé ses doigts dans le gâteau du Conseil de l’IA, qui a produit la feuille de route de l’IA [PDF].

    La société était un fournisseur de la campagne Vote Leave lors du référendum de 2016 décidant du départ du Royaume-Uni de l’UE. En tant que tel, il a été impliqué dans des accusations sur l’utilisation de données Facebook et le scandale Cambridge Analytica, bien qu’il ait déclaré n’avoir jamais “travaillé de manière formelle ou informelle avec Cambridge Analytica” et a nié que son travail ait jamais impliqué l’utilisation de “données Facebook privées ou plus – appelé “micro-ciblage”. “

    Toute inquiétude concernant la participation de la Faculté peut être due à des types de médias paranoïaques mécontents d’une décision démocratique avec laquelle ils n’étaient pas d’accord.

    Néanmoins, la feuille de route de l’IA parle de la nécessité de «garantir la confiance du public grâce à un examen public».

    “Le Royaume-Uni doit être le chef de file pour trouver des moyens de permettre l’examen et la contribution du public à la prise de décision automatisée et contribuer à garantir que le public puisse faire confiance à l’IA”, a-t-il déclaré.

    Loin de montrer la voie, il a fallu une campagne légale pour empêcher toute ouverture du gouvernement en détaillant le fonctionnement du NHS avec Amazon, Microsoft, Google, la faculté et Palantir, la société américaine controversée d’IA a attribué un contrat de données NHS sans enquête.

    Pendant ce temps, il y a eu un manque flagrant d’ouverture sur les raisons pour lesquelles Dominic Cummings, ancien conseiller en chef du Premier ministre britannique, a versé plus d’un quart de million de livres à la faculté sur deux ans, selon les rapports.

    Mais pourquoi pas la faculté? Elle a fait ses preuves dans son domaine et est l’une des principales sociétés britanniques d’IA. Il en va de même pour Onfido, la startup avec plus de 180 millions de dollars de financement axé sur la prévention de la fraude, et Graphcore, le concepteur de puces IA basé à Bristol qui a levé 222 millions de dollars pour le valoriser à 2,5 milliards de dollars au cours de la période de Noël. Ils sont peut-être trop occupés à réussir pour faire partie du Conseil AI.

    Quoi qu’il en soit, revenons à la feuille de route britannique sur l’IA. Il a déclaré que “les prochains mois et années seront cruciaux pour déterminer où le Royaume-Uni place son niveau d’ambition souhaité dans l’IA”.

    Une course mondiale aux armements est en cours. L’Allemagne a engagé 3,1 milliards d’euros dans sa stratégie d’IA, la France a déboursé 1,5 milliard d’euros jusqu’en 2022 et 1 milliard de dollars américains, explique le document.

    “L’IA est une capacité souveraine qui sous-tend la prospérité, la sécurité, la résilience, la diversité et la durabilité du Royaume-Uni”, m’a dit Professeur David Lane, directeur fondateur du Edinburgh Centre for Robotics et membre du Conseil AI.

    Pour relever le défi, la feuille de route énonce 16 recommandations assez prosaïques pour une stratégie britannique en matière d’IA, qui couvrent la recherche, les compétences, l’infrastructure de données et la confiance, ainsi que l’adoption intersectorielle.

    Puisque nous sommes au milieu d’une pandémie qui change le monde, la feuille de route indique que le gouvernement devrait «s’appuyer sur le travail de [NHS tech body] NHSX et d’autres pour montrer la voie en utilisant l’IA pour améliorer les résultats et créer de la valeur dans les soins de santé. L’avantage comparatif du Royaume-Uni dépendra de stratégies intelligentes de partage de données, de nouveaux modèles de partenariat avec les PME et de renforcement des compétences. “

    Valeur pour qui? certains pourraient demander. Et ils ont déjà demandé.

    En 2017, le bureau du commissaire à l’information a constaté que le Royal Free Hospital de Londres n’avait pas respecté la loi sur la protection des données en partageant les données des patients avec DeepMind, une filiale de Google impliquée par ailleurs également avec le AI Council.

    L’immunologiste canadien Sir John Bell, alors président du Bureau de coordination stratégique de la recherche en santé, a décrit le cas comme le «canari dans la mine de charbon». “J’ai entendu cette histoire et je me suis dit:” Attends une minute, qui va en profiter? “, Dit-il.

    Dans tous les cas, toute étape pratique guidant l’IA dans le domaine de la santé devra attendre la stratégie nationale de données sur la santé et la protection sociale, qui n’est pas encore sortie.

    Sam Smith, coordinateur du groupe de campagne medConfidential, a déclaré: “Les stratégies soi-disant ‘intelligentes’ pour l’IA sont loin d’être disponibles dans le domaine des soins de santé, mais cela n’empêchera pas les VC et les ‘innovateurs’ du Conseil de l’IA de suggérer que l’argent s’éloigne. des choses qui fonctionnent pour leurs projets familiers qui ne fonctionnent pas.

    Alors que des entreprises du secteur privé telles que DeepMind, MasterCard et Faculty de Google sont représentées au Conseil de l’IA, les universités et le Center for Data Ethics and Innovation, un organisme gouvernemental, le sont également.

    Mais les travaux sur l’IA en médecine sont déjà venus d’ailleurs. L’Academy of Medical Royal Colleges, par exemple, a publié son rapport «Intelligence artificielle dans les soins de santé», mais il ne prend pas en compte la feuille de route de l’IA ou le Conseil de l’IA.

    Cela devrait parce que le rapport contient un avertissement. «La ‘licence sociale’ dont jouit jusqu’à présent l’IA est un bien précieux. La controverse historique sur les aliments génétiquement modifiés démontre peut-être les conséquences lorsque la confiance entre la science et le grand public s’effondre. Elle devrait également servir d’avertissement aux développeurs d’IA: ne doit pas prendre pour acquis l’acceptation et la confiance du public ” [PDF].

    Le point a été souligné par un cas de 2020 impliquant le fournisseur de chatbot Babylon Health, qui a qualifié le Dr David Watkins, oncologue médical consultant du Royal Marsden NHS, un «troll» pour avoir signalé les lacunes de son système. Babylon Health aurait depuis amélioré ses systèmes.

    Pendant ce temps, les professionnels de la santé britanniques transpirent des seaux derrière les EPI, risquant littéralement leur vie face à une pandémie. Ce sont les personnes clés de l’adoption de l’IA sur le terrain, mais il est peu probable qu’elles se soucient du point de vue d’un conseil de l’IA dans lequel elles sont sous-représentées.

    La composition du conseil devrait éveiller le soupçon qu’il sera utilisé pour justifier tout ce que le gouvernement veut faire tout en faisant peu pour assurer la confiance du public ou des professionnels. Le risque est que sa feuille de route ne mène nulle part. ®

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *