Le Royaume-Uni demande une loi légère sur l’IA alors que l’industrie demande un délai d’attente

  • Français


  • Le Royaume-Uni a proposé une approche légère pour réglementer l’IA, coïncidant avec les premiers rapports d’un suicide qui aurait suivi une conversation intensive d’une semaine avec un chatbot.

    Le Département des sciences, de l’innovation et de la technologie a lancé une consultation sur un livre blanc en vue de l’élaboration d’une législation traitant des risques inhérents au déploiement de l’IA dans la société.

    Dans l’avant-propos de “Une approche pro-innovation de la réglementation de l’IA”, la ministre des Sciences, de l’Innovation et de la Technologie, Michelle Donelan, a déclaré que les risques associés à l’IA pourraient “inclure n’importe quoi, des dommages physiques, une atteinte à la sécurité nationale, ainsi que des risques pour la santé mentale. .”

    Cependant, le gouvernement britannique a rejeté l’approche basée sur les risques adoptée par l’UE, préconisant à la place un cadre conçu pour “garantir que les mesures réglementaires sont proportionnées au contexte et aux résultats”.

    Donelan a déclaré : « Une approche lourde et rigide peut étouffer l’innovation et ralentir l’adoption de l’IA. C’est pourquoi nous avons défini un cadre réglementaire proportionné et favorable à l’innovation. Plutôt que de cibler des technologies spécifiques, il se concentre sur le contexte dans lequel l’IA est déployée. Cela nous permet d’adopter une approche équilibrée pour peser les avantages par rapport aux risques potentiels. »

    La position politique du gouvernement britannique est empilée contre l’inquiétude croissante que les développements dans les grands modèles de langage tels que GPT-4 dépassent toute compréhension des risques.

    Des centaines d’informaticiens, de leaders de l’industrie et d’experts en IA ont signé une lettre ouverte appelant à une pause d’au moins six mois dans la formation de systèmes d’IA plus puissants que GPT-4.

    Les signataires incluent le co-fondateur d’Apple Steve Wozniak, le PDG de SpaceX, Tesla et Twitter Elon Musk, le chercheur et professeur émérite en IA de l’Université de New York Gary Marcus et Grady Booch, pionnier de l’informatique IEEE et IBM Fellow.

    “Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants”, indique la lettre.

    “Si une telle pause ne peut pas être promulguée rapidement, les gouvernements devraient intervenir et instituer un moratoire”, ont déclaré les signataires.

    D’autres, cependant, n’ont pas tardé à souligner que le cheval LLM s’était peut-être déjà boulonné.

    Néanmoins, un rappel sobre de ce qui pourrait être en jeu dans la réglementation de l’IA est venu avec des nouvelles de Belgique selon lesquelles un homme s’était suicidé, apparemment après plusieurs semaines de conversation avec un chatbot en ligne basé sur le modèle de langage open source GPT-J. Le secrétaire numérique belge a déclaré hier, après s’être entretenu avec la famille, que la situation était “un grave précédent qui doit être pris très au sérieux”.

    Aux États-Unis, la National AI Initiative Act de 2020 est entrée en vigueur le 1er janvier 2021. Elle est conçue pour fournir “un programme coordonné dans l’ensemble du gouvernement fédéral pour accélérer la recherche et l’application de l’IA pour la prospérité économique et la sécurité nationale de la nation”. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *