C’est bizarre, nous sommes à un point où des rapports sont écrits sur la façon dont les droits de l’homme l’emportent sur les droits de l’IA

  • Français


  • La protection des droits de l’homme doit être au centre de toute décision de mise en œuvre de systèmes basés sur l’IA, qu’ils soient utilisés comme outils d’entreprise tels que le recrutement ou dans des domaines tels que l’application de la loi.

    Et à moins que des garanties suffisantes ne soient en place pour protéger les droits humains, il devrait y avoir un moratoire sur la vente de systèmes d’IA et ceux qui ne respectent pas les lois internationales sur les droits humains devraient être interdits.

    Ce ne sont là que quelques-unes des conclusions du Conseil des droits de l’homme (CDH) basé à Genève dans un rapport pour la Haut-Commissaire des Nations Unies aux droits de l’homme, Michelle Bachelet.

    “Le droit à la vie privée à l’ère numérique” [download] examine de près la manière dont l’IA, y compris le profilage, la prise de décision automatisée et d’autres technologies d’apprentissage automatique, affecte les droits des personnes.

    Bien que le rapport reconnaisse que l’IA « peut être une force pour le bien », il met également en évidence de sérieuses inquiétudes concernant la manière dont les données sont stockées, à quoi elles servent et comment elles pourraient être utilisées à mauvais escient.

    “Les technologies de l’IA peuvent avoir des effets négatifs, voire catastrophiques, si elles sont utilisées sans tenir suffisamment compte de la manière dont elles affectent les droits humains des personnes”, a déclaré Bachelet dans un communiqué.

    “Compte tenu de la croissance rapide et continue de l’IA, combler l’immense écart de responsabilité dans la manière dont les données sont collectées, stockées, partagées et utilisées est l’une des questions les plus urgentes en matière de droits humains auxquelles nous sommes confrontés.”

    Le rapport critique la façon dont les gouvernements et les entreprises se sont “souvent précipités pour intégrer des applications d’IA, sans faire preuve de diligence raisonnable”, citant “de nombreux cas de personnes traitées injustement à cause de l’IA”, notamment d’être arrêtées en raison d’une “reconnaissance faciale défectueuse”. “

    En juillet, le House Committee on the Judiciary des États-Unis a appris comment la technologie de reconnaissance faciale (FRT) est utilisée par les organismes chargés de l’application des lois aux États-Unis. L’audience a fait appel à des témoignages de tous les côtés du débat alors que les législateurs cherchent à équilibrer les avantages du FRT avec des questions telles que le droit à la vie privée et à l’identification injustifiée.

    Mais c’est le témoignage personnel de Robert Williams – qui a été mal identifié, arrêté et détenu à cause d’une « image floue et obscure » – qui a mis le débat au centre du débat.

    En effet, la question de savoir comment l’IA est utilisée dans l’application des lois et le système de justice pénale a également occupé la commission de la justice et des affaires intérieures de la Chambre des Lords au Royaume-Uni au cours de l’été.

    Plus récemment, la professeure Elizabeth E Joh, de la faculté de droit de l’UC Davis, a déclaré au comité que certains outils de police prédictifs suscitaient des inquiétudes.

    Dans certains cas, a expliqué Joh, il y a eu des appels pour que des technologies telles que la reconnaissance faciale soient interdites, mais que les tentatives pour le faire ont été “au coup par coup” et non à l’échelle nationale. Et en ce qui concerne certains outils de police prédictifs, elle a suggéré qu’ils “peuvent ne pas être aussi fiables ou aussi efficaces que promis”.

    C’est un point repris par le rapport du HRC, qui a signalé que certains outils prédictifs « comportent un risque inhérent de perpétuer ou même d’accroître la discrimination, reflétant des préjugés raciaux et ethniques historiques intégrés dans les ensembles de données utilisés, comme une focalisation disproportionnée de la police de certains minorités.”

    Le rapport recommande que les droits de l’homme soient au centre du “développement, de l’utilisation et de la gouvernance de l’IA en tant qu’objectif central”.

    Il appelle également à interdire « les applications d’IA qui ne peuvent pas être exploitées conformément au droit international des droits de l’homme et à imposer des moratoires sur la vente et l’utilisation de systèmes d’IA qui comportent un risque élevé pour la jouissance des droits de l’homme, à moins que et jusqu’à ce que des garanties adéquates pour protéger les droits de l’homme sont en place.

    Bachelet a déclaré: “Nous ne pouvons pas nous permettre de continuer à rattraper le retard concernant l’IA – en autorisant son utilisation avec des limites ou une surveillance limitées ou inexistantes, et en traitant les conséquences presque inévitables sur les droits de l’homme après coup. Des mesures sont nécessaires maintenant pour mettre des garde-fous en matière de droits de l’homme. l’utilisation de l’IA, pour le bien de tous.”

    Invité à commenter le rapport du HRC, le ministère de l’Intérieur britannique a refusé de s’inspirer des détails mais a plutôt insisté sur le fait que, lorsqu’il s’agit de problèmes tels que la reconnaissance faciale, la politique est libre de changer et qu’il tient à assurer une « approche cohérente est prise à l’échelle nationale.”

    Il a souligné la décision de la Cour d’appel de l’année dernière, qui a conclu que la police du sud du Pays de Galles avait enfreint la loi en déployant sans discernement sa technologie de reconnaissance faciale automatisée dans le centre-ville de Cardiff entre décembre 2017 et mars 2018.

    En conséquence, le ministère de l’Intérieur met à jour son code de caméra de surveillance pour refléter le jugement avant de faire l’objet d’un examen parlementaire.

    Un porte-parole du ministère de l’Intérieur nous a dit : « Ce gouvernement respecte un engagement manifeste pour permettre à la police d’utiliser de nouvelles technologies, comme la reconnaissance faciale pour aider à identifier et à trouver des suspects, afin de protéger le public.

    « Il existe un cadre juridique solide pour l’utilisation de cette technologie, conformément à la décision de la Cour d’appel de l’année dernière.

    Personne de la commission de la justice et des affaires intérieures de la Chambre des Lords n’était disponible pour commenter au moment de la rédaction. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *