Le Royaume-Uni veut que les migrants criminels scannent leur visage jusqu’à cinq fois par jour à l’aide d’une montre

  • FrançaisFrançais



  • En bref Le ministère de l’Intérieur et le ministère de la Justice du Royaume-Uni souhaitent que les migrants condamnés au pénal scannent leur visage jusqu’à cinq fois par jour à l’aide d’une montre connectée équipée d’un logiciel de reconnaissance faciale.

    Les projets de dispositifs de numérisation du visage portés au poignet ont été discutés dans un rapport d’évaluation de l’impact sur la protection des données du ministère de l’Intérieur. Les responsables ont appelé à “une surveillance quotidienne des personnes soumises au contrôle de l’immigration”, selon The Guardian cette semaine, et ont suggéré que ces entrants au Royaume-Uni devraient porter des étiquettes de cheville ajustées ou des montres intelligentes à tout moment.

    En mai, le gouvernement britannique a attribué un contrat d’une valeur de 6 millions de livres sterling à Buddi Limited, fabricant d’un bracelet utilisé pour surveiller les personnes âgées à risque de chute. Buddi semble être chargé de développer un appareil capable de prendre des images de migrants à envoyer aux forces de l’ordre pour les scanner.

    Les données de localisation seront également retransmises. Jusqu’à cinq images seront envoyées chaque jour, permettant aux responsables de suivre les allées et venues des criminels connus. Seuls les délinquants étrangers, qui ont été reconnus coupables d’une infraction pénale, seront ciblés, affirme-t-on. Les données seront partagées avec le ministère de la Justice et le ministère de l’Intérieur, dit-on.

    “Le ministère de l’Intérieur ne sait toujours pas combien de temps les individus resteront sous surveillance”, a commenté Monish Bhatia, maître de conférences en criminologie à Birkbeck, Université de Londres.

    “Ils n’ont fourni aucune preuve pour montrer pourquoi la surveillance électronique est nécessaire ou démontré que les étiquettes permettent aux individus de mieux se conformer aux règles d’immigration. Ce dont nous avons besoin, ce sont des solutions humaines, non dégradantes et basées sur la communauté.”

    Les scientifiques de l’apprentissage automatique d’Amazon ont partagé des informations sur leur travail de développement de modèles linguistiques multilingues qui peuvent prendre des thèmes et un contexte acquis dans une langue et appliquer ces connaissances de manière générale dans une autre langue sans aucune formation supplémentaire.

    Pour cette démonstration technologique, ils ont construit un système basé sur un transformateur de 20 milliards de paramètres, baptisé Alexa Teacher Model ou AlexaTM, et l’ont alimenté avec des téraoctets de texte extraits d’Internet en arabe, anglais, français, allemand, hindi, italien, japonais. , marathi, portugais, espagnol, tamoul et télougou.

    On espère que cette recherche les aidera à ajouter des fonctionnalités à des modèles tels que ceux qui alimentent l’assistant intelligent Alexa d’Amazon, et que cette fonctionnalité sera automatiquement prise en charge dans plusieurs langues, ce qui leur fera gagner du temps et de l’énergie.

    Parlez au chatbot AI de Meta

    Meta a déployé sa dernière version de son assistant virtuel de modèle de langage basé sur l’apprentissage automatique, Blenderbot 3, et l’a mis sur Internet pour que quiconque puisse discuter avec lui.

    Traditionnellement, ce genre de chose ne s’est pas bien terminé, comme l’a montré le bot Tay de Microsoft en 2016 lorsque les trolls du Web ont trouvé la phrase correcte à utiliser pour que le logiciel reprenne et répète de nouveaux mots, tels que les sentiments nazis.

    Les gens aiment simplement jouer avec les bots pour leur faire faire des choses qui susciteront la controverse – ou peut-être même simplement utiliser le logiciel comme prévu et il déraille tout seul. Meta s’y est préparé et utilise l’expérience pour essayer des moyens de bloquer le matériel offensant.

    “Le développement de techniques d’apprentissage continu pose également des défis supplémentaires, car toutes les personnes qui utilisent des chatbots ne sont pas bien intentionnées, et certaines peuvent utiliser un langage toxique ou autrement nuisible que nous ne voulons pas que BlenderBot 3 imite”, a-t-il déclaré. “Notre nouvelle recherche tente de résoudre ces problèmes.

    Meta collectera des informations sur votre navigateur et votre appareil via des cookies si vous essayez le modèle ; vous pouvez décider si vous souhaitez que les conversations soient enregistrées par le parent Facebook. Soyez averti, cependant, Meta peut publier ce que vous tapez dans le logiciel dans un ensemble de données public.

    “Nous collectons des informations techniques sur votre navigateur ou votre appareil, y compris via l’utilisation de cookies, mais nous utilisons ces informations uniquement pour fournir l’outil et à des fins d’analyse pour voir comment les individus interagissent sur notre site Web”, a-t-il déclaré dans une FAQ.

    “Si nous publions publiquement un ensemble de données de conversations contribuées, l’ensemble de données publié publiquement n’associera pas les conversations contribuées au nom du contributeur, aux identifiants de connexion, aux données du navigateur ou de l’appareil, ou à toute autre information personnellement identifiable. Veuillez vous assurer que vous êtes d’accord avec la façon dont nous J’utiliserai la conversation comme spécifié ci-dessous avant de consentir à contribuer à la recherche.”

    Annulation des interdictions de reconnaissance faciale

    De plus en plus de villes américaines ont adopté des projets de loi permettant à la police d’utiliser un logiciel de reconnaissance faciale après l’adoption d’ordonnances précédentes limitant la technologie.

    CNN a rapporté que les autorités locales de la Nouvelle-Orléans, de la Louisiane et de l’État de Virginie font partie de celles qui ont changé d’avis sur l’interdiction de la reconnaissance faciale. Le logiciel est risqué entre les mains des forces de l’ordre, où les conséquences d’une identification erronée sont préjudiciables. La technologie peut par exemple mal identifier les personnes de couleur.

    Ces préoccupations, cependant, ne semblent pas avoir dissuadé les fonctionnaires d’utiliser de tels systèmes. Certains ont même voté pour approuver son utilisation par les services de police locaux alors qu’ils étaient auparavant contre.

    Adam Schwartz, un avocat senior de l’Electronic Frontier Foundation, a déclaré à CNN “le pendule a basculé un peu plus dans le sens de la loi et de l’ordre”.

    Scott Surovell, sénateur d’État de Virginie, a déclaré que les forces de l’ordre devraient être transparentes sur la façon dont elles utilisent la reconnaissance faciale et qu’il devrait y avoir des limites en place pour atténuer les dommages. La police peut exécuter le logiciel pour trouver de nouvelles pistes dans des affaires, par exemple, a-t-il déclaré, mais ne devrait pas être en mesure d’utiliser les données pour arrêter quelqu’un sans mener d’abord une enquête.

    “Je pense qu’il est important que le public ait confiance dans la façon dont les forces de l’ordre font leur travail, que ces technologies soient réglementées et qu’il y ait un niveau de transparence quant à leur utilisation afin que les gens puissent évaluer par eux-mêmes si c’est exact et/ou abusé”, il a dit. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.