Voir un chien robot se taguer avec des agents du NYPD après une arrestation étourdit les New-Yorkais

  • FrançaisFrançais


  • En bref Les spectateurs à New York ont ​​été stupéfaits cette semaine lorsque des flics ont quitté un complexe de logements sociaux avec un homme menotté et un chien robot des forces de l’ordre trottant après eux.

    La machine à quatre pattes – illustrée ci-dessous – a été construite par Boston Dynamics et a été envoyée sur les scènes de crime de la métropole américaine depuis octobre, selon Gothamist.

    La police a déclaré avoir apporté le robot doggo à l’incident domestique bien qu’il n’ait pas été utilisé. L’homme a été menotté pour possession d’armes, a-t-on rapporté. On ne sait pas comment les dispositifs canins de Boston Dynamics peuvent réellement aider les services de police et ce que le NYPD a en tête pour eux, bien que nous puissions les imaginer être envoyés dans une pièce ou un bâtiment avec des caméras attachées pour détecter une situation avant que les agents ne pénètrent.

    Pourtant, il a attiré l’attention des habitants de la Big Apple. Une organisation à but non lucratif basée à New York et axée sur la confidentialité, The Surveillance Technology Oversight Project (STOP), a condamné l’utilisation de la technologie. «Le NYPD transforme la mauvaise science-fiction en vraie vie», a déclaré son directeur exécutif Albert Fox Cahn dans un communiqué. «Il n’y a aucune raison pour que notre ville consacre 70 000 $ à un autre outil de surveillance invasive.»

    Poursuite intentée suite à une arrestation injustifiée par reconnaissance faciale

    Un père a poursuivi le département de police de Detroit après avoir été identifié à tort comme un voleur par des algorithmes d’apprentissage automatique et arrêté.

    C’est la première fois qu’une telle affaire civile est déposée, selon l’American Civil Liberties Union. Robert Williams a été attrapé par des policiers l’année dernière et a passé la nuit derrière les barreaux pour un crime qu’il n’a pas commis. Il a été accusé d’avoir volé des montres dans un magasin et a été identifié à tort comme le coupable lorsque la police a diffusé l’image de vidéosurveillance du voleur dans le magasin grâce à la technologie de reconnaissance faciale.

    “Je suis rentré du travail et j’ai été arrêté dans mon allée devant ma femme et mes filles, qui ont regardé en larmes, parce qu’un ordinateur a fait une erreur”, a déclaré Williams dans un communiqué. «Cela n’aurait jamais dû arriver, et je veux m’assurer que cette douloureuse expérience n’arrive jamais à personne d’autre.»

    L’ACLU et la Civil Rights Litigation Initiative de la faculté de droit de l’Université du Michigan se sont unies pour poursuivre le DPD au nom de Williams. Le procès prétend que les droits du quatrième amendement de Williams ont été violés et que son arrestation injustifiée enfreint la loi sur les droits civils du Michigan Elliott-Larsen. Les avocats demandent des dommages-intérêts et la fin de l’utilisation abusive de la technologie de l’IA par les flics.

    Interdire les algorithmes de détection du genre, disent les militants LGBTQ +

    Les droits numériques et les groupes LGBT ont exhorté la Commission européenne à interdire tous les modèles de reconnaissance faciale qui prédisent le sexe.

    All Out, Access Now et Reclaim Your Face se sont associés pour avertir le public des méfaits potentiels de ces technologies juste avant que l’UE ne publie des directives juridiques pour les systèmes d’IA la semaine prochaine. Les pétitions lancées par ces organisations ont déjà reçu des dizaines de milliers de signatures, a d’abord rapporté le Gay Times.

    «Alors que les gouvernements, les forces de police et les entreprises du monde entier utilisent de plus en plus l’intelligence artificielle pour prédire le sexe et l’orientation sexuelle en analysant votre nom, votre apparence et votre son, ou comment vous vous déplacez, les personnes queer risquent d’être trop surveillées, injustement ciblées et discriminées. », A déclaré Yuri Guaiana, directeur principal des campagnes chez All Out.

    Les modèles de reconnaissance faciale sont souvent formés sur des étiquettes de genre binaires – hommes ou femmes – et ne parviennent pas à représenter les personnes queer, non binaires et trans, qui ne s’identifient pas à ces deux catégories. Le logiciel apprend souvent des fonctionnalités biaisées, telles que l’association du maquillage avec le fait d’être une femme ou des cheveux courts avec le fait d’être un homme et est moins précis lorsque les gens ne correspondent pas à la norme.

    ML responsable sur Twitter

    Twitter a lancé une nouvelle initiative d’apprentissage automatique responsable pour surveiller et suivre les effets des algorithmes déployés sur sa plateforme de médias sociaux.

    Il examine spécifiquement les préjugés potentiels dans la représentation de genre et de race dans son algorithme de recadrage d’images, et si son calendrier et ses recommandations de contenu sont justes.

    L’équipe d’éthique, de transparence et de responsabilité du ML a promis de révéler ses recherches au public afin de mieux informer les utilisateurs, les ingénieurs et les universitaires sur leur technologie. «Nous partagerons nos apprentissages et nos meilleures pratiques pour améliorer la compréhension collective de l’industrie sur ce sujet, nous aiderons à améliorer notre approche et nous responsabiliserons», il mentionné, cette semaine.

    Le projet en est encore à ses débuts, bien que le groupe espère partager ses résultats dans des articles de recherche et des articles de blog. ®

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *