Meta claqué avec huit poursuites judiciaires affirmant que les médias sociaux blessent les enfants

  • Français


  • En bref La société mère de Facebook et Instagram, Meta, a été frappée non pas par une, ni par deux, mais par huit poursuites différentes accusant son algorithme de médias sociaux de causer un réel préjudice aux jeunes utilisateurs à travers les États-Unis.

    Les plaintes déposées la semaine dernière affirment que les plateformes de médias sociaux de Meta ont été conçues pour être dangereusement addictives, poussant les enfants et les adolescents à visionner des contenus qui augmentent le risque de troubles de l’alimentation, de suicide, de dépression et de troubles du sommeil.

    “L’utilisation des médias sociaux chez les jeunes devrait être considérée comme un contributeur majeur à la crise de santé mentale à laquelle nous sommes confrontés dans le pays”, a déclaré Andy Birchfield, un avocat représentant le cabinet d’avocats Beasley Allen, qui dirige les affaires, dans un communiqué.

    “Ces applications auraient pu être conçues pour minimiser tout dommage potentiel, mais au lieu de cela, une décision a été prise de rendre les adolescents toxicomanes agressifs au nom des bénéfices des entreprises. Il est temps pour cette entreprise de reconnaître les préoccupations croissantes concernant l’impact des médias sociaux sur le mental. la santé et le bien-être de cette partie la plus vulnérable de notre société et modifier les algorithmes et les objectifs commerciaux qui ont causé tant de dégâts.”

    Les poursuites ont été déposées devant les tribunaux fédéraux du Texas, du Tennessee, du Colorado, du Delaware, de la Floride, de la Géorgie, de l’Illinois et du Missouri, selon Bloomberg.

    Dans quelle mesure les véhicules autonomes sont-ils vraiment sûrs ?

    La sécurité des logiciels de voiture autonome comme le pilote automatique de Tesla est difficile à évaluer, étant donné qu’il y a peu de données rendues publiques et que les mesures utilisées pour de telles évaluations sont trompeuses.

    Les entreprises développant des véhicules autonomes signalent généralement le nombre de kilomètres parcourus par la technologie de conduite autonome avant que les conducteurs humains ne doivent prendre le relais pour éviter les erreurs ou les accidents. Les données, par exemple, montrent que moins d’accidents se produisent lorsque le mode Pilote automatique de Tesla est activé. Mais cela ne signifie pas nécessairement que c’est plus sûr, affirment les experts.

    Le pilote automatique est plus susceptible d’être activé pour la conduite sur l’autoroute, où les conditions sont moins complexes à gérer pour le logiciel que pour se déplacer dans une ville animée. Tesla et d’autres entreprises automobiles ne partagent pas de données pour conduire sur des routes spécifiques pour une meilleure comparaison.

    “Nous savons que les voitures utilisant le pilote automatique s’écrasent moins souvent que lorsque le pilote automatique n’est pas utilisé”, a déclaré Noah Goodall, chercheur au Virginia Transportation Research Council, au New York Times. “Mais sont-ils conduits de la même façon, sur les mêmes routes, à la même heure de la journée, par les mêmes chauffeurs ?”.

    La National Highway Traffic Safety Administration a ordonné aux entreprises de signaler les accidents graves impliquant des voitures autonomes dans les 24 heures suivant l’accident, l’année dernière. Mais aucune information n’a encore été rendue publique.

    Une start-up de l’IA accusée d’utiliser sournoisement le travail humain derrière une technologie autonome

    Nate, une startup évaluée à plus de 300 millions de dollars qui prétend utiliser l’IA pour remplir automatiquement les informations de paiement des acheteurs sur les sites Web de vente au détail, paie en fait les travailleurs pour saisir manuellement les données pour 1 $.

    Acheter des choses sur Internet peut être fastidieux. Vous devez saisir votre nom, votre adresse, les détails de votre carte de crédit si un site Web n’a pas enregistré les informations. Nate a été conçu pour aider les internautes à éviter d’avoir à le faire chaque fois qu’ils visitent une boutique en ligne. Décrit comme une application d’intelligence artificielle, Nate a affirmé qu’il utilisait des méthodes automatisées pour remplir les données personnelles après qu’un consommateur ait passé une commande.

    Mais le logiciel a été difficile à développer, compte tenu des différentes combinaisons de boutons sur lesquels les algorithmes doivent appuyer et des précautions en place sur les sites Web pour arrêter les bots et les scalpers. Pour essayer d’attirer plus de consommateurs vers l’application, Nate a offert aux gens 50 $ à dépenser en ligne dans des magasins comme Best Buy et Walmart. Mais le parvenu a eu du mal à faire fonctionner sa technologie pour les remplir correctement.

    La meilleure façon de le faire? Faire semblant. Au lieu de cela, Nate s’est tourné vers l’embauche de travailleurs aux Philippines pour saisir manuellement les informations privées du consommateur ; les commandes étaient parfois complétées des heures après avoir été passées, selon The Information. Quelque 60 à 100 % des commandes étaient traitées manuellement, a-t-on affirmé. Un porte-parole du parvenu a déclaré que le rapport était “incorrect et que les affirmations remettant en question notre technologie propriétaire sont totalement sans fondement”.

    La DARPA veut que l’IA soit plus fiable

    La branche de recherche militaire américaine, DARPA, a lancé un nouveau programme pour financer le développement d’algorithmes d’IA neuro-symboliques hybrides dans l’espoir que la technologie conduira à des systèmes plus fiables.

    L’apprentissage en profondeur moderne est souvent qualifié de “boîte noire”, son fonctionnement interne est opaque et les experts ne comprennent souvent pas comment les réseaux de neurones arrivent à une sortie avec une entrée spécifique. Le manque de transparence signifie que les résultats sont difficiles à interpréter, ce qui rend leur déploiement risqué dans certains scénarios. Certains pensent que l’incorporation de techniques de raisonnement symbolique plus traditionnelles à l’ancienne pourrait rendre les modèles plus fiables.

    “Motiver de nouvelles réflexions et approches dans cet espace aidera à garantir que les systèmes autonomes fonctionneront en toute sécurité et fonctionneront comme prévu”, a déclaré Sandeep Neema, responsable du programme du nouveau programme Assured Neuro Symbolic Learning and Reasoning de la DARPA. “Cela fera partie intégrante de la confiance, qui est la clé de l’adoption réussie de l’autonomie par le ministère de la Défense.”

    L’initiative financera la recherche sur les architectures hybrides qui sont un mélange de systèmes symboliques et d’IA moderne. La DARPA s’intéresse particulièrement aux applications pertinentes pour l’armée, comme un modèle qui pourrait détecter si des entités étaient amies, contradictoires ou neutres, par exemple, ainsi que détecter des zones dangereuses ou sûres au combat. ®

    L'équipe de Comparaland

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *