Le gouvernement américain met en place le National Artificial Intelligence Initiative Office à la dernière minute avant la fin de la présidence de Trump

  • FrançaisFrançais


  • En bref Quelques jours à peine avant le départ du président Trump, la Maison Blanche a créé son bureau national de l’Initiative en matière d’intelligence artificielle, qui relèvera du Bureau de la politique scientifique et technologique.

    L’organisation sera chargée d’aider l’industrie et les universités à travailler ensemble pour s’assurer que le développement de l’IA s’inscrit dans la stratégie américaine. Il aidera également à adopter de nouvelles politiques et à mettre en place des initiatives de financement de la R&D. Cette décision est l’un des derniers efforts de Trump pour établir quelque chose de potentiellement durable sur le terrain pendant son mandat au gouvernement.

    «Grâce aux efforts historiques de l’administration Trump et à l’enthousiasme et à l’activité sans précédent du secteur privé et du milieu universitaire, les États-Unis restent le leader mondial de l’intelligence artificielle», selon un communiqué.

    «Le nouveau Bureau national de l’initiative IA de la Maison Blanche fera partie intégrante des efforts du gouvernement fédéral pour maintenir cette position de leader pendant de nombreuses années à venir.»

    L’outil de reconnaissance faciale utilisé pour sélectionner les candidats à un poste a été abandonné

    HireVue, une entreprise de logiciels qui a développé l’un des algorithmes de sélection des emplois les plus largement utilisés, a abandonné sa fonction controversée de reconnaissance faciale.

    Les traits du visage des candidats ont été analysés lors des entretiens via webcam. Avec d’autres données, telles que le ton de leur voix et les mots prononcés, les candidats à l’emploi ont été marqués par le code sur les qualités, y compris la convivialité et la fiabilité.

    Les experts ont fait valoir que de tels logiciels souffrent de préjugés et ne devraient pas être utilisés lorsque les moyens de subsistance des gens sont en jeu. En 2019, The Electronic Privacy Information Center, une organisation à but non lucratif, a déposé une plainte auprès de la Federal Trade Commission américaine, alléguant que HireVue «avait commis des pratiques déloyales et trompeuses en violation de la loi FTC».

    Maintenant, la société a tué sa caractéristique la plus controversée. «Cela ajoutait de la valeur pour les clients, mais cela n’en valait pas la peine», a déclaré le PDG de HireVue à Wired.

    Personnalisez Amazon Alexa avec votre propre mot de réveil, par exemple: oi!

    Amazon a lancé Alexa Custom Assistant, une plate-forme qui permet aux organisations de personnaliser l’assistant intelligent à commande vocale pour leur propre usage.

    «L’assistant personnalisé Alexa est construit directement sur la technologie Alexa, offrant aux entreprises un accès à une technologie d’IA vocale de classe mondiale, en constante amélioration, personnalisée avec un mot de réveil, une voix, des compétences et des capacités uniques», a déclaré le géant de l’Internet.

    Par exemple, certains constructeurs automobiles, dont Fiat Chrysler Automobiles, se sont engagés en tant que client pour utiliser le logiciel d’Alexa pour alimenter des haut-parleurs intelligents dans ses voitures. Les développeurs ne sont pas tenus de déployer l’unité d’assistant physique d’Amazon; ce sont des logiciels qu’ils peuvent utiliser sur leur propre matériel. Amazon espère qu’en ouvrant le service aux entreprises, son système basé sur l’apprentissage automatique sera intégré dans des applications mobiles, des gadgets et même des jeux vidéo.

    Le plus grand réseau de neurones avec plus de mille milliards de paramètres

    Les googleurs ont construit un modèle de langage gigantesque avec un nombre impressionnant de 1,6 billion de paramètres, soit plus de neuf fois celui du système GPT-3 d’OpenAI. Les modèles de langage font fureur en ce moment, et l’astuce spéciale de celui-ci semble être la manière efficace dont elle a été enseignée.

    Le modèle goliath a été formé sur 750 Go de texte extrait d’Internet, il faudrait beaucoup de ressources informatiques pour analyser toutes ces données. Les Googleurs ont réussi à le faire avec seulement 32 cœurs TPU, nous dit-on, grâce à une nouvelle technique qu’ils appellent les Switch Transformers. Le document décrivant la méthode est ahurissant. Essentiellement, le modèle de 1,6 billion de paramètres est optimisé pour la formation car il peut gérer plus efficacement les multiplications de matrices clairsemées.

    «Nous y parvenons en concevant un modèle faiblement activé qui utilise efficacement du matériel conçu pour des multiplications matricielles denses telles que les GPU et les TPU», indique le document. «Dans notre configuration de formation distribuée, nos couches faiblement activées répartissent les poids uniques sur différents appareils. Par conséquent, les poids du modèle augmentent avec le nombre de périphériques, tout en maintenant une mémoire gérable et une empreinte de calcul sur chaque périphérique. » ®

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *