OpenAI ferme une équipe de robotique car elle n’a pas encore assez de données

  • FrançaisFrançais



  • En bref OpenAI a dissous son équipe de robotique IA et n’essaie plus d’appliquer l’apprentissage automatique aux machines physiques.

    Wojciech Zaremba, co-fondateur d’OpenAI, qui a dirigé le groupe de robotique, a confirmé que la société a récemment séparé l’équipe pour se concentrer sur des domaines plus prometteurs de la recherche en intelligence artificielle générale.

    “Voici une révélation … récemment, nous avons changé d’orientation chez OpenAI, et j’ai en fait dissous l’équipe de robotique”, a-t-il déclaré lors d’un épisode du podcast Weights & Biases.

    Zaremba a déclaré qu’un manque de données de formation freinait la recherche en robotique : il n’y avait pas assez d’informations disponibles pour enseigner aux systèmes le niveau d’intelligence souhaité.

    “Du point de vue de ce que nous voulons réaliser, qui est de construire AGI, je pense qu’il manquait en fait certains composants”, a-t-il ajouté. Un porte-parole d’OpenAI a confirmé cette semaine qu’il avait effectivement cessé de travailler sur la robotique.

    Vous pouvez maintenant télécharger un modèle d’IA de pointe pour la prédiction des protéines

    DeepMind a publié cette semaine AlphaFold, le modèle d’apprentissage automatique de prédiction de structure de protéines le plus avancé à ce jour, sur GitHub.

    Si vous voulez jouer avec, vous devrez vous familiariser avec Docker et disposer de l’espace pour stocker des centaines de gigaoctets de données de séquençage génétique ainsi que le modèle.

    AlphaFold est formé pour prédire comment une protéine se replie et prend forme en fonction de ses acides aminés constitutifs. L’année dernière, DeepMind a inscrit son système au concours d’évaluation critique de la prédiction de la structure des protéines et a battu ses rivaux.

    L’objectif de DeepMind est d’obtenir un modèle suffisamment précis pour être utile dans le développement de médicaments pouvant cibler des protéines spécifiques pour guérir ou atténuer des maladies. Un article de DeepMind sur la conception d’AlphaFold a été publié ce mois-ci dans Nature.

    Dans un projet distinct, une grande équipe de chercheurs de diverses universités et institutions académiques a également publié son propre modèle de repliement des protéines d’IA open source. Connu sous le nom de RoseTTaFold, il ne fonctionne pas aussi bien qu’AlphaFold bien qu’il ne soit pas trop minable, selon un article publié dans Science.

    Est-ce mal de faire revivre des morts dans des documentaires sans le dire au public ?

    Une critique du New Yorker de Roadrunner, un documentaire sur le regretté et grand Anthony Bourdain, a suscité des questions quant à savoir s’il est éthique ou non d’utiliser la technologie d’apprentissage automatique pour faire entendre de fausses voix.

    Dans l’article du magazine, le réalisateur du documentaire, Morgan Neville, a admis avoir utilisé un logiciel qui imitait la voix de Bourdain, obligeant le célèbre chef et écrivain à dire des mots qu’il n’avait écrits que. Plus précisément, le logiciel a été utilisé pour lire un e-mail que Bourdain avait écrit à un ami. Le code a été formé sur des clips de Bourdain parlant à la télévision, à la radio, dans des livres audio et des podcasts.

    “Si vous regardez le film … vous ne savez probablement pas quelles sont les autres lignes qui ont été prononcées par l’IA, et vous ne le saurez pas”, a déclaré Neville. “Nous pouvons avoir un panel d’éthique documentaire à ce sujet plus tard.”

    Le réalisateur doit-il informer les téléspectateurs ou les auditeurs lorsqu’un clip audio a été généré synthétiquement ? Est-ce important, étant donné que Bourdain a exprimé ces sentiments bien que dans un e-mail et non dans un microphone ? Est-ce que cela va faire un trou dans la confiance dans les futurs documentaires, le journalisme et la production médiatique ? Cette interview de Tech Policy Press avec Sam Gregory – un expert en contrefaçons profondes et directeur de programme de Witness Media Lab – en a plus à ce sujet.

    Discord pense que l’IA peut aider à modérer les discours de haine en ligne

    IRC-for-the-next-generation Discord a choisi une startup d’IA pour ses outils de modération automatisés.

    Sentropy, basé à Palo Alto, en Californie, a confirmé l’accord dans un article de blog cette semaine. “Trois ans après avoir créé cette entreprise avec Michele, Ethan et Taylor, je suis ravi d’annoncer que nous rejoignons Discord pour continuer à lutter contre la haine et les abus sur Internet”, a déclaré le PDG et co-fondateur John Redgrave.

    Le nouveau venu a construit des modèles d’apprentissage automatique propriétaires qui seraient capables de détecter les discours de haine et le langage toxique pour mettre fin au harcèlement en ligne. Le montant payé par Discord pour acquérir la technologie et l’équipe de Sentropy n’a pas été divulgué.

    Discord était connu pour être principalement populaire auprès des joueurs, bien qu’il ait explosé dans d’autres communautés, de la programmation aux crypto-monnaies. Il aurait renoncé à une offre de 10 milliards de dollars de Microsoft, plus tôt cette année. ®

    L'équipe de Comparaland

    Rédacteur web depuis 2009 et webmestre depuis 2011.

    Je m'intéresse à tous les sujets comme la politique, la culture, la géopolitique, l'économie ou la technologie. Toute information permettant d'éclairer mon esprit et donc, le vôtre, dans un monde obscur et à la dérive. Je suis l'auteur de plusieurs livre

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *