Microsoft vante les kits de développement Azure Percept à ceux qui jouent avec l’IA à la périphérie
Enflammer Microsoft a lancé mardi Azure Percept – une pile complète de technologies permettant d’exécuter du code d’IA à la périphérie du réseau – lors de sa conférence annuelle Ignite.
Les supports sont destinés aux organisations qui déploient ou envisagent de déployer des logiciels d’apprentissage automatique sur des appareils et équipements embarqués connectés au réseau dans des sites distants. On s’attend à ce que ces systèmes utilisent un niveau d’intelligence pour prendre des décisions où qu’ils se trouvent, plutôt que de s’appuyer entièrement sur des services backend.
Par exemple, les caméras qui enregistrent de manière sélective lorsqu’ils détectent certains objets, situations ou personnes, et les capteurs qui ajustent les machines et rapportent des résumés transmettent plutôt chaque lecture et attendent des instructions. Vous savez, des choses qui sont possibles sans IA, mais qui pourraient être améliorées et rendues plus efficaces avec un réseau de neurones entraîné.
Connecter tous les éléments d’un tel déploiement – la plate-forme backend, l’électronique suggérée à utiliser en périphérie et le logiciel pour tout coller ensemble – est l’objectif de Percept.
Mieux boucler la ceinture: Volkswagen place Microsoft aux commandes pour proposer une plate-forme “ automatisée ”
LIRE LA SUITE
Par exemple, la pile comprend un kit de développement matériel. Cela comprend un petit ordinateur et une caméra appelée le système Azuze Percept Vision, qui peuvent être formés à l’aide des services cognitifs Azure de Microsoft pour effectuer une gamme de tâches.
Le kit de développement Azure Percept contient un modeste processeur NXP i.MX 8M et dispose d’une connectivité Wi-Fi et Bluetooth. Le système Azure Percept Vision dispose d’une caméra RVB et d’un accélérateur d’apprentissage automatique Movidius Myriad X d’Intel.
Il existe également un système Azure Percept Audio distinct pour les applications vocales. «Nous avons commencé avec les deux charges de travail IA les plus courantes, la vision et la voix, la vue et le son, et nous avons donné ce plan pour que les fabricants puissent prendre les bases de ce que nous avons commencé», a déclaré Roanne Sones, vice-président. président du groupe Edge and Platform de Microsoft. «Mais ils peuvent l’envisager dans n’importe quel type de facteur de forme responsable pour couvrir un modèle du monde.»
Azure Percept Audio (à gauche), Trusted Platform Module (au centre) et Azure Percept Vision (à droite). Source: Microsoft. Cliquez pour agrandir
Sones a déclaré que la plate-forme est conçue pour faciliter le processus de déploiement de l’IA sur les appareils de périphérie. «Nous avons intégré des accélérateurs matériels aux services Azure AI et Azure IoT et les avons conçus pour être simples à utiliser et prêts à l’emploi avec une configuration minimale», a-t-elle ajouté.
Les développeurs n’ont pas besoin d’être des experts en intelligence artificielle pour utiliser cet équipement; il existe divers didacticiels en ligne sur la façon de connecter le matériel au logiciel et de commencer à le former pour effectuer des tâches simples sans avoir à coder beaucoup.
Les kits de développement semblent être destinés à ceux qui produisent des conceptions de prototypes pour se connecter à Azure. Pour une utilisation en production à grande échelle, en particulier pour les applications non triviales, on s’attend à utiliser du matériel personnalisé ou spécialisé compatible avec Percept, si l’on choisit ainsi d’utiliser la pile de Redmond.
En tant que tel, Microsoft travaille avec les fabricants d’appareils et de composants pour faire certifier leur équipement pour fonctionner avec Percept afin que les clients puissent acheter le matériel et, espérons-le sans douleur, l’insérer dans un environnement basé sur Azure et déployer des charges de travail IA sur les gadgets. ®