Potentiel de l’IA et de l’apprentissage automatique pour arrêter les attaques de robots

  • FrançaisFrançais


  • Potentiel de l'IA et de l'apprentissage automatique pour arrêter les attaques de robots

    La grande majorité connaît les bots automatisés comme les chatbots alimentés par l’IA sont en réalité des applications logicielles qui peuvent utiliser l’intelligence artificielle pour interagir avec des utilisateurs humains pour accomplir une tâche. Découvrez comment l’IA et l’apprentissage automatique peuvent arrêter les attaques de robots pour garantir un environnement commercial sécurisé.

    Les attaques de bots attirent un nombre toujours croissant de fonctionnalités avec des histoires de fraude. L’abondance d’informations clients disponibles sur le dark web via des violations, les médias sociaux et de plus en plus sont proposées aux pirates pour commander des profils d’acheteurs en ligne pour prendre en charge des comptes pour de l’argent, des produits ou des services.

    La détection de bots est (ou devrait être) une priorité de sécurité clé pour toute entreprise ayant une présence en ligne. Environ 33% du trafic Web total dans le monde est actuellement composé de robots malveillants, et les robots terribles sont responsables d’un grand nombre des menaces de sécurité les plus graves auxquelles les entreprises en ligne sont confrontées aujourd’hui.

    La question de savoir qui est authentique et digne de confiance, et comment les organisations doivent se protéger contre ce problème reste sans réponse. Pour que les solutions de détection de bots de pointe soient efficaces, il est nécessaire d’avoir une précision beaucoup plus élevée dans le niveau d’analyse comportementale des utilisateurs qui doit être mis en œuvre.

    Les robots des générations les plus récentes ne sont désormais pratiquement pas clairs des invités humains, et ils sont difficiles à détecter sans un savoir-faire véritablement expert en matière de détection de robots. Ils ont provoqué le besoin d’outils qui peuvent décider de l’objectif du visiteur, au lieu d’examiner essentiellement le volume de trafic et les signatures de bots connus.

    La grande majorité connaît les robots automatisés – les chatbots et autres – qui sont en réalité des applications logicielles qui peuvent utiliser l’IA pour interagir avec des utilisateurs humains pour accomplir une tâche (par exemple, réserver un hôtel, répondre aux questions du service client, etc.), cependant, certains sont simplement fondés sur des principes.

    jeDans tous les cas, les progrès de l’apprentissage profond et automatique, de la compréhension du langage naturel, du traitement des données volumineuses, de l’apprentissage par renforcement et des algorithmes de vision par ordinateur ouvrent la voie à l’ascension des robots alimentés par l’IA, qui sont plus rapides, améliorent la compréhension de l’interaction humaine et peuvent copier même le comportement humain.

    Des organisations comme Amazon investissent des ressources dans les méthodes d’IA et d’apprentissage automatique depuis plusieurs années, des centres de distribution à Echo alimenté par Alexa, en passant par son nouvel Amazon Go. AWS d’Amazon propose des services et des outils d’apprentissage automatique aux développeurs et à tous ceux qui utilisent la plate-forme cloud. Cependant, les robots malveillants pourraient désormais utiliser ces capacités définies à des fins trompeuses, ce qui rend difficile la distinction entre les robots et les vrais utilisateurs humains.

    Les acheteurs d’Instacart et les employés de l’épicerie qui gardent les étagères chargées et les magasins ouverts font partie des véritables héros de cette pandémie. Sans eux, beaucoup d’entre nous n’auraient pas eu la possibilité d’acheter des produits de base et de garder nos familles. Les clients d’Instacart attendent régulièrement dans le parking de l’épicerie qu’une demande gratifiante apparaisse sur leur application, puis l’acceptent et entrent à l’intérieur pour traiter la commande.

    Pour certains clients, travailler pour Instacart et exécuter les commandes représente l’essentiel de leur salaire. Les clients peuvent gagner jusqu’à 1800 dollars par semaine pendant les périodes de pointe, selon un récent article du Seattle Times, les clients d’Instacart bloqués par des bots qui attrapent des commandes lucratives.

    Les terribles ingénieurs de robots voient le développement exponentiel et la prévalence d’Instacart pendant la pandémie comme une opportunité de marché idéale. Créer et vendre des abonnements à des bad bots qui, par conséquent, attrapent les commandes les plus importantes et les plus gratifiantes en moins d’une seconde, prennent les commandes des différents clients. Les dépenses normales des applications Instacart vont de 250 USD à 600 USD, de nombreux ingénieurs de robots nécessitant des frais mensuels d’au moins 130 USD ou plus pour maintenir le bot actif. Les ingénieurs de robots prennent juste un versement en monnaie numérique pour sauver leur anonymat, selon la société de recherche sur le Web sombre, DarkOwl.

    Instacart dit qu’il ne s’agit que d’un petit pourcentage de leurs ventes totales de commandes et s’efforce de combattre les robots en interdisant à tout contrevenant découvert en utilisant un pour réorganiser les commandes. 150 clients ont été désactivés et Instacart affirme que quelques sites de vente de robots sont actuellement en panne. Instacart lance également de nouvelles procédures, par exemple en incitant les clients à confirmer leur identité avec un selfie et en ne permettant pas aux clients de changer de gadget au milieu d’une commande. Les clients utilisant l’application mise à jour peuvent également décider de revoir une seule commande pendant 30 secondes avant de la garantir ou de la transmettre à un autre client. Instacart a également enrôlé il y a un mois l’assistance de la plateforme de sécurité HackerOne pour lutter contre les bots en proposant un programme de primes, selon le Seattle Times.

    Bien que répandues dans le secteur financier, ces attaques peuvent éventuellement en affecter davantage. Par exemple, avec la vente de billets en ligne, un robot contrôlé par l’IA pourrait abuser du check-out en prétendant être un utilisateur humain, puis acheter tous les billets pour une occasion en un instant.

    En outre, l’industrie de la technologie publicitaire continue de subir des pertes importantes en raison de la fraude publicitaire. En 2016, il a été estimé que près de 20% du total des dépenses publicitaires numériques ont été gaspillés et 16,4 milliards de dollars ont été perdus en 2017. La fraude aux clics pose également un problème, où les robots cliquent encore et encore sur une publicité hébergée sur un site Web dans le but de produire des revenus pour le site hôte, vider les revenus de l’annonceur.

    La plate-forme de prévention de la fraude de Kount est l’une de ces plates-formes qui dépend des procédures d’IA, y compris des algorithmes d’apprentissage automatique supervisés et non supervisés, pour reconnaître les robots géniaux et malveillants en temps réel, ce qui la rend extrêmement adaptée pour distinguer les attaques connues et émergentes. Bloquer les bots terribles sans affecter les grands est généralement un défi et il est considérablement plus difficile de gérer des bots sommaires, ce qui pourrait être bénéfique pour certaines organisations, mais horrible pour d’autres. Les plates-formes de confiance d’identité peuvent aider à reconnaître et à traiter différents types de bots en temps réel et sans impact négatif sur l’entreprise.

    En utilisant l’intelligence artificielle et les algorithmes d’apprentissage automatique, il est concevable d’apprendre en permanence des modèles de comportement des utilisateurs en fonction de la mémoire musculaire qu’ils montrent lorsqu’ils marchent, s’assoient, se tiennent debout, tapent, glissent, tapotent – même la main dans laquelle ils veulent tenir leur gadget peut être utilisé pour créer des modèles utilisateur personnalisés.




    Source

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *