Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

dynaTrace Enterprise for Hadoop de Compuware APM sera proposé à partir de 1 000€ par machine virtuelle Java Hadoop

décembre 2012 par Marc Jacob

Compuware Corporation annonce la disponibilité d’une solution de gestion des transactions, destinée à optimiser les performances des applications Apache Hadoop.

Les applications qui utilisent Hadoop MapReduce pâtissent de nombreux problèmes de performance et de goulets d’étranglement, véritable fléau pour les applications distribuées. Afin d’améliorer les calculs et la distribution des données entre les nœuds, de garantir l’exécution efficace des Jobs, d’identifier les goulets d’étranglement en entrée/sortie et d’optimiser l’utilisation de la mémoire et des ressources processeur parmi des milliers de nœuds, une connaissance approfondie de l’environnement Hadoop est nécessaire.

Grâce à sa technologie brevetée PurePath Technology®, Compuware dynaTrace Enterprise offre une visibilité sans précédent sur les applications Hadoop et prend en charge ces environnements souples et modulables de diverses manières :

· Instrumentation zéro configuration : tableaux de bord prêts à l’emploi, visibilité complète sur les performances Hadoop MapReduce, aucune modification du code et grande simplicité de déploiement et de gestion.

· Analyse d’un simple clic : réduction du MTTR (délai moyen de résolution) grâce à une analyse en un clic de type Hotspot, des Jobs MapReduce, y compris des Jobs longs et hautement distribués. La cause des problèmes est identifiée en quelques minutes seulement, contre plusieurs heures ou jours auparavant.

· Analyse automatique des performances : optimisation des environnements Hadoop et réduction des coûts grâce à une connaissance approfondie de l’utilisation des ressources par les Jobs. MapReduce, déploiement sur l’ensemble du cluster et analyse automatique de la performance au niveau de la "Tâche" jusqu’au délai d’exécution des différentes méthodes.

· Surveillance de l’état de santé du cluster corrélé : surveillance du cluster Hadoop dans son ensemble et jusqu’aux ordinateurs, ainsi que du processeur, de la mémoire, du disque, des entrées/sorties et du « garbage collector » afin de mettre en corrélation l’intégrité du système et la performance des Jobs. Correction des problèmes avant qu’ils n’aient de répercussion sur les contrats de niveau de service (SLA).

· Mise en corrélation automatique des erreurs MapReduce avec le détail du Job, de la tâche et de la méthode : délai moyen de résolution plus court qu’avec toute autre solution du marché.


Voir les articles précédents

    

Voir les articles suivants