Processus de test de performance

1) Analyse/recueil des besoins

L’équipe de performance interagit avec le client pour identifier et recueillir les exigences – techniques et commerciales. Il s’agit d’obtenir des informations sur l’architecture de l’application, les technologies et les bases de données utilisées, les utilisateurs prévus, les fonctionnalités, l’utilisation de l’application, les exigences en matière de tests, les exigences matérielles et logicielles, etc.

2) Sélection du POC/outil

Une fois la fonctionnalité clé identifiée, le POC (Proof Of Concept – qui est une sorte de démonstration de l’activité en temps réel mais dans un sens limité) est réalisé avec les outils disponibles.

La liste des outils disponibles dépend du coût de l’outil, du protocole utilisé par l’application, des technologies utilisées pour construire l’application, du nombre d’utilisateurs que nous simulons pour le test, etc. Pendant le POC, des scripts sont créés pour la fonctionnalité clé identifiée et exécutés avec 10 à 15 utilisateurs virtuels.

3) Plan et conception du test de performance

En fonction des informations recueillies lors des étapes précédentes, la planification et la conception des tests sont effectuées.

La planification des tests implique des informations sur la manière dont le test de performance va se dérouler – environnement de test, charge de travail, matériel, etc.

4) Développement du test de performance

Des cas d’utilisation sont créés pour la fonctionnalité identifiée dans le plan de test comme étant la portée du test de performance.

Ces cas d’utilisation sont partagés avec le client pour approbation. Cela permet de s’assurer que le script sera enregistré avec les étapes correctes.

Une fois approuvé, le développement du script commence par un enregistrement des étapes dans les cas d’utilisation avec l’outil de test de performance sélectionné pendant le POC (Proof of Concepts) et amélioré en effectuant la corrélation (pour traiter la valeur dynamique), la paramétrisation (substitution de valeur) et les fonctions personnalisées selon la situation ou le besoin. Pour en savoir plus sur ces techniques, consultez nos tutoriels vidéo.

Les scripts sont ensuite validés par différents utilisateurs.

Parallèlement à la création des scripts, l’équipe chargée des performances travaille également à la mise en place de l’environnement de test (logiciel et matériel).

L’équipe chargée des performances s’occupe également des métadonnées (back-end) par le biais de scripts si cette activité n’est pas prise en charge par le client.

5) Modélisation des tests de performance

Le modèle de charge de performance est créé pour l’exécution du test. L’objectif principal de cette étape est de valider si les paramètres de performance donnés (fournis par les clients) sont atteints ou non pendant le test. Il existe différentes approches pour créer un modèle de charge. La “loi de Little” est utilisée dans la plupart des cas.

6) Exécution du test

Le scénario est conçu en fonction du modèle de charge dans le contrôleur ou le Performance Center mais les tests initiaux ne sont pas exécutés avec le maximum d’utilisateurs qui sont dans le modèle de charge.

L’exécution des tests se fait de manière incrémentielle. Par exemple, si le nombre maximum d’utilisateurs est de 100, les scénarios sont d’abord exécutés avec 10, 25, 50 utilisateurs et ainsi de suite, pour finalement passer à 100 utilisateurs.

7) Analyse des résultats des tests

Les résultats des tests sont le livrable le plus important pour le testeur de performance. C’est là que nous pouvons prouver le retour sur investissement (ROI) et la productivité qu’un effort de test de performance peut apporter.

Certaines des meilleures pratiques qui aident le processus d’analyse des résultats :

1. Donner un nom unique et significatif à chaque résultat de test – cela aide à comprendre l’objectif du test.
2. Inclure les informations suivantes dans le résumé des résultats du test :
  • Raison de l’échec ou des échecs
  • Changement dans la performance de l’application par rapport à l’exécution du test précédent.
  • Changements apportés au test à partir du point de construction de l’application ou de l’environnement de test.
  • C’est une bonne pratique de faire un résumé des résultats après chaque exécution de test afin que les résultats d’analyse ne soient pas compilés chaque fois que les résultats de test sont référencés.
  • Le PT nécessite généralement de nombreuses exécutions de test pour arriver à la bonne conclusion.
Il est bon d’avoir les points suivants dans le résumé des résultats :
  • Objectif du test
  • Nombre d’utilisateurs virtuels
  • Résumé du scénario
  • Durée du test
  • Débit
  • Graphiques
  • Comparaison des graphiques
  • Temps de réponse
  • Erreur survenue
  • Recommandations

8) Rapport

Les résultats des tests devraient être simplifiés afin que la conclusion soit plus claire et ne nécessite aucune dérivation. L’équipe de développement a besoin de plus d’informations sur l’analyse, la comparaison des résultats et les détails sur la façon dont les résultats ont été obtenus.