L’équipe de performance interagit avec le client pour identifier et recueillir les exigences – techniques et commerciales. Il s’agit d’obtenir des informations sur l’architecture de l’application, les technologies et les bases de données utilisées, les utilisateurs prévus, les fonctionnalités, l’utilisation de l’application, les exigences en matière de tests, les exigences matérielles et logicielles, etc.
Une fois la fonctionnalité clé identifiée, le POC (Proof Of Concept – qui est une sorte de démonstration de l’activité en temps réel mais dans un sens limité) est réalisé avec les outils disponibles.
La liste des outils disponibles dépend du coût de l’outil, du protocole utilisé par l’application, des technologies utilisées pour construire l’application, du nombre d’utilisateurs que nous simulons pour le test, etc. Pendant le POC, des scripts sont créés pour la fonctionnalité clé identifiée et exécutés avec 10 à 15 utilisateurs virtuels.
En fonction des informations recueillies lors des étapes précédentes, la planification et la conception des tests sont effectuées.
La planification des tests implique des informations sur la manière dont le test de performance va se dérouler – environnement de test, charge de travail, matériel, etc.
Des cas d’utilisation sont créés pour la fonctionnalité identifiée dans le plan de test comme étant la portée du test de performance.
Ces cas d’utilisation sont partagés avec le client pour approbation. Cela permet de s’assurer que le script sera enregistré avec les étapes correctes.
Une fois approuvé, le développement du script commence par un enregistrement des étapes dans les cas d’utilisation avec l’outil de test de performance sélectionné pendant le POC (Proof of Concepts) et amélioré en effectuant la corrélation (pour traiter la valeur dynamique), la paramétrisation (substitution de valeur) et les fonctions personnalisées selon la situation ou le besoin. Pour en savoir plus sur ces techniques, consultez nos tutoriels vidéo.
Les scripts sont ensuite validés par différents utilisateurs.
Parallèlement à la création des scripts, l’équipe chargée des performances travaille également à la mise en place de l’environnement de test (logiciel et matériel).
L’équipe chargée des performances s’occupe également des métadonnées (back-end) par le biais de scripts si cette activité n’est pas prise en charge par le client.
Le modèle de charge de performance est créé pour l’exécution du test. L’objectif principal de cette étape est de valider si les paramètres de performance donnés (fournis par les clients) sont atteints ou non pendant le test. Il existe différentes approches pour créer un modèle de charge. La “loi de Little” est utilisée dans la plupart des cas.
Le scénario est conçu en fonction du modèle de charge dans le contrôleur ou le Performance Center mais les tests initiaux ne sont pas exécutés avec le maximum d’utilisateurs qui sont dans le modèle de charge.
L’exécution des tests se fait de manière incrémentielle. Par exemple, si le nombre maximum d’utilisateurs est de 100, les scénarios sont d’abord exécutés avec 10, 25, 50 utilisateurs et ainsi de suite, pour finalement passer à 100 utilisateurs.
Les résultats des tests sont le livrable le plus important pour le testeur de performance. C’est là que nous pouvons prouver le retour sur investissement (ROI) et la productivité qu’un effort de test de performance peut apporter.
Certaines des meilleures pratiques qui aident le processus d’analyse des résultats :
Les résultats des tests devraient être simplifiés afin que la conclusion soit plus claire et ne nécessite aucune dérivation. L’équipe de développement a besoin de plus d’informations sur l’analyse, la comparaison des résultats et les détails sur la façon dont les résultats ont été obtenus.