Informe de testing de software
Convenciones del documento
En el presente Documento se utilizan convenciones estándar de texto, con el objetivo de facilitar su comprensión y uso. En esta Sección se procede a detallar las instrucciones necesarias para que el usuario del documento sustituya la información genérica provista en esta plantilla con la información de su propio proyecto. El usuario del documento deberá evaluar la información genérica suministrada en este plan de Gestión de la Configuración y ajustarla a las necesidades de su proyecto.
[[texto]] Cambios globales: Los textos que aparecen en modo regular, y encerrados con dobles corchetes [[]], representan cambios que pueden realizarse de manera global (Por ej. en [[Modifique en “Asunto” el nombre del Proyecto]] el usuario podrá modificar la propiedad indicada (Archivo→Propiedades→Descripción) en el procesador de texto, lo que le permitirá hacer un cambio a todas las ocurrencias del proyecto.
\ Guías de uso: El texto que aparece encerrado entre los símbolos \ representa instrucciones o guías de ayuda al usuario del documento. Este texto sólo será visible e impreso en formato Markdown. De todas maneras, si lo considera necesario, puede borrar estas instrucciones.
1. Introducción
En el marco de las actividades que forman parte del proceso de testing del software MoSimPa, y como complemento al Plan de Testing, se procede a elaborar el presente Informe de Testing, en el que se documenta de manera sintética información relacionada con hitos concretos del proceso.
Para cada hito del testeo, donde se corren los escenarios de prueba o issues de tipo Test Case, se incluyen aquí los casos de prueba ejecutados, se presentan los hallazgos consecuentes a la ejecución de las pruebas y se lleva a cabo una evaluación de los resultados finales haciendo uso de métricas convenidas previamente, lo que permite hacer una comparación con futuros ciclos de pruebas y finalmente concluir en relación a la calidad del producto software diseñado.
1.1. Organización del documento
A continuación se describirá brevemente cada una de las secciones que componen el presente Documento. Se sugiere al lector una lectura secuencial, siguiendo el orden propuesto.
Sección 1: Introduce al lector al documento, a partir de una visión general del Informe.
Sección 2: Describe los objetivos del Informe.
Sección 3: Identifica los documentos relacionados con el Informe.
Sección 4: Identifica los lectores a los cuales está dirigido el Informe.
Sección 5: Describe el contenido del Informe, incluyendo especificación de casos de prueba, hallazgos de Testing, métricas utilizadas para evaluación de hallazgos y evaluación propiamente dicha.
Sección 6: Contiene los apéndices del Informe, incluyendo un glosario de términos y definiciones empleados en el presente documento, además de una subsección que refleja el historial de cambios.
2. Objectivos del informe
El propósito de este documento es presentar a modo de resumen los resultados hallados en las actividades de testing ejecutadas sobre el software del producto MoSimPa, en torno de cada hito establecido, y realizar una evaluación que permita sacar conclusiones en relación a la calidad del producto.
Se describirán los casos de pruebas ejecutados, los casos de usos vinculados, los resultados encontrados, los responsables de la ejecución y supervisión de las pruebas, como también las métricas resultantes.
Los entornos de testing han sido definidos y descritos en el Plan de Testing de Software indicado en la sección Documentos Relacionados.
El presente documento será un único informe que irá evolucionando en cada hito con cada iteración/incremento.
3. Documentos relacionados
A continuación se indican los documentos relacionados con el presente:
4. Destinatarios del informe
A continuación se procede a listar a los destinatarios de este informe, quienes forman parte del registro de stakeholders del Proyecto MoSimPa.
Destinatarios | Roles |
---|---|
MANDOLESI, Pablo | Líder de Proyecto / Ingeniero de D&D de Hardware |
PÉREZ MEYER, Lisandro | Ingeniero de D&D de Software / Líder de Testing / Integrador |
AYMONINO, Andrés | Ingeniero de D&D de Hardware |
POUSO, Marcelo | Ingeniero de D&D de Software |
CASANOVA, Alejandro | Ingeniero de D&D de Software |
VALLASCIANI, Luis Guillermo | Ingeniero de D&D de Hardware |
COPPA, Guillermo | Ingeniero de D&D de Hardware |
ROSSI, Esteban | Líder Consultor de Procesos – RRHH externo |
ALBORNOZ LAFERRARA, Josué | Ingeniero Consultor de Procesos Sr. – RRHH externo |
GRAMAJO, Rodrigo | Ingeniero Consultor de Procesos Jr. – RRHH externo |
CARDOSO, Paula | Ingeniera Consultora de Procesos Jr.– RRHH externo |
5. Contenido del informe de testing
5.1. Especificación de casos de prueba
5.1.1. Registro de casos de prueba
Se propone emplear una planilla de casos de prueba que permita llevar a cabo el registro de las actividades que componen cada hito de testing aplicado. Por cada hito, la planilla permite registrar información referida a: scripts de pruebas diseñados, test cases conteniendo los resultados de las pruebas, fecha de ejecución, responsable de ejecución, resultados, ciclo de testing correspondiente y tipo de test realizado.
Se contará con un script dentro del repositorio documentation, dentro de VerificationAndValidation, en el directorio Casos de Prueba. Especificados el o los escenarios dentro del repositorio, cada iteración de cada incremento contará con el tipo de testing que se va a ejecutar, se creará un issue tipo Testing y se documentará el tipo de test y los hallazgos, los cuales serán plasmados en issues de tipo Test Case relacionados a los issues tipo Testing. Los issues Test Case serán referenciados a la planilla de casos de prueba que se ha propuesto.
Cuando se manifiesta algún bug o anomalía se procederá a referenciar a un issue de tipo Test Case los defectos encontrados. Posteriormente, la solicitud pasa al CCB con la etiqueta Review, sus miembros evaluarán la solicitud, previa asignación al líder de proyecto que será quien haga un cross de repositorio para poder resolverlo.
5.1.2. Casos de prueba
HITO DE TESTING X: Referencia al issue tipo Testing> | |||||||
---|---|---|---|---|---|---|---|
Link a scripts de pruebas diseñadas | Link a test cases | Fecha inicio de ejecución | Fecha fin de ejecución | Responsable | Resultado | Tipo de test | Ciclo de testing |
HITO DE TESTING Y: Referencia al issue tipo Testing> | |||||||
---|---|---|---|---|---|---|---|
Link a scripts de pruebas diseñadas | Link a test cases | Fecha inicio de ejecución | Fecha fin de ejecución | Responsable | Resultado | Tipo de test | Ciclo de testing |
HITO DE TESTING Z: Referencia al issue tipo Testing> | |||||||
---|---|---|---|---|---|---|---|
Link a scripts de pruebas diseñadas | Link a test cases | Fecha inicio de ejecución | Fecha fin de ejecución | Responsable | Resultado | Tipo de test | Ciclo de testing |
5.2. Resumen de hallazgos por hitos de testing
DESCRIBIR...
5.3. Evaluación de hallazgos de testing
5.3.1. Métricas para la evaluación de los hallazgos de testing
A continuación, se procederá a definir cada una de las métricas que serán contempladas en la evaluación de la calidad del producto MoSimPa, y que permitirán tomar las decisiones pertinentes.
Objetivo a Evaluar | Métrica Aplicada |
---|---|
Nivel de cobertura | Casos de Éxito vs. Total de Casos de Prueba |
Efectividad del Testing | Casos de Uso con Defectos vs. Total de Casos de Uso |
Eficiencia del Testing | Casos de Prueba por Función vs. Caso de Uso |
Distribución de Defectos por Ciclo | |
Distribución de Defecto por Severidad | |
Distribución de Defecto por Criticidad | |
Distribución de Defectos por Estrategia (Funcional, Integración, Regresión) | |
Distribución de defectos según origen presunto (punto del ciclo de vida del software en que se estima se insertó el defecto) |
5.3.2. Evaluación de resultados
Para cada métrica contemplada, se expone a continuación una tabla y la gráfica de indicadores, donde se indican los resultados del análisis de pruebas, correspondientes a cada hito de testing ejecutado.
Nivel de Cobertura (%) | Hito 1 | Hito 2 | Hito 3 | ... |
---|---|---|---|---|
Casos de Éxito vs. Total de Casos de Prueba | ... | |||
Análisis de Resultados de Testing | ||||
Casos de Prueba (CP=XX) | Hito 1 | Hito 2 | Hito 3 | ... |
CP Pasados | ||||
CP Fallidos | ||||
CP No Ejecutados | ||||
CP Bloqueados |
Incluir gráfica correspondiente
Efectividad del Testing (%) | Hito 1 | Hito 2 | Hito 3 | ... |
---|---|---|---|---|
Casos de Uso con Defectos vs. Total de Casos de Uso | ... | |||
Análisis de Resultados de Testing | ||||
Casos de Prueba (CP=XX) | Hito 1 | Hito 2 | Hito 3 | ... |
CP Pasados | ||||
CP Fallidos | ||||
CP No Ejecutados | ||||
CP Bloqueados |
Incluir gráfica correspondiente
Eficiencia del Testing (%) | Hito 1 | Hito 2 | Hito 3 | ... |
---|---|---|---|---|
Casos de Prueba por Función vs. Caso de Uso | ... | |||
Análisis de Resultados de Testing | ||||
Casos de Prueba (CP=XX) | Hito 1 | Hito 2 | Hito 3 | ... |
CP Pasados | ||||
CP Fallidos | ||||
CP No Ejecutados | ||||
CP Bloqueados |
Incluir gráfica correspondiente
6. Apéndices
6.1. Glosario y definiciones
Ver Glosario de Términos y Definiciones a partir del siguiente link: Glosario de términos y definiciones MoSimPa.
6.2. Historial de cambios
El historial de los cambios puede consultarse en la historia de las revisiones del Proyecto MoSimPa, o bien mediante la identificación de las versiones taggeadas según el sistema de control de versionado empleado. La descripción de los cambios estará especificada en los comentarios del commit correspondiente.