Documente Academic
Documente Profesional
Documente Cultură
DE NORMA IRAM-ISO/IEC
14598-6
2009
Tecnología de la información
Ingeniería de software
Software engineering
Product evaluation
Part 6 - Documentation of evaluation modules
2
Esq ue ma 1 I RA M- IS O/ I E C 14 59 8 -6 : E rro r: Re f e ren ce so u rce n ot f ou nd
Prefacio
El Instituto Argentino de Normalización y Certificación (IRAM) es
una asociación civil sin fines de lucro cuyas finalidades específicas,
en su carácter de Organismo Argentino de Normalización, son
establecer normas técnicas, sin limitaciones en los ámbitos que
abarquen, además de propender al conocimiento y la aplicación de
la normalización como base de la calidad, promoviendo las
actividades de certificación de productos y de sistemas de la
calidad en las empresas para brindar seguridad al consumidor.
4
E squ e ma 1 I RA M- I SO / IE C :
5
Esq ue ma 1 I RA M- IS O/ I E C :
6
Esq ue ma 1 I RA M- IS O/ I E C 14 59 8 -6 : Error: Re fe re nc e source not found
Índice
Página
0 INTRODUCCIÓN..............................................................................................7
2 CONFORMIDAD...............................................................................................8
4 TÉRMINOS Y DEFINICIONES..........................................................................8
7
Esq ue ma 1 I RA M- IS O/ I E C :
Tecnología de la información
Ingeniería de software
Evaluación del producto de software
Parte 6 - Documentación de los módulos de evaluación
8
Esq ue ma 1 I RA M- IS O/ I E C 14 59 8 -6 : Error: Re fe re nc e source not found
9
Esq ue ma 1 I RA M- IS O/ I E C :
10
Esq ue ma 1 I RA M- IS O/ I E C 14 59 8 -6 : Error: Re fe re nc e source not found
EM4 especifica los productos de entrada Este apartado debe identificar las
necesarios para la evaluación y define los características, subcaracterísticas o atributos
datos por recolectar y las medidas a calcular. que el módulo de evaluación puede evaluar.
EM5 contiene información sobre cómo NOTA. El módulo de evaluación puede contribuir a una o
interpretar los resultados de las mediciones. varias características o subcaracterísticas.
11
Esq ue ma 1 I RA M- IS O/ I E C :
NOTA 2. La información clasificada como información del Este apartado debe establecer el significado de
producto incluye: el informe de revisión de los las medidas, es decir, la interpretación de los
requerimientos del software, el informe de revisión del resultados de la medición. Esto incluye la escala
diseño del software, el informe de revisión del programa, de medición con la que se han de corresponder
el informe de pruebas unitarias, y el informe de revisión de
la documentación del usuario. los valores obtenidos por la métrica. Si la
correspondencia no es simple, se deben definir
NOTA 3. La información clasificada como información de los detalles de los algoritmos (funciones)
apoyo incluye: el plan de aseguramiento de la calidad, el
12
Esq ue ma 1 I RA M- IS O/ I E C 14 59 8 -6 : Error: Re fe re nc e source not found
13
Anexo A
(Informativo)
Este anexo informativo proporciona una orientación para el proceso de desarrollo de nuevos módulos
de evaluación. La ISO/IEC 9126 partes 2, 3 y 4 pueden servir como entrada para este proceso. Es
conveniente que el proceso de desarrollo de módulos de evaluación incluya cinco pasos:
Basado en los requerimientos identificados para el módulo de evaluación, el próximo paso consiste
en especificar las técnicas de evaluación y las entradas para la evaluación (por ejemplo, el código
fuente) así como el conjunto de métricas y el conjunto fundamental de elementos de los datos. En
este caso pueden ser útiles las partes 2, 3 y 4 de la ISO/IEC 9126.
Este paso toma la especificación formal del paso anterior y agrega algunos aspectos de
procedimiento. Se recomienda que la interpretación de las métricas y de los elementos de los datos
se expliquen en el contexto de la evaluación. Es conveniente estimar los recursos requeridos y
elaborar procedimientos detallados de evaluación. Puede ser necesaria la aplicación de pruebas del
procedimiento de evaluación.
Conviene que diferentes grupos de personas en diferentes ambientes ensayen (validen) el módulo de
evaluación. Se recomienda transmitir la experiencia adquirida al equipo de desarrollo del módulo de
evaluación como entrada para una actualización.
14
Anexo B
(Informativo)
B.0 Introducción
Este módulo de evaluación se utiliza para determinar la densidad de fallas de un programa. Detectar
una cantidad elevada de fallas durante el diseño y la fase de prueba reduce posibles fallas en el
software que provocarán errores en la fase de operación. Un número elevado de fallas al comienzo
de las fases de operación provoca errores frecuentes y disminuye la fiabilidad del producto. Por ello,
es conveniente asegurar que la densidad de fallas esté por debajo de un valor de umbral
especificado antes que el programa se ponga en funcionamiento.
1) Se elige un Modelo de Crecimiento de la Fiabilidad (RGM por sus siglas en inglés (Reliability
Growing Model) adecuado, por ejemplo, un RGM exponencial o un S-shaped RGM.
2) Se registra el número acumulado de fallas detectadas con el tiempo en un punto particular del
período de prueba.
3) Se decide acerca del número de parámetros de la ecuación RGM que se requiere para ajustar la
curva al conjunto de datos registrados.
4) Cuando el tiempo (t) de la ecuación RGM tiende a infinito, se puede calcular el número estimado
de posibles fallas.
B.1 Alcance
B.1.1 Características
B.1.3 Técnica
Se utiliza una técnica de modelado del crecimiento de la fiabilidad. El número de fallas en el producto
de software final se predice utilizando el modelo de crecimiento de la fiabilidad.
B.1.4 Aplicabilidad
1) Se utiliza generalmente durante la prueba del sistema y se aplica a todos los tipos de lenguajes
de programación.
2) Cuando es necesario comparar el valor de densidad de fallas con otro valor para un programa
escrito en un lenguaje de programación diferente, conviene normalizar los valores del tamaño.
B.2 Referencias
Falla
defecto en el software.
Error
cualquier ocurrencia de un evento (o no ocurrencia de algunos eventos) normalmente a partir de un
conjunto de eventos definidos.
ELOC (en inglés Erroneous Lines Of Code) Líneas erróneas del código
número de líneas del código, en las que se detecta una falla y se la modifica.
EELOC (en inglés Estimated Erroneous Lines Of Code) Líneas erróneas del código estimadas
número estimado de líneas erróneas del código (ELOC).
NCLOC (en inglés Non-Commented Lines Of Code) Líneas del código sin comentarios
número de líneas del código sin comentarios.
2) Información del producto: Informe de prueba del programa, Informe de revisión del programa,
Informe de verificación del programa.
Para aplicar la técnica de evaluación se deben recolectar los elementos de los datos siguientes:
16
2) Tiempo detectado de cada falla. El tiempo debe medirse de manera congruente, por ejemplo,
tiempo de unidad central de procesamiento (CPU) o tiempo calendario.
FDV<=10E-4 Excelente
10E-4<FDV<=10E-3 Bueno
10E-3<FDV<=10E-2 Regular
FDV>10E-2 Pobre
AVISO: Los valores del umbral deben adaptarse de acuerdo con la fase o el dominio del software
aplicado.
B.5.2 Informe
Los siguientes recursos deben estar disponibles cuando se aplica el módulo de evaluación:
No hay requerimientos especiales, pero se recomienda el uso de una herramienta para la re-
colección de datos de fiabilidad y para su análisis.
Aptitudes y calificación
La mayor parte del esfuerzo está relacionado con probar y registrar las fallas. Si se aplica una
herramienta de fiabilidad y recolección de datos, la aplicación del RGM y el cálculo de FDV sólo
requiere un esfuerzo limitado.
1) Selección de la muestra
Se selecciona una muestra del código fuente. Es conveniente que la proporción del muestreo sea
mayor que la mitad.
Los datos del error se extraen de los informes de prueba. Si no se dispone de informes de prueba, se
realiza la prueba. Para aplicar el modelo de crecimiento de la fiabilidad RGM se requiere un mínimo
de XXX tiempo de prueba.
Se cuenta el ELOC modificado con el tiempo de modificación y el NCLOC total de cada muestra.
3) Algoritmo
18
Se calcula el valor de la densidad de fallas:
AVISO: En este punto se debe explicar con todo detalle cómo utilizar el modelo o herramienta RGM o
bien se deben proveer referencias correspondientes a una herramienta y manual de software para
realizar el cálculo.
Se mide una vez por semana, y se analiza la tendencia durante la fase de prueba.
C.0 Introducción
Una correcta evaluación es posible si existe una definición bien documentada de los requerimientos
del software/sistema y si las necesidades expresadas están bien descritas. En todos los casos, la
evaluación considerará cómo se documenta.
Los ítems elementales descritos en este documento para cada subcaracterística compondrán un
nivel aproximado para definir el valor de la subcaracterística. No existe actualmente una fórmula para
esta evaluación y la adopción de una norma emergente dará confianza en que el trabajo tendrá una
aceptación general en el contexto de su aplicación.
El modelo de calidad pertinente a este módulo de evaluación considera más de una métrica para
cada ítem elemental correspondiente a cada subcaracterística. Las métricas para cada ítem
elemental por medir se describen en las “listas de control” con (s/n/d) respuesta posible para cada
pregunta: s significa sí, n significa no y d significa descartar por no ser aplicable.
La respuesta s/n a una pregunta está relacionada con la comparación entre el valor de la métrica y
un valor esperado: si el valor medido es igual o mejor que el valor esperado entonces la respuesta es
sí, en caso contrario la respuesta es no.
Vc = Ʃ Vsci / nsc
|Vscj| = Ʃ mi / (n-nd)
20
nd es el número de preguntas descartadas.
C.1 Alcance
C.1.1 Características
adecuación;
exactitud;
interoperabilidad;
conformidad;
seguridad de acceso;
Las métricas de adecuación miden la relación entre las funciones satisfechas durante la realización
de las pruebas y operaciones del usuario, y las funciones requeridas; es decir, las funciones que
realizan tareas que no se ajustan a los requerimientos documentados.
Las métricas de exactitud miden la precisión:
Las métricas de interoperabilidad miden el nivel de comunicación del componente de software con
otros sistemas y/o productos de software y/o equipos:
Las métricas de conformidad miden el nivel de normalización del componente de software con
respecto a la reglamentación o las reglas del ambiente.
Las métricas de seguridad miden el nivel de desempeño de la defensa contra el acceso ilegal y/o las
operaciones ilegales.
La siguiente tabla indica los niveles y las condiciones para cada nivel, considerando:
aspectos de economía;
aspectos de seguridad;
aspectos ambientales.
La elección del nivel se debe hacer adoptando, como mínimo, el nivel más alto que resulte del aná-
lisis de cada aspecto.
amenaza para vidas gran pérdida económica (compañía protección de datos y daño recuperable al medio
B
humanas comprometida) servicios críticos ambiente
C.1.3 Técnica
La siguiente tabla indica las técnicas de evaluación adoptadas para evaluar la FUNCIONALIDAD,
comenzando por la fila correspondiente al nivel elegido e incluyendo las técnicas de los niveles
inferiores; es decir, si el nivel de evaluación adoptado es el B, se aplican todas las técnicas desde el
nivel elegido hasta el nivel D.
Comprobaciones formales
22
El método más común de probar programas es el método de aseveraciones inductivas. La meta es el
desarrollo de un conjunto de teoremas sobre el componente de software bajo evaluación. El método
comienza escribiendo afirmaciones sobre las condiciones de entrada del componente de software y
los resultados correctos. Se requiere una prueba por separado para comprobar que el programa
siempre terminará. Otras técnicas de prueba son los métodos de transformador de predicados,
inducción de la sub meta, inducción del cálculo, inducción estructural y aseveraciones intermitentes.
En el futuro, este módulo de evaluación será ampliado para cubrir este nivel de evaluación, pero
actualmente este nivel para la FUNCIONALIDAD no es mensurable.
Pruebas de componente
Cada componente del software se prueba con respecto a los requerimientos. También se prueba en
relación con los componentes de software completamente integrados.
Esta técnica permite examinar la estructura interna del componente de software: la persona que
realiza la prueba establece los datos de prueba a partir del examen de la lógica del programa.
La prueba de caja blanca se relaciona con el grado con el que los casos de prueba ejercen o cubren
la lógica (código fuente) del programa. Un criterio de cobertura útil es la cobertura de sentencias, es
decir, requerir que cada sentencia en el programa se ejecute al menos una vez. Los criterios de
cobertura de la lógica más estrictos son: cobertura de caminos, cobertura de decisiones, cobertura
de condiciones, cobertura de decisión/condición y cobertura de condiciones múltiples.
Revisiones
Proceso que consiste en la inspección/análisis visual de los componentes del software y toda la
documentación pertinente.
Listas de control
La actividad de revisión se basa en una lista de control definida que permite repetir la actividad con
pocos criterios subjetivos. Las preguntas en la lista de control deben ser lo más simples posibles; el
objetivo de la pregunta debe ser información elemental. Las listas de control están sujetas a revisión,
integración y eliminación en función de la experiencia de la aplicación.
Pruebas funcionales
Este es un proceso que trata de encontrar las discrepancias entre el producto de software y su
especificación externa. Se analiza la especificación para derivar un conjunto de casos de prueba.
Esto es importante para la correcta definición de los casos de prueba y para aplicar técnicas y
métodos específicos (particiones o clases de equivalencia, análisis de valores límites, diagrama de
causa-efecto, métodos de conjetura de errores).
El software es visualizado como una caja negra, es decir, no interesa el comportamiento interno ni la
estructura del programa. La persona que realiza la prueba sólo está interesada en encontrar
situaciones en las que el programa no se comporte de acuerdo con sus especificaciones. Si no se
llevan a cabo pruebas adecuadas y exhaustivas, será necesario definir casos de prueba adecuados.
C.1.4 Aplicabilidad
ADECUACION
Se deben identificar claramente los componentes del software entregados al laboratorio para su
evaluación como componentes del software bajo evaluación.
24
Se deben documentar los resultados de las pruebas realizadas.
Todos los componentes del diseño deben ser trazables con respecto a los requerimientos
funcionales.
EXACTITUD
Los programas y datos deben estar libres de contradicciones entre sí y con respecto a la
documentación.
Se deben poder ejecutar de manera completa y correcta todas las funciones mencionadas en la
documentación del software.
SEGURIDAD DE ACCESO
Se deben identificar todas las amenazas, objetivos y funciones que fuerzan la seguridad de
acceso.
Las funciones que refuerzan la seguridad de acceso deben cumplir los objetivos de seguridad.
NOTA. La lista de requerimientos necesita integrarse con requerimientos específicos para el producto de software bajo
evaluación.
La tabla que está a continuación describe los documentos/componentes necesarios para el proceso
de evaluación para cada nivel de evaluación. También, la tabla indica cuándo, en un ciclo de vida
genérico del software, se puede utilizar el módulo de evaluación.
En la tabla, todo lo definido para un nivel es válido para los niveles inferiores.
(1) Esto significa ejecutar el producto en el ambiente de evaluación o bien tener acceso al ambiente objetivo con la
posibilidad de ejecutar el producto en dicho ambiente.
26
(2) La descripción del producto es una recopilación de información sobre qué espera el usuario del producto. Puede tener
la forma de carátula del producto o requerimientos del usuario u otra información.
(3) El manual del usuario es una recopilación de información sobre cómo utilizar el producto de software. Puede también
tener la forma de información interactiva, con o sin soporte en papel.
(4) Los casos de prueba incluyen los datos y los resultados de las pruebas. El proceso de evaluación utilizará dicha
información pero no se limita sólo a ella.
(5) La especificación de requerimientos del software es una colección de los requerimientos esenciales: requerimientos
funcionales, restricciones de eficiencia (“performance”) para diseño del software y sus interfaces externas.
(6) La restricción del lenguaje del código fuente se debe a la disponibilidad para el laboratorio del parseador (o pre compilador,
o intérprete) para el lenguaje especificado. Es una restricción temporal, ampliada a otros lenguajes cuando el laboratorio no
puede disponer del parseador correspondiente.
Para una descripción detallada sobre la documentación indicada en la tabla, consultar la IRAM-
ISO/IEC 14598-5.
C.2 Referencias
La siguiente es la mínima documentación de entrada para cada nivel de evaluación. Para información
más detallada sobre el contenido de los documentos ver la IRAM-ISO/IEC 14598-5.
Los títulos de los documentos son indicativos; pueden cambiar dependiendo de la documentación
interna/ estándar en el ambiente de desarrollo. Se recomienda que el contenido requerido, tal como
se describe en la parte 5 de la IRAM-ISO/IEC 14598, se integre/describa en documentos similares.
Es conveniente contar con una referencia cruzada que indique dónde se necesita la información para
la evaluación.
Informe de revisión del programa, informe de verificación del programa, informe de medición del
programa, plan de pruebas del programa, informe de pruebas del programa, plan de pruebas
unitarias, informe de pruebas unitarias, análisis de requerimientos del sistema, especificación y
diseño del sistema, plan de pruebas del sistema, plan de gestión de la configuración, informe de
gestión de la configuración, plan de aseguramiento de la calidad, informe de aseguramiento de la
calidad.
Código fuente, descripción del lenguaje de programación y de los compiladores, especificación de
requerimientos del software, descripción del diseño del software, informe de revisión del sistema,
informe de verificación del sistema, plan de pruebas del sistema, informe de pruebas del sistema.
Producto ejecutable, descripción del producto, manual del usuario, manuales del sistema, casos de
prueba.
Informe de revisión del programa, informe de verificación del programa, informe de medición del
programa, plan de pruebas del programa, informe de pruebas del programa, plan de pruebas
unitarias, informe de pruebas unitarias, análisis de requerimientos del sistema, especificación y
diseño del sistema, plan de pruebas del sistema, plan de gestión de la configuración, informe de
gestión de la configuración, plan de aseguramiento de la calidad, informe de aseguramiento de la
calidad.
Producto ejecutable, descripción del producto, manual del usuario, manuales del sistema, casos de
prueba.
Producto ejecutable, descripción del producto, manual del usuario, manuales del sistema, casos de
prueba.
Producto ejecutable, descripción del producto, manual del usuario, manuales del sistema, casos de
prueba.
El primer tipo de información son los datos para el proceso de evaluación; este tipo de datos se
describe a continuación de cada métrica que se utiliza.
El segundo tipo de información no está sujeto a evaluación; puede constar de varios documentos
informales que el desarrollador proporciona al evaluador; es parte de la documentación de
evaluación (por ejemplo, fax, mails, etc.). Es conveniente que los evaluadores conserven estos
28
documentos junto con el resto de la documentación (a saber, informes de trabajo correspondientes a
actividades de medición).
En este módulo de evaluación, el apartado 4.2 Elementos de datos, está definido a nivel general.
Para módulos de evaluación en niveles inferiores, es decir, un módulo de evaluación para una
métrica (densidad de fallas), es conveniente que este apartado sea más descriptivo y preciso.
C.4.3 Métricas y mediciones
Ratio de conformidad con los estándares del (proyecto de) desarrollo de software
La razón entre el número de reglas relacionadas con los estándares de desarrollo del proyecto
correctamente aplicadas, y el número total de reglas estándares de desarrollo de software.
La razón entre las reglas, correctamente aplicadas, relacionadas con estándares de documentación
del proyecto y el número total de reglas de estándares de documentación del proyecto.
La razón entre los formatos de datos estandarizados y los formatos de datos a estandarizar.
La razón entre los caracteres gráficos y de control estandarizados y aquellos por estandarizar.
La razón entre las funciones que efectivamente se encuentran a disposición del usuario y el número
total de funciones especificadas.
La razón entre la cantidad de funciones que deben cambiarse (cambio incluye agregado,
modificación y eliminación) luego de entrar en operación (prueba en la operación) y el número total
de funciones especificadas.
NOTA. Función especificada es la función que está definida en las especificaciones de requerimientos o que es provista por
un software en operación o está descripta en el manual del usuario como funciones disponibles.
La razón entre los datos de entrada-salida claros y correctamente definidos, y el número total de
entradas-salidas.
La razón entre los documentos del producto disponibles con este respecto del número total de
documentos del producto requeridos.
La razón entre los dígitos significativos implementados y los dígitos significativos requeridos para los
ítems de datos que requieren una exactitud específica.
La razón entre el tamaño real del código y el tamaño requerido del código.
Ratio de Corrección
La proporción de datos obtenidos con el grado de precisión necesario respecto de los datos
esperados.
Ratio de comunicaciones
La razón entre el vocabulario técnico habitual del sistema y todos los sistemas inter operativos.
La proporción de formatos de datos que concuerdan con los de los otros sistemas inter operativos
involucrados.
La razón entre los caracteres gráficos y caracteres de control que concuerdan y los de los otros
sistemas que inter operan.
30
La proporción de accesos/cambios de datos no autorizados y el número de intentos.
La razón entre los datos cifrados y los datos por ser cifrados.
Ratio de historia de acceso
La razón entre los registros de información confidencial, que tienen historias de accesos, y todos los
registros de información confidencial. Las historias de acceso contienen información sobre quién,
cuándo y a cuál de los registros de información confidencial se accedió.
Corrupción de datos
La razón entre los intentos de operaciones ilegales detectadas y el total de operaciones ilegales de
ingreso al sistema efectivizadas.
Valores esperados Más del 25% de Más del 70% de Más del 70% de Más del 70% de Más del 70% de
respuestas positivas respuestas positivas respuestas positivas respuestas positivas respuestas positivas
Valores obtenidos Valores evaluados Valores evaluados Valores evaluados Valores evaluados Valores evaluados
para Conformidad para Adecuación para Exactitud para Inter- para Seguridad de
operabilidad acceso
Vc = Ʃ Vsci / nsc
0
donde: nsc es 5.
C.5.2 Informe
• Sección 1 - Identificaciones
Esta sección del informe de evaluación contiene información de identificación relativa a la evaluación
realizada.
lugar o lugares donde se realizó la evaluación (si fuera diferente del indicado anteriormente),
el nombre del proveedor del producto de software (si fuera diferente del nombre indicado
anteriormente),
la dirección del proveedor del producto de software (si fuera diferente de la dirección indicada
anteriormente).
Esta sección del informe de evaluación debe contener los requisitos de la evaluación:
32
una descripción general del propósito del producto,
Esta sección debe contener la documentación de los métodos de evaluación utilizados para realizar
la evaluación. Para cada método de evaluación incluido en este punto, se debe proporcionar la
identificación de los componentes del producto a los que se ha aplicado el método.
Esta sección del informe de evaluación debe contener los resultados de la evaluación:
resultados de la evaluación,
Un Informe de Evaluación puede incluir los resultados de más de un Módulo de Evaluación; en ese
caso la estructura de las secciones es:
• Sección 1 - Identificaciones
Prefacio
Este módulo de evaluación sirve para medir la Calidad en uso tal como se especifica en la IRAM-NM-
ISO/IEC 9126-1 y utilizar los principios de la ISO 9241-11. Se basa en la metodología MUSiC [2].
Introducción
Este módulo de evaluación proporciona los principios para evaluar la calidad en uso evaluando los
resultados de utilizar el producto con una muestra representativa de usuarios que llevan a cabo
tareas representativas en un ambiente simulado.
D.1 Alcance
D.1.1 Características
Este módulo de evaluación especifica cómo evaluar las siguientes tres características de la calidad
en uso definidas en la IRAM-NM-ISO/IEC 9126-1:
Eficacia: capacidad del producto de software de permitir que los usuarios alcancen las metas
especificadas con precisión y completitud en un contexto de uso especificado.
Productividad: capacidad del producto de software de permitir que los usuarios inviertan la cantidad
adecuada de recursos en relación con la eficacia lograda en un contexto de uso especificado.
Satisfacción: capacidad del producto de software de satisfacer a los usuarios en un contexto de uso
especificado.
NOTA. La IRAM-NM-ISO/IEC 9126- 1 también define a la seguridad física como una característica, pero la seguridad física
está fuera del alcance de este módulo de evaluación.
D.1.3 Técnica
34
Una muestra de usuarios representativa intenta lograr metas de tareas representativas utilizando el
producto en un ambiente simulado sin otra ayuda que la disponible en el ambiente de trabajo real.
Los usuarios también completan un cuestionario de satisfacción.
D.1.4 Aplicabilidad
El modulo de evaluación es adecuado para cualquier producto que forme parte de un sistema con el
cual los usuarios interactúan para lograr los objetivos de las tareas.
D.2 Referencias
[1] ISO 9241-11:1998, Ergonomic requirements for office work with visual display terminals (VDTs) -
Part 11: Guidance on usability.
[2] Macleod M, Bowden R, Bevan N and Curson I (1997) The MUSiC Performance Measurement
method, Behaviour and Information Technology, 16.
[3] Brooke J (1996). SUS: A "quick and dirty" usability scale. In Usability Evaluation in industry. Taylor
and Francis. See http://www.redhatch.co.uk/sus.html
[4] Lewis, J.R. (1995). IBM Computer Usability Satisfaction Questionnaires: Psychometric
Evaluation and Instructions for Use. International Journal of Human-Computer Interaction, 7, 57-78.
[5] Kirakowski, J. (1996). The software usability measurement inventory: background and usage. In:
P. Jordan, B Thomas, & B Weerdmeester, Usability Evaluation in Industry. Taylor & Frances, UK.
See also http://www.ucc.ie/hfrg/questionnaires/sumi/index.html
[6] Shneiderman, B. (1998). Designing the User Interface. Reading, MA, Addison-Wesley Publishing
Co. See also: http://www.cs.umd.edu/projects/hcil/Research/1994/quis.html
Contexto de uso: usuarios, tareas, equipos (hardware, software y materiales) y ambientes físicos y
sociales en los que se usa el producto. [ISO 9241-11]
Se requiere una definición de los contextos de uso previstos para el producto, incluyendo las
características esenciales y las capacidades de los grupos de usuarios seleccionados, sus metas y
tareas y el ambiente técnico y de apoyo proyectado.
El contexto de evaluación es una especificación de las condiciones bajo las cuales las tareas se han
de realizar. Conviene que se base en el contexto de uso previsto. Se recomienda proporcionar la
siguiente información:
los dispositivos de visualización si el producto tiene una interfaz visual basada en una pantalla,
incluyendo el tamaño de la pantalla y la resolución del monitor y el tamaño y la fuente empleados;
el tamaño del papel de impresión y la resolución de impresión, si el producto tiene una interfaz
basada en la impresión;
los bits de audio y ajuste de volumen, si el producto tiene una interfaz de audio;
el dispositivo de entrada manual (teclado, “mouse”, “joystick”, etc.), si el producto tiene una
interfaz manual;
el ambiente, escenario o tipo de espacio en el que se llevó a cabo la evaluación. Por ejemplo,
laboratorio para facilidad de uso, configurado para simular un despacho de oficina, una sala de
reunión, un escritorio, un cuarto de estar, una planta de fabricación;
36
Una representación concreta de los resultados de la tarea producidos por cada usuario (por ejemplo,
datos, un registro en papel o la respuesta del usuario a un cuestionario).
NOTA. Utilizar una medida normalizada proporciona datos que son más fáciles de interpretar. Los siguientes son ejemplos
de cuestionarios estandarizados: SUS [3], PSSUQ [4], SUMI [5] y QUIS [6]).
D.4.3.1 Eficacia
La eficacia es una medida de si los usuarios pueden alcanzar sus metas con precisión y completitud.
No tiene en cuenta cómo se alcanzaron los objetivos, sólo si se alcanzaron.
Se recomienda medir la eficacia por el grado en que se alcanzaron las metas de la tarea. Una
métrica posible es el porcentaje de usuarios que en conjunto alcanzaron sus metas. Si las metas se
pueden alcanzar parcialmente (por ejemplo, debido a resultados incompletos o por debajo del
óptimo) entonces una métrica más adecuada sería el logro promedio de la meta, medida en una
escala de 0 al 100 basada en criterios especificados. En algunos casos puede ser importante el
porcentaje de usuarios que producen errores críticos, no corregidos.
D.4.3.2 Productividad
El tiempo que insume una tarea es la medida general de la eficacia. Ello supone que cuánto menos
tiempo invierte un usuario en completar una tarea, tanto menos recursos demandará dicha tarea y
tanto mejor será el producto. Medir la eficiencia como el cociente entre la eficacia y el tiempo
proporciona una medida del ritmo de trabajo, y sirve cuando se comparan diferentes productos para
el mismo grupo de usuarios y tarea.
D.4.3.3 Satisfacción
D.5.1.1 Eficacia
La eficacia se mide como un porcentaje. Los criterios para la eficacia dependerán del nivel de
evaluación y de la naturaleza de los objetivos del negocio.
D.5.1.2 Productividad
La productividad se puede medir por tiempo de tarea o por el cociente eficacia/tiempo de tarea. Los
criterios para la eficacia dependerán del nivel de evaluación y de la naturaleza de los objetivos del
negocio.
D.5.1.3 Satisfacción
Los criterios para la satisfacción pueden fijarse por comparación con resultados anteriores para
productos relacionados, o por comparación con una base de datos suministrada de reglas
industriales estándar para el cuestionario.
D.5.1.5 Exactitud
Es conveniente que todas las métricas informadas suministren los valores medios y el error estándar
de la media. Cualquier afirmación de diferencias entre los valores debe plantear la probabilidad de
que la diferencia no ocurrió por casualidad.
D.5.1.6 Interpretación
Se recomienda interpretar cada medida en relación con los requerimientos para la calidad en uso en
un contexto de uso específico. En general no es significativo combinar los resultados de la eficiencia
con los de la satisfacción.
D.5.2 Informe
El propósito del producto: para qué sirve el producto, qué se prevé que haga para sus usuarios.
Los objetivos de la evaluación, y todo valor específico deseado para las medidas por tomar.
Las características y capacidades esenciales que se esperan de los grupos de usuarios que se
están evaluando.
Contexto de la evaluación: las condiciones bajo las que se realizaron las tareas, y toda diferencia
conocida entre el contexto evaluado y el contexto de uso esperado.
Diseño de la evaluación: los grupos de usuarios, las tareas asignadas, toda otra variable
independiente, y las medidas tomadas.
38
Procedimiento: secuencia de eventos.
Dificultades halladas por los usuarios y sugerencias para cambios al producto (optativo).
Interpretación.
El propósito de la evaluación es ayudar a los lectores del informe a decidir si el producto tendrá
calidad en uso para sus usuarios particulares, tareas y ambiente de trabajo. Es conveniente que el
diseño de la evaluación se base en una simulación del ambiente de uso pretendido.
Se recomienda informar la evaluación y los resultados con suficiente detalle para permitir a los
lectores juzgar la relación de los resultados con las necesidades de sus propios usuarios, tareas y
ambientes de trabajo.
Las siguientes directrices ayudarán a asegurar que el procedimiento de evaluación se aproxime tanto
al uso en el ambiente de operación como sea posible:
es necesario que el informe de evaluación aclare para qué usuarios, tareas y ambientes de trabajo
está previsto el producto, y en qué medida se simularon realmente estas características en la
evaluación,
es conveniente que las instrucciones para las tareas instruyan a los usuarios sobre qué deben
alcanzar sin dar pistas sobre qué características del producto tienen que utilizar,
para que la situación de evaluación sea representativa del uso en el mundo real debe ser tan
natural como sea posible. Ello puede significar tener que simular distractores y otras condiciones
de trabajo. Es conveniente que los evaluadores sean lo más discretos posibles (preferentemente
observando de lejos desde otra habitación),
durante la evaluación no es conveniente pedir a los participantes que piensen en voz alta,
no es conveniente dar a los participantes ninguna pista o ayuda, distinta de los mecanismos
disponibles para los usuarios reales (tales como documentación o una línea telefónica de ayuda
técnica),
es conveniente obtener los datos de suficientes usuarios en cada categoría para que la muestra
de usuarios sea representativa del grupo previsto de usuarios. Dada la típica variabilidad de los
participantes en una evaluación, se ha demostrado que para obtener resultados coherentes es
mejor evaluar al menos 8 participantes de cada grupo de usuarios,
para utilizar las medidas tomadas, se recomienda que sea posible establecer criterios de
aceptación o hacer comparaciones entre los productos. Ello significa que es recomendable que
las medidas sean ítems cuantificables de valor conocido.
40
Anexo E
(Informativo)
Bibliografía
[2] ISO/IEC Guide 25, General requirements for the competence of calibration and testing
laboratories.
[3] ISO/IEC TR 9126-2, Software engineering — Product quality – Part 2: External metrics.
[4] ISO/IEC TR 9126-3, Software engineering — Product quality – Part 3: Internal metrics.
Anexo F – IRAM
(Informativo)
Bibliografía
42
Anexo G – IRAM
(Informativo)
El estudio de esta norma ha estado a cargo del organismo respectivo, integrado en la forma siguiente:
Integrante Representa a:
TRÁMITE
El estudio de este Esquema se realizó en las reuniones del 2008-03-11 (Acta 1-2008), 2008-10-21
(Acta 8-2008), 2008-11-04 (Acta 9-2008), 2008-12-10 (Acta 10-2008), 2009-01-07 (Acta 1-2009),
2009-03-04 (Acta 2-2009), 2009-03-25 (Acta 3-2009), 2003-04-15 (Acta 4-2009), 2009-05-13 (Acta
5-2009), 2009-06-03 (Acta 6-2009), 2009-08-05 (Acta 7-2009), 2009-09-02 (Acta 8-2009), 2009-12-
22 (Acta 11-2009), en la última de las cuales se lo re aprobó como Esquema 1 y se dispuso su envío
a Discusión Pública por el término de 30 días.
Salud No corresponde
Seguridad No corresponde
******************************
44
APROBADO SU ENVÍO A DISCUSIÓN PÚBLICA POR EL SUBCOMITÉ DE CALIDAD EN
TECNOLOGÍA DE LA INFORMACIÓN, EN SU SESIÓN DEL 22 DE DICIEMBRE DE 2009 (Acta 11-
2009).
FIRMADO FIRMADO
Mg. Paula María Angeleri Lic. Graciela Frigeri
Coordinador del Subcomité Secretario del Subcomité
FIRMADO
Lic. Marta R. de Barbieri
Vº Bº Gerente de Tecnología Química