Documente Academic
Documente Profesional
Documente Cultură
Pruebas de Software
Atoche Huaspa , Gustavo Ayala Espino , Erick Antony Cueva ramos , Daniel Flix Palma Mayhua , Adolfo
16/05/2012 Ica -Per
A nuestros padres, a su comprensin y esfuerzo Por hacer de nosotros da a da Mejores personas para La sociedad.
Contenido
INTRODUCCIN ........................................................................................................................ 5 1. PRUEBAS DE SISTEMAS ...................................................................................................... 6 1.1. Tipos de pruebas de sistemas ............................................................................................. 7 Prueba de recuperacin .............................................................................................. 7 Prueba de seguridad ................................................................................................... 8 Prueba de resistencia .................................................................................................. 9 Prueba de desempeo ................................................................................................ 9 Prueba de comunicacin ........................................................................................... 10 Prueba de volumen ................................................................................................... 10 Prueba de tensin ..................................................................................................... 10 Prueba de disponibilidad de datos ............................................................................ 10 Prueba de facilidad de uso ........................................................................................ 11 Prueba de operacin ................................................................................................. 11 Prueba de entorno .................................................................................................... 11 Prueba de almacenamiento ...................................................................................... 11 Prueba de configuracin ........................................................................................... 11 Prueba de instalacin ................................................................................................ 11 Prueba de documentacin ....................................................................................... 12
1.1.1. 1.1.2. 1.1.3. 1.1.4. 1.1.5. 1.1.6. 1.1.7. 1.1.8. 1.1.9. 1.1.10. 1.1.11. 1.1.12. 1.1.13. 1.1.14. 1.1.15. 1.2. 1.3. 1.4. 2.
Visin sistmica de la prueba ............................................................................................ 12 Vista general de la prueba de sistemas............................................................................. 13 Plan de pruebas ................................................................................................................. 13
PRUEBAS DE ACEPTACIN. .............................................................................................. 14 2.1. 2.2. 2.3. 2.4. Estudio de la situacin actual en Pruebas de Aceptacin ................................................. 15 Objetivo de la pruebas de aceptacin............................................................................... 15 Generacin de las pruebas de aceptacin. ....................................................................... 16 Estrategias de pruebas de aceptacin .............................................................................. 16 Pruebas alfa y beta .................................................................................................... 16
Entradas, salidas, tareas y roles de pruebas de aceptacin.............................................. 17 Criterios de pruebas de aceptacin. ................................................................................. 18 Universidad Nacional San Luis Gonzaga de Ica | FIS 3
IMPLEMENTACIN DE PRUEBAS DE SISTEMA Y PRUEBAS DE ACEPTACIN. ....................... 21 3.1. Implementacin de pruebas sistema. ............................................................................... 21 Generacin de objetivos de prueba a partir de casos de uso. .................................. 21 Implementacin de pruebas del sistema. ................................................................. 21 Un caso prctico. ....................................................................................................... 24
Implementacin de pruebas de aceptacin. ..................................................................... 31 Pruebas de aceptacin automtica. .......................................................................... 32 Implementacin de pruebas de aceptacin. ............................................................. 39
3.2.1. 3.2.2.
INTRODUCCIN
La aplicacin de pruebas de software es actualmente una herramienta importante para llevar el control de la realizacin de un proyecto de software de calidad y cada vez es mas rigurosa estas pruebas por el hecho de la gran competitividad creciente existente en el mercado. Las pruebas de sistemas conforman uno de los niveles de pruebas de software conjuntamente con diversas pruebas como pruebas recuperacin, seguridad, resistencia, desempeo, comunicacin, volumen, tensin, disponibilidad de datos, facilidad de uso, operacin, entorno, almacenamiento, configuracin, instalacin y documentacin. Cada cual tiene diversa finalidad y con un objetivo en comn que demuestre una visin sistemtica para proyecto. Las pruebas de aceptacin es otro tipo de nivel que se complementa en los niveles de pruebas de software, estas pruebas son muy fundamentales ya que son las que nos van a permitir que el producto cumpla con los estndares necesarios y que a la vez satisfaga a los usuarios de acuerdo a los requerimientos que plantearon desde un inicio.
1. PRUEBAS DE SISTEMAS
El software se incorpora a otros elementos del sistema (como hardware, personas, informacin), y se realiza una serie de pruebas de integracin de sistemas y de validacin. Estas pruebas estn ms all del alcance del proceso de software y no las realizan nicamente los ingenieros del software. Sin embargo, los pasos durante el diseo y las pruebas del software mejoran en gran medida la probabilidad de tener xito en la integracin del software en el sistema mayor. Cualquier pieza de software completo, desarrollado o adquirido, puede verse como un sistema que debe de probarse, ya sea decidir acerca de su aceptacin, para analizar defectos globales o para estudiar aspectos especficos de su comportamiento, tales como seguridad, rendimiento. A este tipo de pruebas donde se estudia el producto completo se les llama pruebas de sistemas. Un problema clsico de la prueba de sistema es sealar con el dedo. Esto ocurre cuando se descubre un error y el desarrollador de cada elemento del sistema culpa a los dems. En lugar de caer en este absurdo, el ingeniero del software debe de anticiparse a posibles problemas de la interfaz y: disear ruta de manejo de errores que prueben toda la informacin proveniente de otros elementos del sistema. Aplicar una serie de pruebas que simulen datos incorrectos u otros posibles errores en la interfaz de software. Registrar los resultados de la prueba como evidencia en el caso de que se culpe. Participar en la planeacin y el diseo de las pruebas del sistemas para asegurar que le software se ha probado adecuadamente. En realidad, la prueba de sistema abarca una serie de pruebas diferentes cuyo propsito principal es ejecutar profundamente el sistema en cmputo. Aunque cada prueba tiene un propsito diferente, todas trabajan para verificar que se hayan integrado adecuadamente todos los elementos del sistema y que realicen las funciones apropiadas.
Con frecuencia las pruebas de desempeo se vinculan con pruebas de resistencia y suelen requerir instruccin de software y hardware. Es decir, a menudo resulta necesario medir con exactitud la utilizacin de recursos (por ejemplo: los ciclos de procesador). Mediante instrumentacin externa pueden vigilarse de manera regular los intervalos de ejecucin, los eventos que se registran (como las interrupciones) y los estados de muestra del equipo. Si se instrumenta un sistema, la persona que aplica la prueba descubrir situaciones que lleven a la degradacin y posibles fallas del sistema.
10
PRUEBAS DE SISTEMA Y PRUEBAS DE ACEPTACIN 16 de mayo de 2012 1.1.9. Prueba de facilidad de uso
Consisten en comprobar la adaptabilidad del sistema a las necesidades de los usuarios, tanto para asegurar que se acomoda a su modo habitual de trabajo, como para determinar las facilidades que aporta al introducir datos en el sistema y obtener los resultados
1.1.10.
Prueba de operacin
Consisten en comprobar la correcta implementacin de los procedimientos de operacin, incluyendo la planificacin y control de trabajos, arranque y Re-arranque del sistema
1.1.11.
Prueba de entorno
Consisten en verificar las interacciones del sistema con otros sistemas dentro del mismo entorno.
1.1.12.
Prueba de almacenamiento
Los programas tienen de vez en cuando objetivos de almacenamiento que indiquen, por ejemplo, la cantidad de memoria principal y secundaria que el programa usa y el tamao de los archivos temporales. Se disean casos de prueba para demostrar que estos objetivos de almacenaje no han sido encontrados
1.1.13.
Prueba de configuracin
Programas tales como sistemas operativos, sistemas de gerencia de base de datos, y programas de conmutacin de mensajes soportan una variedad de configuraciones de hardware, incluyendo varios tipos y nmeros de dispositivos de entrada-salida y lneas de comunicaciones, o diversos tamaos de memoria. A menudo el nmero de configuraciones posibles es demasiado grande para probar cada uno, pero en lo posible, se debe probar el programa con cada tipo de dispositivo de hardware y con la configuracin mnima y mxima. Si el programa por s mismo se puede configurar para omitir componentes, o si puede funcionar en diversas computadoras, cada configuracin posible de este debe ser probada.
1.1.14.
Prueba de instalacin
Algunos tipos de sistemas de software tienen complicados procedimientos de instalacin. Las pruebas de los procedimientos de instalacin es una parte importante del proceso de prueba del sistema. Esto es particular de un sistema automatizado de instalacin que sea parte del paquete del programa. Al funcionar incorrectamente el programa de instalacin podra evitar que el usuario tenga una experiencia acertada con el sistema. La primera experiencia de un usuario es cuando l o ella instala la aplicacin. Si esta fase se realiza mal, entonces el usuario/el cliente puede buscar otro producto o tener poca confianza en la validez de la aplicacin Universidad Nacional San Luis Gonzaga de Ica | FIS 11
Las pruebas de sistema tambin se refiere a la exactitud de la documentacin del usuario. Una manera de lograr esto es utilizar la documentacin para determinar la representacin de los casos anteriores de prueba del sistema. Esto es, una vez se desea idear el caso de sobrecarga, se utilizara la documentacin como gua para escribir el caso de prueba real. Tambin, la documentacin del usuario debe ser el tema de una inspeccin, comprobndola para saber si hay exactitud y claridad. Cualesquiera de los ejemplos ilustrados en la documentacin se deben probar y hacer parte de los casos y alimentarlos al programa. Determinan que las interfaces entre los componentes del sistema funcionan adecuadamente, tanto a travs de dispositivos remotos, como locales. Asimismo, se han de probar las interfaces hombre/mquina
1.4.Plan de pruebas
El plan de pruebas es un documento muy importante dentro del proceso de prueba del software. En l se explican los propsitos y enfoques de las pruebas, el plan de trabajo, los procedimientos operacionales, las herramientas necesarias y las responsabilidades. La extensin y detalle del plan debe adecuarse al proyecto y a las necesidades de la empresa, Universidad Nacional San Luis Gonzaga de Ica | FIS 13
2. PRUEBAS DE ACEPTACIN.
Estas pruebas se realizan para que el cliente certifique que el sistema es vlido para l. La planificacin detallada de estas pruebas debe haberse realizado en etapas tempranas del desarrollo, con el objetivo de utilizar los resultados como indicador de su validez: si se ejecutan las pruebas documentadas a satisfaccin del cliente, el producto se considera correcto y, por tanto, adecuado para su puesta en produccin. (1) Las pruebas de aceptacin (2), son bsicamente pruebas funcionales sobre el sistema completo, y buscan comprobar que se satisfacen los requisitos establecidos. Su ejecucin es facultativa del cliente, y en el caso de que no se realicen explcitamente, se dan por incluidas dentro de las pruebas de sistema. Es decir, las pruebas de aceptacin son, a menudo, responsabilidad del usuario o del cliente, aunque cualquier persona involucrada en el negocio puede realizarlas. La ejecucin de las pruebas de aceptacin requiere un entorno de pruebas que represente el entorno de produccin. Esta fase o nivel toma como punto de partida la lnea base de aceptacin del producto ya instalado en el entorno de certificacin. A partir de dicha lnea base se acepta el producto, tomando como referencia la especificacin de requisitos y comprobando que el sistema cubre satisfactoriamente los requisitos del cliente. (2)
14
15
16
Las pruebas -beta se realizan con posterioridad a las prueba -alfa, y se desarrollan en el entorno del cliente. En este caso, el cliente se queda a solas con el producto y trata de encontrarle fallos de los que informa al desarrollador. (5) Se llevan a cabo por los usuarios finales del software en los lugares de trabajo de los clientes. A diferencia de la prueba alfa, el desarrollador no est presente normalmente. As, la prueba beta es una aplicacin en vivo del software en un entorno que no puede ser controlado por el desarrollador. El cliente registra todos los problemas que encuentra durante la prueba beta e informa a intervalos regulares al desarrollador.
Entradas
Tareas
Preparacin del entorno de pruebas. Se recomienda la existencia de un entorno de pruebas especfico para la realizacin de este tipo de pruebas. Instalacin en el entorno de pruebas. Identificacin de las pruebas a realizar. Planificacin de las pruebas. Se establecern las posibles dependencias que hubiera entre pruebas y se establecer el orden o secuencia de ejecucin de las pruebas en base a dichas dependencias. 17
Salidas
Roles
Tabla de E/S, tareas y roles. (2) El hecho de centrarnos en las pruebas de aceptacin, surge de intentar reforzar la visin de que el usuario integrado en dicha fase, de forma temprana, ayudara a mejorar dicho proceso desde la fase de planificacin y diseo de las pruebas, con las consiguientes mejoras de muchos aspectos cuantificables y deseables como pueden ser: Aumento en la calidad del software integrado Minimizacin de costes Aumento de la fiabilidad en los resultados del proyecto Se produce un incremento de la satisfaccin del cliente al utilizar un software con una cantidad de errores inferior. Se incrementa la eficiencia del proceso de desarrollo.
Herramienta 1. CANOO
Descripcin
Canoo es una herramienta de Software Libre para automatizar las pruebas de aplicaciones web de una forma muy efectiva. http://webtest.canoo.com/webtest/manual/WebTestHome.html 2. CONCORDION Concordion es un framework Java de Software Libre que permite convertir especificaciones en texto comn sobre requerimientos en pruebas automatizadas http://www.dosideas.com/wiki/Concordion 3. FITNESSE FitNesse es una herramienta colaborativa para el desarrollo de software. Permite a los clientes, testers, y programadores aprender lo que su software debera hacer, y automticamente compara lo que realmente hace. Compara las expectativas de los clientes a los resultados reales http://www.dosideas.com/wiki/FitNesse 4. JBEHAVE JBehave es un framework Java para mejorar la colaboracin entre desarrolladores, QA, analistas de negocio, Dueo Del Producto y todos los miembros del equipo a travs de escenarios automatizados y legibles. http://www.dosideas.com/wiki/JBehave 5. JMETER JMeter es un proyecto de Apache Jakarta que puede ser usado para realizar una Prueba De Carga, para as analizar y mediar la Performance De Aplicaciones de distinto tipo, aunque con especial foco en Aplicaciones Web http://jakarta.apache.org/jmeter/ http://www.dosideas.com/wiki/JMeter 6. SAHI Sahi es una herramienta de automatizacin de pruebas para aplicaciones Web, con la facilidad de grabar y reproducir scripts. Universidad Nacional San Luis Gonzaga de Ica | FIS 19
20
En este caso se presenta un ejemplo, basado en el perfil de pruebas de UML, para la implementacin en cdigo ejecutable de objetivos de prueba definidos mediante escenarios y variables operacionales.
21
Figura J1 - Arquitectura de prueba de sistema AssertCatalog.- La clase AssertCatalog define la coleccin de asertos a disposicin de los casos de prueba para determinar si el resultado obtenido del sistema a prueba (clase TestResult) es correcto o no.
22
Tabla 1. Comportamiento genrico de un caso de prueba. Cada caso de uso tendr asociado un test suite (figura J1). Dicha suite contendr las pruebas de todos los escenarios de dicho caso de uso. Universidad Nacional San Luis Gonzaga de Ica | FIS 23
Todos los pasos realizados por un actor se traducirn en el cdigo del caso de prueba a una interaccin entre el caso de prueba y el sistema. El test oracle de un caso de prueba ser el conjunto de ValidationActions, o acciones de validacin, obtenidas principalmente, a partir de los pasos realizados por el sistema. Se va a aplicar la tcnica de variables operacionales y de categora-particin para la definicin de los valores de prueba necesarios. Se han identificado tres tipos distintos de variables operacionales. Cada uno de los tipos se implementar de manera distinta en los casos de prueba. El primer tipo lo componen aquellas variables operacionales que indican un suministro de informacin al sistema por parte de un actor externo. Para cada variable de este tipo se definir una nueva clase cuyos objetos contendrn los distintos valores de prueba para dicha variable. Para cada particin del dominio identificada, el elemento TestDataPool tendr, al menos, una operacin que devuelva un valor de prueba perteneciente a dicha particin. Un ejemplo de una variable operacional de este tipo se muestra en el caso prctico. El segundo tipo lo componen aquellas variables operacionales que indican una seleccin entre varias opciones que un actor externo tiene disponible. En este caso, no tiene sentido implementar estas variables como mtodos del TestDataPool. En su lugar, dicha seleccin se implementar directamente como parte del cdigo que implementa la interaccin entre el actor y el sistema. Un ejemplo de una variable operacional de este tipo se muestra en el caso prctico. El tercer tipo lo componen aquellas variables operacionales que indican un estado del sistema. Para implementar el mtodo de set up del caso de prueba, se debe escribir el cdigo necesario para establecer adecuadamente el valor de las variables operacionales que describen los estados del sistema, o bien comprobar que dichos valores son los adecuados. De manera anloga, el mtodo tear up debe restaurar dichos valores a sus estados originales. Adems, el mtodo tear down debe eliminar, si es procedente, la informacin introducida por el caso de prueba en el sistema durante la ejecucin del caso de prueba. Varios ejemplos de variables operacionales de este tipo se muestran en el caso prctico.
24
25
Tabla 3. Requisito de informacin de los enlaces. Tambin ha sido posible aplicar el mtodo de categora-particin. Todas las variables operacionales encontradas automticamente por la herramienta ValueGen se enumeran en la tabla 6. Las particiones para cada una de dichas variables (tambin encontradas por la herramienta ValueGen) se enumeran en la tabla 7. En este caso, no se ha continuado refinando el conjunto de particiones aunque para algunas variables, como V04, s podran identificarse particiones adicionales. Para la implementacin del escenario de xito, todas las variables operacionales deben tener un valor perteneciente a las particiones C02.
26
27
Tabla 7. Categoras para las variables identificadas. B) Test harness. Tal y cmo se describi en la figura 1, el test harness tiene la misin de simular el comportamiento del usuario y ofrecer un conjunto de asertos para evaluar el resultado obtenido. En este caso prctico, al ser el sistema bajo prueba una aplicacin web, es necesario que el test harness sea capaz de comunicarse con el navegador web y sea capaz tambin de realizar comprobaciones en el cdigo HTML recibido como respuesta. Por ellos, hemos elegido la herramienta de cdigo abierto Selenium (www.openqa.org/selenium) la cul cumple estas caractersticas. Como se puede ver en la figura J2, Selenium ofrece un interfaz que permite abrir un navegador web e interactuar con l de la misma manera que un actor humano. Respecto al catlogo de asertos, al estar basado en la popular herramienta JUnit, Selenium Universidad Nacional San Luis Gonzaga de Ica | FIS 28
Figura J2. Ejecucin del caso de prueba del escenario principal con la herramienta Selenium. C) Implementacin de un caso de prueba En primer lugar se ha implementado el data pool y los valores de prueba tal y como se muestra en la figura J3. A continuacin, se toman todos los pasos ejecutados por el actor humano y se traducen a cdigo Java para la herramienta Selenium. Dicha traduccin se realiza actualmente a mano y se muestra en la tabla 8.
29
Tabla 8. Traduccin a cdigo ejecutable de los pasos realizados por el usuario en el escenario principal. A continuacin, en la tabla 9, se escribir los asertos a partir de los pasos que realiza el sistema.
30
Tabla 9. Traduccin a cdigo ejecutable del test Oracle para el escenario principal. La implementacin del mtodo de set-up consisti en comprobar que todas las variables operacionales de la tabla 2 tuvieran un valor de la particin C02. Es decir, comprobar que hay categoras y que no hay ninguna circunstancia que ocasione un error al recuperar las categoras o insertar el nuevo enlace. La implementacin del mtodo de tear down, consisti en la restauracin del conjunto original de enlaces almacenado en el sistema.
31
PRUEBAS DE SISTEMA Y PRUEBAS DE ACEPTACIN 16 de mayo de 2012 3.2.1. Pruebas de aceptacin automtica.
Una de las prcticas ms valiosas para salir del movimiento de Software gil es un sistema automatizado, previamente probado estilo de desarrollo, a menudo denominado Test-Driven Development, o TDD. Un principio fundamental de TDD es que la creacin de pruebas se trata tanto de diseo y el desarrollo de la orientacin, ya que se trata de la verificacin y la regresin. Es tambin acerca del uso de la prueba para especificar una unidad de la funcionalidad requerida, y el uso de esa prueba a escribir a continuacin, slo el cdigo necesario para ofrecer esta funcionalidad. Por lo tanto, el primer paso en la implementacin de cualquier nueva funcionalidad es para describir sus expectativas con una prueba. Muchos desarrolladores y los equipos han tenido gran xito con TDD. Los dems no tienen, y encontrar que luchan con la gestin del proceso a travs del tiempo, sobre todo porque el volumen de pruebas empieza a crecer y la flexibilidad de las pruebas se empieza a degradar. Algunos no son seguro de cmo empezar con TDD, mientras que otros encuentran TDD fciles de iniciar, slo para ver lo abandonaron como los plazos cercanos a los retrasos y el telar grande. Por ltimo, muchos desarrolladores interesados cumplir con la resistencia a la prctica dentro de sus organizaciones, ya sea porque la palabra "prueba" implica una funcin que pertenece a otro equipo o por la falsa percepcin de que los resultados de TDD en cdigo extra demasiado y ralentiza los proyectos. (9) Enfoque Test-Driven Development (TDD). El enfoque Test-Driven Development (TDD) se basa en que las pruebas deben dirigir el desarrollo del producto software. El TDD se ha aplicado esencialmente en el mbito de la implementacin, particularmente siguiendo e planteamiento no escribir cdigo hasta disponer de las pruebas que debe satisfacer dicho cdigo. El TDD ha tenido un fuerte impulso con las metodologas giles, las cuales lo incorporan entre sus prcticas esenciales. En productos software industriales, cuando se utilizan prcticas de ingeniera de requisitos, stas mayoritariamente estn soportadas por lenguaje natural, lo cual conlleva los ya conocidos inconvenientes relativos a ambigedad. Sin embargo, la necesidad de validacin puede ms que las ventajas que puede ofrecer una especificacin ms formal y rigurosa de los requisitos. El cliente debe poder leer y comprender los requisitos para as poder dar su conformidad respecto de ellos. Las tcnicas ms populares para especificacin de requisitos se resumen en Casos de Uso (utilizados en metodologas tradicionales, como RUP) e Historias de Usuario (fichas de XP o representaciones similares en otras metodologas giles como Scrum). Si bien los elementos Actor (o tipo de usuario) y Requisitos (Caso de Uso o Historia de Usuario) pueden visualizarse y manipularse grficamente o en fichas, la descripcin de cada requisito se elabora esencialmente de forma textual en lenguaje natural. Para definir los requisitos es clave involucrar al cliente. El acuerdo/contrato con el cliente y la planificacin del desarrollo del producto deberan estar basados en los requisitos que se pretenden incorporar en el producto. Los requisitos son el objetivo a conseguir, es decir, es lo que espera el cliente que el producto software satisfaga. Universidad Nacional San Luis Gonzaga de Ica | FIS 32
La Figura 1 ilustra algunas alternativas de especificacin para este requisito (incluyendo la anterior descripcin narrativa como opcin por defecto). Los iconos reflejan la conveniencia de cada alternativa de especificacin. Elaborar un Diagrama de Secuencia para definir cada escenario de ejecucin del requisito puede parecer interesante, sin embargo, en general no resulta apropiado por la gran cantidad de Universidad Nacional San Luis Gonzaga de Ica | FIS 33
34
36
39
CONCLUSIONES Y RECOMENDACIONES.
Las pruebas de aceptacin son iterativas donde se pueden aplicar un conjunto de metodologa como el programacin extrema (XP), el scrum y RUP(casos de usos)estn definidas como pruebas de Caja negra por la que que el ms importante de los actores que estas pruebas sean exitosas es el cliente es importante determinar las historias y escenarios en donde se van a especificar determinar los requisitos para que el cliente pueda validar si est conforme a lo especificado. Por otra parte tenemos las pruebas de sistemas estas son las encargadas de evaluar el funcionamiento a lo largo del proceso para detectar los errores que se puedan producir para ello es necesario hacer una estrategia con los testing y separar el desarrollo del cdigo con el desarrollo de la interfaz as se hace mejor una implementacin de prueba de sistemas . La implementacin de estas dos pruebas de software se deben hacer con exmenes riguroso y que cumplan con determinados estndares y con la coordinacin de los stakeholder que estn implicados en la elaboracin del sistema .
40
Bibliografa
1. Isabel Ramos Romn, Jos Javier Dolado Cosn. Tcnicas Cuantitativas para la Gestin en la Ingeniera del Software. Primera Edicion ed. Tuya , Ramos Romn I, Dolado Cosn JJ, editors. Espaa: Netbiblo, 2007; 2007. 2. INTECO. Instituto Nacional de Tecnologias de Comunicacion. [Online].; 2009 [cited 2012 [Plan Avanza 2 - Ministerio de Industria, Turismo y Comercio de Espaa]. Available from: www.inteco.es/file/XaXZyrAaEYfaXKiMJlkT_g. 3. F. Alonso Amo, Loic Martnez Normand. Introduccin a la Ingeniera del software. Primera edicion ed. Barbero Ruiz J, editor. Espaa: Delta Publicaciones, 2005. 4. IEEE Computer Society. Computer. [Online].; 2004 [cited 2012. Available from: http://www.computer.org/portal/web/swebok/html/contentsch5#ch5. 5. Asociacion de tecnicos de informatica. Pruebas de Aceptacin en Sistemas Navegables. REICIS Revista Espaola de Innovacin, Calidad. 2010 Noviembre; vol. 6(nm. 3): p. pp. 47-55. 6. ALEGSA. ALEGSA - DICCIONARIO DE INFORMTICA. [Online].; 2012. Available from: http://www.alegsa.com.ar/Dic/implementacion.php. 7. ingsoft. ingsoft-ETAPA DE PRUEBAS. [Online].; 2007. Available from: http://ingpau.blogspot.com/2007/09/etapa-de-pruebas.html. 8. Departamento de Lenguajes y Sistemas Informticos. ITESCAM. [Online]. Available from: http://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r43876.PDF. 9. Satrom B. MSDN Magazine. [Online].; 2010. Available from: http://msdn.microsoft.com/eses/magazine/gg490346.aspx. 10. Francisco Surez;Patricio Letelier. TUNE-UP. [Online]. Available from: http://tuneup.dsic.upv.es/LinkClick.aspx?fileticket=Dshzxx-2qDY%3D&tabid=40.
41