Sunteți pe pagina 1din 18

DC Management

“Divide and Conquer”


Sistema modular de administración

NOMBRE: Ulises Fernandez Soto


Matías Labraña Abarca
Rodrigo Riveros Rojas
CARRERA: Ingeniería informática
ASIGNATURA: Taller de proyecto de infraestructura
PROFESOR: Alejandro Corro Encina
FECHA: 11 de Diciembre del 2017
ÍNDICE
DC Management ................................................................................................................................................. 1
“Divide and Conquer” Sistema modular de administración................................................................................ 1
1 Introducción ................................................................................................................................................. 3
2 Casos de prueba ........................................................................................................................................... 4
2.1 Pruebas de carga .................................................................................................................................. 4
2.2 Pruebas de stress .................................................................................................................................. 5
2.3 Pruebas de capacidad ........................................................................................................................... 6
2.4 Pruebas de contingencia ...................................................................................................................... 7
2.4.1 Procesos de contingencia internos ............................................................................................... 7
3 Análisis de resultados de las pruebas ........................................................................................................... 8
4 Generación de métricas e indicadores ......................................................................................................... 9
4.1 Métricas Rendimiento de software ...................................................................................................... 9
4.2 Métrica para monitoreo de red ............................................................................................................ 9
4.3 Métricas para rendimiento de la base de datos ................................................................................. 10
4.4 Métricas para rendimiento del servidor............................................................................................. 10
4.5 Métricas para monitoreo de Seguridad............................................................................................. 11
5 Monitoreo de infraestructura .................................................................................................................... 12
5.1 Herramientas de monitoreo ............................................................................................................... 12
5.1.1 Uso de CPU y conexiones simultaneas ....................................................................................... 12
5.1.2 Webalizer .................................................................................................................................... 13
5.1.3 Banda ancha ............................................................................................................................... 14
5.1.4 Errores ........................................................................................................................................ 14
5.1.5 Awstast ....................................................................................................................................... 15
5.1.6 Estadificas de Anlog ................................................................................................................... 16
6 Conclusión .................................................................................................................................................. 17
7 Bibliografía .................................................................................................................................................. 18

Página 2 de 18
1 Introducción

En el presente documento desarrollaremos las pruebas realizadas al sistema DC Management, estas pruebas
nos indicaran información clave de la capacidad y robustez de nuestro sistema informático, para el desarrollo
de las pruebas la empresa utilizara herramientas de monitoreo internas del Hosting, estos servicios están
disponibles en paralelo al sistema web, esto quiere decir que aunque la página se encuentre abajo, aun así
estarían disponibles las herramientas de monitoreo.

Para el caso de las prueba se utilizó en el que se requiere conexiones simultaneas y otros tipos de
requerimientos más específicos se utilizara la plataforma web https://app.loadimpact.com , esta cuenta con
la capacidad de virtualizar y poner a prueba cualquier sitio web.

Una vez realizadas las pruebas se recopilara la información para entregar un análisis específico de los
resultados obtenidos, contrastando estos, con los resultados esperados por la empresa del cliente.

Otro punto importante son el desarrollo de métricas de evaluación, estas serán utilizadas para medir la
distintas necesidades de DC Management en los distintos escenarios que se requiera una supervisión y control.

Para finalizar se describe y establece las responsabilidades de la contingencia a nivel de infraestructura, con el
fin de conocer los procedimientos a realizar para resolver las incidencias generadas.

Página 3 de 18
2 Casos de prueba
2.1 Pruebas de carga
Tras la realización de pruebas de rendimiento a nuestro sitio web en el host adquirido para este efecto con las
siguientes características:

 1900 MB – RAM
 3500 MHZ – CPU
 Velocidad enlace Nacional – 800 Mbps
 Velocidad enlace Internacional – 400 Mbps
 Ping nacional – 8 a 22 ms
 Velocidad escritura en disco 10.240 KB/s
 Raid 10

Para las pruebas realizadas se utilizó:

 Tiempo por test: 5 min.


 Cantidad de Vus (usuarios virtuales): 50 Vus
 Cantidad de conexiones por usuario: 2.76 TCP

Resultados ante servidor estabilizado:

 Uso de memoria promedio: 2.71% (51.49 MB)


 Uso de CPU promedio: 0.38% (13.3 MHZ)
 Tiempo de respuesta promedio: 1.1 s

Gráfica 1

Página 4 de 18
Calculo de capacidad máxima de trabajo del servidor:

Calculo de cantidades posibles de usuarios según capacidades del servidor, se descarta capacidad de
escritura en disco y BD ya que son valores demasiado bajos, se toma valores correspondientes a CPU y RAM
para cálculos correspondientes:

ITEM Muestra 1 Muestra 2 Muestra 3 Muestra 4 Muestra 5


Cantidad de Vus 0 12,00 26 41 50
RAM (MB) 0 25,84 40,85 47,5 54,53
CPU (Mhz) 0 17,15 20,65 15,05 13,65
Tiempo Resp (s) 0 1,21 1,05 1,1 1,1

Proyección según RAM Proyección según CPU


Cantidad Vus 1713 Cantidad Vus 692
Cantidad RAM (MB) 1900 Cantidad CPU (MHZ) 3500

Producto de este calculo se descarta la proyección según RAM:

Procedemos a calcular proyección de RAM utilizada y tiempo de respuesta:


ITEM Muestra 1 Muestra 2 Muestra 3 Muestra 4 Muestra 5 Proyección final calculada
Cantidad de Vus 0 12,00 26 41 50 692
RAM (MB) 0 25,84 40,85 47,5 54,53 621
CPU (Mhz) 0 17,15 20,65 15,05 13,65 3500
Tiempo Resp (s) 0 1,21 1,05 1,1 1,1 14

Para efectos de proyección nuestro sistema podría llegar a su tope de trabajo con:

 692 usuarios
 3500 MHZ – CPU (máximo de CPU)
 621 MB RAM (No se utiliza toda pero es el punto tope ya que CPU llega al límite)
 15 segundos como tiempo de respuesta.

2.2 Pruebas de stress


Para este efecto se utilizó 50 Vus (tope de herramienta gratuita 50 Vus) a la vez, con conexiones equivalentes
a 2.71 por Vus.

Resultado:

 Uso de CPU: 13.65 MHZ.


 Uso de RAM: 54.53 MB.
 Cantidad de usuarios: 50 Vus (usuarios virtuales).
 Cantidad de conexiones: 138 conexiones.
 Tiempo de respuesta: 1.1 seg.

Como conclusión utilizando la proyección realizada en el puto 2.1 el sistema se quebraría al sobrepasar el límite
de 692 usuao cuellorios dado que se quedaría sin unidad de procesamiento disponible.

Página 5 de 18
2.3 Pruebas de capacidad

Según las pruebas realizadas el cuello de botella se generaría a partir de la sobre carca de la unidad de
procesamiento (CPU) ya que esta solo soportaría una carga máxima de 692 usuarios, mientras que por
memoria (RAM) sobrepasamos los 2.000 usuarios.

Página 6 de 18
2.4 Pruebas de contingencia
2.4.1 Procesos de contingencia internos
2.4.1.1 OBJETIVO GENERAL
Garantizar la continuidad de las operaciones de los elementos considerados críticos que componen los
Sistemas de Información, para DC Management.

Definir acciones y procedimientos a ejecutar en caso de fallas de los elementos que componen un Sistema de
Información.

2.4.1.2 OBJETIVOS ESPECÍFICOS


 Prevenir o minimizar la pérdida o la corrupción de archivos de datos críticos para la continuidad de las
operaciones DC Management
 Proteger la propiedad de DC Management.
 Indicar los lineamientos para la recuperación de los servicios informáticos ante un desastre o falla.
 Continuar con las funciones de las diferentes áreas de la Secretaria de salud del Meta, que se haya
visto afectadas por una situación adversa.
 Prevenir o minimizar el daño permanente a los recursos informáticos.

2.4.1.3 ALCANCE Y RESPONSABILIDADES


El plan de contingencia que se desarrolla en el presente documento es de aplicación a todas las áreas
funcionales de la organización donde afecte algunos de los ítems mencionados, la responsabilidad principal de
alertas y contingencia general de la infraestructura y/o servicios es de sitio http://Bluehosting.com

2.4.1.4 PLAN DE CONTINGENCIA


El proveedor http://Bluehosting.com actúa de manera inmediata con un SLA máximo de una hora de baja de
servicios de urgencia por ejemplo fallas por DNS o BD. Si el problema no se resuelve el servicio es trasladado
a otro servidor, esto gracias a los respaldos diarios y continuos que ofrece el servicio contratado.

Ante cualquier contingencia grave el proveedor es el encargado de informar de manera por correo
electrónico a las casilla internas (@dcmanagement.com) y externas (@correo.com).

Mail de respuesta ante caída de BD.

En caso de una incidencia a nivel de base de datos el plan de contingencia prevé a los desarrolladores como
responsables de dar solución al incidente según los SLA pactados con el cliente y detallados en documentos
anteriores.

Página 7 de 18
3 Análisis de resultados de las pruebas

En resumen según todas las pruebas de rendimiento realizadas al software DC Management podemos concluir
que la expectativa de funcionamiento del software es bastante alta ya que no ha presentado niveles críticos
de uso.

Por otro lado se proyecta como punto crítico de usuarios trabajando a la vez un total de 700 aproximadamente
lo que nos da una holgura bastante considerable en relación a la empresa intervenida (Qing System).

Podemos notar que a futuro en el caso de necesitar ampliar la potencia del sistema por el aumento de usuario
u otros factores interno y/o externos, el primer punto a considerar es la CPU dado que ahí se presenta el
cuello de botella con tope de 700 usuarios aproximados.

Cabe destacar que en caso de contingencias graves el SLA entregado por el proveedor del host y dominio es
de 1 hora y en caso de no poder solucionar estas contingencias el proveedor trasladara los recursos necesarios
a otro servidor para cumplir el SLA indicado.

Las pruebas de rendimiento realizadas para determinar el análisis anterior fueron las siguientes:

- Prueba de carga
- Prueba de stress
- Prueba de capacidad
- Prueba de contingencia

PageSpeed Insights: Test de rendimiento del código de la aplicación

Página 8 de 18
4 Generación de métricas e indicadores
4.1 Métricas Rendimiento de software
REF Métricas operativas usabilidad de software
A Número de usuarios que comprenden el uso de la aplicación
B Total usuarios que requieren ayuda y retroalimentación
C Usuarios disconformes con la interfaz de la aplicación
D Total usuarios
E Usuarios conformes con resultados de búsqueda
F Preferencia en navegador por defecto
G Total de funcionalidad operativas
H Porcentaje usuarios que usan el navegador por defecto de la aplicación.

REF KPI´s CALCULO


1 Promedio de usuarios que utilizan la aplicación sin problemas A/B
2 Total usuarios disconformes con la interfaz de la aplicación C/D
3 Número de usuarios con problemas para la utilización A-B/D
4 Total de usuarios con resultados de búsquedas óptimos E/G
5 Porcentaje usuarios que usan el navegador por defecto de la aplicación F/D
6 Promedio de funcionalidades fallidas por usuario G/E

CFS KPI
Integrar a los usuarios con problemas de uso 1,3
Mejorar la interfaz de la aplicación 2,3
Centralizar a los usuarios en un solo navegador 1,2,,5
optimizar resultados de búsqueda 3,4,5,6

4.2 Métrica para monitoreo de red


REF Métrica operativa
A Numero horas de disponibilidad de la red
B Numero horas ancho de banda inadecuado
C Numero usuarios Top offenders
D Número de usuarios que navegan en sitios restringidos
E Número de equipos que realizan descargas no autorizadas
F Número de usuarios totales
G Número de equipos conectados a la red

REF KPI´s CALCULO


1 Porcentaje de horas de disponibilidad de la red 24-A /24 *100
2 Porcentaje de ancho de banda adecuado 24-B/24*100
3 Promedio usuarios que utilizan exceso de ancho de banda D+E = C/F
4 Promedio de equipos que utilizan exceso de ancho de banda E/G

Página 9 de 18
CFS KPI
Control de ancho de banda por usuarios 2,3,4
Reducir el acceso a sitios restringidos 3,4
Mejorar la navegación de autorizada de cada usuario 1,2,3,4

4.3 Métricas para rendimiento de la base de datos


REF Métrica operativa
A Uso óptimo de los recursos del sistema
B Número de horas de conexión a la red
C Configuraciones de plataforma de base de datos
D Actualización de Sistema operativo
E Número de transacciones
F Número de transacciones erróneas
G Tiempo promedio de espera por transacción

REF KPI´s CALCULO


1 Promedio total de días de uso optimo A/días del mes
2 Porcentaje en horas de conexión establecida 24-B/24*100
3 Porcentaje funcionamiento óptimo sin configuraciones A/días del mes *100
adicionales
4 Porcentaje de funcionamiento óptimo con actualizaciones A/días del mes *100
recientes
5 Porcentaje Total transacciones completadas correctamente E-F/E *100
6 Tiempo promedio en transacción en cola E/G

CFS KPI
Mejora en el tiempo de uso Optimo 1,2,3,4,5,6
Mejora en el nivel de transacciones completadas 2,3,4,5,6
Reducción de cola en transacciones en espera 5,6

4.4 Métricas para rendimiento del servidor


REF METRICAS OPERATIVAS
A Disponibilidad y estado del servidor
B Estado de servidores virtuales (por implementar)
C Total de procesos
D Monitoreo de proceso de Linux
F Monitoreo de logs de eventos de Linux
G Almacenamiento de los discos no disponible
H Uso de memoria no disponible
I Procesos con errores
J Eventos corruptos de Linux

Página 10 de 18
REF KPI´s Calculo
1 Porcentaje de uso óptimo del servidor (horas) 24-A/24*100
2 Porcentaje de procesos correctos C-I/C *100
3 Procesos de Linux en niveles óptimos C-D/D *100
4 Porcentaje de eventos corruptos de Linux F-J /F *100
5 Porcentaje de disponibilidad para almacenamiento en discos (Horas) 24 –G /24 *100
6 Porcentaje de uso de memoria optimo (horas) 24 –H /24 *100

CFS KPI
Mejora en los procesos del servidor 1,2,3,4
Alta disponibilidad de almacenamiento 1,2,5,6

4.5 Métricas para monitoreo de Seguridad


REF Métricas operativas
A Numero de archivos específicos bloqueados en la BD.
B Total usuarios
C Número total de equipos
D Equipos sin protección de antivirus
E Equipos que no tienen la base de datos de amenazas actualizada
F Equipos que no han realizado escaneo de seguridad
G Número total de archivos críticos
H Número de virus o códigos malignos detectados
I Cumplimiento de las reglas de seguridad
J Total archivos en la BD
K Total ataques en el mes

REF KPI´s Calculo


1 Porcentaje de archivos bloqueados por usuario J-A/J *100
2 Porcentaje de equipos propensos a amenazas C-(F+E+D)/C *100
3 Promedio de archivos críticos J/G
4 Porcentaje de amenazas por equipos C-D/H *100
5 Porcentaje de cumplimiento en seguridad K-I /total días del mes *100

CFS KPi
Aumentar a 100% equipos seguros 2,4,5
Aumentar la seguridad de permisos por archivos 1,3,5
Crear responsabilidad en seguridad por usuarios 1,2,3,4,5

Página 11 de 18
5 Monitoreo de infraestructura
DC Managament dispone de un sistema de monitoreo incluido como contrato por los servicios del proveedor,
este servicio está disponible 24/7 con un SLA ante urgencias de 1 Hora y cuenta con una amplia gama de
monitoreo.

5.1 Herramientas de monitoreo


Las herramientas que se detallan a continuación ofrecen información en tiempo real, las alertas son
administrables desde cualquier dispositivo móvil y/ordenadores, además es posible configurar respuestas
automáticas a ciertas métricas establecidas con anterioridad, estas alertas puede ser correos electrónicos y/o
SMS

Herramientas

5.1.1 Uso de CPU y conexiones simultaneas


Esta herramienta permite monitorea el muso en tiempo real de factores tales como CPU, cantidad de procesos
en ejecución, el uso de la memoria virtual, estas métricas como se menciona anteriormente pueden ser
configuradas.

Página 12 de 18
5.1.2 Webalizer
Webalizer es un programa de estadísticas complejo que produce una variedad de gráficos acerca de quién
visitó su sitio.

Página 13 de 18
5.1.3 Banda ancha
Esta función le permite ver el uso de ancho de banda para su sitio. Muestra el uso de ancho de banda del
mes actual, así como el uso total de ancho de banda. Esto incluirá todo el uso de ancho de banda de HTTP
(web) y POP (correo) y puede incluir el uso de ancho de banda de FTP si el administrador de su sistema
habilitó el inicio de sesión de ancho de banda de FTP.

5.1.4 Errores
Esta función mostrará los últimos 300 errores de su sitio. Esto puede ser muy útil para hallar vínculos rotos o
problemas con archivos faltantes. La revisión frecuente de este registro ayudará a mantener el sitio en
ejecución sin problemas.

Página 14 de 18
5.1.5 Awstast
Awstats produce estadísticas visuales acerca de los visitantes de su sitio.

Página 15 de 18
5.1.6 Estadificas de Anlog
Analog produce un resumen simple de todas las personas que visitaron su sitio. Es rápido y proporciona
mayores estadísticas ligeras. Analog muestra las personas que accedieron a su sitio durante un mes específico.
Proporciona contenido limitado, pero puede ser útil para ver de dónde son sus usuarios principales.

Página 16 de 18
6 Conclusión

Sin duda las pruebas son muy importantes y nos dan una tranquilidad muy grande a la hora de poner un
sistema en producción. Mientras más temprano obtengamos resultados, más eficiente seremos en nuestro
objetivo de garantizar el rendimiento de un sistema.

Los software necesitan identificación y evaluarse para contribuir de la mejor manera a la organización en
donde se están implementando es por ello que se realizan pruebas de funcionamiento en donde se pone al
límite cada uno de casos de prueba para evaluar que tan optimo es el comportamiento de este tomando en
consideración por ejemplo el tiempo de respuesta de una funcionalidad el cual debe ser mayor al aceptable;
se analizan los tiempos discriminando cada acción de esa funcionalidad, y se observa que el tiempo de
respuesta de un componente de la aplicación se lleva la mayor parte.; se analiza ese componente y se observa
que el tiempo de respuesta de una Query ejecutada en ese componente es muy lento para lo que hace o en el
mejor caso el tiempo de respuesta de una ejecución es de un tiempo bastante reducido.

En base a lo anterior podemos concluir que la importancia tanto de las pruebas e indicadores que abarca desde
la infraestructura al software mismo son clave para el desarrollo y comportamiento futuro de la
implementación tecnológica completa, sin esto es difícil obtener y/o estimar resultados a mediano y largo
plazo, en otras palabras, no dejes para mañana las pruebas que se puedan hacer hoy.

Página 17 de 18
7 Bibliografía
1- Sánchez JM, Palop F. Herramientas de software especializado para vigilancia tecnológica e
inteligencia competitiva. La Habana: IDICT. 2006. Disponible
en:http://www.intempres.pco.cu/Intempres2006/Intempres2006/Evaluacion%20de%20t
rabajos
/Jenny%20Marcela%20S%E1nchez%20Torres_Herramientas%20de%20Sotware...pdf [C
onsultado: 5 de agosto de 2007].

2- León A, Fernández O, Vargas FA. Valoración, selección y pertinencia de herramientas de


software utilizadas en la vigilancia tecnológica. Rev. Ingeniería e Investigación.
2006;26(001):92-102.

3- Sánchez JM, Palop F. 2006. Herramientas de software especializadas para vigilancia


tecnológica e inteligencia competitiva. La Habana: IDICT; 2006. Disponible.

4- Maspons J. Tetralogie. Software de vigilancia tecnológica. 2000. Disponible


en: http://www.redciencia.cu/empres/Intempres2000/Sitio/Principal/Conferencias
/prestetralogie.ppt/ [Consultado: 12 de octubre de 2007].

Página 18 de 18

S-ar putea să vă placă și