Sunteți pe pagina 1din 117

UNIVERSIDAD DE GUAYAQUIL

FACULTAD DE CIENCIAS MATEMATICAS Y FISICAS


CARRERA DE INGENIERIA EN SISTEMAS
COMPUTACIONALES

“ESTUDIO DEL DISEÑO DE TRANSFORMACIÓN DE DATOS UTILIZANDO LA


HERRAMIENTA SPOON DE PENTAHO OPEN SOURCE BUSINESS INTELLIGENCE
SOBRE PLATAFORMA LINUX”

TESIS DE GRADO

Previa a la obtención del Título de:

INGENIERO EN SISTEMAS COMPUTACIONALES

JOHANNA ALEXANDRA HERNANDEZ VELASCO


TUTOR: ING. FRANCISCO PALACIOS

GUAYAQUIL – ECUADOR
2013
DEDICATORIA

El logro de esta etapa en mi vida


quiero dedicárselo a mis padres, a
mi hijo y a todos quienes en algún
momento colaboraron directa o
indirectamente en este maravilloso
resultado. Gracias a Dios por
haberme dado fortaleza para salir
avante en mi carrera.

III
III
AGRADECIMIENTO

Gracias Papá y Mamá por sus valores


e ímpetu de superación que nos
inculcaron desde pequeños a sus hijos
para que seamos personas de bien. Lo
lograron.

Por toda la entrega, cuidado y amor


mientras mi compañía estaba ausente
en horas de estudio para con mi hijo,
gracias Sra. Pilar Flores Lucín.

Gracias a mis hermanos y a toda mi


familia por su apoyo absoluto en cada
momento de mi vida, los quiero
mucho.

Por su puesto no pueden faltar los


amigos y amigas, que siempre
estuvieron ahí para animarme,
alentarme y con todo esto lograr
crecer como persona cada día más.

VIII
ÍNDICE GENERAL

CARTA DE ACEPTACIÓN DEL TUTOR.......................................................................Ii


DEDICATORIA..............................................................................................................IIi
AGRADECIMIENTO....................................................................................................IIIi
ÍNDICE GENERAL........................................................................................................XI
ÍNDICE DE CUADROS................................................................................................XII
ÍNDICE DE GRAFICOS..............................................................................................XIII
RESUMEN..................................................................................................................XIVi
ABSTRACT.................................................................................................................XVi
INTRODUCCIÓN 1
CAPITULO I – El PROBLEMA 3
UBICACIÓN DEL PROBLEMA EN UN CONTEXTO..................................................3
SITUACIÓN CONFLICTO NUDOS CRÍTICOS............................................................7
CAUSAS Y CONSECUENCIAS DEL PROBLEMA......................................................8
DELIMITACIÓN DEL PROBLEMA.............................................................................10
PLANTEAMIENTO........................................................................................................11
EVALUACIÓN DEL PROBLEMA................................................................................11
OBJETIVO DE LA INVESTIGACION.........................................................................12
JUSTIFICACION E IMPORTANCIA DE LA INVESTIGACIÓN...............................58
BENEFICIOS..................................................................................................................59
CAPITULO II – MARCO TEÓRICO 60
ANTECEDENTES DEL ESTUDIO 60
FUNDAMENTACIÓN TEÓRICA.................................................................................63
BENEFICIOS DE LA HERRAMIENTA SPOON..........................................................68
EXTRACCIÓN Y TRANSFORMACIÓN......................................................................85
FUNDAMENTACIÓN LEGAL......................................................................................98
HIPÓTESIS O PREGUNTAS A OBJETAR.................................................................101
DEFINICIONES CONCEPTUALES...........................................................................102
CAPITULO III - METODOLOGIA 103
DISEÑO DEL ESTUDIO 103
MODALIDAD DEL DISEÑO DE TRANSFORMACIÓN..........................................103
TIPO DE ESTUDIO......................................................................................................103

IX
POBLACIÓN Y MUESTRA........................................................................................104
OPERACIONALIZACIÓN DE LAS VARIABLES.....................................................106
INSTRUMENTOS DE RECOLECCIÓN DE DATOS.................................................109
PROCESAMIENTO DE LA INFORMACIÓN............................................................109
RECOLECCIÓN DE LA INFORMACIÓN..................................................................110
PROCESAMIENTO Y ANÁLISIS...............................................................................113
CRITERIOS PARA LA ELABORACIÓN DE LA PROPUESTA................................128
CAPITULO IV – MARCO ADMINISTRATIVO 82
CRONOGRAMA............................................................................................................82
PRESUPUESTO..............................................................................................................85
CAPITULO V – CONCLUSIONES Y RECOMENDACIONES 90
CONCLUSIONES...........................................................................................................90
RECOMENDACIONES.................................................................................................91

X
XI
ÍNDICE DE CUADROS

Pág.IL
CUADRO N°. 1
MENSAJES QUE ARROJA LA HERRAMIENTA ………………………………….52
CUADRO N°. 2
BARRAS DE HERRAMIENTAS – SPOON..................................................................55
CUADRO N°. 3
VARIABLES DEL ESTUDIO........................................................................................ 65
CUADRO N°. 4
Datos Obtenidos de la Empresa.......................................................................................68
CUADRO N°. 5
Estimación de Porcentaje................................................................................................ 70
CUADRO N°. 6
MATRIZ DE OPERACIONALIZACIÓN DE VARIABLES.........................................71
CUADRO N°. 7
DIAGRAMA DE LA TÉCNICA UTILIZADA.............................................................. 72
CUADRO N°. 8
HA RECIBIDO CURSOS DE CAPACITACIÒN...........................................................81
CUADRO N°. 9
DESEA QUE LAS TRANSACCIONES SE VALIDEN DESDE EL SISTEMA...........82
CUADRO N°. 10
INVENTARIO ACTUAL DE LAS DIFERENTES AGENCIAS...................................83
CUADRO N°. 11
SEGURIDADES EN REGISTRO DE TRANSACCIONES..........................................84
CUADRO N°. 12
GARANTIZAR LA INVIOLABILIDAD DE SUS DATOS......................................... 85
CUADRO N°. 13
TECNOLOGÍA DE PUNTA PARA SER CAPACITADO..............................................86
CUADRO N°. 14
AHORRAR TIEMPO Y DINERO EN TODAS LAS AGENCIAS.................................. 87
CUADRO N°. 15
PLANIFICACIÓN DETALLADO DEL TRABAJO REALIZADO............................. 95
CUADRO N°. 16
REFERENCIA DE EGRESOS DEL PROYECTO.........................................................98
XII
NDICE DE GRAFICOS

Pág.
GRÁFICO N°. 1
ETAPAS DEL ESTUDIO DE TRANSFORMACIÓN DE BASE DE DATOS..............61
GRÁFICO N°. 3
PROCESO DE MIGRACIÓN EN SITIO.......................................................................65
GRÁFICO N°. 4
PROCESO DE MIGRACIÓN GRADUAL....................................................................66
GRÁFICO N°. 5
PROCESO DE MIGRACIÓN DE BASE DE DATOS...................................................67
GRÁFICO N°. 6
PROCESO DE MIGRACIÓN.........................................................................................68
GRÁFICO N°. 7
PROCESO DE INTEGRACIÓN DE DATOS - PENTAHO...........................................71
GRÁFICO N°. 8
PROCESO DE INTEGRACIÓN DE DATOS – PENTAHO..........................................73
GRÁFICO N°. 9
INTERFACE MODO GRÁFICO - SPOON PENTAHO................................................79
GRÁFICO N°. 10
PROCESO DE EXTRACCIÓN DE LOS DATOS – SPOON PENTAHO.....................81
GRÁFICO N°. 11
DISEÑO DE TRANSFORMACIÓN DE DATOS..........................................................85
GRÁFICO N°. 12
TRANSFORMACIÓN DE DATOS - SPOON...............................................................86
GRÁFICO N°. 13
LOGO DE BÚSQUEDA DE CONEXIONES................................................................86
GRÁFICO N°. 14
MUESTRA LOS PASOS DE CONSTRUCCIÓN..........................................................87
GRÁFICO N°. 15
TRANSFORMACIÓN DE DATOS ENTREDA/SALIDA – SPOON...........................89
GRÁFICO N°. 16
CONFIGURACIÓN VARIABLES DE ENTORNO.......................................................93

XIII
GRÁFICO N°. 17
MAPEO DE FLOJOS EN DATOS ACTUALES............................................................94
GRÁFICO N°. 18
Tabla de Cuestionario Capacitación..............................................................................115
GRÁFICO N°. 19
Tabla de Cuestionario Ventas y Pagos.............................................................................82
GRÁFICO N°. 20
Tabla de Cuestionario Inventario.....................................................................................83
GRÁFICO N°. 21
Tabla de Cuestionario Seguridades.................................................................................84
GRÁFICO N°. 22
Tabla de Cuestionario Garantizar transacciones..............................................................85
GRÁFICO N°. 23
Tabla de Cuestionario Tecnología...................................................................................86
GRÁFICO N°. 24
Tabla de Cuestionario Ahorrar tiempo y dinero..............................................................87
GRÁFICO N°. 25
Hipótesis Seguridad de la Información...........................................................................88
GRÁFICO N°. 26
Hipótesis Inviolabilidad...................................................................................................89
GRÁFICO N°. 27
Hipótesis Garantizar transferencias.................................................................................90
GRÁFICO N°. 28
Hipótesis Cursos de Capacitación.................................................................................125
GRÁFICO N°. 29
Hipótesis Ahorrar tiempo y dinero..................................................................................92
GRÁFICO N°. 30
CRONOGRAMA DE TRABAJO...................................................................................82

XIV
ABREVIATURAS

DBMS Es un sistema de gestión de bases de datos.


SQL Se trata del lenguaje de consulta estructurado, para realizar
consultas a nivel de base de datos.
ETL Estas siglas corresponden a Extraer, transformar y cargar.
FCE Dichas iniciales significan: Factores Críticos de Éxito.
AWT Referencia al Kit de herramientas de ventana abstracta.
SWT Es un componentes para construir interfaces gráficas.
SAP Se trata de un sistema de aplicaciones y productos en
procesamiento de datos.
BI Las siglas significan Inteligencia de negocios.
FCE Las iniciales se refieren a los Factores críticos de éxito.
TI Las siglas corresponde a la Tecnología de la información.
OLTP Se refiere al procesamiento de transacciones en línea.
OLAP Trata sobre el procesamiento analítico en línea.
XML Es un lenguaje de marcas extensible.
ETTL Dichas iniciales se refieren a la extracción, transformación,
transporte y carga de datos.
OSX Estas abreviaturas describen los sistemas operativos basados en
Unix.
GTK Es una biblioteca para crear la interfaz gráfica de usuario.
HP-UX Es la versión de Unix desarrollada y mantenida.
MOTIF Se trata de una biblioteca para la creación de entornos gráficos.
FreeBSD Es un sistema operativo para arquitecturas x86 compatibles.
JVM Dichas iniciales referencian a la máquina virtual Java.
KDE Es la comunidad internacional que desarrolla software libre.
ODBC Se refiere a la comunicación estándar de acceso a las bases de
datos.
LGPL Es la licencia pública general reducida de GNU.
GNU Se trata de un sistema operativo similar a Unix que es de software
libre.
JDBC Es usado para enviar comandos sql hacia una base de datos
relacional.
FCI Se refiere al fondo competitivo de investigaciones
CTT-UG Significa que se debe coordinar con el centro de transferencia y
desarrollo de tecnologías de la universidad de Guayaquil.
CONESUP Dichas iniciales son referidas al consejo de educación superior del
ecuador.
SPSS Se refiere al software y soluciones de análisis predictivos.
BDD Siglas que referencias a la base de datos de un sistema.

XV
SIMBOLOGÍA

Pro base actual


Co y C1 son los factores estimados.
Y es la variable independiente
R composición lineal:
H1, H2, coeficientes dependientes
X1, X2 valores que consiguen adoptar las variables
independientes.
€ Representa el término de error de estimación.
PQ Varianza =0.25
N Población
E Margen de error
K Constante de corrección del error =2
F Número de veces que se repite el dato.

XVI
XX
INTRODUCCIÓN

Tradicionalmente cuando pensamos en un modelo de base de datos, se nos vienen

muchas ideas a la mente, en este estudio tomaremos un diseño como aquel que

puede representar la solución a un problema del mundo real, para lo cual se usará

una herramienta de código abierto, manteniendo una estructura segura y confiable

para la demostración más óptima a la interrogante planteada.

Uno de los paradigmas que a través de los años se ha mantenido en el mundo, es la

seguridad y confidencialidad que deben poseer las bases de datos, ya que representa

un pilar fundamental para la continuidad de todo negocio.

En sus inicios la empresa Servicios Nacionales explotó sus actividades promoviendo

servicios exequiales con formas de pago muy cómodas y económicas para el sector

de clase media baja, en referencia a este mecanismo la institución pudo mantenerse

progresivamente en sus dos primeros años con su agencia matriz. La solución

tecnológica con la que operaba la institución, cumplía con las actividades diarias

que necesitaba la empresa en referencia al registro de sus transacciones, es decir,

ingreso de clientes, afiliaciones y recepción de pagos.

En virtud a la operatividad de la institución tuvieron la oportunidad de abrir otras

sucursales a nivel nacional, en este punto iniciaron sus actividades realizando el

almacenado de la información de los clientes de forma aislada, es decir, se realizaba

toda la gestión del negocio guardando la data en repositorios de base de datos no

relacionales, aislando la información del resto de agencias, causando de a poco

diferentes molestias para el personal de ventas.

Con el pasar del tiempo la información seguía creciendo, causando disgustos al

departamento de cobranzas en su gestión en la recuperación de la cartera, pues los

1
datos de los clientes no se encontraban del todo claros, adicionalmente existían

transacciones que se registraban de manera manual, es decir, que se recaudaban de

puerta a puerta, estas transacciones eran ingresadas al final del día en la agencia más

cercana al vendedor, existiendo un alto riesgo en la perdida de información y de

dinero por parte del empleado.

En virtud de las observaciones planteadas era notable la necesidad de una

implementación de migración de datos, asegurando la información de los clientes,

mejorando el rendimiento de las transacciones, optimizando los recursos existentes

y brindando confianza a la operatividad del negocio.

En este estudio pudimos notar que durante los dos últimos años la institución se ha

visto afectada por las quejas y molestias que causan la inconsistencia de los datos

almacenados, reclamos por transacciones inexistentes, entre otros.

El objetivo fundamental de este estudio del diseño es demostrar que es

posible realizar una transformación o migración de una base de datos

no relacional hacia otra de una manera sencilla, sin herramientas

costosas ni excesivo personal, optimizando costos y tiempo de

respuesta.

Uno de los prototipos que a través de los años ha permanecido es de

pensar que las organizaciones o empresas emplean sistemas basados en

ordenadores no sólo para el tratamiento administrativo de sus datos

operacionales (como son la contabilidad, gestión de nóminas, etc.), sino

también para tareas relativas a función de almacenamiento de los datos

dando soporte a la toma decisiones.

2
Cabe exaltar la importancia de migrar o cambiar los sistemas actuales de

información de una empresa, por otros productos o versiones que se adapten mejor a

las necesidades actuales y/o futuras de dicha empresa. Dentro de los objetivos

principales de esta demostración es disminuir los siguientes aspectos:

 REDUNDANCIA E INCONSISTENCIA DE DATOS

Es decir diversas copias de un mismo dato no concuerdan entre sí, por ejemplo: que

se actualiza la dirección de un cliente en una agencia y que en otra permanezca la

anterior.

 DIFICULTAD PARA TENER ACCESO A LOS DATOS

Debe contemplar un entorno de datos que facilite al usuario el manejo de los

mismos.

 AISLAMIENTO DE LOS DATOS

Es difícil escribir nuevos programas de aplicación para obtener los datos apropiados.

 ANOMALÍAS DE ACCESOS CONCURRENTES

Optimizar el funcionamiento global del sistema y obtener un tiempo de respuesta

óptimo.

 PROBLEMAS DE SEGURIDAD

Se debe considerar el control de acceso a los datos, por tal motivo debe ser

confiable, manteniendo un grado de seguridad que garantice la autentificación y

protección de los datos.

 PROBLEMAS DE INTEGRIDAD

Una vez terminado el proceso de la migración se deben medir los resultados y

entregar un reporte global del trabajo, mencionando los puntos más relevantes del

proceso.

3
CAPÍTULO I

EL PROBLEMA

CAPITULO I – El PROBLEMA

PLANTEAMIENTO DEL PROBLEMA

UBICACIÓN DEL PROBLEMA EN UN CONTEXTO

Dentro de nuestra investigación daremos a notar la facilidad, seguridad y confianza

que posee una herramienta de código abierto, para lo cual se promovió nuestro

proyecto de tesis hacia una compañía en especial.

Con fecha 11 de Enero del 2010, la empresa Servicios Nacionales Guayas

Servinacional Cia. Ltda., tuvo un crecimiento de sus agencias a nivel nacional,

logrando abrir tres agencias adicionales en provincias como Manabí, Esmeraldas y

El Oro. Con este incremento empiezan aumentar las operaciones en la empresa y a

superar sus ventas. Siendo una institución controlada por la Superintendencia de

Compañías, deben reportar balances o estados de situación anuales, en sustento a la

instrumentación de Ventas de Cofres y Servicios de Cremación, Velación, Capillas

entre otros productos que ofrece la institución al público. Adicionalmente posee

vendedores en sitio o de puerta en puerta ofreciendo los productos y servicios

generando contratos de forma manual que posteriormente serán ingresados al

sistema.

El sistema que poseían era un aplicativo realizado en Power Builder con una base de

datos Access 2003, este tipo de repositorio cubría las necesidades de la empresa

desde que se inició hasta unos meses antes de que se ampliaran sus agencias.

Con el pasar de los meses el departamento de cobranzas pudo notar que la

información que se estaba ingresando en su base de datos se encontraba errada o

inconsistente ya que les era imposible ubicar a muchos clientes, adicionalmente

4
existían pagos duplicados afectando la empresa, todas estas anomalías aumentaban

conforme iban creciendo las operaciones.

Anualmente las instituciones que están controladas por la Superintendencia de

Compañías están en la obligación de entregar estados de situación o balances que

sustenten la continuidad del negocio, estos reportes tienen un tiempo máximo de

entrega, el cual consta de 5 días laborables. A principios del año 2011, Servicios

Nacionales fue observada por la Superintendencia de Compañías debido atrasos en

la entrega del balance anual, después de esta molestia la empresa decidió auditar los

costos generados en todo el año debido a gastos que se habían generado debido al

consumo de horas extras al personal.

La empresa Servicios Nacionales estaba consciente de que poseía un problema con

la información que era ingresada en el sistema, por este motivo utilizaban como

mecanismo de escape corregir la data en la base de datos, con el objetivo de

solventar la inconvenientes mensuales y posteriormente anuales con los entes de

control. A pesar de las molestias o trabajos extras para los empleados no se tomaba

una solución definitiva para corregir el problema de raíz ya que al tener varias

agencias a nivel nacional era complicado tener un control sobre todas de forma

eficiente. Como medida de corrección para futuros malos ingresos de la data se

realizaron campañas de concientización en el ingreso de la información en el

sistema, capacitando así a una persona por agencia con el objeto que se imparta o se

difunda el mensaje.

El mecanismo de capacitación fue satisfactorio, sin embargo los problemas no se

solucionaron del todo ya que no solo poseen empleados atendiendo en las agencias

sino también empleados de campo. El purgado de los datos se seguía realizando de

5
forma mensual, ya que se debía seguir cumpliendo con los tiempos de entrega y

erradicar las molestias de los clientes.

El contador interno de la compañía realizó un análisis profundo del gasto que estaba

teniendo Servicios Nacionales, considerando un semestre de las agencias con mayor

movimiento. El 5 de Julio del 2011 el contador notificó formalmente que la empresa

en un lapso de seis meses pierde 2 días de labores al 50% y esto representa una

pérdida aproximada de $38.160,00 (treinta y ocho mil ciento sesenta dólares)

semestrales por motivos de pagos de horas extras en virtud de gestiones de campo y

modificaciones realizadas manualmente de forma emergente en la base de datos

para subsanar la información de los clientes, esto incurre de forma alarmante para

una empresa mediana. La detección y clausura de anomalías son realizadas por una

secuencia de operaciones sobre los datos sabidos como el flujo de trabajo. Para

alcanzar un correcto flujo de trabajo, se ha identificado las causas de las anomalías y

errores. Estas inconsistencias se dan como resultado por errores de máquina en

etapas de entrada de datos, poca claridad sobre el formato de ingreso al sistema,

error humano, falta de retroalimentación en el ingreso de información, avería con el

teclado, etc.

La transformación de los datos es una necesidad que surge debido al costo

representativo de la pérdida utilitaria hacia la empresa, ya que esto adicional

aportaría con mejoras en la seguridad o el control de la información entre otras

agencias o escenarios posibles ya sean estos de lentitud en sus procesos, perdida de

los datos por falta de espacio, poco rendimiento, entre otros.

A finales del año 2011 el comité de la compañía acuerda considerar en el

presupuesto 2012 una mejora en cuanto a la infraestructura que requieren adquirir

para solventar sus gastos, desde ahí la construcción del estudio de la transformación

6
de datos fue diseñada en base a las necesidades de esta empresa, ya que constituye

un gran problema a nivel nacional. En los actuales momentos existe el paradigma en

las empresas pequeñas de poseer bases de datos no relacionales, lo cual esto con el

tiempo se ve afectado debido a su continuo crecimiento causándoles inconsistencia,

desgaste de tiempo al realizar un mantenimiento, sistemas no interrumpidos y baja

disponibilidad.

Necesidades del negocio

Para el desarrollo e implantación de este estudio de diseño fue forzosa una

evaluación de las insuficiencias que existen dentro de la institución y del manejo del

ejercicio. Para esto es inevitable entender el ciclo del negocio y los requerimientos

que posee:

Cuando el ciclo de suscripción de un servicio se logra, se le ingresan los datos del

cliente al sistema ya sea esta de forma automática es decir, el funcionario ingresa la

información del cliente en su presencia en el computador o manual es decir, se le

llena al cliente un documento a pulso donde firma la suscripción y posteriormente

esos documentos son trasladados a una agencia donde serán ingresados al sistema

por el vendedor.

Cuando el ciclo de afiliación de un servicio llega a su fin, el cliente procederá con la

firma del contrato, el cual contiene como elemento principal la tabla de

amortización de sus pagos mensuales. Estas tablas son creadas por el sistema y

mantenidas en su base de datos Microsoft Access 2003 y que contienen todas las

alícuotas de cada mes entre otros rubros que se pudieran haber contratado. En el

transcurso del tiempo cuando el cliente empieza a cancelar sus alícuotas, la

recaudación de los valores se realiza mediante la emisión de planillas de cobro que

son atesoradas en cualquier agencia, siendo este cobro guardado en la base de datos

7
de forma aislada ya que si el cliente vuelve a realizar el mismo pago en otra agencia

se le cobra con el mismo número de cuota siendo ésta a pagar la cuota siguiente. Sin

embargo, existen numerosas causales por las cuales estos valores no pueden ser

recaudados, lo que ocasionan que las tablas de amortización no estén actualizadas en

virtud a lo contabilizado por el cliente. Como se puede observar este es un lazo

continuo entre las agencias y la matriz.

La parvedad de la empresa se origina en el instante que empieza a crecer debido al

aumento de agencias a nivel nacional, acrecentando así la cartera de clientes y la

transaccionalidad, en virtud de todos los sucesos empiezan a surgir “novedades” que

en primera instancia es detectado por el área de Cobranzas, ya que al momento de

ubicar al cliente para recordarle sus pagos, encontraban información errada

accionando un problema en la recuperación de la cartera y como última coacción el

llamado de atención por los entes de control.

La situación se tornaba crítica especialmente durante el cierre anual en consecuencia

a cuadre de balance, por lo que frecuentemente el departamento de Operaciones

solicita a Sistemas que se realicen cambios manuales a fin de contar con la data

actualizada. Es importante indicar que la información requerida para el cierre

contable es la relacionada con la recaudación de los dividendos mensuales y ventas

realizadas en las agencias.

Para este estudio del diseño se realizó un análisis del porcentaje de inconsistencia

que existía por agencia, lo que pudimos observar que en las agencias nuevas se

presentaba con mayor frecuencia la inconsistencia de los datos, por lo tanto se

evaluó mediante un método matemático el porcentaje de la muestra a ser tomada.

Para nuestro estudio la muestra representó el 36.7% en referencia a la población, lo

cual constituye como tamaño muestral solo la agencia Manabí.

8
Dentro de esta muestra se realizó un segundo análisis en base a la data existente,

validando el porcentaje de error de los siguientes puntos: campos, columnas, tipos

de datos, cantidad de registros de las tablas, claves primarias y foráneas. En el

análisis univariado todos los factores constituyeron riesgo para el traspaso de la

data, mientras que el análisis multivariado, mostró que el factor con independencia

más importante es la inconsistencia de la data. Se concluye que con la metamorfosis

de los datos todas estas falencias se corrijan y mejore su rendimiento a un 100%.

En este estudio, para exponer la utilidad de la transformación de los datos, se

propone realizar una demostración con un ejemplar estimado de 30GB, que

representa una muestra de nuestro universo, la misma que servirá para resolver el

problema. La herramienta que usaremos para demostrar el estudio de la

transformación de los datos se llama Spoon de Pentaho, es un diseñador gráfico de

transformaciones y trabajos del sistema de ETTLs, una solución en curso de la

comunidad open source que provee a las organizaciones para sus necesidades de

inteligencia de negocios.

SITUACIÓN CONFLICTO NUDOS CRÍTICOS

A partir de esta inconsistencia resulta indispensable considerar de forma inmediata

una solución permanente que aplaque el malestar y desgaste económico que posee la

empresa. Todas estas variantes crearon la necesidad de realizar un estudio de diseño

con el objetivo de trasladar toda la información a una base de datos relacional. Cabe

mencionar las desventajas que tiene la base de datos que posee la empresa, como

son:

 No es Multiplataforma.

 Su uso es inadecuado para grandes proyectos.

 Su centralización hace que sea vulnerable ante fallos.

9
 No puede ser accedida simultáneamente.

 Posee un máximo de capacidad por archivos.

 No es una base de datos relacional.

 Limitaciones en el procesamiento de búsqueda.

Una migración o transformación de datos no es más que un problema del mundo

real, por lo que se conllevó a utilizar diversas alternativas, hasta concluir que la

mejor opción para esta empresa era realizarlo con una herramienta de código

abierto, aportando así con la utilidad financiera de la institución. Dado que el

objetivo principal de realizar una transformación de datos es descartar toda la data

inconsistente, crear una estructura de base de datos uniforme y amigable para el

usuario final, mantener un ambiente seguro y confiable de sus datos incluso para el

registro de pistas de auditorías.

En el levantamiento de información pudimos evaluar que poseían un procesamiento

de información no acorde al crecimiento de la empresa, la cual provenía por varios

factores no considerados dentro de su arquitectura de su sistema, entre los que

podemos destacar, su base de datos (Access) y el sistema de recolección de datos.

Constan varias opciones para estimar un estudio del diseño de trasformación de

datos, entre los que podemos mencionar: su optimización de recursos y

estandarización de estructuras, transformación lineal y transformación logística.

Teniendo en cuenta el tipo de variable que deseemos agregar al estudio (variable

dependiente o respuesta) aplicaremos un estudio u otro.

Al momento de plasmar el estudio se pudo constatar que adicional a la

transformación de los datos se debía rediseñar arquitectónicamente la estructura de

la base de datos de acuerdo al giro del negocio, ya que al realizar el análisis de la

data nos dimos cuenta que la inconsistencia de la información debió ser prevista en

10
las parametrizaciones que se programaban dentro del sistema antes de ser puesto en

Producción o antes de ser entregado a la empresa para su uso (tipos de datos en

números de cédula, teléfonos, direcciones, genero, etc.), por lo que se llegó a la

conclusión que se clasificaría en trabajos de campo y trabajos de oficina.

CAUSAS Y CONSECUENCIAS DEL PROBLEMA

CAUSAS:

Al realizar las investigaciones del problema pudimos constatar los orígenes tales

como:

 Falta de capacitación sobre el uso o ingreso de información en el sistema

 No hubo una arquitectura del sistema

 Manual de usuario inexistente hacia los colaboradores

 Desconocimiento de los estándares o formatos comunes

 Falla en las herramientas de trabajo ya sea teclado, configuración regional o teclas

direccionales.

 Descuido de los usuarios al realizar el ingreso de los datos.

CONSECUENCIAS:

En resultado a la inconsistencia de la muestra analizada podemos definir que las

consecuencias para este estudio son:

 El desgaste de los empleados en las correcciones de la información.

 La afectación de forma indirecta hacia los clientes.

 Falta de control y seguridad en los procesos, esto produce que su riesgo se eleve y

aumente la inconsistencia de los datos.

 Las configuraciones que se realicen al transformar la data deben ser cuidadosamente

realizadas para no perder información.

 Mala imagen hacia los clientes o competencias.

11
 Aborrecimiento al sistema por parte de los usuarios.

La herramienta que se analizó para la realización del estudio, puede incluir

interacciones creadas en el diseño de la herramienta que impliquen una excesiva

estratificación para la muestra disponible. En el análisis univariado, al realizar

efectivamente las configuraciones y scripts en el diseño de transformación se

observa que su tiempo de procesamiento de la data es bastante optimo, validando los

resultados y analizando los datos, incluso puede decidirse diseñar una nueva

alternativa que pueda afinar con mayor eficiencia los datos (esto dependerá mucho

del porcentaje de inconsistencia de la data), e incluirlo como tal en el modelo.

La probabilidad en la transformación correcta es elevada en los diseños realizados

con muestras de tamaños pequeños, sobre todo cuando poseen poca demanda de

información.

Cabe señalar que al igual que en los temas anteriores, los estudios con

multicolinealidad entre las variables introducidas llamarán la atención por la

presencia de grandes errores estándares, y frecuentementes estimaciones de registros

inconsistentes elevados. Sin embargo la multicolinealidad no afecta al sentido de las

estimaciones (la multicolinealidad no hará que surja significación donde no la hay, e

inversamente).

En aquellos escenarios del mundo real en las que no es viable experimentar con la

realidad, ofrecen un marco teórico para evaluar la toma de decisiones así como sus

resultados. Los diseños pueden ser estáticos o dinámicos, en un diseño estático, la

variable tiempo no desempeña un papel relevante, por el contrario en un diseño

dinámico si, ya que alguno(s) de los elementos que intervienen en este estudio no

permanecen constantes, en este caso tenemos un estudio dinámico por que usamos

la variable tiempo.

12
Habitualmente todos los estudios deterministas derivan diseños disparejos ya sean

ordinarias o parciales, éstas se pueden resolver con técnicas ordenadas y/o

numerarias.

DELIMITACIÓN DEL PROBLEMA

Después de haber realizado el análisis del diseño, se debe establecer una nueva

estructura de base de datos a fin de modelar el diseño a implementar. Esta

transformación filtrará todos los datos inconsistente con el objetivo de minimizar

gastos innecesarios a la empresa y descartar llamados de atención por retrasos en la

entrega de la información anual a los entes de control. Colindaremos el

inconveniente haciendo referencia al gasto excesivo que tiene la empresa. Para

dicho proceso hemos considerado una de las mejores herramientas de código abierto

el cual posee como beneficio principal descartar el costo en licenciamiento, excluir

el desgaste de tiempo en modificaciones de la data, cumplimiento ante los entes de

control y credibilidad a nivel nacional de todos sus empleados, costo de servicio por

mantenimiento de la data y mejorar su competitividad.

Para exponer que el estudio del diseño de transformación funciona, se elaboró una

guía de recolección de datos basados en el diseño de transformación realizada en

una agencia en particular, creando scripts de filtrado dentro de cada modelador que

incluye la herramienta.

Considerando como base la transformación efectuada en una de las agencias se

desarrolló un formulario para validar la migración de los datos, el mismo que fue

validado por un experto en el área de base de datos (Ing. Cesar Cuenca, DBA).

En base a la necesidad de la transformación se crea un diseño relacional, que nos

permitirá estar preparados hacia un alto crecimiento en la empresa.

13
La transformación de datos pretende medir los beneficios que posee esta

herramienta de software libre migrando una base de datos de forma íntegra, rápida y

segura, beneficiando a la empresa no solo en una baja estimación de tiempo sino en

el ahorro que representa al eximirse de contrataciones externas y probable fuga de

información.

PLANTEAMIENTO

FORMULACIÓN DEL PROBLEMA

¿Cómo realizar una migración que permita trasladar el 100% de la data que se

encuentra almacenada de forma aislada, transformando estructuras sin perder

información importante para la institución?

EVALUACIÓN DEL PROBLEMA

Evidente: Existen muchas formas de detectar que una base de datos posee

almacenado sus datos de forma inconsistente, que puede ser, monitoreando el

proceso de ingreso al sistema en forma de consulta directamente, o al actualizar

información bajo demanda del cliente. Este estudio demostrará la necesidad de

transformar los datos de forma íntegra hacia otra estructura relacional mediante el

uso de la herramienta Spoon de Pentaho sobre plataforma Linux.

Relevante: El riesgo de que la empresa pueda generar más gastos operativos y

posibles llamados de atención por los entes de control, pudiendo llegar a ser

verdaderamente alarmante, esto pasa por varios factores principalmente el factor

volumen, cabe señalar que la empresa posee 5 agencias a nivel nacional y posee una

trayectoria de 8 años en el mercado, es por eso la necesidad de realizar una

transformación eficiente que cubra a tiempo las necesidades de la empresa.

14
Original: Este es un campo bastante interesante, ya que en nuestro país ha sido

poco explorado por el temor de fallas al momento de implementarse en cualquier

empresa, debido a lo poco frecuente de poseer una data inconsistente.

Factible: La migración de los datos perfectamente realizable dado que no se trata de

un estudio extenso sin ejecución real.

Identifica los productos esperados: Por medio de este estudio podríamos no solo

demostrar la transformación de los datos en una base de datos no relacional sino

también en muchas otras bases de datos soportadas por la herramienta.

OBJETIVO DE LA INVESTIGACION

Objetivo General:

 Demostrar la habilidad, seguridad y rapidez que posee la herramienta Spoon de

Pentaho, en la transformación de datos de un repositorio a otro. Ahorrando de esta

manera contratación de personal especializado, soporte en sitio y minimizando

largas horas de ejecución en el proceso de migración.

Objetivos Específicos:

 Utilizar la herramienta Spoon de Pentaho como un instrumento de diseño,

desarrollo, ejecución y seguimiento para todo el proceso de migración.

 Analizar y diseñar los procesos de extracción, transformación y carga.

 Transportar la data de forma íntegra y segura, validando posibles errores.

 Promover la explotación del software libre en nuestro país.

 Proveer disponibilidad en el repositorio de datos.

 Estandarización de estructuras y tipos de datos, garantizando de esta manera la data

almacenada.

15
JUSTIFICACION E IMPORTANCIA DE LA INVESTIGACIÓN

Este estudio ayudará a mantener un estándar en la estructura de la base, un

rendimiento óptimo y una alta disponibilidad, adicionalmente servirá para darle

mayor apertura a los software libres que en nuestro país que prácticamente es

inexplorado.

También servirá para la correcta toma de decisiones en la arquitectura de algún

diseño nuevo con respecto a otros aplicativos que se pueden llegar a implementar.

Con esta investigación ayudaremos a introducir en el Ecuador el estudio de nuevos

diseños para mejorar procesos en las bases de datos, siendo mitigada la

inconsistencia de los datos que es el eje central de toda empresa en crecimiento. En

este estudio se demostrará que las herramientas de software libre, son los más útiles

al momento de hacer diseños o manipulación de información de forma segura. La

importancia de este estudio radica, en el logro, de un grupo de datos sospechosos

que perjudican al crecimiento de la empresa. En virtud de los posibles llamados de

atención por los entes de control, desgaste de utilidad para la compañía y pérdida de

credibilidad de los clientes, se vio afectado el servicio que se ofrece.

Adicionalmente existían pagos que se receptaban de forma manual y automática, lo

que generaba duplicidad de pagos entre agencias o hurto por parte de los empleados,

a partir de este punto se realiza un análisis de las transacciones efectuadas

mensuales, donde se descubren varios reclamos de los clientes que no han sido

reportados. A través del departamento de cobranzas se realizaron las indagaciones

de campo.

Este estudio, ayudará a disminuir los casos de reclamos por afectación no solo al

cliente sino a la empresa ya que al momento de realizar una cobranza se realiza una

validación de los datos. Secundariamente en la nueva estructura se prevé generar

16
pistas de auditoria en las cuales ponga sobre aviso al administrador del sistema.

Además por la frecuencia cada vez más alta de las empresas en crecimiento.

Como ejemplo podemos resaltar el estudio de la Metodología para la conversión del

Modelo Entidad Relación al Modelo realizado por la Universidad Técnica de

Ambato en el año 2001, que lo trata de introducir como una nueva área de

investigación. En este estudio los campos de lenguajes de programación,

inteligencia artificial e ingeniería de software han contribuido con el uso de la

tecnología orientada a objetos en el área de las Bases de Datos. El desafío del área

de Bases de Datos es integrarlos en un diseño de sistema simple que mantenga el

equipo deseado para cada campo. El resultado de realizar la Conversión es la

característica central de este trabajo para obtener una mejor idea y comprensión de

Bases de Datos Orientas a Objetos (http://repo.uta.edu.ec/handle/123456789/372?

show=full), en nuestro caso es lógico que sea de gran interés ya que al prescindir de

multas y de información consistente para la validación de los reportes es un costo

beneficio muy considerable hacia la empresa involucrada, como valor agregado se

puede también mencionar que se descartarán gastos por licenciamiento del software

a utilizar al tratarse de una herramienta de software libre. Precisamente uno de los

factores de riesgo que se asocian es la probabilidad de pérdida de datos, teniendo en

cuenta que una transformación mal realizada podría dar por terminada una

estructura de información completa. Resulta evidente que en muchos procesos dicha

probabilidad de fallo en la transformación o migración de datos depende del tiempo

en el procesamiento de la data.

La diferencia del estudio de Metodología para la Conversión del Modelo Entidad

Relación al Modelo Orientado a Objetos con el estudio en el que he tenido la

oportunidad de trabajar es que nosotros no necesitamos herramientas de alto tiempo

17
de procesamiento ni se costosa inversión para la empresa, dado que nuestro estudio

del diseño no intenta enriquecerse ni llevarle a un alto tiempo de recuperación,

nuestro estudio de diseño de transformación de datos únicamente pretende

demostrar que las herramientas de código abierto poseen muy buenas características

que podemos explotar con un óptimo resultado.

BENEFICIOS

Entre los beneficios que se obtendría al resolver esta situación, podemos mencionar:

 Agilidad en las consultas y trámites para los clientes

 Optimización de gastos operativos por desgaste al personal

 Fin de llamados de atención por los entes de control

 Mejorado en el procesamiento de los datos

 Inventarios, ventas y pagos actualizados a nivel nacional

 Ahorro de costos en software y contratación de personal especializado para la

solución del problema en la empresa.

 Control total en el ingreso de la data, de acuerdo a los tipos de datos descritos

 Competitividad y seguridad en la data existente de la institución.

REYES (2006) Expresa: La tecnología nació asociada con la actividad práctica


del hombre. Miles de años después, se separaron como ocurrió con la ciencia.
Ella es una fuerza poderosa en el desarrollo de la civilización, sobre todo, a
partir del momento en que fraguó su vínculo con la ciencia. Ella -al igual que el
lenguaje, los valores, el comercio y las artes- es una parte intrínseca de un
sistema cultural, que forma y refleja los valores de un sistema.(pag. 12)

CAPÍTULO II

18
MARCO TEÓRICO
CAPITULO II – MARCO TEÓRICO

ANTECEDENTES DEL ESTUDIO

Antes de empezar a describir los factores de éxito del estudio haremos una breve

explicación de los conceptos a tratarse dentro de este proyecto. Iniciando por la

significación de una base de datos; en su concepto más simple, se refiere a un

conjunto de datos relacionados entre sí con un objetivo común, de acuerdo con C. J.

Date en su libro Introducción a la bases de datos: Una base de datos es una

colección de datos integrados, con redundancia controlada y con una estructura que

refleje las interrelaciones y restricciones existentes en el mundo real; los datos que

han de ser compartidos por diferentes usuarios y aplicaciones, deben mantenerse

independientes de éstas, y su definición y descripción, únicas para cada tipo de dato,

han de estar almacenadas junto con los mismos. Los procedimientos de

actualización y recuperación, comunes, y bien determinados habrán de ser capaces

de conservar la integridad y confidencialidad del conjunto de datos.

¿Qué es una migración?

Una transformación o migración de datos es un proceso que se realiza para mover o

trasladar los datos almacenados de un origen de datos a otro, para lo cual es

indispensable que antes de empezar cualquier proceso de esta naturaleza, se tenga

clara y documentada la razón por la cual se está migrando, además de elaborarse la

planeación detallada de las actividades contempladas.

19
Objetivo del Proyecto

Dicha transformación en este caso lo realizaremos con el objetivo específico de

subsanar el degradado en la inconsistencia de los datos en la base. El primordial

escenario tiene como propósito de mejora: Descartar el alto gasto operativo

generado por la mala gestión del sistema y llamados de atención por parte de los

entes de control, optimar el desempeño de la base de datos, cumplir con políticas de

seguridad o control de información, mayor compatibilidad con otras aplicaciones,

estandarización de la tecnología de información y facilitar el intercambio de datos

entre procesos. En este estudio se identificarán los elementos o aspectos que resultan

esenciales para que se alcancen los mejores resultados del proyecto. A estos

elementos se les denomina comúnmente Factores Críticos de Éxito (FCE), cuyos

resultados satisfactorios aseguraran un diseño exitoso de transformación de datos.

En el gráfico N°. 1 se muestran las etapas consideradas hacia un propósito de

transformación de datos. Algunas de las etapas y actividades pueden realizarse en

forma paralela o llevarse a cabo en varios ciclos.

GRÁFICO N°.
ETAPAS DEL ESTUDIO DE TRANSFORMACIÓN DE BASE DE DATOS

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

20
Es importante hacer distinguir que en la planeación del diseño de migración, se

deben implantar los objetivos, colindar el alcance, puntualizar la estrategia a seguir,

identificar en forma completa los requerimientos, crear métodos de contingencia

para los riesgos de mayor impacto y probabilidad, así como analizar las condiciones

actuales y finales. En esta fase se estipula la viabilidad técnica y la factibilidad

económica de la solución que plantearemos.

A fin de contribuir al diseño de transformación de datos, uno de los temas obligados

de discusión en todos los círculos empresariales es la “Reingeniería de Procesos”. Si

bien el tema no es nuevo, el término acuñado por M. Hammer y J. Champy en 1993,

se ha convertido en un fenómeno de éxito mercadotécnico.

Durante doscientos años se fundaron y se construyeron empresas sobre la base del

brillante descubrimiento de Adam Smith, de que el trabajo mecánica debía dividirse

en tareas más simples y básicas. La reingeniería de negocios significa volver a

empezar, arrancando de cero. Lo que importa en la reingeniería es como queremos

organizar hoy el trabajo, dadas las exigencias de los mercados actuales y el potencial

de las nuevas tecnologías.

Hammer define la reingeniería de negocios como 'replanteo fundamental y rediseño

radical de los procesos de negocios para alcanzar mejoras en orden de magnitud en

el rendimiento de costos, calidad, servicios y rapidez'. Hammer y Champy, a

diferencia de otros autores, sitúan a la Informática en el centro de la reingeniería de

negocios. Presentan un planteamiento muy claro y radical ya que para ellos, la

tecnología no debe verse como sinónimo de automatización. No se trata de utilizar

la nueva tecnología para resolver mejor problemas antiguos, sino de aprovechar los

conmovedores avances de las tecnologías modernas de la información para resolver

los nuevos problemas.

21
Una transformación o migración de datos puede llegar a ser muy costosa para la

empresa, incluso consumiendo varias horas de tiempo en la realización del proceso.

En el año 2001, el belga Matt Casters empezó el desarrollo de una herramienta para

uso personal, consciente de las dificultades que había tenido durante su experiencia

laboral como constructor de Data Warehouse (colección de datos orientada a un

determinado ámbito, integrado, no volátil y variable en el tiempo) para la

integración de sistemas. Entretanto los siguientes años, fue desarrollando la

herramienta, primero utilizando Java y su librería gráfica AWT (Abstract Window

Toolkit), para finalmente pasar a SWT (Standard Widget Toolkit). La herramienta

fue añadiendo funcionalidades, acceso a bases de datos, tratamiento de ficheros y

componentes hasta llegar a 2004 con la versión 1.2. En la versión 2.0 se incluyó un

sistema de plugins para permitir el desarrollo de conectores de Kettle con otros

sistemas como SAP (Sistemas, Aplicaciones y Productos en Procesamiento de

datos) y en 2005 fue liberado el código y puesto a disposición de la web. El

proyecto creció con rapidez y la comunidad se involucró en su desarrollo con mucha

actividad, hasta estar dentro de la órbita de Pentaho, que lo incluyo como

herramienta ETL (extracción, transformación y carga) en su gama de productos.

Matt Caster ha estado desde entonces trabajando en Pentaho y desarrollando su

arquitectura como parte del equipo de Pentaho, interviniendo en las diferentes

versiones hasta llegar a la 3.

Pentaho se define a sí mismo como una plataforma de BI (Business Intelligence)

que contiene todos los principales componentes requeridos para implementar

soluciones basadas en procesos. Las soluciones que Pentaho ofrece se componen

fundamentalmente de una infraestructura de herramientas de análisis e informes

integrados con un motor de workflow o flujo de trabajo de procesos de negocio. La

22
plataforma será capaz de ejecutar las reglas de negocio necesarias, expresadas en

forma de procesos y actividades y de presentar y entregar la información adecuada

en el momento adecuado.

El primordial escenario tiene como propósito de mejora: Descartar llamados de

atención o multas por parte de los entes de control, optimar el desempeño de la base

de datos, cumplir con políticas de seguridad o control de información, mayor

compatibilidad con otras aplicaciones, estandarización de la tecnología de

información y facilitar el intercambio de datos entre procesos. En este estudio se

identificarán los elementos o aspectos que resultan esenciales para que se alcancen

los mejores resultados del proyecto. A estos elementos se les denomina comúnmente

Factores Críticos de Éxito (FCE), cuyos resultados satisfactorios aseguraran un

diseño exitoso de transformación de datos. En el gráfico N°. 2 se muestran las

etapas consideradas como propósito de transformación de datos. Algunas de las

etapas y actividades pueden realizarse en forma paralela o llevarse a cabo en varios

ciclos.

El alcance de la migración de datos contempla el análisis, diseño, implementación y

pruebas de la herramienta Spoon de Pentaho para la extracción, transformación y

carga de la información de la base de datos actual hacia la nueva PostgreSql.

Desigualdades entre transformaciones de datos

Un diseño de transformación de datos es la grafía de una dificultad en el mundo

real, basado en esto el estudio está obligado a encontrar la técnica más beneficiosa

para desvanecer todas las inconsistencias de la base que representan el problema en

cuestión, en los párrafos anteriores se resume la importancia que posee una

transformación de datos en una empresa. Los beneficios de la herramienta con la

que realizaremos nuestra demostración y es costo beneficio de la misma.

23
FUNDAMENTACIÓN TEÓRICA

Transformación por inconsistencia de los datos

Una transformación o migración de datos es una excelente alternativa para corregir

la data mal almacenada a nivel de base de datos. La transferencia de información

entre un repositorio u otro permitirá cifrar y estructurar los datos en forma óptima.

Podemos tener el mejor sistema, la base de datos más robusta o aplicable al negocio

pero si no tenemos una buena arquitectura del negocio o una estructura de base de

datos con políticas de seguridad, restricciones, parches o con tipos de datos

controlados tiende a almacenar información inconsistente.

La migración de los datos consiste en convertir los datos desde un sistema de base

de datos a otro. Esta migración conlleva la creación de tablas o modificación de las

existentes, cambios en algunos tipos de datos que existen en una base de datos pero

no en otras, etc.

Este estudio tiene como producto principal la herramienta Spoon de Pentaho, para el

desarrollo del proyecto.

Ventajas

 Aprovechar el uso de nuevas tecnologías de código abierto.

 Erradicar costos altos en licenciamiento de software especializado.

 Excluir costos operativos por pagos de horas extras al personal y llamados de

atención por el ente de control por el atraso en la entrega del balance.

 El alcance de la migración es pequeño y controlable.

 La información histórica preserva su estructura original.

 Los usuarios consultarían la información histórica en del sistema anterior (ventaja

para los usuarios).

 Menor capacitación.

24
Desventajas

 Se debe modificar o cambiar el aplicativo actual.

 Durante los primeros meses existirán dos fuentes válidas de información, la

histórica y la vigente.

 Molestia con los usuarios por adaptación al nuevo repositorio.

¿Existen diferentes tipos de migraciones?

A continuación mencionaremos los diferentes tipos de migración que existen en el

mercado como reseña percepción de lo que se puede realizar:

 Migración en sitio

Actualiza automáticamente el Portal completo y todos los sitios. La migración sobre

escribe las Bases de Datos originales, y convierte todos los datos a los formatos

nuevos, incluyendo todos los documentos almacenados. Los sitios y el Portal no

podrán ser utilizados durante el proceso.

GRÁFICO N°.
PROCESO DE MIGRACIÓN EN SITIO

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

25
Recomendado para instancias de pequeña dimensión o instalaciones contenidas en

un solo servidor.

 Migración gradual

Los servidores contendrán varias versiones al mismo tiempo, y la migración se

puede realizar por cada recopilación de sitio. El contenido de la recopilación que se

está migrando en el momento es guardado primero en una Base de Datos temporal y

luego migrado a las nuevas Bases de Datos. Los cambios se pueden revertir a la

versión anterior porque las Bases de Datos no se alteran. Requiere más espacio

físico en los servidores (porque hay que tener todo doble).

GRÁFICO N°.
PROCESO DE MIGRACIÓN GRADUAL

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

CASTRO (2003) Expresa:” La habilidad de las sociedades para controlar la


tecnología y en particular las tecnologías estratégicamente decisivas en cada
época histórica tienen una gran influencia en su destino”. (pag. 12)

26
Permite más control sobre la migración y es recomendable cuando se han hecho

personalizaciones avanzadas en el sistema. La migración es mucho más lenta que

una en sitio.

Base de Datos

Se realiza poniendo las Bases de Datos fuera de conexión, copiándolas al nuevo

servidor, conectándolas al nuevo sistema y realizando una migración en sitio por el

resto.

GRÁFICO N°.
PROCESO DE MIGRACIÓN DE BASE DE DATOS

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Solamente se pueden migrar Bases de Datos completas pero es la forma más rápida

para migrar.

27
Factores de Riesgo en la transformación

Factor crítico para el éxito de la migración de la base de datos, es la realización de

pruebas, las cuales inicialmente, pueden ser a pequeña escala para validar o

modificar la arquitectura final y el plan de migración, así como para comprobar que

las aplicaciones que harán uso de la base de datos funcionan correctamente y

optimizar los tiempos y recursos necesarios. Es recomendable hacer pruebas

generales para comprobar que el proceso completo funciona correctamente, medir

los tiempos para tener una planeación integral y minimizar los riesgos como:

Sistemas con muchas identificaciones pueden ser entre muy difícil a imposible de

ser migrados; la única forma de saberlo con certeza es hacer una migración de

prueba.

Procedimientos que no son migrados y hay que compilarlos y aplicarlos

manualmente de nuevo, pero luego de ser migrados manualmente continuaran

funcionando sin problemas. Modificaciones hechas en las plantillas originales no

son migradas.

Consideraciones que se tomaron para seleccionar la herramienta

Un aspecto crítico para el éxito del estudio del diseño de transformación es la

selección de la herramienta que será utilizada para ejecutar el proceso de migración,

es importante hacer un análisis de las diferentes alternativas existentes, buscando la

mejor opción considerando la relación costo/beneficio de cada una de ellas hacia la

empresa.

BENEFICIOS DE LA HERRAMIENTA SPOON

Spoon, nos permite realizar el diseño de las transformaciones y trabajos de forma

gráfica. Inclusive admite previsualizar y testear los elementos desarrollados. Pan, es

otra herramienta de Pentaho que asiente la ejecución de las transformaciones

28
diseñadas en Spoon, puede ser de un fichero o del repositorio. Desde la línea de

comandos nos permite preparar la ejecución mediante scripts.

GRÁFICO N°.
PROCESO DE MIGRACIÓN

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

¿Cómo se miden los resultados de la transformación?

Una vez terminado el proceso se deben medir los resultados y entregar un reporte

global del trabajo realizado, mencionando cual es el producto que se entrega,

cuantas tablas u otros objetos fueron migrados, cuantos registros se migraron

exitosamente, cuantos no fueron migrados y cuál fue la causa de aquello.

Otro documento relevante para el cliente es la memoria técnica que contenga la

configuración de los parámetros de la base de datos migrada, su estructura física y

espacio disponible, entre otros datos relevantes.

RUIZ (2003) Expresa: Hoy, la tecnología puede definirse como la aplicación del
conocimiento científico a la solución de problemas prácticos y la obtención de
metas humanas; un cuerpo de conocimientos desarrollados por una cultura que
provee métodos o medios para controlar el entorno, extraer las fuentes,
producir bienes y servicios, así como mejorar las condiciones de vida. (pag 24)

Consideraciones antes de la transformación

29
Una actividad central es realizar un análisis del diseño de datos actual y del nuevo,

para estipular cuáles son los campos y tablas críticas; posteriormente, se analizará y

documentará la correspondencia campo por campo del nuevo modelo con el modelo

actual, especificando las dependencias funcionales de cada una de ellas.

Adicionalmente se debe vislumbrar la verificación de la integridad referencial entre

las tablas de acuerdo con los requerimientos del modelo en el nuevo ambiente y

determinar las limitaciones existentes, sin destruir los datos almacenados ni las

relaciones que existen entre ellas. De igual modo, es necesario considerar los

diferentes tipos de datos entre el modelo actual y el nuevo, certificar que la

información pueda ser almacenada en los campos bajo la nueva definición,

contrastar el tamaño de los objetos y de la base de datos, considerar el tipo de

índices que soporta la base de datos final y el manejo de sus transacciones.

Funcionamiento de Pentaho

La solución de Pentaho tiene un contexto de implementación basado en el lenguaje

de programación Java. Eso hace que sea una solución muy flexible para cubrir una

amplia gama de necesidades empresariales, también abre, limpia e integra toda la

información valiosa de la empresa para que la misma pueda ser entregada al usuario

de manera íntegra. Provee una estabilidad, una sola versión de todos los recursos de

información, que es uno de los más grandes desafíos para las organizaciones de

Tecnologías de la Información (TI). Pentaho Data Integration permite una poderosa

ETL (Extracción, Transformación y Carga).

Pentaho Data Integration facilita una solución completa de ETL, incluyendo:

 Delineante gráfico enriquecido para permitir a los desarrolladores ETL una amplia

conectividad a cualquier tipo de datos (integer, char, etc).

 Escalabilidad y rendimiento, incluyendo el almacenamiento en caché de la memoria.

30
 Análisis y presentación de informes, incluyendo Hadoop, NoSQL, tradicionales y

bases de datos OLTP de análisis

 Moderno, abierto y posee una arquitectura basada en estándares.

 Interfaz gráfica para la programación y seguimiento de Hadoop, NoSQL, y el

procesamiento de datos relacional y el empleo de ETL.

 Pentaho Data Integration tiene un diseñador gráfico automático que permite hacer

exactamente lo que los desarrolladores de código más hábiles pueden lograr en una

fracción de tiempo, y sin necesidad de código en forma manual. Integra en un único

entorno de desarrollo la posibilidad de elaborar las ETL, el modelar los metadatos y

la visualizarlos, ya sea a través del navegador OLAP o por reportes.

 Esta herramienta puede de manera muy simple tomar datos de una fuente (archivos

locales y remotos, bases de datos, repositorios), aplicar un procesamiento a dichos

datos (filtros, condiciones, cálculos, consultas), y almacenar los resultados en un

destino (archivos, base de datos, repositorio).

Ventajas de la herramienta

 Logra facilitara la comunicación entre las partes interesadas y los desarrolladores.

Estos últimos obtienen de forma más rápida prototipos funcionales (incluso en

minutos) de cubos OLAP, reportes, etc. y a su vez, las partes interesadas pueden

entregar su feedback a los desarrolladores en base a un prototipo que se ve

exactamente como sería en un ambiente productivo.

 Permite llegar a un resultado final de forma más efectiva.

 Reduce riesgos y costos de implementación.

 Admite probar de forma empírica y temprana la arquitectura de la aplicación BI

(que los datos necesarios sean los correctos, que el tiempo de ejecución sea

aceptable, que los reportes muestren la información que los usuarios necesiten, que

31
el diseño del cubo OLAP satisface las necesidades de información de los analistas,

etc.).

 Permite a los desarrolladores enfocarse en funcionalidad de las diferentes soluciones

informáticas.

GRÁFICO N°.
PROCESO DE INTEGRACIÓN DE DATOS - PENTAHO

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Cuales con las características de Spoon de Pentaho?

 Entorno gráfico de desarrollo

 Uso de tecnologías estándar: Java, XML, JavaScript

 Fácil de instalar y configurar

 Multiplataforma: windows, macintosh, linux

 Basado en dos tipos de objetos: Transformaciones (colección de pasos en un proceso

ETL) y trabajos (colección de transformaciones)

 Incluye herramientas como:

 Spoon: para diseñar transformaciones ETTL usando el entorno gráfico

 PAN: para ejecutar transformaciones diseñadas con Spoon

32
Que consideraciones debemos tener con Spoon?

Esta herramienta puede manipular y transformar información en todos aquellos

proyectos dónde sea necesario trabajar con datos erróneos. Las diferentes soluciones

para cubrir las necesidades de extracción, manipulación, validación y carga de datos

desde múltiples fuentes de origen y en diferentes entornos esta puede resolverlos,

permite implementar los procesos de extracción, transformación y carga de datos

(ETL), la misma es de código abierto compuesta por cuatro componentes

fundamentales: SPOON para el diseño gráfico de las transformaciones, PAN para la

ejecución de los trabajos y las transformaciones, CHEF para el diseño de la carga de

datos y KITCHEN para la ejecución de los trabajos Batch diseñados con CHEF.

El uso de kettle permite evitar grandes cargas de trabajo manual frecuentemente

difícil de mantener y de desplegar.

Los siguientes scripts permiten iniciar Spoon en diferentes plataformas:

 spoon.bat: inicia Spoon en la plataforma Window$.

En esta plataforma basta con ejecutar el archivo .bat para iniciar Spoon.

 spoon.sh: inicia Spoon en una plataforma tipo Unix, tal como GNU/Linux, Apple

OSX, y Solaris. En este caso debemos ejecutar la siguiente sentencia:

cd /home/datos/programas/data-integration

sh spoon.sh

DELARBRE (2009) Expresa en donde según el ciudadano requiere de


destrezas específicas para su supervivencia en este nuevo entorno: “La
capacitación, no sólo para encontrar información y saber discriminar entre
ella, sino también para colocar contenidos en las redes informáticas, se ha
convertido en requisito indispensable en la formación cultural, la
competitividad laboral y las opciones sociales de las personas.” (pag. 12)

33
Qué plataformas soporta Spoon?

 La guía de Spoon es soportada en las siguientes plataformas:

 Windows: todas las plataformas desde Windows 95, incluyendo Vista.

 GNU/Linux: en procesadores i386 y x86_64, trabaja mejor en Gnome.

 OSX de Apple: trabaja en ambas máquinas, PowerPC e Intel.

 Solaris: utilizando una interface Motif (GTK opcional).

 AIX: utilizando una interface Motif.

 HP-UX: utilizando una interface Motif (GTK opcional).

 FreeBSD: soporte preliminar i386, pero aún no en x86_64.

Cuáles son los problemas frecuentes que puede presentar Spoon?

Los problemas más conocidos asociados con Spoon son:

 GNU/Linux

Bloqueo ocasional de la JVM corriendo SuSE Linux y KDE. Corriendo bajo Gnome

no presenta problemas (detectado en SUSE Linux 10.1 pero versiones anteriores

también tienen el mismo problema).

 FreeBSD

Problemas con arrastrar y soltar. Utilizar el menú contextual del clic derecho sobre

el lienzo como solución.

Consultar las listas de seguimiento en http://jira.pentaho.com para encontrar

información actualizada sobre los problemas recientemente descubiertos.

Definición del problema y recolección de datos

Dado a que las bases de datos entre agencias con relación a la matriz, no estrecha

una estructura relacional y al momento de realizar la centralización de la

información y consolidarla para todas las entidades implicadas, esta no mantiene un

34
estándar. Al surgir este efecto, se obtiene como resultado la inconsistencia de los

registros almacenados, según lo demuestra en el siguiente gráfico de ejemplo:

GRÁFICO N°.
PROCESO DE INTEGRACIÓN DE DATOS – PENTAHO

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Como nos muestra el gráfico, el esquema con que se dan las tablas de las diferentes

bases de datos, señalan que en un mismo campo, tienen distintos tipos o formas de

ser pobladas. Durante la traslado de los datos a la base de la matriz, se produce una

variabilidad de los registros, ya que al momento de realizar consultas y/o reportes,

estos traerán datos que no serán completos.

La principal actividad que perjudica a la empresa se debe al alto gasto que posee por

el mal ingreso de la información en su base de datos, así como también se quiere

erradicar llamados de atención por parte de los entes de control ya que esto también

perjudica a la empresa. Notoriamente el área de cobranzas denotó que la

información existente se encontraba errada para su gestión, ya que le era imposible

ubicar a los clientes, otra área que se ve involucrada en esta afectación es el área

35
comercial ya que se les imposibilita permitir enviar invitaciones para los eventos

que realiza la empresa. Este proceso de concretar el problema es muy significativo

ya que afectará en forma reveladora las conclusiones en el estudio, lo cual hace

imposible extraer una respuesta correcta de un problema equivocado. Lo primero

que hay que reconocer es que un grupo de desarrolladores expertos, por lo general

trabajan en un alto nivel de asesoría. A los miembros del grupo no se les presenta un

problema y se les dice que lo resuelvan, ya que por medio de este retroalimentación

asesoran a la gerencia (casi siempre un tomador de decisiones). El grupo realiza un

análisis técnico y después presentan un informe a los administradores de base de

datos. Con frecuencia, el informe a la gerencia identifica cierto número de opciones

atractivas y particular bajo diferentes suposiciones. El gerente evalúa, da sus

recomendaciones y toma una decisión final basándose en su mejor juicio.

Una vez determinado el inconveniente el siguiente paso consiste en reformularlo

para su análisis, mediante la arquitectura de un diseño que represente la esencia del

inconveniente. El diseño es una representación idealizada de la situación de la

empresa.

Formulación del Diseño

El diseño posee muchas ventajas sobre una descripción verbal del inconveniente,

una ventaja obvia es que el diseño puntualiza un problema en forma mucho más

concisa. Al desplegar el esquema, se recomienda empezar con una versión muy

sencilla y moverse, en forma evolutiva, hacia diseños más elaborados que reflejen

mejor la complejidad del inconveniente real. El diseño debe ser menos confuso que

el sistema real, de otra manera, no tiene sentido trabajar con diseños si se puede

trabajar con el sistema real en sí.

Como puntos clave en el diseño podemos destacar:

36
 Documento del diseño

 Detalle de las reglas de transformación y carga

 Mapeos fuentes-destino a nivel global y detallado.

Elaboración de una solución a partir del diseño

Una vez expuesto el diseño para suplir el inconveniente, la consecuente etapa

consiste en desarrollar un procedimiento para proceder a una solución al problema a

partir de este diseño. Puede pensarse que esta debe ser la parte primordial del

estudio, pero por lo general no lo es, hallar la solución es la parte entretenida del

estudio, mientras que el auténtico trabajo se encuentra en las etapas anteriores y

posteriores del estudio. Un argumento común es la búsqueda de una solución

óptima, es decir, la mejor, es necesario reconocer que estas soluciones son óptimas

sólo respecto al modelo que se está manejando. Como el diseño necesariamente es

una abstracción y no una representación del inconveniente real, no puede existir una

garantía de que la solución óptima del diseño resulte ser la mejor solución viable

que pueda llevarse a la práctica para el inconveniente real. Esto es de esperarse si se

toma en cuenta los muchos inestimables e inseguridad asociados a casi todos los

problemas existentes, pero si el diseño está bien expresado la solución debe tener

una buena aproximación de curso de acción ideal para el problema real.

Entre las ejecuciones que podemos mencionar tenemos:

 Datos válidos cargados en la herramienta Spoon

 Documento técnico de migración

 Documento de resultado de la migración de datos

 Inconsistencias cargadas en el repositorio.

37
El distinguido desarrollador de software estadounidense, autor y empresario Jeff

Atwood, menciona que tenemos que dejar de optimizar para programadores y

comenzar a optimizar para usuarios. Al ver este tema como una optimización hacia

los usuarios finales el cual ayuda al crecimiento de la empresa, se contempla

satisfacer y mejorar las necesidades del negocio. La distinción entre mejorar y

satisfacer refleja la diferencia entre la teoría y la realidad.

Por lo tanto, la meta de un estudio debe ser llevarlo a cabo de una manera óptima,

independientemente de si implica o no encontrar una solución recomendable para el

diseño. Al reconocer este concepto, en ocasiones se utilizan solo procedimientos de

diseño intuitivo para encontrar una buena solución sub-óptima.

Un procedimiento óptimo para el diseño original puede ser menos ideal para el

inconveniente real, de manera que es obligatorio hacer un estudio adicional. El

estudio pos-óptimo, establece una parte muy característica, éste determina qué

medidas del diseño son los más críticos, las medidas críticas, del diseño son aquellos

cuyos valores no se pueden modificar sin que la solución óptima se modifique.

Criterios de aceptación

El criterio de aceptación de la migración se determina a través del indicador de

carga de información, que se define a continuación, de acuerdo con la estrategia

escogida para la migración y los supuestos y restricciones del estudio.

Indicador de carga de información.- La herramienta Spoon pudo ser cargada con la

información válida y se calcula con la siguiente fórmula:

ESTEBAN (2009) Expresa: El conocimiento es más complejo, surge de la


observación, el análisis y la experimentación; busca suministrar conjuntos de
conceptos cada vez más abarcadores y, a su vez, en la medida de lo posible, más
sencillos en relación a los fenómenos y sus vínculos, incluidas sus variaciones,
así como las causas y las consecuencias de estos. (pag. 18)

38
# de datos cargados

Indicador de carga de información = __________________ * 100

# de datos válidos

La aceptación de la migración se da cuando:

El indicador de carga de información >= 98%

Ensayo del estudio

Sin vacilación podemos decir que la inicial versión de un diseño tenga fallas, por lo

tanto previamente a usar el diseño realizado debe experimentarse para identificar y

corregir todas las fallas que se puedan encontrar, este proceso de ensayo y

mejoramiento se conoce como aprobación del diseño. Un diseño es legítimo si,

libremente de sus inexactitudes, puede dar un pronóstico confiable del

funcionamiento del sistema. Un procedimiento común para probar la eficacia de un

diseño es confrontar su funcionamiento con algunos datos transitados disponibles en

la base de datos existente (llamado comúnmente ensayo retrospectivo). Debe notarse

que tal procedimiento de validación no es adecuado para información que no existe

en la base de datos, ya que no habrá datos utilizables para poder confrontar. Otro

procedimiento podría ser contener una información que no haya sido evaluada como

existente en la formulación del diseño, para poder encontrar errores que la

herramienta no haya encontrado.

Elaboración para la aplicación del diseño

El siguiente paso es colocar un procedimiento bien documentado para aplicar el

diseño a implementar. Este estudio contendrá el diseño, procedimiento de solución y

las tácticas operativas para su implantación (normalmente el diseño se lo realiza en

39
un computador). El segmento de este arranque incluye el proceso de un

mantenimiento durante su uso posterior, por lo tanto si las condiciones cambian con

el tiempo, este proceso debe modificar la transformación del modelo.

Se definen las siguientes fases básicas dentro de un proceso de migración:

 Análisis de las fuentes de datos.

 Extracción y Transformación de los datos en el formato destino.

 Validación de datos en un repositorio de preparación

 Carga de datos en el sistema destino.

Sin embargo, con el fin de atacar los retos que implica el movimiento de datos hacia

el nuevo repositorio, se define un proceso de migración cíclico en el cual se repite el

mismo proceso de fases hasta que la migración se completa exitosamente.

Este acercamiento permite realizar análisis orientado al sistema destino, establecer

premisas de validación, refinar los diseños y aplicar las mejores prácticas a medida

que el proyecto progresa. Esta metodología usa las mismas 4 fases básicas (análisis,

extracción / transformación, validación y carga) pero las fases no solamente iteran

sino que se interconectan una con otra.

Establecimiento del diseño

Una vez terminado el período de desarrollado para aplicar el diseño, la última fase

consiste en la implantación de las consecuencias probadas del diseño. Esto

esencialmente implicaría la transcripción de estos resultados en instrucciones de

operación particularizada, emitidas de forma evidente a los usuarios que

administrarán y operarán la base de datos. A la culminación del estudio, es

conveniente que al realizar la transformación se documente la metodología

manejada con bastante claridad para que el trabajo sea reproducible.

40
Objetivo: Realizar un examen completo y establecer una lista de chequeo de los

elementos de datos que serán migrados. Del mismo modo se realiza el mapeo de los

elementos de datos de la fuente al destino.

Actividades: En el esquema iterativo, las actividades de análisis están dirigidas a

suplir los requerimientos del sistema destino. Se deben hacer tres consideraciones.

 Descubrimiento inicial.- Proceso que permite entender el valor de todos los

elementos de datos, rangos, etc. y poner en evidencia las relaciones entre ellos.

 Mapeo.- Permite entender cuales bases de datos, entidades y atributos satisfacen los

requerimientos de información del sistema destino. Se debe evaluar qué relación

origen-destino satisface el requerimiento de manera óptima y determinar los

cambios requeridos (transformación) en los esquemas de datos incluyendo cuáles

elementos no existen, y son necesarios, en la nueva aplicación.

 El resultado de la fase de análisis y diseño es la especificación del mapeo entre

los sistemas fuente y el sistema destino.- Entre mejor sea la especificación inicial

menos iteraciones se tendrán que realizar.

 Realizar el análisis de la topología y obtener estimados de desempeño.- Es

necesario precisar la duración de la migración una vez se ejecuten las iteraciones

previas a la migración final

Diseño de Transformación de Datos

Uso de la herramienta Spoon de Pentaho Business Intelligence

Una vez definido el diseño de la estructura a implementar en nuestro estudio,

debemos considerar algunas instrucciones posteriores que harán triunfante nuestro

proyecto. Se consideró que como mejor alternativa hacia la empresa Servicios

Nacionales según la demanda de sus operaciones y el costo beneficio, la mejor

41
alternativa como motor de base de datos es PostgreSql, esta alternativa se instalará

en un servidor Suse Linux 12.1 ya que también posee el beneficio de ser libre en

licenciamiento. Una vez creada la base de datos procedemos a configurar la

herramienta Spoon, creando las conexiones a la base de datos, para este escenario

estableceremos conexiones ODBC en el servidor, las conexiones que se representan

serán hacia Access y PostgreSql.

Posteriormente se deben crear scripts que servirán para el traspaso de la

información, de acuerdo al análisis de la estructura planteada debemos considerar a

realizar el filtro de migración de la data, reflexionando en crear log (registros) de los

posibles errores que se puedan generar. Estos log serán validados una vez que

termine el proceso para considerar si debemos crear un script adicional

considerando otras alternativas.

Se diseñará de manera gráfica modelos de flujos de transformación insertando

bloques de códigos en forma de script, los cuales van a realizar como filtro para el

traspaso de la data. A continuación se mostrará un gráfico donde se demostrarán los

iconos de la factibilidad y lo amigable de la herramienta.

Se busca generar el mapeo de los correspondientes flujos de datos a una tabla de

salida:

GRÁFICO N°.
INTERFACE MODO GRÁFICO - SPOON PENTAHO

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

42
Es recomendable utilizar el "Modo seguro" cuando se mezclan filas de muchas

fuentes para asegurarse de que todas las filas tengan el mismo diseño en todas las

condiciones.

Cuando se ejecuta en modo seguro, la transformación verifica cada fila que pasa y

asegura que todos los diseños sean idénticos. Si una fila no tiene el mismo diseño

que la que la primera fila, se genera e informa un error.

Saltos de Transformación

Existe una opción donde se debe configurar los saldos de la transformación de

forma ‘habilitada’ ya que si no se lo realiza los pasos siguientes al mismo están

aislados de cualquier flujo de datos previo al salto deshabilitado. Esto puede

conducir a resultados inesperados al editar los pasos del flujo posterior.

Saltos de Trabajo

Además del orden de ejecución, un salto igualmente especifica la condición en que

será ejecutada la siguiente entrada de trabajo:

 Incondicional: especifica que la siguiente entrada de trabajo será ejecutada a pesar

del resultado de la entrada de Trabajo de origen.

 Seguir este camino cuando el resultado sea verdadero: especifica que la siguiente

entrada de Trabajo será ejecutada solamente cuando el resultado de la entrada de

Trabajo de origen sea verdadero, que significa ejecución exitosa, archivo

encontrado, tabla encontrada, sin error, que la evaluación sea verdadera, etc.

 Seguir este camino cuando el resultado sea falso: especifica que la siguiente

entrada de Trabajo será ejecutada solamente cuando el resultado de la entrada de

43
Trabajo de origen sea falso, que significa fracaso de la ejecución, archivo no

encontrado, tabla no encontrada, ocurrencia de error(es), que la evaluación sea falsa.

Crear un Salto

Para crear un nuevo salto entre 2 pasos, se puede utilizar alguna de las siguientes

opciones:

Clic con el botón del medio en el paso origen, mantener presionado el botón y

arrastrar el puntero hacia el paso destino.

Mantener presionada la tecla "SHIFT", hacer clic con el botón izquierdo en el paso

origen, mantener presionado el botón izquierdo y arrastrar el puntero hacia el paso

destino.

Ir a la opción "Árbol Principal" en el panel izquierdo y hacer clic derecho sobre el

nodo "Saltos", esto abrirá una nueva ventana en donde debemos especificar cuál

será el paso de origen y cuál será el destino.

Seleccionar los dos pasos que se desean unir utilizando "CTRL" + clic izquierdo

sobre los mismos, luego hacer clic derecho en alguno de los dos pasos y seleccionar

"Nuevo Salto". Esta característica trabaja solamente con pasos que aún no se han

conectado a otro paso.

Regularmente el proceso se vería de la siguiente manera, y cada diseño o dibujo

representa una acción o un paso a seguir. Dentro de cada uno de estos gráficos

poseen script que realizan por debajo la transformación de los datos.

CASTRO (2003) Expresa: El conocimiento tecnológico, a diferencia del


científico, se conforma por nuevos procedimientos para alcanzar ciertos fines
prácticos; pueden considerarse como el conocimiento de procedimientos
probados por los que se logran objetivos predeterminados. (pag. 21)

44
GRÁFICO N°.
PROCESO DE EXTRACCIÓN DE LOS DATOS – SPOON PENTAHO

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Se consigue asegurar que la transformación de datos se encargue de convertir las

inconsistencias de los datos y la codificación, que pueden existir dentro de una base

de datos única y que casi siempre existen cuando múltiples bases de datos la

contribuyen.

Una función lineal de las variables independientes que permita clasificar a las

estructuras en uno de los dos niveles o grupos establecidos por los dos valores de la

variable dependiente. (Ferrán: 2001, 32)

La transformación de datos es un modelo que, a partir del diseño estimado para cada

Para este proceso se crearon aproximadamente 11 pasos que abarcan la

“preparación.ktr” que incluye la creación de las tablas, secuencias, creación de

tablas que almacenarán los errores (log) y alterar la estructura de los campos

antecediendo a un posible error. “beginning_step0.ktr” el cual realiza la inserción de

los datos en las tablas padres filtrando campos reconocidos como inconsistentes,

logrando realizar el traspaso optimizado. Posteriormente “cliente_step1.ktr” y

“cliente_step2.ktr” inserta los registros de todos los clientes y realiza el filtrado de la

45
data de acuerdo a las condicionantes del script. Subsiguientemente se ejecutan los

pasos “afiliacion_step1.ktr”, “afiliacion_step2.ktr”, “afiliacion_step3.ktr” y

“afiliacion_step4.ktr” que realizan el barrido de los afiliados y de toda la

información correspondiente a direcciones, cedulas, fechas de nacimientos, números

celulares, etc.

Finalmente se ejecutan los scripts “cobros_step1.ktr” y “cobros_step2.ktr” que

reprocesan todos los pagos por agencias asignándole secuenciales, índices y la

depuración de la data. Adicionalmente para cada proceso se creó una taba donde se

almacenarán los registros errados o inconsistentes sin consideraciones de migración.

Estos registros deben ser verificados uno a uno manualmente con la ayuda de algún

colaborador de la empresa que nos guie como podemos mejorarla a nivel de

servicio. Una de las variables independientes y producto de la probabilidad de los

cambios que se den en la variable dependiente, va a permitir asignar los mismos a

una u otra categoría y opción de respuesta. (Visauta: 1998, 52).

La transformación de datos estima de forma muy parecida al traspaso de

información de un computador a otro en la que se aprecia primero un estudio base

para suministrar una referencia en la comparación. En la transformación múltiple, la

media que emplea para establecer el estudio base y diagnosticar el espacio que

ocupará el nuevo diseño. Sin embargo en la transformación logística, se utiliza el

mismo proceso, con la media utilizada en el diseño estimado, pero no para

diagnosticar el espacio que ocupará el nuevo diseño, sino la versatilidad y

operatividad de mejora que se obtendrá con este proceso. (Hair, Anderson, Tatham y

Black: 1999, 318).

A continuidad se definirán las dos opciones de refutación para los usuarios en la

variable dependiente como respuesta base de datos Access y respuesta control y, por

46
tanto, cuando se haga referencia en lo continuo a estos términos de probabilidad se

hablará del pre (base actual) y pro (diseño de transformación) para la otra.

Perdida de datos en la transformación (razón de suceso) = M/1-p

Dónde:

M = probabilidad de que ocurra un suceso

1-p= probabilidad de que no ocurra un suceso

A partir de esta pérdida de datos en la transformación se puede deducir la

probabilidad de un suceso:

Pro (base actual) = 1/1+Co+1Y

Dónde:

Co y C1, son los factores estimados.

Y, es la variable independiente

En este caso al describir más de una variable independiente los diseños que se han

estimado quedarían de la siguiente forma:

Dónde: R es la composición lineal:

R = Ti+ H1X1+H2X2+……+ €

Ti, es la constante o intercepto y expresa el valor de la probabilidad de R cuando las

variables independientes son cero.

H1, H2, son los coeficientes dependientes e informan cuanto varia la probabilidad

de ocurrencia de R ante un cambio de mecanismo de la variable independiente

correspondiente, manteniéndose las demás variables aclaratorias invariables.

X1, X2, valores que consiguen adoptar las variables independientes.

€, Representa el termino de error de estimación.

Finalmente se deducen los valores y se estima el o los diseños.

Requisitos y etapas de la regresión logística

47
Re catalogar las variables independientes ordinales en variables simuladas o

supuestas y de la variable dependientes.

Analizar el tiempo, diseño, procedimientos y costo de los coeficientes, sus factores y

estadísticas de éxito.

Diseño

Este bosquejo fue concebido en base al análisis que se realizó después del

levantamiento de información, normalmente las estructuras de bases de datos deben

ser realizadas por un arquitecto de sistemas que en este caso existe. Una vez

bosquejada la solución estimada pasó por un proceso de aprobación por parte de la

empresa a nivel Gerencial. La Economista Mariana Jácome, gerente de la empresa

Servicios Nacionales fue el personaje céntrico que sustentó la nueva estructura

entidad relación que se implementaría dentro de la empresa en dificultad.

El estudio del diseño de transformación de datos analiza la estructura funcional de la

empresa que es hacia donde se quiere llegar con el diseñador gráfico. Hoy en día las

empresas manejan una gran cantidad de datos por lo tanto es muy valioso que una

base de datos posea una buena estructura relacional capaz de manejar bien sus

transacciones.

No concierne si nuestra base de datos posea sólo 20 registros, o algunos cuantos

miles, es importante asegurar que nuestra base de datos esté correctamente diseñada

para que tenga eficiencia y que se pueda seguir utilizando por largo tiempo.

Adicionalmente no se puede descartar las consideraciones a tomar en cuenta al

hacer el diseño de la base de datos:

 La velocidad de acceso,

 El tamaño de la información,

 El tipo de la información,

48
 Facilidad de acceso a la información,

 Facilidad para extraer la información requerida,

 El comportamiento del manejador de bases de datos con cada tipo de información.

Para la realización de este proyecto hemos considerado todas las falencias que posee

la base de datos actual de la empresa en la que se realizó el estudio, el cual posee

varias bases de datos almacenadas de forma aislada de acuerdo a la agencias que

posee la empresa, por lo tanto existen distintos formatos en el guardado de la

información, claves primarias o foráneas inexistentes permitiendo la existencia de

forma repetida incluso entre agencias.

EXTRACCIÓN Y TRANSFORMACIÓN

Objetivo: Desarrollar los procedimientos y scripts de transformación y validación

Actividades: Un análisis preciso permitirá un trabajo eficiente en las siguientes

fases. Después de que se conoce que datos migrar, donde conseguirlos y como se

mapean en el destino, el siguiente paso es construir los procedimientos necesarios

para extraer los datos y transformarlos hacia el formato adecuado.

Durante la fase de desarrollo además de construir los scripts y el código específico

de la migración utilizando la herramienta de migración seleccionada se deben

enfrentar dos situaciones:

 Manejo de irregularidades de datos y excepciones durante la transformación, tales

como incompatibilidad de los tipos de datos. Idealmente la herramienta debe

generar un reporte de violaciones de integridad e irregularidades, ya que los datos de

la fuente deberán ser corregidos por los usuarios finales o el jefe de sistemas de la

empresa.

 Maximizar la eficiencia del código incrementando el grado de paralelismo y alto

desempeño.

49
GRÁFICO N°.
DISEÑO DE TRANSFORMACIÓN DE DATOS

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Una vez definido el diseño actual en beneficio de la empresa, mediante la

herramienta Spoon realizaremos pasos o steps, que se enlazarán entre sí a través de

los saltos o hops. Dentro de cada salto fluye la información entre los diferentes

pasos, existirán pasos donde se recupere registros de las tablas de la base de datos

antigua, y los registros recuperados van a ser transmitidos a los siguientes pasos que

incluirán scripts con condicionantes que irán filtrando la data de acuerdo al nuevo

diseño requerido como se muestra en la figura a continuación:

GRÁFICO N°.
TRANSFORMACIÓN DE DATOS - SPOON

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

50
En este proceso se llevarán a cabo varios pasos que estarán agrupados por categorías

y cada uno de ellos está diseñado para cumplir una función específica.

Descripción de la Interfaz de Usuario

Una vez descargada la herramienta (Spoon) es bastante amigable la concordancia

con el usuario, existen configuraciones que debe realizarse, como crear la conexión

a las bases de datos relacionadas, para esto contiene distintos íconos en los cuales

facilita la configuración y creación de scripts para el proceso de la transformación,

que entre las opciones más destacadas tenemos:

La pestaña "Árbol Principal" permite ver las conexiones asociadas con los trabajos y

transformaciones abiertas.

GRÁFICO N°.
LOGO DE BÚSQUEDA DE CONEXIONES

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Dentro de la pestaña "Objetos Principales" contiene los pasos disponibles para

construir la transformación (entrada, salida, búsqueda, transformar, uniones,

scripting, etc) o el trabajo (general, mail, scripting, etc), dependiendo el caso.

GRÁFICO N°.
MUESTRA LOS PASOS DE CONSTRUCCIÓN

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

51
Opciones de la Línea de Comandos

 Las opciones que se pueden utilizar al iniciar la aplicación son las siguientes:

file = nombreArchivo

 La elección anterior ejecuta la transformación.

Logfile = nombreArchivoAcceso

 La opción anterior permite especificar la ubicación del archivo de log que por

defecto es la salida estándar.

Level = nivelAcceso

 La elección anterior establece el nivel de log para la transformación que se está

ejecutando. Los valores posibles son:

CUADRO N°.
MENSAJES QUE ARROJA LA HERRAMIENTA
Nothing.- No muestra ninguna salida
Error.- Solamente muestra los errores
Minimal.- Usa logging mínimo
Basic.- Este es el nivel de logging básico por defecto
Detailed.- Da una salida detallada del logging
Debug.- Muestra una salida detallada para propósitos de depuración
Logging detallado a nivel de fila. Advertencia: esto genera una
Rowlevel.-
pérdida de datos.
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

Rep = nombreCatalogo

 La opción anterior permite conectar a un catálogo.

User = nombreUsuario

 En el párrafo se establece el nombre de usuario con el cual se desea conectar al

catálogo:

Pass = password

 La elección anterior establece la contraseña utilizada para conectar al catálogo.

Trans = nombreTransformacion

52
 Aquí se establece la transformación del catálogo que se desea ejecutar.

Job = nombreTrabajo

 La opción anterior establece el trabajo del catálogo que se desea ejecutar.

Es significativo tomar en consideración las siguientes especificaciones:

 Los campos en itálica (en cursiva) representan los valores que utilizan las opciones.

Utilizar comillas simples o comillas dobles si hay espacios en los valores de las

opciones; las comillas aseguran que los valores de las opciones permanecen juntos.

Catálogo

Spoon permite almacenar los archivos de las Transformaciones y Trabajos en el

sistema de archivos local o en un catálogo de Kettle, que puede ser alojado en

cualquier base de datos relacional. Para cargar una Transformación o trabajo desde

un catálogo de base de datos, debe conectarse a ese catálogo.

La información asociada con el catálogo se almacena en "repositories.xml". Este

archivo está ubicado en el directorio oculto ".kettle" por defecto.

/home/<nombreUsuario>/.kettle/ or C:\Documents and

Settings\<nombreUsuario>\.kettle

La ruta completa y el nombre del archivo asociado con "repositories.xml" se

muestran en la consola de Spoon.

ESTEBAN (2009) Expresa: Pese a las limitaciones actuales, el país dispone del
principal recurso para ello: el potencial humano, que unido a los grandes
centros de investigación, integrados en polos científicos posibilita el acceso a
este campo de la investigación, así como la generación de nuevas tecnologías
propias. (pag. 18)

53
GRÁFICO N°.
TRANSFORMACIÓN DE DATOS ENTREDA/SALIDA – SPOON

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Historia de Licenciamiento

Desde la versión 2.2.0, Spoon fue liberado al dominio público bajo la licencia

LGPL.

Spoon es software libre; se puede redistribuir y/o modificar bajo los términos de la

GNU Lesser General Public License publicada por la Free Software Foundation; ya

sea la versión 2.1 de la Licencia, o (a elección) cualquier versión posterior.

Spoon se distribuye con la esperanza de que será útil, pero sin ninguna garantía;

incluso sin la garantía implícita de comercialización o idoneidad para un propósito

particular.

Iconos de la Barra de Herramientas

A continuación se detallará un diccionario de los íconos que facultan la herramienta

en la barra de tareas de la pantalla principal.

FARREL GE, EGANA E, FERNÁNDEZ F. (2003) Expresa: La conformación


de un nuevo escenario socio-económico, basado principalmente en el cambio y
en el uso de recursos intangibles como la información, la investigación, los
conocimientos y el aprendizaje configura una nueva forma para la gestión de
los servicios en aras de un desarrollo sostenible de los pueblos. Cita larga. (pag.
14)

54
CUADRO N°.
BARRAS DE HERRAMIENTAS – SPOON
Icono Descripción Transformación Trabajo
Crea un nuevo Trabajo o
SI SI
Transformación
Abre una
Transformación/Trabajo desde
un archivo si no está conectado
SI SI
a un Catálogo o desde el
Catálogo si se está conectado a
uno.
Guarda la
Transformación/Trabajo en un SI SI
archivo o en el Catálogo.
Guarda la
Transformación/Trabajo con un
SI SI
nombre diferente y/o en
diferente lugar.
Ejecuta la
Transformación/Trabajo actual
SI SI
desde el archivo XML o
Catálogo.
Pone en pausa la ejecución de la
SI NO
actual Transformación.
Detiene la ejecución de la actual
SI SI
Transformación/Trabajo.
Vista previa de la
Transformación: ejecuta la
Transformación actual desde la
memoria. Puede obtener una SI NO
vista previa de las filas
generadas por los pasos
seleccionados.
Ejecuta la Transformación en el
modo de depuración, lo cual
SI NO
permite detectar problemas y/o
errores en la ejecución.
Repite el procesamiento de una
Transformación para una
determinada fecha y hora. Esto
hará que algunos pasos (entrada
archivo de texto y entrada
SI NO
Excel) sólo procesen las filas
que no fueron interpretadas
correctamente durante la
ejecución en una fecha y hora en
particular.
Verifica la Transformación: SI NO

55
Spoon ejecuta varias pruebas
para cada paso para ver si todo
va a funcionar como debería.
Ejecuta un análisis de impacto:
analiza qué impacto tendrá la
SI NO
Transformación sobre las bases
de datos utilizadas.
Genera el SQL necesario para
ejecutar la actual SI SI
Transformación/Trabajo.
Abre el explorador de bases de
datos y permite realizar una
vista previa de los datos,
SI SI
ejecutar las consultas SQL,
generar DDL (Lenguaje de
Definición de Datos), etc.
Muestra u oculta el panel de
/ resultados de la ejecución de la SI SI
Transformación/Trabajo.
Representa el tamaño de
visualización (en porcentaje) del SI SI
área de trabajo.
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

Configurar Variables de Entorno

Para configurar las variables de entorno que se utilizarán, se debe seleccionar en la

barra de menú: Editar -> Establecer Variables de Entorno.

GRÁFICO N°.
CONFIGURACIÓN VARIABLES DE ENTORNO

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

56
En este caso se crearon dos variables de entorno, con sus respectivos valores, que

serán utilizados en un paso de envío de mail.

Los valores asociados a las variables de entorno deben definirse a través de "Editar

-> Establecer Variables de Entorno" se perderán al reiniciar Spoon. Para que esto no

suceda y por cuestiones de integridad, es buena práctica configurar las variables de

entorno en el archivo kettle.properties, que se encuentra en:

 GNU/Linux: home/<nombreUsuario>/.kettle/

 Window$: C:\Documents and Settings\<nombreUsuario>\ .kettle\

Para crear las variables en este archivo, debe realizarse de la siguiente manera:

nombreVariable = valor

En este caso sería simplemente añadir al final del archivo las siguientes líneas

mail.puerto.gmail = 465

mail.server.gmail = smtp.gmail.com

En todo momento se pueden ver los valores que poseen las variables de entorno, a

través de la siguiente opción: Editar -> Mostrar Variables de Entorno.

Tal y como puede observarse estas variables son utilizadas en la sesión del usuario

actual.

Si se configura un Trabajo o Transformación para guardar la información de log en

una tabla de una base de datos, se puede ver la información de log de ejecuciones

previas al hacer clic derecho en el Trabajo o Transformación en el Árbol Principal.

La característica “repetir” permite volver a ejecutar una Transformación que ha

fallado. Repetir se implementa funcionalmente para "Entrada Archivo de Texto" y

"Salida Excel".

Permite enviar los archivos que contenían errores de nuevo a la fuente y que se

corrijan los datos. En casos donde se tiene una tabla destino fija, se puede mapear

57
los campos del flujo de datos actual a los correspondientes campos de la tabla

destino.

Esto puede hacerse desde una Transformación seleccionando en el paso

"Selecciona/Renombra Valores" la opción "Editar Mapeo":

GRÁFICO N°.
MAPEO DE FLOJOS EN DATOS ACTUALES

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Bases de Datos no soportadas

Unos pocos tipos de bases de datos no están soportados en esta versión debido a la

falta de una muestra de la base de datos y/o el software.

En general, se puede leer desde bases de datos no soportadas utilizando el

controlador de base de datos Generic a través de una conexión ODBC o JDBC.

Limitaciones

58
El "Editor SQL simple" no reconoce los dialectos de todas las bases de datos

soportadas. Esto significa que crear procedimientos almacenados, disparadores, y

otros objetos específicos de base de datos pueden plantear problemas. En estos casos

se debe considerar el uso de las herramientas que vienen con la base de datos.

Validación

Objetivo: Validación de datos en un repositorio de preparación.

Actividades: Una vez se tiene listo el mapeo el siguiente paso es chequear si los

datos cumplen las validaciones del sistema destino, incluyendo reglas de negocio,

restricciones de semántica o sintácticas. Estas actividades se la pueden realizar con

la misma herramienta Spoon de tal manera que el resultado de esta fase es un

conjunto de procedimientos o scripts a través de los cuales se realizarán las

validaciones mencionadas. En este punto hay que considerar que el repositorio al

que se aplica las validaciones de negocio, puede ser un repositorio temporal donde

se almacenan los datos recibidos de la fuente con el fin de pasarlos luego de estas

validaciones al esquema definitivo

Pruebas y cargue

Objetivo: Ejecutar los scripts o el código generados en la fase de desarrollo de la

migración, enmarcándolos en un contexto de semántica del negocio que permita

resolver los problemas lógicos así como los errores físicos.

Actividades: En la fase de pruebas del usuario se identifican y resuelven los errores

lógicos. El primer paso es ejecutar los mapas. Así los mapas se ejecuten

correctamente hay que identificar:

 El número de registros que se espera que el script cree.

 Si efectivamente ese número de registros se crearon, si no verificar el por qué no fue

así.

59
 Si los datos fueron cargados en los campos correctos.

 Si el formato de los datos fue el adecuado.

 Si el sistema destino permite limpiar los datos cargados si la carga no fue

satisfactoria y existe el procedimiento para hacerlo, mediante el uso de la capa

intermedia de transformación. El objeto es asegurar que la migración está correcta

antes de poblar el sistema destino.

Pruebas del usuario

En estas pruebas los aspectos a tener en cuenta son:

 Verificar que la información fue convertida en el formato correcto y transferida al

campo especificado mediante el uso de cifras de control sobre los campos

significativos entre el anterior y el nuevo, estableciendo una muestra estadística

sobre el universo de datos convertidos y transferidos.

 Los datos convertidos de forma automática deben ser formalmente verificados por

los usuarios y el jefe de sistemas.

FUNDAMENTACIÓN LEGAL

En la “Estrategia para la Implantación de Software Libre en la Administración

Pública Central”, el Presidente Constitucional de la República del Ecuador,

Economista Rafael Correa Delgado emitió el Decreto Presidencial No. 1014 con

fecha 10 de Abril del 2008, en el cual establece el uso del Software Libre.

De esta manera, en el Ecuador el Software Libre se convierte en una política

tecnológica, en dónde el código abierto, las licencias de uso libre, el uso de

estándares abiertos y el trabajo comunitario, facilitan la inclusión digital, la

soberanía tecnológica y la innovación local, optimizando el gasto estatal,

favoreciendo el desarrollo local y promoviendo la integración regional. La

Subsecretaría de Informática de la Presidencia de la República, creada mediante el


60
Acuerdo No. 119 el 1 de agosto del 2007, tiene entre sus atribuciones y

responsabilidades elaborar y ejecutar planes, programas, proyectos, estrategias,

políticas y reglamentos para el uso de Software Libre en las dependencias del

gobierno central.

Como secundario en la REGLAMENTACIÓN DEL CURSO DE GRADUACIÓN

la cual en su artículo 31 cita que La ley de sustentación consistirá en la defensa del

proyecto, atendiendo a las preguntas que realicen los miembros del Tribunal. Las

preguntas versarán sobre temas específicos del mismo.

Art. 1.- Los objetivos de la investigación en la Universidad de Guayaquil están

concebidos como parte de un proceso de enseñanza único, de carácter docente-

investigativo, orientado según norma el Estatuto Orgánico, para permitir el

conocimiento de la realidad nacional y la creación de ciencia solución a los

problemas del y tecnología, capaces de dar país. Las investigaciones dirigidas a la

comunidad tienen por finalidad estimular las manifestaciones de la cultura popular,

mejorar las condiciones intelectuales de los sectores que no han tenido acceso a la

educación superior; la orientación del pueblo frente a los problemas que lo afectan;

y la prestación de servicios, asesoría técnica y colaboración en los planes y

proyectos destinados a mejorar las condiciones de vida de la comunidad.

Art. 2.- En tanto la actividad de investigación es una función de alta prioridad,

consustancial a la misión de la universidad, sobre ella ejercen dirección, control, y

responsabilidad decisoria, los máximos órganos de gobierno, y sus estrategias y

planes deberán ser aprobados por la Comisión Académica y el Consejo

Universitario.

Art. 3.- La actividad de investigación científica y tecnológica es un área de

responsabilidad del Vicerrectorado Académico de la Universidad de Guayaquil,

61
cuyo órgano operativo es la Investigación y Desarrollo de dicha Unidad de

Posgrado, y se conforma de: una comisión asesora del Vicerrectorado Académico:

la Comisión de Investigación y, una unidad de gerencia de ciencia, subordinada a la

unidad de Posgrado, Investigación y Desarrollo: La Dirección de Investigación y

Proyectos Académicos.

Art. 11.- La Dirección de Investigación y Proyectos Académicos, en tanto instancia

de dirección operativa de la Unidad de Posgrado, Investigación y Desarrollo, es

responsable de coordinar, sistematizar y administrar el investigación científica en la

proceso de desarrollo de la Universidad de Guayaquil, la participación en redes

nacionales e internacionales de bibliotecas virtuales y consorcios o redes

internacionales de universidades. Estará a cargo del director (a) y contará con una

coordinación académica y un equipo de documentación e informática.

Art. 12.- Sus atribuciones y funciones son las siguientes:

a) Representar al Vicerrectorado Académico, a la Unidad de Posgrado,

Investigación y Desarrollo, y a la comunidad académica y científica de la

Universidad de Guayaquil, a los efectos de coordinación y relacionamiento con la

Secretaría Nacional de Ciencia y Técnica, la Comisión para la Investigación

Científica y Tecnológica y otras agencias e instituciones públicas y privadas que

trabajan en la esfera de la competencia de esta Dirección.

b) Coordinar junto a la Comisión de Investigación, el trabajo de conformación del

Plan Estratégico de Ciencia y Tecnología de la Universidad de Guayaquil, y

someterlo a la aprobación de la Comisión Académica y del Consejo Universitario.

c) Coordinar y realizar el seguimiento del Plan Estratégico de la Universidad de

Guayaquil.

62
d) Elaborar el Plan Operativo Anual de Investigación de la Universidad y las

correspondientes evaluaciones trimestrales.

e) Coordinar la aprobación por la Comisión de Investigación, de los Planes

Estratégicos de Ciencia y Tecnología de cada una de las facultades e institutos.

f) Formular y someter a aprobación de la Comisión Académica los reglamentos para

la actividad científica.

g) Evaluar el cumplimiento de los Planes Operativos de Ciencia y Tecnología de

cada una de las facultades y unidades académicas.

h) Desarrollar acciones de promoción, financiamiento, capacitación y marketing, en

apoyo a la ejecución de los planes, políticas y líneas de investigación aprobadas por

las autoridades y órganos de competencia.

i) Convocar el Fondo Competitivo de Investigaciones, previa autorización de la

Comisión de Investigación y la Comisión Académica, administrar los fondos y

evaluar los proyectos asociados al FCI.

j) Convocar las comisiones temporales integradas por la Comisión de Investigación

y la Comisión Académica, para la revisión, evaluación, selección y aprobación de

proyectos presentados al FCI.

k) Implementar programas continuos de capacitación, para elevar el nivel

profesional de los especialistas y coordinadores de la actividad científico

investigativa en el perfil de gerencia de ciencia, y en la evaluación y monitoreo de

proyectos de ciencia y tecnología.

l) Promover programas continuos de capacitación para elevar el nivel profesional de

los Profesores (as) e Investigadores (as).

m) Organizar concursos y proponer a la Comisión Académica el otorgamiento de

reconocimientos a los Profesores (as) e Investigadores (as), y autores de Tesis de

63
grado, maestría y doctorado, con destacados resultados en la investigación e

introducción de sus obras en bien de la comunidad universitaria, la región y el país.

n) Establecer nexos de colaboración mutua con otros organismos de investigación y

desarrollo., nacional e internacional.

p) Gestionar y divulgar oportunidades de colaboración nacional e internacional, de

Financiamiento y capacitación en el campo de la ciencia y tecnología.

q) Proteger la producción de los investigadores con la gestión del derecho de autor

y la propiedad intelectual, y la difusión oportuna de la legislación vigente.

r) Coordinar con el Centro de Transferencia y Desarrollo de Tecnologías de la

Universidad de Guayaquil (CTT-UG), la labor de estímulo a la investigación

científica y tecnológica que debe realizar esta institución, así como su planes de

canalización de las demandas de investigación, introducción de resultados

científicos, promoción y Capacitación para lograr multiplicar las fortalezas de la

universidad, evitar duplicidad de acciones y alcanzar una más profunda inserción en

la solución de los problemas concretos que demanda el desarrollo de la región y el

país.

s) Racionalizar el uso de los recursos destinados a la investigación y obtener fuentes

de financiamiento externo

t) Informar periódicamente de las acciones realizadas a la Dirección de la Unidad

de Postgrado, Investigación y Desarrollo, Vicerrectorado Académico y Rectorado.

u) Desarrollar el talento científico y la formación de investigadores en la educación

de pregrado a través de becarios en preparación de tesis de grado.

Art. 18.- La Investigación en la Universidad de Guayaquil, estará orientada por el

Plan Estratégico de Ciencia y Tecnología a elaborarse cada cinco años en

concordancia con la Política Nacional de Ciencia, Tecnología e Innovación de la

64
Secretaría Nacional de Ciencia y Técnica, y las Políticas de Ciencia y Tecnología

del CONESUP, en el marco de una propuesta de la Universidad para el desarrollo

local, regional y nacional.

HIPÓTESIS O PREGUNTAS A OBJETAR.

¿Cómo un Diseño de Transformación de Datos utilizando la Herramienta Spoon de

Pentaho puede migrar varias bases de datos subsanando la data inconsistente?

CUADRO N°.
VARIABLES DEL ESTUDIO
HIPÓTESIS Variables Independientes
¿Cómo un diseño de
Transformación de Datos
utilizando la herramienta - Inconsistencia de los datos
Spoon de Pentaho puede
migrar varias bases de datos
subsanando la data
inconsistente?

Variable Dependiente.

- Multas por retrasos en la entrega de la


Información.

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Variable Dependiente.

Gastos operativos de la empresa y observaciones por retrasos de Balance hacia

los entes de control: El objetivo del actual diseño de transformación es prescindir

de los gastos operativos que se han ido presentando y de observaciones o llamados

de atención por incumplimiento en los tiempos de entrega de balances hacia los

entes de control, esto favorecería a la empresa tanto el su utilidad como en su

crecimiento. Beneficiándonos de la herramienta Spoon que es de código abierto, útil

65
para trasladar información desde un repositorio a otro y para tal objeto la

transformación de datos nos permite demostrar que no es necesario desgastarse en

horas de trabajo, costos altos para la empresa, riesgos de data perdida, funcionalidad

óptima en los procesos que destacan a la herramienta Spoon como la mejor

alternativa.

Variables independientes.

Inconsistencia de los datos: Desde el punto de vista de la administración podemos

resumir que el 60% de la data a nivel nacional se encuentra inconsistente y esto

repercute a gran escala a la empresa, ya sea al momento de reportar la información

detallada así como también al área de cobranzas para realizar su trabajo de forma

exitosa y recuperar la cartera vencida.

Falta de capacitación a los empleados: Para obtener una idea más clara del estudio

que se va a realizar se analizaron varios motivos por el cual la data estaba mal

ingresada., esto se debe a la falta de capacitación a los empleados, adicionalmente al

repositorio decadente que poseen.

RUIZ (2003) Expresa: “La formación de recursos humanos con capacidades de


aprendizaje, investigación, creatividad y una sólida formación socio humanista
que les permita elegir con sencillez y sensibilidad la tecnología en beneficio del
hombre y la naturaleza”. (pag. 8)

CAPÍTULO III
METODOLOGÍA

CAPITULO III - METODOLOGIA

66
DISEÑO DEL ESTUDIO

MODALIDAD DEL DISEÑO DE TRANSFORMACIÓN

La modalidad a la que mejor se adecúa nuestro estudio de diseño es a la de

propósito realizable por qué es factible la utilización de la herramienta ya que está

libre de licenciamiento y es aplicable a cualquier migración de base de datos.

 10%: Bibliografía.

 10%: Campo “Entrevistas y Encuestas”.

 30%: Creatividad Técnica “Instauración de scripts como filtros para el traspaso”.

 50%: Software Open Source “Transformación de Datos”.

TIPO DE ESTUDIO

Por los objetivos.- Estudio básico, creación de la nueva estructura de datos

relacional diseñado bajo el análisis de la transformación requerida por la empresa

que nos permitan representar el inconveniente.

Por el Territorio.- De campo, el estudio debe originar conocimientos y

enriquecerse mediante entrevistas a personas especializadas en el campo de la

administración de base de datos.

Por el ambiente.- Para la toma de decisiones, el estudio debe comparar y plantear

alternativas de solución para demostrar la hipótesis.

Por la trayectoria.- Empírico, predice lo que ocurre, el díselo de transformación de

datos que se aplica para el estudio debe catalogar según el tamaño de la base de

datos, la medición de las transacciones y la falta de personal a las agencias.

Por la factibilidad.- Proyecto realizable, se propondrá un diseño de transformación

de datos práctico que tendrá la capacidad de migrar la información desde un

67
repositorio a otro sin tener riesgos de perdida de data y como resultado nos arrojara

la probabilidad que tiene la herramienta al realizar la transformación con éxito.

POBLACIÓN Y MUESTRA

Población:

El análisis elaborado para este estudio se lo realizó en la empresa Servicios

Nacionales que tiene como sede principal Guayaquil, con sucursales en:

 Manabí

 El Oro

 Azuay

 Tulcán y

 Esmeraldas

Cabe mencionar que en todas las sucursales incluyendo matriz se tienen errores, los

cuales provocan problemas de diferente índole, que afectan la productividad y

eficiencia de la institución.

Muestra:

Para el análisis de la problemática existente en la empresa Servicios Nacionales,

hemos considerado calcularlo mediante dos métodos matemáticos: Uno en el que

calcularemos el tamaño de la muestra considerando el “Error de Estimación”, de la

misma manera utilizaremos el segundo mecanismo para la validación del calculado

de la muestra del primer mecanismo, el cual describimos a continuación:

CUADRO N°. .
Datos Obtenidos de la Empresa

68
POBLACIÓN N

Manabí 180

Otras agencias 320

TOTAL 500
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

Se aplica la fórmula:

n: Tamaño de muestra PQ: Varianza =0.25


P.Q. * N N: Población
n
( N  1) E 2 / K 2  P.Q
E: Margen de error
K: Constante de corrección del error =2

EL TAMAÑO DE LA MUESTRA

P. Q. N m
n n
( N  1) E 2 / K 2  P. Q 2
e ( m  1)  1

PRIMER MÉTODO SEGUNDO MÉTODO

P = Probabilidad de éxito (0.50)


Q = Probabilidad de fracaso (0.50) m= Tamaño de la población (500)
N= Tamaño de la población (500) E= error de estimación (6%)
E= error de estimación (6%) n = Tamaño de la muestra (180)
K= # de desviac.
0.50 xTípicas “Z” (1:
0.50 x500
 2: 95,5%, 3:
n68%, 2 99.7%)
(500  1)0.06 / 2  0.50 x0.50
2

n = Tamaño de la muestra (180)


125 500
n n
( 499)(0.0036) / 4  0.25 (0.06) (500  1)  1
2

125 500
n  n 
( 499)(0.0009)  0.25 (0.0036)(499)  1
125 500
n  n 
0.4491  0.25 1.7964  1 69
125 500
n  n 
0.6991 2.7964
n  178.80 n  178.80
Cálculo de la fracción
muestral:

n 178.80
f    0.3576
N 500

Dado a que la muestra seleccionada representa un 35,76% en relación a la

población, se realizó un segundo análisis que se fundamentó al mayor número de

incidencias a nivel de la base de datos, cuya referencia nos servirá para realizar las

encuestas.

CUADRO N°.
Estimación de Porcentaje

Agencias Población Porcentaje

Manabí 180 0.36 %


Matriz 120 0.24 %
Otras Agencias 190 0.38 %

TOTAL 500 100 %

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

DELARBRE (2009) Expresa: “En la sociedad de la información (SI) ya no se


aprende para la vida; se aprende toda la vida”. (pag. 10)

70
Luego de tener el porcentaje de la muestra de cada agencia se consideró validar la

data de esa muestra para certificar su contenido, en todas las agencias se

encontraron los mismos tipos de errores pero con mayor afluencia en la sucursal

Manabí, ya que es la única agencia que posee servicio de puerta a puerta. Por tanto

se decidió tomar la sucursal Manabí para nuestro estudio.

OPERACIONALIZACIÓN DE LAS VARIABLES

CUADRO DE VARIABLES

CUADRO N°.
MATRIZ DE OPERACIONALIZACIÓN DE VARIABLES
Variables Dimensiones Indicadores Técnicas y/o
Instrumentos

Independientes. Evaluación: Comprensión Manual Básico SPSS


Variables Empresa formulario ( cil.utalca.cl/docs/
Dicotómicas Servicios en un 60% estudios/Manual
(Inconsistencia Nacionales. Basico SPSS.pdf)
de los Datos). Interés del
entrevistado
Variables 50%
Categóricas Unidad de Registro de Synapsis Ltda.
(Falta de Información Usuarios Diseño, desarrollo e
Capacitación a de la Carrera. matutino implantación del
los empleados) 100% sistema de
información
misional de la
Procuraduría
General de la
Nación. Plan de
Pruebas. Propuestas
Dependientes Diseño Metodología Consulta a expertos.

Variables de Calidad de la Se usaron Cuestionarios,


Control (Gastos investigación entrevistas y entrevistas, test,
operativos de la encuestas conversatorios.
empresa y para
observaciones englobar el
por retrasos de problema.
Balance hacia los
entes de
Control).
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

71
TIPOS DE INVESTIGACION

Se realizó un piloto de recaudación de datos basado principalmente en entrevistas y

encuestas en el cual se puntualizan las etapas que se llevaron a cabo para organizar

los datos en estudio. Al instante de recopilar datos se aplicó el software SPSS, para

el mejor proceso de los datos. Se discurre que la técnica establecida que se utilizó es

de campo.

CUADRO N°.
DIAGRAMA DE LA TÉCNICA UTILIZADA

Diseñar Estructura Requerida por el Negocio


Especificar estructura de BDD a ser migrada y formato
de presentación.

Diseño de Recaudación de Datos. (Objetivos,


medios, formatos y tamaños de muestra)

Elaboración de Encuestas

Procreación de sucesos críticos

Evaluación de Incidentes Críticos

Redistribución de sucesos críticos

Grupos de Disputa Crítica.

Composición Final de script de Migración

Análisis de estabilidad
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

72
EN EL ESTUDIO

La técnica principal del estudio que se está realizando es la entrevista y basado en

los datos que se obtengan se realizarán las encuestas, como se lo explica a

continuación, los datos serán analizados por el software SPSS (Paquete estadístico

potente y fiable) que servirá para el análisis estadístico y nos ayudará a exponer el

estudio del diseño de transformación de datos.

LOS UTENSILIOS

 Técnica Instrumento

 Entrevista Guion de Entrevista

 Encuesta Cuestionario

INSTRUMENTOS DE RECOLECCIÓN DE DATOS

Se utilizaran entrevistas y encuestas.

 Entrevistas.- Se consultó a varios expertos en administración e base de datos sobre

el problema que causa la inconsistencia de los datos en los repositorios de las

empresas para recolectar información.

 Encuestas.- Se realizó un cuestionario fácil de entender y sobre todo que represente

el problema.

Los resultados de las entrevistas fueron comparados con artículos de internet y sobre

todo las respuestas fueron validadas por expertos.

Se efectuó el tipo de observación simple y participante.

 Entrevistas; Cuestionarios y Encuestas.

Los Instrumentos de investigación fueron:

 Libros e Internet.

73
PROCESAMIENTO DE LA INFORMACIÓN

EN EL PROYECTO

Se efectuaran la mayor cantidad de entrevistas y encuestas posibles con el objetivo

de medir el problema y dar la solución óptima para la solución del problema.

Se indagara encontrar posibles formas o circunstancias en las cuales se filtre la

información inconsistente en la base de datos de forma directa y se medirá el

porcentaje de efecto que tienen los periféricos al no funcionar de la manera óptima

en el mundo real.

RECOLECCIÓN DE LA INFORMACIÓN

ENTREVISTA A DBA’S

Preguntas claves sobre la importancia de los datos confiables en la base

1.- ¿La falta de Capacitación es indicativo del mal ingreso de datos por parte de

los usuarios?

“Si, ya que el ingreso de la información en los distintos sistemas no siempre son las

mismas y los usuarios suelen ingresar los datos a su elección“

2.- ¿Qué indicios son muestras de que una base de datos se encuentre

inconsistente?

“Por lo general los síntomas más comunes se presentan cuando se repiten

innecesariamente los datos en los archivos que conforman la base de datos y esto se

debe a un grupo de factores que en su mayoría van asociados al ingreso de los datos

desde algún aplicativo mal diseñado, al tipo de dato que le creemos a los campos de

la base, a las longitudes, columnas, etc. Muchas veces este tipo de errores no causan

molestia en el performance de la base, pero si al usuario final o a la gestión del

servicio dependiendo del giro del negocio.”

74
3.- ¿La carencia de un Manual de Usuario provoca un alto porcentaje de

inconsistencia de los datos?

“Si, en varias empresas no se camacita al personal por falta de tiempo y solo recibe

una inducción sencilla que suele darse por la persona que renuncia, pero esta

capacitación no siempre es entendida por tanto un empleado debe ser dotado por un

Manual de Usuario con el que pueda acudir en casos de tener duda.”

4.- ¿Cuál es la causa principal de tener datos errados en la base?

“La causa principal se da por el mal ingreso de la información por parte del usuario

y por la mala arquitectura que posee el software al permitir ese mal ingreso.”

5.- ¿Qué bases de datos están más propensas a tener inconsistencias?

“Por lo general los sistemas que poseen vulnerabilidades a nivel de estructuras, tipos

de datos, ingresos sin validaciones son las más propensas a tener inconsistencias,

dado que estas falencias permiten el ingreso de la información de forma desigual por

tanto el usuario puede ingresarla descomunalmente sin que el sistema no se le

permita.

6.- ¿Existe algún método para detectar con anticipación las falencias que pueda

poseer un sistema en cuanto al ingreso de los datos?

“De hecho se la puede detectar en el ambiente de TEST o prueba, una vez que el

proveedor entrega el software a ser implementado debe probarse todo el manual

tanto técnico como de usuario con el fin de detectar problemas mucho antes de

ponerlo en Producción y esto por lo general toma de una a dos semanas

dependiendo de la complejidad del sistema.”

7.- ¿Qué tipo de base de datos es recomendable para una mediana empresa?

“Lo primero que debemos analizar es la transaccionalidad de la empresa, la cantidad

de datos que va almacenar, el presupuesto asignado a gastar y el nivel de seguridad

75
que necesitemos poseer. Para este proyecto se recomendó PostgreSql, ya que es una

base de datos segura, confiable y sin costo de licenciamiento.”

LA ENCUESTA

CONTENIDOS.

 Servicios Nacionales (Fue dirigida hacia los servicios funerales que ofrece esta

institución).

 Estudio del Diseño de Transformación de Datos utilizando la Herramienta Spoon de

Pentaho Open Source Business Intelligence sobre Plataforma Linux.

ENCUESTA SOBRE EL TIPO DE RECLAMOS DE LOS CLIENTES

1. Marque los tipos de reclamos que ha percibido, en caso de tenerlos.

___ Datos errados ___ Pagos inexistentes en el

Sistema

___ Información duplicada ___ Inventario desactualizado

___ Lentitud del Sistema ___ Mala Cobranza

2. Datos Relevantes.

Edad _________ Hermanos _________ Hijos ___________

3. ¿Realiza pagos en las agencias? Si ___ No ___

¿Con qué frecuencia?

___ Una vez a la semana ___ Dos veces por semana

___Una vez al mes ___ Nunca

4. ¿Empleados de la empresa van a cobrar a su casa? Si___ No___

¿Con qué frecuencia?

___ Una vez a la semana ___ Dos veces por semana

___Una vez al mes ___ Nunca

76
5. Cuando realiza sus pagos, le solicitan actualizar sus datos? Si ___ No___

¿Con qué frecuencia?

___ Mensualmente ___ Raras veces

___ Casi siempre ___ Siempre

6. ¿Ha realizado algún tipo de reclamo por mal ingreso de sus pagos?

___ Siempre ___ A veces

___ Casi siempre ___ Nunca

7. ¿Sabe usted de algún caso de fraude por pagos realizados en agencias?

Si ___ No ___

8. Detalle el tipo de fraude

___________________________________________________________________

9.- Sexo:

Masculino: ____ Femenino: ____

VALIDACIÓN

El trabajo fue revisado por expertos en el área de base de datos, como también en el

campo de la arquitectura en diseño de software.

El diseño de la transformación de los datos fue validado probando que los

resultados guarden coherencia con los datos de la muestra.

PROCEDIMIENTOS DE LA INVESTIGACIÓN

 Demostrar que la herramienta Open Source “Spoon de Pentaho” sirve para

transformar los datos desde una base de datos a otra y lo hace de forma fácil, rápida

y segura, ahorrando costos hacia la empresa.

 Elaboración del modelo entidad relación de los datos.

 Entrevista a expertos, en el campo de la informática para aterrizar el estudio de la

transformación de los datos.

77
 Realizar el formulario de preguntas.

 Realizar el formulario a la muestra.

 Realizar scripts que permitan el filtrado de los datos como técnica para representar

la transformación de manera íntegra.

 Formulación del diseño de transformación.

 Validación del diseño de transformación.

 Representación del diseño que modele el problema.

 Recolección de la información.

Los datos alcanzados para este estudio florecieron mediante la observación directa,

ya que valieron para la corrección y mejora de los procesos actuales que poseía la

empresa Servicios Nacionales tanto con los clientes como para control interno de los

mismos y así tomar los correctivos necesarios para una mejora organizacional.

Formalmente este tema de investigación se lo realizó en la empresa privada

Servicios Nacionales, se solicitó la autorización de los responsables departamentales

para realizar las encuestas y las entrevistas.

1.- Se elaboró un modelo de recolección de datos.

2.- Para recolectar los datos se realizaran entrevistas y encuestas.

3.- Para las cuales usamos un modelo de regresión logística, y gracias a este modelo

le pudimos dar un tratamiento adecuado a los datos.

PROCESAMIENTO Y ANÁLISIS

Se creó una base de datos para pruebas en un servidor virtual Suse Linux 12.1, para

simular la migración y se efectuó el procesamiento de la información por medio de

modelos determinísticos y para su análisis hemos considerado métodos

estadísticos.

78
Una vez realizado el levantamiento de información a través de los cuestionarios

descritos, comienza una fase esencial para nuestra investigación, me refiero a la

clasificación o agrupación de los datos referentes a cada variable objetivo de estudio

y su presentación conjunta. Hemos seguido cuatro pasos para el análisis de los

datos.

 Validación y Edición

 Codificación

 Introducción de datos

 Tabulación y análisis estadísticos.

VALIDACIÓN

Es el proceso de verificar que las entrevistas se hayan hecho de acuerdo a lo

establecido.

La meta de la validación es exclusivamente detectar un fraude o una falla del

entrevistador en seguir las instrucciones claves.

En nuestra entrevista, se explotó todos los conocimientos del jefe de sistemas de esa

institución y tratamos de aclarar todas las dudas acerca de la mala arquitectura del

sistema anterior, para poder darle el tratamiento más óptimo a los datos.

EDICIÓN

Implica verificar los errores del entrevistado. El proceso de edición para las

encuestas por escrito implica una verificación manual de varios problemas,

incluyendo los siguientes:

 Si el entrevistado no registro las respuestas a ciertas preguntas.

 Si el entrevistado comprendió de qué se trataba la encuesta.

79
CODIFICACIÓN

Se refiere al proceso de agrupar o asignar los códigos numéricos a las varias

respuestas, la mayoría de las preguntas de las entrevistas son cerradas y están pre-

codificadas.

PROCESO DE CODIFICACIÓN

Luego de haber realizado la recolección de la información, la tabulación de estos

datos es un factor importante que permitirá reflejar a través de porcentajes la

situación actual del entorno en donde se desenvuelve nuestra población.

La tabulación se desarrolló a través de un conteo manual de cada una de las

preguntas contestadas por los clientes. Donde se obtuvo como resultado los datos y

gráficos estadísticos que se detallan a continuación:

ANÁLISIS DE RESULTADOS

Para la tabulación de los datos se utilizó un cuadro haciendo un análisis individual

por cada pregunta y una representación gráfica de los mismos, su cuantificación se

realizó con el estadístico porcentaje cuya fórmula es:

% = Tanto por ciento que se encuentra en el total del estudio.

F = Número de veces que se repite el dato.

100 = Constante de la muestra

N = Total de Datos.

RUIZ (2003) Expresa: “La formación de recursos humanos con capacidades de


aprendizaje, investigación, creatividad y una sólida formación socio humanista
que les permita elegir con sencillez y sensibilidad la tecnología en beneficio del
hombre y la naturaleza”. (pag. 8)

80
EL CUESTIONARIO

Pregunta 1:

1.- ¿Han recibido algún curso donde se los capacite en cuanto al manejo de

Access?

CUADRO N°.
HA RECIBIDO CURSOS DE CAPACITACIÒN

DATOS UNIDADES PORCENTAJE


Si 72 3,8
No 108 96,2
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Tabla de Cuestionario Capacitación

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Interpretación de Resultados: El 96% de usuarios encuestados no han recibido

curso de capacitación de la herramientas Access.

Se debe invertir en el recurso humano ¿para qué? Son preguntas latentes e

invalorables todavía de parte de la población y de algún sector empresarial, porque

piensan en la utilidad y no en la productividad, por ello es bueno recordar que la

“educación “no es otra cosa que una inversión.

81
2.- ¿Usted desearía que las ventas y pagos de las diferentes agencias se puedan

verificar o validar con datos actuales desde el sistema?

CUADRO N°.
DESEA QUE LAS TRANSACCIONES SE VALIDEN DESDE EL SISTEMA
DATOS UNIDADES PORCENTAJE
No 10.8 6
Si 169.20 94
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Tabla de Cuestionario Ventas y Pagos
Desearía que las ventas y pagos de las diferentes agencias
Se puedan validar desde el sistema

No Si

6%

94%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Interpretación de Resultados: El 94% de los informantes desean que las ventas y

pagos de las diferentes agencias puedan ser verificadas desde el sistema.

Normalmente los aplicativos trabajan en línea ya sea en las diferentes agencias

conectados a un servidor principal donde se configura en envío de paquetes en un

determinado tiempo de diferencia en al cual se va actualizando la información, y así

disminuir el riesgo de inseguridad o incongruencia de los datos almacenados.

82
3.- ¿Desearía poder revisar el inventario actual de las diferentes agencias?

CUADRO N°.
INVENTARIO ACTUAL DE LAS DIFERENTES AGENCIAS
DATOS UNIDADES PORCENTAJE
No 5.4 3
Si 174.6 97
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Tabla de Cuestionario Inventario
Poder ver el inventario Actual de las diferentes agencias

No Si
3%

97%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Interpretación de Resultados: EL 97% de los encuestados desean poder revisar y

tener actualizado el inventario de las diferentes agencias.

Las conexiones entre agencias hacia un servidor principal logran que aquello de ir

actualizando el inventario de todas las agencias, ya que por medio de paquetes

desarrollados en la base, logren mantener actualizada la información.

4.- ¿Cree usted que al registrar un pago o una venta, el sistema debe tener

ciertas seguridades adicionales como ‘el ingreso de la clave de un Supervisor’?


83
CUADRO N°.
SEGURIDADES EN REGISTRO DE TRANSACCIONES
DATOS UNIDADES PORCENTAJE
Si 7.2 4
No 172.80 96
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Tabla de Cuestionario Seguridades
Seguridades adicionales al registrar un pago o una venta en el sistema

4%

No Si

96%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Interpretación de Resultados: EL 96% de los informantes no están de acuerdo que

sea necesaria la clave o la autorización del supervisor en el caso de realizar una

venta o un pago desde el sistema.

Es importante tener en cuenta que la idea de realizar este tipo de seguridades

adicionales es con el fin de minimizar posibles estafas o riesgos de perdida de

dinero.

84
5.- ¿Cree usted necesario que Servicios Nacionales adquiera tecnología de

punta en donde se pueda garantizar las transacciones e información de los

clientes?

CUADRO N°.
GARANTIZAR LA INVIOLABILIDAD DE SUS DATOS
DATOS FRECUENCIA PORCENTAJE
No 7.20 4
Si 172.80 96
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales
GRÁFICO N°.
Tabla de Cuestionario Garantizar transacciones
Garantizar las transacciones e información de Clientes

4%

No Si

96%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Interpretación de Resultados: EL 96% de los informantes están de acuerdo que

Servicios Nacionales adquieran tecnología de punta para garantizar las transacciones

e información de sus clientes.

Es importante tener en cuenta que la idea de tecnología de punta refiere a lo más

avanzado que existe en un determinado momento. Con el avance del tiempo, los

productos dejan de ser innovadores y se vuelven obsoletos, siendo reemplazados

por otros. Estos nuevos productos son los que contarán, por un tiempo, con la

denominación de tecnología de punta.

85
6.- ¿Está usted de acuerdo que Servicios Nacionales al adquirir tecnología de

punta usted sea capacitado en las mismas?

CUADRO N°.
TECNOLOGÍA DE PUNTA PARA SER CAPACITADO
DATOS FRECUENCIA PORCENTAJE
No 9 5
Si 171 95,2
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Tabla de Cuestionario Tecnología
Servicios Nacionales adquiera tecnología de punta y que sea
Capacitado en esta.

5%
No

Si
95%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Interpretación de Resultados: EL 95% están de acuerdo estar capacitados con la

nueva tecnología adquirida por Servicios Nacionales para poder agilitar el proceso

de venta, registro y pagos a realizar por cada agencia.

Norma establecida en la Ley Federal del Trabajo que obliga a toda entidad o

empresa a proporcionar capacitación y adiestramiento a sus trabajadores, para elevar

la producción y productividad y contribuir al logro de objetivos institucionales o

empresariales, para lo cual es necesario que todo el personal participe activamente.

86
7.- ¿Le gustaría a usted poseer un sistema eficiente, relacional y seguro para

ahorrar tiempo y dinero en todas las agencias que posee la empresa?

CUADRO N°.
AHORRAR TIEMPO Y DINERO EN TODAS LAS AGENCIAS
DATOS FRECUENCIA PORCENTAJE
No 9 5
Si 171 95
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Tabla de Cuestionario Ahorrar tiempo y dinero
Ahorrar tiempo y dinero en todas las agencias

No Si

5%

95%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Interpretación de Resultados: EL 95% le gustaría firmar tener un sistema

relacional, seguro y eficiente para poder agilitar sus trámites y por ende ahorra

tiempo y dinero que a la larga le representa ganancias en sus respectivas

transacciones.

Valor del dinero en el tiempo: Recompensa de sacrificar consumo presente para

poder consumir en el futuro. La medida económica de este sacrificio es la tasa de

interés. El dinero disponible hoy, vale más que la expectativa de la misma cantidad

que se recibirá en el futuro.

87
LAS HIPÓTESIS

Hipótesis N° 1 – Seguridad de la Información

1.- Crecidamente el 97% de los usuarios aseguran requerir que la información de todas

las agencias se encuentre centralizadas y actualizada.

CUADRO N°. 5
SEGURIDAD DE LA INFORMACIÓN
DATOS FRECUENCIA PORCENTAJE
No 5.4 3
Si 174.6 97
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Hipótesis Seguridad de la Información

Seguridad de la Información

No Si
3%

97%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Esta hipótesis queda confirmada de acuerdo a la pregunta número tres que en su

enunciado dice ¿Desearía poder revisar el inventario actual de las diferentes

agencias?, donde el 97% de los encuestados están de acuerdo.

88
Hipótesis N° 2 - Inviolabilidad

2.- De 20 usuarios de la empresa Servicios Nacionales 18 de ellos aseguran que al

tener la facilidad de registrar los pagos desde cualquier agencia a nivel nacional

debería la funeraria poner seguridades en las diferentes transacciones.

CUADRO N°. 16
INVIOLABILIDAD
DATOS FRECUENCIA PORCENTAJE
No 7.2 4
Si 172.80 96
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Hipótesis Inviolabilidad
Garantizar la inviolabilidad de sus pagos en cualquier agencia.

4%

No Si

96%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Esta hipótesis queda contestada de acuerdo a la pregunta número cinco que en su

enunciado dice ¿Cree usted necesario que Servicios Nacionales adquiera tecnología

de punta en donde se pueda garantizar las transacciones e información de los

clientes?, donde el 96% de los encuestados están de acuerdo.

89
Hipótesis N° 3 - Garantizar transferencias

3.- Los usuarios del área de ventas necesitan emplear seguridades tecnológicas para

realizar los diferentes trámites en línea.

CUADRO N°. 17
GARANTIZAR TRANSFERENCIAS
DATOS FRECUENCIA PORCENTAJE
No 19.8 11
Si 160,2 89
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Hipótesis Garantizar transferencias
Seguridades tecnológicas para garantizar las transferencias
En línea

Muy bajas 3%
4% 4%

Bajas

Altas
89%
Muy altas

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Esta hipótesis queda confrontada de acuerdo a la pregunta número cuatro que en su

enunciado dice ¿Cree usted que al registrar un pago o una venta, el sistema debe

tener ciertas seguridades adicionales como ‘el ingreso de la clave de un

Supervisor’?, están de acuerdo con el 89 %.

90
Hipótesis N° 4 - Cursos y Capacitación

4.- El personal técnico de la empresa plantea que la capacitación apropiada recibida

les servirá para la correcta utilización de la herramienta tecnológica, ya que así

podrán brindar algún soporte técnico al usuario.

CUADRO N°. 18
CURSOS Y CAPACITACION
DATOS FRECUENCIA PORCENTAJE
No 7.2 4
Si 172.8 96
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Hipótesis Cursos de Capacitación

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Esta hipótesis queda verificada de acuerdo a la pregunta número uno ¿Ha recibido

un curso de capacitación en los sistemas que utiliza actualmente?, el 96% de los

empleados de la compañía Servicios Nacionales no han recibido dicha capacitación

o actualización.

91
Hipótesis N° 5 - Ahorrar tiempo y dinero

5.- Los usuarios de la funeraria Servicios Nacionales consideran que se ahorraría

dinero al efectuar sus transacciones en un sistema centralizado.

CUADRO N°. 19
AHORRAR TIEMPO Y DINERO
DATOS FRECUENCIA PORCENTAJE
No 9 5
Si 171 95
Total 180 100%
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

GRÁFICO N°.
Hipótesis Ahorrar tiempo y dinero
Ahorrar tiempo y dinero en su lugar de trabajo
No Si

5%

95%

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Esta hipótesis queda verificada de acuerdo a la pregunta número uno ¿Han

recibido algún curso donde se los capacite en cuanto al manejo de Access? con

el 95%.

92
CRITERIOS PARA LA ELABORACIÓN DE LA PROPUESTA

Los inconsistencias encontradas en las data de la empresa Servicios Nacionales y

razonamientos que se utilizaron para la proposición fueron por cumplir con las

metas de cumplimiento reducir costos para la empresa, reducir gastos y velar por la

seguridad, confiabilidad, garantía y el uso de las normas comerciales internacionales

que rigen en el mercado actualmente. El Spoon que es la propuesta para la solución

del problema a investigar, fue creado con criterios de seguridad informática basados

en la enseñanza y amaestramiento continuo para la seguridad e integridad de la

información de Servicios Nacionales.

Las herramientas a utilizar fueron:

 PostgreSql

 Spoon de Pentaho

 Suse Linux 12.1

 Access 2003

Las tipologías fundamentales que tendrá esta base de datos son las siguientes:

 Inviolabilidad de la información.

 Portabilidad.

 Seguridad.

 Adecuada distribución y almacenamiento de los datos.

 Ahorro de tiempo y dinero.

HERNÁNDEZ (2010) Expresa: “Las tecnologías informáticas son una parte


importante del desarrollo de las compañías, ellas conforman actualmente el
tronco tecnológico del avance a nivel mundial”. (pag. 7).

93
CAPÍTULO IV

MARCO ADMINISTRATIVO

CAPITULO IV – MARCO ADMINISTRATIVO

CRONOGRAMA

El cronograma de la migración se muestra a continuación. Los ajustes sobre el

cronograma se darán por lineamientos del estudio por modificaciones realizadas a

través de requerimientos formales por parte del jefe de sistema de la empresa.

GRÁFICO N°.
CRONOGRAMA DE TRABAJO

Elaboración: Johanna Hernández Velasco


Fuente: Servicios Nacionales

Descripción de los procesos

De acuerdo con el análisis inicial de la información de los sistemas actuales y la

planeación estimada se plantea ejecutar las siguientes iteraciones dentro del proceso

de migración de datos:

94
La iteración 1 corresponde a la migración de catálogos e inicio de la migración

histórica. El proceso crítico es la homologación de datos para consolidar en las

estructuras de referencia y debe ser adelantado en la fase de análisis y diseño.

La iteración 2 incluye la migración de casos activos y algunos otros datos históricos.

En esta iteración la labor más importante es la definición de equivalencias entre

etapas y actividades del proceso entre los sistemas actuales y Spoon.

La iteración 3 abarca los procesos de migración de relatoría y continuación de casos

activos e históricos. Es importante resaltar en esta iteración la complejidad en la

transformación de este tipo de objetos a la base de datos (datos de muy grande

longitud).

En la iteración 4 se desarrollarán los procesos de migración de los históricos y

activos pendientes.

El detalle de la migración será el resultado de la etapa de análisis y diseño de cada

iteración y tendrá que estar sincronizado con las generaciones en los pasos del

diseño.

CUADRO N°.
PLANIFICACIÓN DETALLADO DEL TRABAJO REALIZADO

Nombre Días Inicio Fin


Levantamiento de Información 24,875 14/05/2012 15/06/2012
9:00 17:00
Análisis de documentación de los procesos 14,375 18/06/2012 06/07/2012
8:00 11:00
Diseño de mapa de procesos 2,75 06/07/2012 11/07/2012
12:00 10:00
Identificación de procesos críticos 6,562 11/07/2012 19/07/2012
11:30 17:00
Diseño de indicadores de procesos 6,562 20/07/2012 30/07/2012
8:00 13:30
Diseño del espacio físico 4,312 30/07/2012 03/08/2012
14:30 17:00
Análisis- implementación de Servidores 6 06/08/2012 13/08/2012
Linux 8:00 17:00

95
Creación Base de Datos PostgreSql 4 14/08/2012 17/08/2012
8:00 17:00
Diseño de modelamiento de Bases de 21 20/08/2012 17/09/2012
Datos 8:00 17:00
Seguridades lógicas 13 03/09/2012 19/09/2012
8:00 17:00
Análisis de alternativas – HARDWARE 8,75 19/09/2012 01/10/2012
10:00 17:00
Análisis de alternativas de seguridad 8 03/10/2012 12/10/2012
lógicas 8:00 17:00
Instalación del Aplicativo en las diferentes 13 15/10/2012 31/10/2012
agencias 8:00 17:00
Definiciones de acceso- usuarios- 5 25/10/2012 31/10/2012
administradores 8:00 17:00
Implementación de contingencia 28 01/11/2012 10/12/2012
8:00 17:00
Diseño de respaldo 13 11/12/2012 27/12/2012
8:00 17:00
Verificación - afinamientos 27 28/12/2012 04/02/2013
8:00 17:00
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

Manejo de inconsistencias

Los datos que no puedan ser ingresados en el modelo de datos, porque no cumplen

con su estructura serán llevados a un repositorio de inconsistencias, a través del un

procedimiento que abarca el registro y la corrección de la inconsistencia, que se

describe a continuación:

 Registro de inconsistencias

Los datos que no puedan ser cargados, por ser inválidos serán enviados a un

repositorio de inconsistencias. Este repositorio contendrá una tabla de

inconsistencias por cada tabla fuente de información. La tabla de inconsistencias

contendrá los mismos campos de la tabla origen y un identificador de la

inconsistencia. El registro origen será insertado en la tabla de inconsistencias, y el

proceso generará un consecutivo que se convertirá en la llave de la tabla.

96
Existirá una estructura en la cual se registrarán todas las inconsistencias,

referenciadas por el número de llave de la inconsistencia.

 Corrección de inconsistencias

El jefe de sistemas en conjunto con los usuarios definidos para el proceso de

corrección de la data, tendrán acceso al repositorio de inconsistencias y tomará la

información para realizar la depuración correspondiente. Posteriormente deberá

cargarse la información depurada al repositorio de fuentes de información y

ejecutará nuevamente el proceso de migración, en un proceso cíclico, hasta que la

totalidad de los datos sean cargados.

 Pruebas

Un factor crítico para el éxito de la migración de datos es la realización de pruebas.

Es recomendable hacer pruebas generales para comprobar que el proceso completo

funciona correctamente, medir los tiempos para tener una planeación integral y

minimizar los riesgos. Las pruebas generales corresponden a las pruebas del usuario

que se ejecutan en cada iteración. También es indispensable la ejecución de

transacciones de prueba con datos reales y con casos especiales (que no se presentan

comúnmente pero generan inconvenientes), en el nuevo sistema para verificar que la

información se está procesando como se espera. La ejecución en paralelo identifica

errores en la conversión y transferencia de datos pues los resultados de una misma

transacción, utilizando los mismos datos de entrada, pueden no generan los mismos

resultados. Estas pruebas corresponden a pruebas funcionales. Se debe tener en

cuenta que para la ejecución de estas pruebas, el proceso de migración debe

ejecutarse en el ambiente de pruebas, con la realización previa de las pruebas de

migración del usuario

97
PRESUPUESTO

Nuestro presupuesto comprende los diferentes gastos que se llevaran a efecto, para

el cumplimiento del objetivo del proceso de la investigación.

CUADRO N°.
REFERENCIA DE EGRESOS DEL PROYECTO
EGRESOS DÓLARES
Suministros de oficina $ 90.00
Fotocopias 40.00
Libros y documentos 0.00
Computadora y servicios de Internet 400.00
Transporte 30.00
Refrigerio 41.00
Empastado, anillado de tesis de grado 50.00
TOTAL……………………………………… $ 651.00
Elaboración: Johanna Hernández Velasco
Fuente: Servicios Nacionales

Ingresos.- La tesis fue solventada con mi trabajo de la empresa MACROSIGMA

S.A., donde laboré como analista desarrollador junior, logrando solventar los

$651,00 que invertí en mi tesis de grado.

Egresos (Detalle Egresos)

Entrevistas (Gasto en Transporte) $ 48.00


Realización de Encuestas (Gasto en Transporte) $ 65.00
Servicio de Internet y computadoras $ 410.00
Copias para Realización de Encuestas $ 56.00
Biblioteca (Transporte) $ 25.00
Impresoras $ 97.50
Empastado, anillado de tesis de grado $ 50.00
Refrigerio $ 42.00
REFERENCIAS BIBLIOGRÁFICAS

 Castro Díaz Balart F., Ciencia, Tecnología y Sociedad.- La Habana.

98
 Diseño, desarrollo e implantación del sistema de información misional de la

Procuraduría General de la Nación. Plan de gestión del proyecto. Dic. 2006.

 Visauta B.(1998), desarrollo e implantación del sistema de información misional de

la Procuraduría General de la Nación. Plan de Pruebas. Propuesta.

 Oracle. Oracle Warehouse Builder 10g Release 2 for Windows and Unix,

Installation and Configuration Guide, Junio de 2006, p 1-3

 Editorial Científico-Técnica, 450 Páginas. 2003 - Pag. 12, 21,

 Esteban Martí José Ramón, Criptografía. - Buenos Aires, Argentina

 350 páginas. - 2009. Pag. 18

 Farrel GE, Egana E, Fernández F., Investigación científica y nuevas tecnologías.

 La Habana., Editorial Científico-Técnica. 150 Paginas. 2003. Pag. 14

 Addison Wesley, Fundamentos de Sistemas de Bases de Datos

 ELMASRI & NAVATHE, Capítulo 1,2,3,4,5,6,7,8,9,10,11.

 Núñez Jover J., La ciencia y la tecnología como procesos sociales. En: Grupo de

Estudios Sociales de la Tecnología. Tecnología y Sociedad.

 La Habana: Editorial Félix Varela.- 80 Paginas 1999, Pag. 5

 Sistemas de Bases de Datos, Ramez Elmasri & Shamkant B. Navathe

2da Edición 885 Páginas, Español

 Pearson – Prentice Hall , Introducción a los Sistemas de Base de Datos

 Da Edicdión , 733 Páginas Español

 Trejo Delarbre. La ciencia y la tecnología

 Caracas, Venezuela. - Editorial Rial. 150 Paginas, 2009. Pag.8, 10, 12.

NETGRAFÍA

 Date, C.J. (2001) "Introduction a los sistemas de Bases de datos", Prentice Hall,

Mexico, 925 pp.

99
 Miguel, A; Piattini, M; (2006) "Diseno de Bases de Datos Relacionales",

Alfaomenga Ra-Ma, Mexico, 289-293 p.

 Martin,J (1994) "Organization de las Base de Datos" Prentice Hall, México 33 p.

 Castro Díaz Balart F., Ciencia, Tecnología y Sociedad.

 La Habana. Editorial Científico-Técnica, 450 Páginas.2003 - Pag. 12, 21

 Esteban Martí José Ramón, Criptografía.

 Buenos Aires, Argentina, 350 páginas. 2009. Pag. 18

 Farrel GE, Egana E, Fernández F., Investigación científica y nuevas tecnologías.

 La Habana. Editorial Científico-Técnica. 150 Paginas. 2003. Pag. 14

 Addison Wesley, Fundamentos de Sistemas de Bases de Datos

 ELMASRI & NAVATHE, Capítulo 1,2,3,4,5,6,7,8,9,10,11., Núñez Jover J.

 La ciencia y la tecnología como procesos sociales. En: Grupo de Estudios Sociales

de la Tecnología. Tecnología y Sociedad., La Habana:

 Editorial Félix Varela., 80 Paginas, 1999, Pag. 5

 Sistemas de Bases de Datos, Ramez Elmasri & Shamkant B. Navathe

2da Edición, 885 Páginas, Español.

 Pearson – Prentice Hall, Introducción a los Sistemas de Base de Datos

 Da Edicdión, 733 Páginas, Español, Trejo Delarbre, La ciencia y la tecnología

 Caracas, Venezuela, Editorial Rial, 150 Paginas, 2009, Pag.8, 10, 12.

 Pérez López, C. (2004) "Técnicas de Análisis de Datos. Aplicaciones de

Parches". Pearson Prentice Hall, Madrid.

REFERENCIAS WEB

100
 http://wikinvestigacion.wikispaces.com , Universidad de Sevilla, España Sevilla,

2012

 http://www.firmadigital.go.cr/gestionCA.html , Harley Villalobos, Caracas

Venezuela, 2008

 http://www.java.com/en/download/manual.jsp , Java Runtime Environment, JRE 1.4

 Prof. Yaakov Benenson en el año 2004, Universidad Politécnica de Madrid, Extraído

el 21 de Octubre de 2010.

(http://www.upm.es/portal/site/institucional/menuitem.fa77d63875fa4490b99bfa04d

ffb46a8/?vgnextoid=b713c85fb34c1210VgnVCM10000009c7648aRCRD).

 Pentaho Data Integration Big Data and More: The Power to Access, Prepare

and Deliver Data Faster

 http://www.pentaho.com/explore/pentaho-data-integration/

101
CONCLUSIONES Y RECOMENDACIONES

CAPITULO V – CONCLUSIONES Y RECOMENDACIONES

CONCLUSIONES

El 97% de los usuarios indican que desean realizar sus transacciones en línea y con las

agencias interrelacionada, sobre todo evitar errores por duplicidad de pago y mal control

de inventarios.

Como hemos estado hablando durante todo el documento, hoy en día, la información que

se almacena en la base de datos que poseen las empresas es primordial, es considerado en

mucho de los casos, como uno de los bienes más preciados de las distintas entidades. Así

mismo, la desinformación, puede ser una de las armas con las que se puede atacar a

alguien o alguna otra empresa.

En esta sociedad en la que vivimos se hace muy necesario la seguridad en las bases de

datos, y como principal exponente en Internet ya que este método es cada vez más

utilizado, no solo por estudiantes y comunidad universitaria, sino por empresas,

particulares, etc.

El tema tratado será uno de los claros exponentes a tener muy en cuenta en el futuro de

la informática, sobre todo a la velocidad que se implementan nuevas tecnologías.

El 89% de los empleados del área de ventas indican que al realizar sus ingresos de

contratos o pagos ellos necesitan seguridades informáticas para que no sean modificadas

ni eliminadas.

El traspaso de información de una base a otra cada vez es más valioso y que puede

comprometer mucho a los sistemas en caso de que haya más de un sistema.

El tema tratado es un mundo muy amplio y fascinante, de la misma manera, tiene muchas

posibilidades de investigación. Este efecto puede generar múltiples posibles estrategias a

la hora de poder dar una solución en la mejora del traspaso de información. Hoy en día,

103
existes muchas herramientas informáticas (software), las cuales nos ayudan en estos

procesos de migración, sin embargo, el cómo se las emplee y se las configure para efectos

de mitigar los tiempos en que esta procesa para tales fines, es lo que durante la redacción

e investigación del presente documento, se logra evidenciar. Además de ello, obtener una

alta disponibilidad con datos lo más reales y actualizados posible.

Conclusiones Del Ing. Cesar Cuenca

Pienso que las variables que se han incluido dentro de esta investigación son las más

adecuadas para determinar el problema, ya que esta base de datos se la encontró

totalmente aislada, con varios problemas de almacenamiento, sin condiciones de ingresos

ni tipos de datos correctamente desarrollados dentro del aplicativo, afectando no solo la

operatividad de la empresa sino también la seguridad de los datos de los clientes, los

cuales deben ser guardado con mucho cuidado para mantener la confianza y continuidad

del negocio.

104
RECOMENDACIONES

Se debe realizar los cambios tecnológicos respecto al área de sistemas, en especial la

parte del hardware. Los cambios tecnológicos realizados deben estar de acuerdo a la

tecnología aplicada en la metodología internacional de seguridad.

A los usuarios de las distintas agencias se los debe de capacitar acerca de las nuevas

tecnologías, nuevos sistemas informáticos implementados para que tengan un buen

manejo y control del mismo. Entre las conclusiones que podemos nombrar son:

 Rapidez. Seguridad y optimización en el traslado de los datos

 Seguridad y Confiabilidad de la información de clientes

 Ahorro en contratación de soporte especializado

Siempre se debe realizar un análisis de las diferentes transacciones que realizan los

clientes de la funeraria, para evitar fraudes que afecten al sistema.

Los empleados de la funeraria del área técnica deben estar siempre actualizados en los

diferentes usos de la tecnología aplicada a la seguridad vía internet.

Así mismo, para futuros estudiantes que se interesen por la metodología implementada en

esta investigación bajo la herramienta tecnológica sugerida, puedan de alguna forma

optimizar los procesos mostrados y detallados, así como también, hacer uso de la misma,

en combinación con otras aplicaciones para fine específicos.

Recomendaciones del Ing. Cesar Cuenca.

La migración de datos debe ser correctamente evaluada antes de ejecutarla, ya que esto tiene

muchos tipos de riesgo en cuanto a la perdida de información. Por tanto para prevenir

dichos riesgos debe tomarse consideraciones de respaldo de la data antes de iniciar el

proceso.

105

S-ar putea să vă placă și