Găsiți următorul dvs. carte preferat

Deveniți un membru astăzi și citiți gratuit pentru 30 zile
Big Data Analytics

Big Data Analytics

Citiți previzualizarea

Big Data Analytics

Lungime:
422 pages
5 hours
Lansat:
Jan 26, 2021
ISBN:
9781393947400
Format:
Carte

Descriere

El análisis de datos (DA) es el proceso de examinar conjuntos de datos para encontrar tendencias y sacar conclusiones sobre la información que contienen. El análisis de datos se utiliza cada vez más con la ayuda de sistemas y software especializados. Las tecnologías y técnicas de análisis de datos se utilizan ampliamente en los sectores comerciales para permitir que las organizaciones tomen decisiones comerciales más informadas. También es utilizado por científicos e investigadores para verificar o refutar modelos científicos, teorías e hipótesis.

Como término, el análisis de datos se refiere predominantemente a una variedad de aplicaciones, desde inteligencia empresarial básica (BI), informes en línea y procesamiento analítico (OLAP) hasta diversas formas de análisis avanzado. En este sentido, es de naturaleza similar a la analítica empresarial, otro término genérico para los enfoques de la analítica de datos. La diferencia es que este último está orientado a usos comerciales, mientras que el análisis de datos tiene un enfoque más amplio. Sin embargo, la visión amplia del término no es universal: en algunos casos, las personas usan la analítica de datos específicamente para referirse a la analítica avanzada, tratando BI como una categoría separada.

Las iniciativas de análisis de datos pueden ayudar a las empresas a aumentar los ingresos, mejorar la eficiencia operativa, optimizar las campañas de marketing y los esfuerzos de servicio al cliente. También se puede utilizar para responder rápidamente a las tendencias de los mercados emergentes y obtener una ventaja competitiva sobre los competidores. Sin embargo, el objetivo final del análisis de datos es aumentar el rendimiento empresarial. Dependiendo de la aplicación en particular, los datos analizados pueden consistir en registros históricos o nueva información que ha sido procesada para análisis en tiempo real. Además, puede provenir de una combinación de sistemas internos y fuentes de datos externas.

Lansat:
Jan 26, 2021
ISBN:
9781393947400
Format:
Carte

Despre autor


Legat de Big Data Analytics

Cărți conex
Articole conexe

Previzualizare carte

Big Data Analytics - Charles Gilbert

Gilbert

Tabla de contenido

Análisis de datos

Análisis de Big Data

Arquitecturas lógicas para Big Data Analytics

Analítica avanzada

Data Analytics y su tipo

Analítica predictiva

Analítica descriptiva

Análisis prescriptivo

Análisis de diagnóstico

Proceso de ciencia de datos

Preparación de datos

Herramientas para minar Big Data Analytics

Principales lenguajes de programación de análisis de datos

Lenguaje de programación R

Pitón

Scala

Apache Spark

SQL

Apache Hive

El modelado analítico es tanto ciencia como arte

Algoritmo

Análisis de negocio

Edge Analytics

Razonamiento inductivo

Análisis de la cadena de suministro

Análisis estadístico

Base de datos analítica

Analítica en tiempo real

Herramientas de visualización de análisis de datos

Diferencias entre análisis de datos, inteligencia artificial, máquina y aprendizaje profundo

Inteligencia artificial

Red neuronal artificial

Aprendizaje automático

Aprendizaje profundo

Lagos de datos frente a almacenes de datos

Lago de datos

Almacén de datos

Las técnicas de análisis avanzado impulsan la organización basada en datos

Funciones imprescindibles para las herramientas de análisis de Big Data

La narración basada en datos abre la analítica a todos

Casos de uso de Big Data Analytics en el mundo real

Habilidades clave que necesitan los científicos de datos

Análisis de datos y oportunidades profesionales

© Copyright Charles Gilbert, 2021

Análisis de datos

El análisis de datos (DA) es el proceso de examinar conjuntos de datos para encontrar tendencias y sacar conclusiones sobre la información que contienen. Cada vez más, la analítica de datos se utiliza con la ayuda de sistemas y software especializados. Las tecnologías y técnicas de análisis de datos se utilizan ampliamente en las industrias comerciales para permitir que las organizaciones tomen decisiones comerciales más informadas. También se utiliza a científicos e investigadores para verificar o refutar modelos científicos, teorías e hipótesis.

Como término, el análisis de datos se refiere predominantemente a una variedad de aplicaciones, desde inteligencia empresarial básica (BI), informes y procesamiento analítico en línea (OLAP) hasta diversas formas de análisis avanzado. En ese sentido, es de naturaleza similar a la analítica empresarial, otro término general para los enfoques para analizar datos. La diferencia es que este último está orientado a usos comerciales, mientras que el análisis de datos tiene un enfoque más amplio. Sin embargo, la visión expansiva del término no es universal: en algunos casos, las personas usan el análisis de datos específicamente para referirse al análisis avanzado, tratando BI como una categoría separada.

Las iniciativas de análisis de datos pueden ayudar a las empresas a aumentar los ingresos, mejorar la eficiencia operativa, optimizar las campañas de marketing y los esfuerzos de servicio al cliente. También se puede utilizar para responder rápidamente a las tendencias de los mercados emergentes y obtener una ventaja competitiva sobre los rivales. Sin embargo, el objetivo final de la analítica de datos es impulsar el rendimiento empresarial. Dependiendo de la aplicación en particular, los datos que se analizan pueden consistir en registros históricos o información nueva que se haya procesado para análisis en tiempo real. Además, puede provenir de una combinación de sistemas internos y fuentes de datos externas.

Tipos de aplicaciones de análisis de datos

A un alto nivel, las metodologías de análisis de datos incluyen el análisis de datos exploratorios (EDA) y el análisis de datos confirmatorios (CDA). EDA tiene como objetivo encontrar patrones y relaciones en los datos, mientras que CDA aplica técnicas estadísticas para determinar si las hipótesis sobre un conjunto de datos son verdaderas o falsas. La EDA a menudo se compara con el trabajo de detective, mientras que la CDA es similar al trabajo de un juez o jurado durante un juicio judicial, una distinción que trazó por primera vez el estadístico John W. Tukey en 1977.

El análisis de datos también se puede dividir en análisis de datos cuantitativos y análisis de datos cualitativos. El primero implica el análisis de datos numéricos con variables cuantificables. Estas variables se pueden comparar o medir estadísticamente. El enfoque cualitativo es más interpretativo y se enfoca en comprender el contenido de datos no numéricos como texto, imágenes, audio y video, frases comunes, temas y puntos de vista.

En el nivel de la aplicación, BI y los informes brindan a los ejecutivos de negocios y trabajadores corporativos información procesable sobre indicadores clave de desempeño, operaciones comerciales, clientes y más. En el pasado, los desarrolladores de BI que trabajaban en TI solían crear informes y consultas de datos para los usuarios finales. Ahora, más organizaciones utilizarán herramientas de BI de autoservicio que permitirán a los ejecutivos, analistas de negocios y trabajadores operativos ejecutar sus propias consultas ad hoc y generar informes ellos mismos.

Un tipo avanzado de análisis de datos incluye la minería de datos, que implica clasificar grandes conjuntos de datos para identificar tendencias, patrones y relaciones. Otro tipo se llama análisis predictivo, que busca predecir el comportamiento del cliente, fallas de equipos y otros eventos futuros. El aprendizaje automático también se puede utilizar para el análisis de datos, utilizando algoritmos automatizados para agitar los conjuntos de datos más rápidamente de lo que pueden hacerlo los científicos de datos mediante el modelado analítico convencional. El análisis de big data aplica herramientas de minería de datos, análisis predictivo y aprendizaje automático. La minería de texto proporciona un medio para analizar documentos, correos electrónicos y otro contenido basado en texto.

Las iniciativas de análisis de datos admiten una amplia variedad de usos comerciales. Por ejemplo, los bancos y las compañías de tarjetas de crédito analizan los patrones de retiro y gasto para prevenir el fraude y el robo de identidad. Las empresas de comercio electrónico y los proveedores de servicios de marketing utilizarán el análisis de flujo de clics para identificar a los visitantes del sitio web que probablemente compren un producto o servicio en particular en función de los patrones de navegación y visualización de la página. Las organizaciones de atención médica extraen datos de pacientes para evaluar la efectividad de los tratamientos para el cáncer y otras enfermedades. Los operadores de redes móviles también examinan los datos de los clientes para pronosticar la deserción. Esto permite a las empresas de telefonía móvil tomar medidas para evitar deserciones a sus rivales comerciales. Para impulsar los esfuerzos de gestión de las relaciones con los clientes,

Dentro del proceso de análisis de datos

Las aplicaciones de análisis de datos implican más que solo analizar datos. Particularmente en proyectos de analítica avanzada. Gran parte del trabajo requerido se lleva a cabo por adelantado, recopilando, integrando y preparando datos y luego desarrollando, probando y revisando modelos analíticos para garantizar que produzcan resultados precisos. Además de los científicos de datos y otros analistas de datos, los equipos de análisis a menudo incluyen ingenieros de datos, cuyo trabajo es ayudar a preparar los conjuntos de datos para el análisis.

El proceso de análisis comienza con la recopilación de datos. Los científicos de datos identifican la información que necesitan para una aplicación de análisis en particular y luego trabajan por su cuenta o con ingenieros de datos y personal de TI para ensamblarla para su uso. Es posible que los datos de diferentes sistemas de origen deban combinarse mediante rutinas de integración de datos, transformarse en un formato común y cargarse en un sistema de análisis, como un clúster Hadoop, una base de datos NoSQL o un almacén de datos.

En otros casos, el proceso de recopilación puede consistir en extraer un subconjunto relevante de un flujo de datos que fluye hacia, por ejemplo, Hadoop. Luego, estos datos se mueven a una partición separada en el sistema para que se puedan analizar sin afectar el conjunto de datos general.

Una vez que los datos que se necesitan están en su lugar, el siguiente paso es encontrar y solucionar los problemas de calidad de los datos que podrían afectar la precisión de las aplicaciones de análisis. Eso incluye ejecutar tareas de perfilado y limpieza de datos para garantizar que la información de un conjunto de datos sea coherente y que se eliminen los errores y las entradas duplicadas. Luego, se realiza un trabajo adicional de preparación de datos para manipular y organizar los datos para el uso analítico planificado. Luego, se aplican políticas de gobierno de datos para garantizar que los datos sigan los estándares corporativos y se utilicen correctamente.

A partir de aquí, un científico de datos construye un modelo analítico, utilizando herramientas de modelado predictivo u otro software de análisis utilizando lenguajes como Python, Scala, R y SQL. El modelo se ejecuta inicialmente con un conjunto de datos parcial para probar su precisión. Por lo general, luego se revisa y se prueba nuevamente. Este proceso se conoce como entrenamiento del modelo hasta que funcione según lo previsto. Finalmente, el modelo se ejecuta en modo de producción con el conjunto de datos completo, algo que se puede hacer una vez para abordar una necesidad de información específica o de forma continua a medida que se actualizan los datos.

En algunos casos, las aplicaciones de análisis se pueden configurar para activar automáticamente acciones comerciales. Por ejemplo, transacciones de acciones de una empresa de servicios financieros. De lo contrario, el último paso en el proceso de análisis de datos es comunicar los resultados generados por los modelos analíticos a los ejecutivos de negocios y otros usuarios finales. Se pueden diseñar gráficos y otras infografías para facilitar la comprensión de los resultados. Las visualizaciones de datos a menudo se incorporan en aplicaciones de tablero de BI que muestran datos en una sola pantalla y se pueden actualizar en tiempo real a medida que se dispone de nueva información.

Análisis de datos frente a ciencia de datos

A medida que crece la automatización, los científicos de datos se centrarán más en las necesidades comerciales, la supervisión estratégica y el aprendizaje profundo. Los analistas de datos que trabajan en inteligencia empresarial se centrarán más en la creación de modelos y otras tareas rutinarias. En general, los científicos de datos concentran sus esfuerzos en producir información amplia, mientras que los analistas de datos se enfocan en responder preguntas específicas. En términos de habilidades técnicas, los futuros científicos de datos deberán centrarse más en el proceso de operaciones de aprendizaje automático, también llamado MLOps.

Al hablar en nuestra Cumbre de Constructores de Información, el vicepresidente de IDC Group, Dan Vesset estimó que los trabajadores del conocimiento dedican menos del 20% de su tiempo al análisis de datos. El resto de su tiempo lo dedica a buscar, preparar y administrar datos, Una organización plagada por la falta de datos, tecnología y procesos relevantes, que emplea a 1000 trabajadores del conocimiento, desperdicia más de $ 5.7 millones anualmente buscando, pero no encontrando información. advirtió Vesset.

Los comentarios de Vesset subrayan el hecho de que los datos deben estar listos para el negocio antes de que puedan generar valor a través de análisis avanzados, análisis predictivos, IoT o inteligencia artificial (IA).

Como hemos visto en numerosos estudios de casos empresariales, la coordinación de las estrategias y recursos de datos y análisis es la clave para generar retorno de las inversiones en análisis.

Construyendo el caso para alinear las estrategias de análisis y datos

A medida que las fuentes de datos se vuelven más abundantes, es importante que las organizaciones desarrollen una estrategia de datos clara, que establezca cómo se adquirirán, almacenarán, limpiarán, gestionarán, protegerán, utilizarán y analizarán los datos, y el impacto comercial de cada etapa del ciclo de vida de los datos. .

Del mismo modo, las organizaciones necesitan una estrategia de análisis clara que aclare los resultados comerciales deseados.

La estrategia de análisis a menudo sigue cuatro etapas claras: comenzando con análisis descriptivo; pasar a la analítica de diagnóstico; avanzando hacia el análisis predictivo y, en última instancia, hacia el análisis prescriptivo.

Estas dos estrategias deben estar alineadas porque el tipo de análisis requerido por la organización tendrá un impacto directo en aspectos de gestión de datos como los requisitos de almacenamiento y latencia. Por ejemplo, la analítica operativa y el soporte de decisiones colocarán una carga diferente en la infraestructura a la analítica del portal de clientes, que debe poder escalar para satisfacer picos repentinos de demanda.

Si la analítica operativa y el IoT son fundamentales para su estrategia de analítica, entonces la integración de nuevos formatos de datos y la transmisión e integración en tiempo real deberán estar cubiertos en su estrategia de datos.

De manera similar, si la estrategia de análisis de su organización es brindar información directamente a los clientes, la calidad de los datos será un factor crítico en su estrategia de datos.

Cuando se considera la carga de trabajo analítica, el impacto en la estrategia de datos se vuelve claro. Si bien un proyecto de lago de datos servirá a sus científicos de datos y analistas de back office, sus clientes y gerentes de la cadena de suministro pueden quedarse en la oscuridad.

Priorizar los resultados comerciales

Durante las últimas cuatro décadas, hemos visto la mayoría de los esfuerzos empresariales dedicados al análisis de back-office y la ciencia de datos con el fin de ofrecer conocimientos basados ​​en datos a los equipos de gestión.

Sin embargo, la estrategia de análisis más eficaz es brindar conocimientos a las personas que pueden utilizarlos para generar los mayores beneficios comerciales.

Por lo general, observamos un tiempo de generación de valor más rápido cuando la estrategia de análisis se centra en brindar información directamente a los trabajadores operativos para respaldar su toma de decisiones; o para agregar valor a los servicios prestados a socios y clientes.

Cómo alinear las estrategias de análisis y datos Un enfoque probado es analizar los casos de uso empresarial para cada etapa de la estrategia de análisis. Esto podría incluir cuadros de mando y cuadros de mando de gestión descriptivos; análisis de diagnóstico de back-office y ciencia de datos; análisis operativo y apoyo a la toma de decisiones; M2M e IoT; AI; o análisis de portal creado para mejorar la experiencia del cliente.

Identifique todos los objetivos y políticas que deben incluirse en sus estrategias. Cree un marco para evitar lagunas en la gestión de datos, de modo que se capturen, armonicen y almacenen los datos correctos para permitir su uso eficaz dentro de la estrategia de análisis.

Observe cómo su organización permite el acceso y la integración de diversas fuentes de datos. Considere cómo utiliza software, procesamiento por lotes o en tiempo real y flujos de datos de todos los sistemas internos.

Al observar los objetivos y las políticas, la organización puede adaptarse a cualquier cambio para respaldar una sólida estrategia combinada de datos y análisis.

Centrarse en la calidad de los datos

Una vez que haya definido sus estrategias de análisis y datos, es fundamental abordar la calidad de los datos. El dominio de los datos garantiza que su personal pueda confiar en los conocimientos analíticos derivados de ellos. Dar este primer paso simplificará enormemente las iniciativas de análisis posteriores de su organización.

Como los datos son el combustible del motor de análisis, el rendimiento dependerá del refinamiento de los datos.

La realidad para muchos profesionales de datos es que luchan por obtener el apoyo de toda la organización para una estrategia de datos. Los gerentes comerciales están más inclinados a invertir en elementos tangibles, como tableros de control Identificar los beneficios financieros de invertir en un programa de calidad de datos o una iniciativa de administración de datos maestros es un desafío, a menos que algo haya salido mal anteriormente y haya convencido al equipo de administración de que los análisis valiosos los productos están directamente vinculados a las entradas de datos de calidad.

Para obtener su apoyo para una estrategia de datos, considere involucrar a los gerentes de línea de negocio preguntándoles cuáles son los objetivos y resultados generales de sus iniciativas de análisis. La comprensión de los resultados de datos deseados guiará el diseño de la infraestructura de datos.

Tirando juntos

A menudo vemos que la gestión de datos, el análisis y la inteligencia empresarial son manejados por diferentes equipos, utilizando diferentes enfoques, dentro de la misma organización. Esto puede crear una desconexión entre lo que la empresa quiere lograr con los activos de datos y lo que es posible. Las estrategias de datos y análisis deben alinearse para que exista un vínculo claro entre la forma en que la organización administra sus datos y la forma en que obtiene conocimientos comerciales.

Incluya personas de diferentes departamentos que posean una amplia variedad de habilidades: negocios, finanzas, marketing, servicio al cliente, TI, inteligencia comercial, ciencia de datos y estadísticas. Comprenda cómo interactúan estos colegas y qué es importante para ellos en términos de producción de datos.

Tenga en cuenta cómo los datos se interconectan con los procesos comerciales diarios de su organización. Esto ayudará a responder preguntas sobre las fuentes de datos, las conexiones, la latencia y las entradas necesarias para su estrategia de análisis. Asegurarse de que trabajen juntos conecta los datos con el valor comercial.

Finalmente, considere los componentes tecnológicos que se requieren. Esto implica buscar diferentes plataformas que brinden el acceso a los datos, la integración de datos, la limpieza de datos, el almacenamiento y la latencia necesarios para respaldar los resultados comerciales requeridos.

Midiendo los beneficios

Las siguientes organizaciones alinearon sus estrategias de datos y análisis para ofrecer resultados comerciales claros:

Food for the Poor utilizó datos y análisis de alta calidad para alcanzar su objetivo de recaudación de fondos más rápidamente: reducir el tiempo necesario para recaudar $ 10 millones de seis meses a seis días, de modo que pudiera ayudar más rápidamente a las personas en extrema necesidad.

Lipari Foods integró datos de IoT, logística y ubicación geográfica, lo que le permitió analizar las operaciones de la cadena de suministro para utilizar el espacio del almacén de manera más eficiente, lo que le permite ejecutar una operación ágil con un pequeño equipo de personas.

St Luke's University Health Network dominó sus datos como parte de su estrategia para dirigirse a hogares específicos para concienciarlos sobre medicamentos especializados, alcanzando el 98% de aceptación en una de sus campañas enfocadas en treinta hogares. En lugar de atascarse en procesos prolongados de integración de datos y gestión de datos maestros (MDM) sin ningún beneficio a corto plazo, las partes interesadas decidieron centrarse en el tiempo de generación de valor al permitir que las prioridades empresariales impulsen los resultados del programa, explica Dan Foltz, director de programa de la implementación de EDW y análisis en St. Luke's. Continuamos simultáneamente con la integración de datos, el gobierno de datos y el desarrollo de BI para lograr nuestros objetivos comerciales como parte de un flujo continuo. La empresa tenía nuevos activos de BI para satisfacer sus necesidades de manera oportuna, mientras que la iniciativa MDM mejoró esos activos y permitió un análisis cada vez mejor , agrega. Este enfoque permitió al equipo de St. Luke ofrecer valor durante la implementación.

Estos son solo algunos ejemplos de organizaciones que tienen una estrategia de datos cohesiva y una estrategia de análisis que les ha permitido generar un mejor valor a partir de conjuntos de datos diversos y complejos.

Obtener un mejor valor de los datos

Si bien las iniciativas de análisis a menudo comienzan con uno o dos casos comerciales claros, es importante asegurarse de que la estrategia general de análisis de datos sea más grande que cualquier iniciativa individual. Las organizaciones que se centran en proyectos individuales pueden encontrar que han pasado por alto los requisitos clave de la infraestructura de datos una vez que intentan escalar.

Como observó Grace Auh, directora de inteligencia empresarial y apoyo a la toma de decisiones del Hospital Markham Stouffville, durante la Cumbre de constructores de información, ¿Están conectando los puntos? ¿O simplemente los estás coleccionando?

La captura de datos en silos para cumplir con los requisitos tácticos disminuye la visibilidad y el valor que puede brindar a toda la organización. El camino definitivo para crear valor es alinear sus datos y estrategias analíticas entre sí y, lo que es más importante, con la estrategia general y la ejecución de su organización.

Análisis de Big Data

El análisis de big data es el proceso a menudo complejo de examinar big data para descubrir información como patrones ocultos, correlaciones, tendencias del mercado y preferencias de los clientes que pueden ayudar a las organizaciones a tomar decisiones comerciales informadas.

A gran escala, las tecnologías y técnicas de análisis de datos proporcionan un medio para analizar conjuntos de datos y obtener nueva información que puede ayudar a las organizaciones a tomar decisiones comerciales informadas. Las consultas de inteligencia empresarial (BI) responden preguntas básicas sobre las operaciones comerciales y el rendimiento.

El análisis de big data es una forma de análisis avanzado, que involucra aplicaciones complejas con elementos como modelos predictivos, algoritmos estadísticos y análisis hipotéticos impulsados ​​por sistemas de análisis.

La importancia de la analítica de big data

El análisis de big data a través de sistemas y software especializados puede conducir a resultados positivos relacionados con el negocio:

Nuevas oportunidades de ingresos

Marketing más eficaz

Mejor servicio al cliente

Mayor eficiencia operativa

Ventajas competitivas sobre rivales

Las aplicaciones de análisis de big data permiten a los analistas de datos, científicos de datos, modeladores predictivos, estadísticos y otros profesionales de análisis analizar volúmenes crecientes de datos de transacciones estructuradas, además de otras formas de datos que a menudo no se aprovechan de los programas de análisis y BI convencionales. Esto incluye una combinación de datos semiestructurados y no estructurados. Por ejemplo, datos de Internet, registros de servidores web, contenido de redes sociales, mensajes de texto de correos electrónicos de clientes y respuestas a encuestas, registros de teléfonos móviles y datos de máquinas capturados por sensores conectados a Internet de las cosas (IoT).

El análisis de big data es una forma de análisis avanzado, que tiene marcadas diferencias en comparación con el BI tradicional.

Cómo funciona el análisis de big data

En algunos casos, los clústeres de Hadoop y los sistemas NoSQL se utilizan principalmente como pistas de aterrizaje y áreas de preparación para los datos. Esto es antes de que se cargue en un almacén de datos o en una base de datos analítica para su análisis, por lo general de forma resumida que es más propicia para las estructuras relacionales.

Sin embargo, con mayor frecuencia, los usuarios de análisis de big data están adoptando el concepto de un lago de datos Hadoop que sirve como depósito principal para los flujos entrantes de datos sin procesar. En tales arquitecturas, los datos se pueden analizar directamente en un clúster de Hadoop o ejecutar a través de un motor de procesamiento como Spark. Al igual que en el almacenamiento de datos, la gestión de datos sólida es un primer paso crucial en el proceso de análisis de big data. Los datos que se almacenan en HDFS deben organizarse, configurarse y particionarse correctamente para obtener un buen rendimiento tanto de los trabajos de integración de extracción, transformación y carga (ETL) como de las consultas analíticas.

Una vez que los datos están listos, se pueden analizar con el software que se usa comúnmente para los procesos de análisis avanzados. Eso incluye herramientas para:

minería de datos, que tamiza conjuntos de datos en busca de patrones y relaciones;

análisis predictivo, que construyen modelos para pronosticar el comportamiento del cliente y otros desarrollos futuros;

aprendizaje automático, que utiliza algoritmos para analizar grandes conjuntos de datos; y

aprendizaje profundo, una rama más avanzada del aprendizaje automático.

El software de análisis estadístico y de minería de texto también puede desempeñar un papel en el proceso de análisis de big data, al igual que el software de inteligencia empresarial y las herramientas de visualización de datos convencionales. Tanto para ETL como para aplicaciones de análisis, las consultas se pueden escribir en MapReduce, con lenguajes de programación como R, Python, Scala y SQL. Estos son los lenguajes estándar para bases de datos relacionales que se admiten a través de tecnologías SQL-on-Hadoop.

Usos y desafíos de la analítica de big data

Las aplicaciones de análisis de big data a menudo incluyen datos tanto de sistemas internos como de fuentes externas, como datos meteorológicos o datos demográficos sobre consumidores compilados por proveedores de servicios de información de terceros. Además, las aplicaciones de análisis de transmisión se están volviendo comunes en entornos de big data, ya que los usuarios buscan realizar análisis en tiempo real de los datos introducidos en los sistemas Hadoop a través de motores de procesamiento de transmisión, como Spark, Flink y Storm.

Los primeros sistemas de big data se implementaban principalmente en las instalaciones, particularmente en grandes organizaciones que recopilaban, organizaban y analizaban cantidades masivas de datos. Pero los proveedores de plataformas en la nube, como Amazon Web Services (AWS) y Microsoft, han facilitado la configuración y administración de clústeres de Hadoop en la nube. Lo mismo ocurre con los proveedores de Hadoop como Cloudera-Hortonworks, que admite la distribución del marco de big data en las nubes de AWS y Microsoft Azure. Los usuarios ahora pueden poner en marcha clústeres en la nube, ejecutarlos durante el tiempo que necesiten y luego desconectarlos con precios basados ​​en el uso que no requieren licencias de software continuas.

Los macrodatos se han vuelto cada vez más beneficiosos en el análisis de la cadena de suministro. El análisis de la gran cadena de suministro utiliza macrodatos y métodos cuantitativos para mejorar los procesos de toma de decisiones en toda la cadena de suministro. Específicamente, el análisis de la cadena de suministro grande expande los conjuntos de datos para un mayor análisis que va más allá de los datos internos tradicionales que se encuentran en los sistemas de planificación de recursos empresariales (ERP) y gestión de la cadena de suministro (SCM). Además, la analítica de la cadena de suministro grande implementa métodos estadísticos altamente efectivos en fuentes de datos nuevas y existentes. Los conocimientos recopilados facilitan decisiones mejor informadas y más eficaces que benefician y mejoran la cadena de suministro.

Ați ajuns la sfârșitul acestei previzualizări. Înscrieți-vă pentru a citi mai multe!
Pagina 1 din 1

Recenzii

Ce părere au oamenii despre Big Data Analytics

0
0 evaluări / 0 Recenzii
Ce părere aveți?
Evaluare: 0 din 5 stele

Recenziile cititorilor