Analizamos San Valentín (2) 

Ya hemos visualizado datos de San Valentín con la aplicación desarrollada en Qlik Sense® en este post.

Nos han pedido si podíamos realizar algo con otra herramienta de Business Intelligence, Tableau. A continuación podéis ver una aplicación realizada con ella.

Dashboard interactivo

Contacta

Visualizar los datos en cierto contexto, ayuda a la toma de decisiones. Si a estos se le suma analítica avanzada, se puede entre otros predecir eventos futuros.

Si está interesado en conocer sus posibilidades y como puede ayudar a su negocio, no dude en contactar con nosotros

Feliz día de San Valentín!

Analizamos San Valentín

San Valentín, ese día en que demostramos el amor a quién mas nos importa. Pero ¿es verdad aquello de que San Valentín es simplemente un negocio? ¿Quién regala más, hombres o mujeres? ¿Qué tipo de regalo se hace? La siguiente aplicación, desarrollada en Qlik Sense®, nos permite responder a esas preguntas y más, con datos acumulados de los últimos 10 años.

 san valentin analisis

¿Quién participa?

Quienés son más "románticos", ¿mujeres u hombres?

 

¿Qué se compra?

¿Cuáles son los regalos estrella?

 

Curva histórica del gasto

Y a lo largo de los años,¿nos hemos vueltos más "románticos" (consumidores)?

 

Contacta

Visualizar los datos en cierto contexto, ayuda a la toma de decisiones. Si a estos se le suma analítica avanzada, se puede entre otros predecir eventos futuros.

Si está interesado en conocer sus posibilidades y como puede ayudar a su negocio, no dude en contactar con nosotros

Representación de datos en tiempo real: comparando dos automóviles

Con este post llegamos al final de una serie de 4 posts, donde hemos tratado la importancia del estudio de los datos en tiempo real siguiendo un ejemplo práctico del análisis de 2 coches en movimiento. En el primer post  estudiamos los beneficios que puedes aportar las visualizaciones en tiempo real para una empresa, tras esto, en el segundo post  pasamos a describir el entorno ELK, herramienta que nos serviría para recibir, tratar y mostras los datos. Seguidamente, en el tercero de los posts  vimos el potencial de Kibana, herramienta incluida dentro del entorno ELK, como herramienta de business intelligence. Y finalmente llegamos a este último post donde vamos a ver los resultados obtenidos.

Generación de gráficas

En el anterior post generamos varias gráficas de los datos de interés a monitorizar, ahora, llega el momento de agruparlos en dashboards.

El primer paso está claro, una vez nos encontramos en la pantalla de inicio de Kibana, entramos en la pestaña Dashboard, donde encontraremos cuadros de mando creados y donde podremos crear nuevos.

kibana 1

Una vez hayamos creado nuestro dashboard, podremos incluir las gráficas creadas que creamos conveniente y ordenarlas a nuestro gusto. En nuestro caso hemos incluido 9 visualizaciones.

kibana 2

En el dashboard anterior estamos representando la velocidad media, las revoluciones medias de los motores, el rango medio del flujo del aire, la presión media de los colectores de admisión, el voltaje medio de los módulos de control, la presión barométrica media, la temperatura media del coolant, la temperatura media del catalizador y la temperatura media del ambiente recogido por los sensores de ambos coches entre las 11:40 y las 11:55 del día 01 de febrero del 2018. 

Cruce de datos

Cierto es que estos datos son meramente informativos, sin embargo si recordamos el uso de timelion, explicado durante el tercer post podremos incluir gráficas con datos cruzado podremos ver datos relacionados y estudiar si existen situaciones relevantes. En nuestro dashboard, podremos ver la comparativa entre los dos coches. 

kibana 3

 

En este dashboard hemos añadido 8 gráficas. En ellas podemos observar: las revoluciones por minuto de los motores de ambos coches, presión absoluta del colector de admisión de ambos coches, la presión barométrica de ambos coches, la temperatura ambiente capturada por ambos coches, la temperatura del catalizador de ambos coches, la temperatura del coolant de ambos coches, la comparación de las velocidades y las revoluciones máximas de cada coche en el periodo de tiempo estudiado.

Teniendo la anterior representación sobre un cuadro de mando, lox expertos en negocio podrán analizar en profundidad los datos mostrando, sacar conclusiones y mejorar en la toma de decisiones.

Finalmente desde LIS-Solutions agradecer a todos los que nos han seguido a lo largo de  esta serie de post. Si cree que podemos ayudarle en hacer que su empresa sea data-driven, no dude en contactarnos.

 

Kibana como herramienta de Business Intelligence

En los anteriores posts vimos los beneficios que tiene el análisis de datos en tiempo real dentro de las empresas [link primer post] y cuáles son las herramientas necesarias para alcanzar este objetivo [link segundo post]. En este post, haremos uso de la herramienta Kibana incorporada dentro del entorno ELK , que será la encargada de realizar las representaciones de B.I.

¿Qué es Kibana?

Kibana un plugin de visualización perteneciente al entorno ELK que sirve para generar visualizaciones y dashboards, es decir, es una herramienta de business intelligence.

¿Cómo accedemos a Kibana?

Para acceder a este plugin, si le instalamos por defecto, podremos acceder a través de nuestro navegador usando la dirección 127.0.0.1:5601 o localhost:5601. Es decir, es una aplicación web. Esto permite instalar Kibana en un servidor y acceder a él mediante la configuración adecuada desde cualquier ordenador conectado a nuestra red.

¿Qué nos aporta Kibana?

Kibana nos aporta una interfaz gráfica e intuitiva para realizar gráficas a medida. Nos permite elegir, de forma sencilla, entre 16 tipos de gráficas.

tipos visualizaciones

Dentro de estas opciones seleccionaremos, para nuestro ejemplo, las gráficas líneas y accedemos a un menú, donde podemos configurar qué variable queremos poner como eje X y qué variable como eje Y. En este caso y continuando con los datos recopilados de los coches, podemos generar un gráfico en el que representemos el tiempo en el que hemos capturado los datos frente a las revoluciones en cada uno de los instantes.

Si ejecutamos la gráfica, podemos ver la gráfica generada a la derecha del menú. En este caso, hemos cogido como intervalo de tiempo entre las 11:41 hasta las 11:54 del día de hoy y obtenemos:

grafica kibana 1

 

Obviamente, podemos realizar diferentes tipos de gráficas y coger diferentes medidas, por ejemplo, si seleccionásemos el formato de gráfica “Gauge”, podemos elegir las revoluciones máximas alcanzadas en el periodo de tiempo, quedando de la siguiente forma:

grafica kibana 2

Para finalizar, una vez realizadas todas las gráficas que nos interesan y debidamente guardadas, podemos generar un dashboard.

En el menú de la izquierda seleccionando la opción “Dashboard”, podremos crear nuestro propio panel de KPI’s personalizado añadiendo todas las gráficas que hallamos creado.

Otra de las posibilidades que posee Kibana para la representación gráfica es “Timelion”, situada en el menú de la izquierda. Esta herramienta es un editor de series temporales. Esto significa que podremos realizar comparaciones entre gráficas, por ejemplo, podemos comparar las revoluciones en el mismo momento de tiempo entre un vehículo de gasolina y uno diésel:

grafica kibana 3

Este tipo de gráficos también podemos añadirlos en el dashboard conjuntamente a los otros gráficos.

¿Cómo podemos visualizar datos en Kibana en Tiempo Real?

El principal objetivo de estos post, es alcanzar la representación gráfica en tiempo real de los datos generados y almacenados dentro del entorno ELK, gracias a Kibana esto resulta muy sencillo. En la esquina superior derecha de la aplicación, donde tenemos el intervalo de fechas que estamos visualizando, podemos configurar que los gráficos se actualicen cada cierto periodo de tiempo:

kibana 4

Haciendo esta sencilla acción y disponiendo de registros que se almacenen en nuestra base de datos de manera constante, podremos alcanzar el objetivo de leerlos y mostrarlos graficamente de una manera rápida, sencilla y personalizada.

Para concluir este cuarteto de posts, sólo nos falta enseñar los resultados finales obtenidos de los coches estudiados. Este último post se publicará a lo largo de esta semana, ¿estáis preparados?

Entorno ELK: Manejo de datos en Tiempo Real

 Después de nuestro primer post  en el que introducíamos nuestro proyecto de análisis de datos en tiempo real, pasamos a la descripción de las herramientas y recursos necesarios.

Como resulta obvio, lo principal en este proyecto son los datos, y para ello decidimos que estos fueran reales y que pudiéramos contrastar y comprender. Así fue como decimos realizar la monitorización de datos de dos automóviles en circulación. Por suerte la captura de datos en utilitarios resulta muy fácil usando el protocolo OBDII.

Protocolo para extraer datos: OBDII

OBDII es un sistema de diagnóstico a bordo de vehículos. Este sistema está disponible en una amplia gama de vehículos desde aproximadamente el año 1996 en Estados Unidos. En Europa este sistema se instaló en el año 2000 para los vehículos gasolina, en 2003 para los vehículos diésel y en 2005 para camiones. Gracias a este dispositivo hoy en día podemos acceder a los sensores y datos de cualquier vehículo cuya fecha de fabricación supere las anteriormente citadas. Este sistema es muy útil para IoT.

Análisis de datos en tiempo real: ELK

La otra parte más importante de este proyecto consiste en ser capaz de capturar los datos, analizarlos y finalmente mostrarlos. Para esto utilizamos el entorno ELK, presentado en el anterior post, Elasticsearch+Logstash+Kibana.

elk

Siguiendo el esquema superior tras la creación del log (registro) está la fase de la captura de los datos (recolección, procesamiento y almacenado). Para esto usaremos Logstash  una herramienta capaz de recolectar los logs, modificarlos de acuerdo a nuestras necesidades y, posteriormente, enviarlos hacia la base de datos. Gracias a esta herramienta, podemos enviar los logs creados por el coche a una base de datos en el formato que más nos interesa.

logstash

En una segunda etapa usaremos Elasticsearch. Este combina un motor de búsqueda y una base de datos que usaremos para almacenar los datos procesados por Logstash. Las dos características diferenciadoras de esta base de datos es el ser distribuida y la gran velocidad de procesamiento de búsquedas que puede alcanzar. Esta combinación hace que sea ideal para realizar proyectos de análisis en tiempo real. 

elastic

Como último paso para mostrar los datos decidimos usar Kibana. Kibana es un plugin de Elasticsearch que aporta la visualización gráfica de los datos almacenados en el clúster de Elasticsearch. De esta forma, se pueden crear gráficas individuales o dashboards completos. Además, gracias a la función de refresco, se pueden ver los datos actualizados a nivel de segundos. Es una interfaz gráfica e intuitiva, por lo que cualquier persona perteneciente al mundo del negocio tiene la completa autonomía para generarse sus propias representaciones gráficas, en función de sus necesidades y sin necesidad de contar con la parte de IT.

kibana

Así es como se crea el entorno ELK (Elastic Stack, nombre que recibe en inglés) que nos permite conseguir las representaciones gráficas de datos obtenidos en tiempo real.

Business Intelligence y el arte de las representaciones

En el siguiente post, se detallará como crear los gráficos usando Kibana, además de crear nuestros propio dashboard.

Te esperamos en el siguiente post, ¿te lo vas a perder?

Visualización de datos en tiempo real (1/4)

Actualmente la sociedad exige rapidez y puntualidad. Para cumplir con estos dos rasgos, se hace indispensable disponer de información en tiempo real.

Los datos están generándose continuamente por multitud de dispositivos. Además, comenzamos a saber la importancia del análisis de datos. Por eso cada vez más empresas, buscan la manera de analizar estos datos con la mayor brevedad posible.   

real time 1

 

¿Realmente se ahorran costes con una monitorización de datos en Tiempo Real?

¡SI! En forma de: reducción de gastos, optimización de recursos, predicciones a medida de la demanda...

Veamos diferentes casos de uso:

  • Caso de Uso #1: Proveedor
  • En el ámbito de la logística, si sabemos cómo y cuánto está consumiendo nuestro cliente, podemos optimizar stock para poder servirle en forma y tiempo. De esta forma nos ahorramos gastos en inmovilizado, reduciendo costes de almacén y asegurando un nivel de seguridad en el stock más reducido.
  • Caso de Uso #2: Cliente
    Si la empresa se dedica a la producción y depende de una materia prima que le sirve un proveedor externo, dicho proveedor puede saber en cada momento cuánta materia prima queda en el almacén y, por lo tanto, puede proveer a la empresa en consecuencia, evitando roturas de stock, con las ventajas que ello conlleva. Si la empresa se queda sin materia prima, tendría que parar la producción, elevándose los costes e incrementando el riesgo de tener que retrasar algún envío.
  • Caso de Uso #3: Línea de producción
    En el caso de que nuestra empresa se dedique a la producción en línea, podemos representar de forma gráfica todos los parámetros recogidos en la misma, de forma que seremos capaces de detectar errores en la cadena de producción en tiempo real, simplemente con una visualización y así retirar la pieza afectada en la mayor brevedad posible, sin tener que esperar a que recorra toda la cadena para ser retirada de forma manual.

¿Cómo puede una empresa conseguir visualizaciones de datos en tiempo real? y ¿cómo podemos disponer de esta información de forma automática?

elk

Para responder a estas dos preguntas, vamos a recurrir al entorno ELK: Elasticsearch, Logstash y Kibana. Con estos tres softwares conseguimos una completa suit que nos permite recoger los datos y enviarles (Logstash) a una base de datos (Elasticsearch) en la cual se realizarán las búsquedas necesarias para que desde una herramienta de visualización gráfica (Kibana) podamos ver los resultados en tiempo real.

 

Experimento: Monitorización de datos de dos automóviles en Tiempo Real.

coche graph

Actualmente contamos con la tecnología necesaria para almacenar y representar los datos en tiempo real, por ello durante las siguientes semanas, vamos a publicar una serie posts, en los que trataremos la manera de realizar representaciones gráficas de dos coches en movimiento. ¡Este será el resultado final!

 

kibana

¡Cada semana lanzaremos dos nuevos posts, no te los pierdas!

¿Qué es VSM - Value Stream Mapping?

Kaizen, 5Ss, Pokayoke, Hejunka, Muri, Mudas….. términos muy de moda. Lean, una metodología nada moderna (más de 70 años de antigüedad) pero de rabiosa actualidad y que está dando mucho juego a la hora de gestionar la mejora continua en las Operaciones.

Pero si bien, el objetivo de lean es reducir las 9 formas de muda o desperdicios que solemos tener en nuestros procesos:

 

vsm pro

  1. Inventario.
  2. Transporte.
  3. Movimiento de personas.
  4. Tiempos de espera.
  5. Sobre proceso.
  6. Sobreproducción.
  7. Errores.
  8. Desperdicio del talento de las personas.
  9. Despilfarro de energía.

En LIS Solutions nos hemos centrado en el proceso en sí, analizando y aportando valor a una herramienta básica dentro de la metodología Lean, como es el VSM (Value Stream Map o Mapa de flujo de valor ) de nuestras operaciones Logísticas.

VSM + B.I

Hemos conseguido combinar un mapa de flujo de valor, con los valores de los KPI y parámetros. Esta actualización la hacemos en batches customizables a nivel empresa (cada hora, franja de 5 minutos, semana, etc.) volcando la información del SGA-ERP en un cuadro de mandos.

Esta herramienta, así como los valores históricos de cada uno de los parámetros, inventarios entre procesos, tiempos de espera, etc. nos va a permitir analizar ‘online’ la influencia de las acciones puestas en marcha sobre nuestros KPI correspondientes, evidenciando la correlación entre la acción tomada y la mejora en el dato y permitiéndonos en tiempo real hacer correcciones y por tanto reducir el riesgo asociado a nuestros cambios.

esquema vsm

 

Una solución 100% adaptable al proceso de nuestros clientes y que sin duda es un elemento complementario e indispensable en toda implantación de cultura lean en la Supply Chain.

Contacta con nosotros.

Machine Learning(3/3) - Resultados de la Predicción

Tras el primer post de introducción a los algoritmos de Machine Learning y siguiendo el segundo dónde se trataba el estudio de la serie temporal y el algoritmo que se ha decidido utilizar, llega el último post de esta serie.

Se comenzará con una gráfica que refresque la memoria sobre cuáles eran los datos de los que se disponía, a continuación, se pasará a ver la predicción realizada por R y por último se representará de forma gráfica mediante una herramienta de B.I los consumos reales y las predicciones realizas, así como el error cometido por las predicciones frente a los consumos reales.

¿Por qué es importante predecir?

Como se describió en el anterior post, es importante reconocer las futuras ventas para así poder gestionar los recursos dentro de la organización, reduciendo los costes operativos.

Los datos sobre los que se realizará la predicción, tal y como se observa en la siguiente imagen,corresponden a las ventas desde Junio 2014 a Enero 2017.

consumos

Se ha realizado una predicción de 10 meses, entre Febrero y Noviembre.

Se dispone de los datos de los meses entre Febrero y Noviembre para realizar la comparación entre la predicción y las ventas reales.

Predicciones usando el Algoritmo Arima en RStudio

Tras aplicar el algoritmo Arima, obtenemos en R los siguientes resultados:

resultados R

 

Representados de forma gráfica en R, se obtiene lo siguiente:

resultados representados R

La línea gris representa el consumo real en el pasado. La línea azul marca la predicción realizada y las zonas sombreadas, la azul representa el intervalo de confianza del 80% mientras que en la zona sombreada gris se representa el intervalo de confianza del 95%.

El intervalo de confianza es cuanto puede diferir la realidad frente a la predicción de modo que, por ejemplo, en el caso del intervalo del 95%, representa un intervalo en el que hay una posibilidad del 95% de que el consumo en ese mes se mantenga dentro de dicho intervalo.

A priori, se puede ver que en agosto del 2017 las ventas van a caer de forma significativa, mientras que los meses más cercanos va a haber una gran venta de este producto. Esto no es para nada descabellado, si nos fijamos en los años anteriores se observa que todos los meses de agosto el consumo es muy bajo y en los meses colindantes el consumo es muy elevado. También podemos observar que en marzo va a haber una caída en los consumos, que se corresponde con el resto de los años, pues se puede observar una caída acusada en el tercer mes de todos los años.

Ciertamente, extraer algunas conclusiones sobre la predicción a priori está bien, pero, sería mucho mejor si pudiésemos contrastar la predicción con los consumos reales y comprobar cuán buenos son los resultados obtenidos. A continuación, se muestra la gráfica que representa este escenario:

resultados representados qlik

En azul tenemos los consumos anteriores. En rojo tenemos los consumos reales entre los meses de Febrero y Octubre del 2017 y, por último, con barras amarillas representamos las predicciones realizadas por Arima.

Como podemos observar nuestra predicción se adecua de una manera muy precisa a los datos reales de ventas.

Calidad de la predicción

Para medir cuán bueno es una predicción frente a los resultados reales se utiliza la siguiente fórmula, que recibe el nombre de Error Medio de Porcentaje (EMP):

 formula 1

donde CR es el consumo real y  PC es la predicción de consumos realizada.

Del mismo modo, se puede calcular el Error Absoluto Medio de Porcentaje (EAMP) mediante la siguiente fórmula:

formula 2

En este caso, EMP = -5.30%  y EAMP=5.30% . Por consiguiente, estamos ante una predicción muy precisa.

Objetivos alcanzados con el uso de Algoritmos de Machine Learning

De esta forma, se concluye con esta serie de post, cuyos objetivos eran:

            1.- Conocer los algoritmos de Machine Learning.

            2.- Elegir el algoritmo adecuado para nuestros datos y nuestros objetivos.

            3.- Realizar la predicción de forma adecuada.

            4.- Obtención y representación de forma gráfica de los resultados.

Que se pueden predecir las ventas de una referencia y de este modo ajustar los recursos de una empresa en función de las necesidades que puedan surgir derivadas de poder adelantarse al futuro y tener una predicción que es capaz de representar de una forma muy precisa la realidad.

Tenemos por delante un gran reto, conseguir que la Logística de uno de los grandes del textil salga victoriosa de la guerra, en uno de los eventos del marketing más agresivos del año (Black Friday y Cyber Monday)

"La guerra es un juego serio en el que uno compromete su reputación, sus tropas y su patria."                   Napoleón I (1769-1821) Napoleón Bonaparte. Emperador francés.

WarRoom

Nuestros generales lo tienen claro, lo primero que necesitamos es tener visión absoluta, y en tiempo real, sobre nuestro campo de batalla, la cadena de suministro, para ello nos apoyaremos en una torre de control de datos.

Estamos preparados, tenemos nuestro centro de mando, conectado y sincronizado, estamos ante una guerra tecnológica, pero contamos con todos los actores tradicionales, generales (directores de proyecto), capitanes (coordinadores-facilitadores) y por supuesto, los soldados (científicos de datos, a los que podemos ver más abajo). 

 warroom personas

"Estar preparados para la guerra es uno de los medios más eficaces para conservar la paz." George Washington (1732-1799) Primer presidente de los Estados Unidos.

Nuestra estrategia para ganar la guerra del Black Friday:

  1. Lo primero, hacernos con la colina, necesitamos ver más claro y mejor que el resto. Integraremos todas las fuentes de información necesarias, y las visualizaremos en tiempo real (SGA, ERP, Operadores Logísticos…).
  2. Adelantarnos estratégicamente. El análisis de datos en tiempo real nos ayudará a detectar anomalías, además analizaremos en tiempo real el sentimiento de nuestros clientes, quejas e incidencias para actuar con la mayor celeridad.
  3. 23111955

  4. Decidir eficazmente. En base a todos los análisis se definirán escenarios de actuación y se decidirá entre ellos a través de matrices de ponderación donde influirán distintos factores: velocidad, desviación entre previsión y realidad, saturación de sistemas, nivel de servicio, coste…
  5. Recoger los cuerpos y darlos sepultura. Es fundamental después de un evento (guerra) como este, volver a la normalidad y estabilizar los sistemas y recursos a la mayor velocidad posible, además será clave también gestionar las incidencias de la forma más ágil y resolutiva posible.

Esperemos que nuestros análisis sean un éxito y nos ayuden a ganar la guerra.

Podemos ayudar a ganar guerras, batallas y el día a día. Nuestro arma “Los datos”.

"No puedo creer que me condecoren. Yo creía que era necesario conducir tanques y ganar guerras." John Lennon (1940-1980) Cantante y compositor británico.

Para conocer más información sobre nuestras torres de control de datos, contáctanos - Esta dirección de correo electrónico está protegida contra spambots. Usted necesita tener Javascript activado para poder verla.

Siguiendo el post de la semana pasada que servía de introducción a los algoritmos de Machine Learning , se realizará una predicción de consumos. Partiendo de consumos pasados, se tratará de predecir los futuros y ver cómo se ajusta la predicción a la realidad.

Para ello se analizarán los datos de los que se dispone, qué es la estacionalidad  y en qué afecta a los algoritmos de aprendizaje y por último la elección del algoritmo y su programación en lenguaje R.

Machine Learning - Predicción de consumos

El objetivo final de esta serie de post será conseguir adelantarse a eventos futuros y de esta forma poder anticipar los recursos necesarios en la empresa para hacer frente, tanto a los picos como a los valles en las ventas.

¿Qué datos necesitamos para poder predecir utilizando algoritmos de Machine Learning?

Se dispone de los datos de ventas agrupados por mensualidades, datando, los más antiguos, de Junio del 2014 y, los más recientes, de Enero del 2017. Se busca  realizar una predicción de 9 meses. Se dispone además de los datos reales entre los meses de Febrero y Octubre del 2017 para, una vez realizada la predicción, poder comparar con los resultados de la misma.

A continuación, se muestra la gráfica de los consumos:

consumos

Series estacionarias y series que tienen estacionalidad

El estudo de la serie temporal de la que se dispone es una de las complejidades del proceso de selección del algoritmo de preddición.

Lo primero de todos, es determinar si la serie es o no estacionaria (stationary serie o non-stationary serie). La gran mayoría de los algoritmos de predicción están diseñados para realizar las predicciones sobre series estacionarias; por lo que es muy importante entender cómo es una serie estacionaria. Como se puede ver en este enlace, se puede identificar de manera gráfica si nuestra serie es o no estacionaria. Existen tres criterios para poder clasificar si la serie es o no estacionaria:

  • La media de la serie temporal no debe tener dependencia del tiempo, es decir, debe de ser constante. Como se muestra en la siguiente imagen, la gráfica verde se corresponde con la gráfica estacionaria, donde podemos ver que la media es constante y en la gráfica roja se puede observar que la media va aumentando en función del tiempo.

estacionalidad

  • La varianza de la serie temporal debe de ser constante, es decir, no debe variar en función del tiempo. Como en el caso anterior, la verde correspondería a una serie estacionaria, frente a la no estacionaria, en rojo. En la primera de ellas la varianza es constante, mientras que en la segunda la varianza varía con el tiempo, ya que como se observa la diferencia entre los máximos y los mínimos es mayor en la zona central de la gráfica roja.

estacionalidad 2

 

  • El útlimo criterio, está relacionado con la covarianza entre un punto “i” de la serie temporal y el punto “(i+m)” de la serie temporal. En estos puntos, la covarianza debe de ser constante en el tiempo. Como se puede observar a continuación, la gráfica roja no cumple este requisito dado que dicha gráfica se “encoge” y “alarga” en función del tiempo, mientras que la gráfica verde tiene todos los máximos y los mínimos a la misma distancia.

 estacionalidad 3

Otro de los puntos importantes a la hora de aplicar un algoritmo de predicción es saber si la serie tiene estacionalidad (seasonal serie o non-seasonal serie). Es decir, es importante desestacionalizar la serie para eliminar los periodos de más o menos ventas, como puede ser la temporada de verano o la de invierno.

Tras estudiar los datos representados en la primera de las gráficas, es fácil observar que esta serie no es estacionaria y tampoco tiene una estacionalidad marcada, simplemente se vende menos en Agosto y en Diciembre.

El algoritmo que se utilizará dado a las propiedades identificadas en el proceso anrerior, se localiza en el programa estadístico R y se trata de la función “auto.arima”. Esta función de R trabaja con series estacionarias o no y con series que tengan o no una estacionalidad marcada.

Por último, se utilizará Knime con la integración de R. Aquí se encuentra otro post relacionado con Knime y R. A continuación se muestra una imagen de cómo quedaría la interfaz gráfica en Knime.

knime

Arima como algoritmo de predicción

Por consiguiente, para realizar una predicción de ventas, donde sólo se dispone de las ventas a pasado, un algoritmo fácil de utilizar es el algoritmo Arima. Por ello, como ya se ha comentado, para utilizar este algoritmo se recurre a la función de R “auto.arima”. Esta función trabaja tanto con series estacionarias o no estacionarias y con series que tengan una estacionalidad marcada o no. Por todo ello, esta función de R es la elegida para realizar esta predicción.

En el próximo post

En el post de la semana que viene, se representarán los resultados de manera gráfica y se comparará la predicción realizada con los consumos reales durante los meses evaluados.

Página 2 de 9