Continuando con la comparativa de estas dos herramientas: Qlik Sense VS Tableau, le llega el turno a las principales bondades y mejoras de Tableau.

Si aun no has visto la primera parte la tienes disponible en el siguiente enlace: Qlik Sense vs Tableau (Parte I)

TABLEAU

Tablau es un software muy potente que ha ido marcando el ritmo de la visualización de los datos de una forma fácil e intuitiva.
Los usuarios en este caso, tampoco necesitan de una asistencia por parte del departamento de IT, y crear gráficos, tablas y cuadros de mando de una forma autónoma.

Tableau Desktop y Tableau Server


Tableau Desktop, permite realizar el análisis de datos ya sea contra la base de datos de Tableau en memoria, o contra fuentes de datos externas. No contiene un “script” como el de Qlik Sense, por lo que las transformaciones de los datos deben hacerse aparte.

Los usuarios pueden elegir cargar datos en columna, en memoria, comprimidos, etc. El ajuste de los datos es muy rápido (aunque los datos también pueden ser guardados en memoria caché con una inevitable degradación del rendimiento), y los conectores ayudan a relacionar datos de cualquier origen.

tableau-1

Si utilizamos Tableau Server, este actúa como una instalación central para el acceso a los datos, a las visualizaciones y proporcionar seguridad en la gestión de usuarios. Utiliza un navegador web como Qlik Sense para poder acceder a los cuadros de mando desde casi cualquier dispositivo que soporte navegación web (ordenadores y dispositivos móviles).
Esta herramienta no tiene una capacidad asociativa, por lo que la relación de los datos que extraemos debe realizarse de una forma “más cuidada”. La arquitectura de Tableau Server es escalable.

Análisis predictivo con herramientas Business Intelligence

Una de las características más importantes de Tableau es su integración con el lenguaje analítico R. Esta opción no está disponible en Qlik Sense, y está enfocada para el uso de conjuntos y manipulación con el lenguaje R (estadística, predicción de la demanda, etc). Esta característica es muy explotada para usuarios avanzados y programadores que necesiten añadir nuevas capacidades a la herramienta, con Tableau es posible, por lo que contrasta con otras herramientas de la competencia que, además de utilizar recursos de visualización de forma sencilla, ofrece herramientas estadísticas y de análisis predictivo.

stadistic

En un principio, Tableau era la pionera en potencia de visualización, pero es cierto , que hoy en día Qlik Sense se ha desarrollado mucho en este ámbito, por lo que ambas respecto a esto, están muy igualadas. Al igual que la mayoría de plataformas de este tipo, Tableau presenta una interfaz de exploración drag-and-drop, pero además esta herramienta puede instalarse en Mac, y Qlik Sense no está desarrollado aún para este sistema operativo.

Características de Tableau 

Los usuarios de Tableau Server utilizan Workbooks que presentan cuadros de mando y reports o informes. Estos no son estáticos ya que ofrecen todas las facilidades para la manipulación de datos que el usuario necesite realizar.
En cuanto a las selecciones en los cuadros de mando, deben de ser jerárquicas, sin embargo Tableau está particularmente bien considerado por el tratamiento de los datos geográficos, ya que cuenta con potentes gráficos fáciles de utilizar para este caso.
Finalmente, Tableau destaca por:

  • Su facilidad de uso destacable, ya que fue pionera de la sencillez en herramientas de Business Intelligence.
  • Su plataforma escalable y soporta importantes implementaciones externas (como R).
  • Conexión a todo tipo de orígenes de bases de datos.
  • Utiliza herramientas de análisis predictivo y estadística.
  • Visualmente, en cuanto a datos geográficos es de las más potentes.

TABLEAU 2

EN RESUMEN

Cada vez que sale una nueva herramienta se enfrentan la “facilidad de uso” y la “sofisticación” de la misma.

Si queremos la más potente, debemos saber mínimamente programar para transformar nuestros datos, y esto es así, porque si no, estaremos sacando un 20% del jugo de la herramienta.
Siempre comienza ganando la facilidad de uso, pero cuando llevamos mucho tiempo con ella, echamos de menos esto , y lo otro y se nos ocurren muchas cosas nuevas que permiten desarrollar otras herramientas que desestimamos por ser “ un poco más difíciles”.


Tableau no es particularmente sofisticado, pero cualquier persona que busque en foros o en Google, puede encontrar que los usuarios a menudo se sienten frustrados por su falta de extensibilidad.


Qlik Sense es una respuesta al tema “facilidad de uso”, ya que inicialmente con Qlikview (la cual personalmente es mi favorita), se necesitaban conocimientos de programación. Ahora mismo la elección es simple, si las necesidades son sencillas cualquiera de los dos va a satisfacerlas, pero debemos tener un enfoque prudente y asumir que las necesidades futuras son desconocidas y para esto, con Qlik Sense, estamos totalmente cubiertos.

Comparativa de dos grandes herramientas de Business Intelligence para la Logística.

Una vez que nos adentramos en el mundo del Business Intelligence y queremos exprimir al máximo los datos de nuestro negocio, debemos plantearnos qué tecnología encaja mejor en nuestros requerimientos.

Si echamos un vistazo al Cuadrante Mágico de Gartner:

CuadranteMagicoBI

Vemos cómo las tecnologías líderes en Business Intelligence son Qlik y Tableau, por lo que este post se basa en una comparativa de las principales bondades de cada una.

En este primer post, hablaremos de la herramienta estrella de Qlik: Qlik Sense, y en la segunda parte, profundizaremos sobre Tableau.

 Espero que os sirva en vuestra decisión.

QLIK SENSE

Esta tecnología de business intelligence, tiene una plataforma de descubrimiento capaz de hacer frente a la mayoría de los requisitos de negocio, aportando además un apartado de “Storytelling” que nos permite elaborar reports de una forma muy sencilla y dinámica.

Su principal característica de usabilidad, se basa en crear visualizaciones bajo el conocido “drag-and-drop” (arrastrar y soltar), por lo que la interfaz está adaptada a usuarios que no necesitan un alto nivel de programación y que simplemente quieren crear sus propios indicadores sin ningún tipo de asistencia por parte de IT.

qlik-sense-drag-and-drop

Business Intelligence responsive: Visualización desde cualquier dispositivo.

Los usuarios pueden compartir sus visualizaciones a través de diversos mecanismos y desde cualquier tipo de dispositivo (ordenador, tablet, móvil, etc), ya que se desarrollan en HTML5.
Por otro lado, cabe destacar que QLik Sense es responsive (quiere decir que el mismo cuadro de mando no debe ser redimensionado para su visualización en diferentes dispositivos), por lo que al crear las aplicaciones no es necesario una programación enfocada a esto (hasta cierto punto).

responsive

 

Asociatividad en Business Intelligence

La potente característica que diferencia Qlik del resto de tecnologías BI, es su motor de datos asociativos. Mientras que para otras herramientas necesitamos realizar un proceso ETL (extracción, transformación y carga) previo a la carga de datos, en este caso, Qlik tiene habilitado un proceso de carga que te permite realizar todo tipo de transformaciones en nuestros datos. Además, podemos conectarnos a casi cualquier tipo de base de datos sin previa manipulación.
Gracias a esta característica asociativa, al realizar selecciones en nuestro cuadro de mando, todos los indicadores cambiaran instantáneamente en base a esta selección, no importa por qué selección comencemos, la asociatividad permite no tener que seguir ningún tipo de jerarquía para la visualización de nuestros datos. Actualmente en el mercado no existe otra herramienta de Business Intelligence con esta característica.

 analisisAsociativo


Qlik Sense se presenta en dos versiones: Qlik Sense Desktop, la cual es gratuita y se ejecuta en el escritorio de Windows, y Qlik Sense Enterprise, que se ejecuta en servidor y proporciona a los usuarios una interfaz basada en navegador.
Ambas tienen una funcionalidad similar, pero Qlik Sense Enterprise, ofrece otras posibilidades de colaboración: Aporta Streams, que son grupos de usuarios con permisos a unas u otras aplicaciones (cuadros de mando), una administración más personal, y opciones para que los usuarios finales no tengan acceso a la programación interna del cuadro de mando, por lo que el front-end se vuelve amigable y muy fácil de utilizar.

Con esta versión de QLik, lo que se pretende conseguir es un gobierno de datos seguro, sin ambigüedades y que las personas adecuadas puedan acceder siempre que lo necesiten a los datos preparados para ellas.

Nuevas visualizaciones: Otros tipos de gráficos diferentes y potentes.

Existe además, una plataforma especializada (Qlik Branch), donde los propios usuarios desarrollan una gran cantidad de APIs disponibles para crear nuevos tipos de visualizaciones: otros gráficos, indicadores, velocímetros, etc.

branch

 

Por otro lado, Qlik Sense no posee ninguna capacidad de análisis estadístico o de predicción avanzada, ya que no es su dominio. Se pueden incorporar análisis What If, pero aún no tiene implementado ningún tipo de alarma. Las empresas que buscan una plataforma de notificación de la producción de la empresa, deben buscar en otra parte, al igual que los usuarios que necesiten gráficos simples, ya que encontrarían en Qlik Sense una exageración.

Características de Qlik Sense:

  • Rápido y compatible con un nivel de detección de datos que probablemente no tiene otra plataforma.
  • Con un motor asociativo que nos permite comenzar a descubrir desde el punto que elijamos. Es extensible y modular, por lo que hace fácil para los usuarios saber a qué aplicaciones pueden acceder.
  • Para cualquier dispositivo y “responsive”, accedemos a través de interfaz web.
  • Soporta y cubre las necesidades de requerimientos de cualquier tipo de negocio.
  • De fácil uso y gobernación.
  • Posee características como:
    • Marcadores, donde guardamos las selecciones que debemos realizar a diario para que con un simple clic tengamos el cuadro de mando preparado.
    • Storytelling, para contar historias y generar informes.
    • Captura de imágenes, donde directamente exportamos la visualización que necesitemos, con el nivel de detalle apropiado.


En el post anterior aterrizamos el marco teórico de los árboles de decisión , pero como no es lo mismo contarlo que hacerlo, vamos a presentar un caso real de su aplicación.


En concreto, estamos hablando de un Operador Logístico Líder en el sector farmacéutico, y el origen del proyecto era analizar la cadena de frío. La justificación del mismo venía de la necesidad de conocer el origen de las roturas que se producían.

¿Para qué usar árboles de decisión?

El motivo fue conocer cuáles eran las características que más influían a la hora de las roturas de la cadena de frío.


El rango de temperatura óptimo para determinados productos (vacunas antibióticas) estaba garantizado por unas cubetas durante 24 horas. Es decir, en toda orden en la que el tiempo de expedición fuera superior a 24 horas, había habido una rotura en la cadena de frío.


Así pues, se analizó las diferentes muestras que de las que se disponía, cada una de ellas definida por una series de características como el cliente, tipo de almacenamiento, mes o día de la semana, y se categorizó a las mismas en función de si había habido una rotura de la cadena de frío o no.

algoritmo arbol de decision


Convenimos dividir el conjunto de datos en dos subconjuntos, unos de entrenamiento y otro de test, para poner a prueba a nuestro modelo y poder ver cómo de bueno era generalizando a la hora de clasificar datos nuevos.


Los resultados arrojaron información muy interesante.

arbol de decision



Tal como se puede observar en el árbol de decisión creado, la mayoría de los casos en los que había habido una rotura de la cadena de frío (141/143) se habían producido en viernes o sábado. Ello permitió focalizar el problema y dirigir el análisis de problema. Una mala gestión en el proceso burocrático producía una preparación de pedidos (picking) el viernes a última hora que no se expedían hasta el lunes, propiciando con ello las roturas de la cadena de frío. La solución guiada por la aplicación de modelos analíticos permitió solventar el problema, ejecutando el proceso burocrático dentro del almacén de frío y evitando la mayoría de las roturas previas.


Como vemos, los modelos analíticos, en este caso en concreto los árboles de decisión, pueden ser una herramienta muy poderosa para la toma de decisiones en multitud de ámbitos. Y la logística no iba a ser una excepción.

... LOS ÁRBOLES DE DECISIÓN

Si hay unos modelos usados en analítica que son efectivos en el campo del aprendizaje supervisado, y a la vez intuitivos (especialmente en los escenarios de clasificación) son sin duda los árboles de decisión.

Todos pueden entender el enfoque teórico que hay detrás de un árbol de decisión, porque es el mismo esquema que seguimos para clasificar aquello que nos rodea: blanco y en botella, leche.

1

 

¿CÓMO FUNCIONAN?

Los árboles de decisión realizan la división de sus ramas ("esto es o puede ser una manzana"; "esto definitivamente no es una manzana") en función de la información que proporcionen los atributos disponibles.

Básicamente consiste en, a la hora de hacer una división, escoger aquel atributo menos homogéneo de todos: Si todos nuestros ejemplos son frutas, el atributo “fruta” no será escogido como método de discriminación (no habría ningún descarte). Para evitar lo contrario, es decir, que seleccionemos como atributo clasificatorio aquel que es distinto en todas las muestras (y obtener un árbol con una rama por cada muestra) realizamos el ratio de ganancia, donde también se tiene en cuenta el número de opciones que tiene el atributo.

Como en todo modelo, debemos buscar el equilibrio entre sesgo y varianza, para poder utilizarlo para muestras futuras aun no clasificadas (esto se consigue con una técnica denominada, acorde con todo lo anterior, poda de las ramas).

¿PRECISIÓN O INTERPRETABILIDAD?

Pero no todo iba a ser ventajas. Los árboles de decisión tienen, por el contrario, la limitación que su estructura otorga a la hora de clasificar (limitación que, por ejemplo, podríamos suplir con las redes neuronales). Así pues, estará en la decisión del analista lidiar con otro tipo de equilibrio: ¿precisión o interpretabilidad?
Aquí entrarán en juego otros factores, como el grado de conocimiento en analítica del usuario de la solución: si prefiere una herramienta capaz de otorgar una gran precisión en su desempeño (aunque su interpretabilidad sea parecida a una “caja negra mágica”) o quiere algo que pueda entender, aun a riesgo de perder precisión.

23

Clasificación realizada por un árbol de decisión

Para no quedar de agoreros, y contrario a lo que pueda parecer por su simpleza, los árboles de decisión se han resuelto como unas herramientas con mejor desempeño en la práctica, lo que unido a su fácil comprensión los convierten en una de las soluciones más frecuentemente usadas.

¿CÓMO APLICAR ESTO A MI EMPRESA?

Se han aplicado en multitud de campos, con lo que seguro puede amoldarse al caso de su empresa. Basta con plantear adecuadamente el problema. Sea por ejemplo:

  • Determinar si un cliente podrá o no hacer cargo de un préstamo en función de sus características y el histórico de clientes.
  • Evaluar el lanzamiento de una marca en un nuevo mercado en función de experiencias pasadas.
  • Optimizar el uso eficiente de habitaciones de hospital en función de los atributos de los pacientes.
  • Definir la estrategia de marketing en una zona geográfica concreta.


Los atributos no tienen por qué ser discretos, escogiéndose el punto medio de los atributos continuos como punto de división.
Muchas son las áreas en la toma de decisiones que se pueden beneficiar al usar estos árboles, los cuales ayudan en la resolución de problemas claves. Y las empresas, si necesitan algo, son soluciones.


4

  

The possible solutions to given problem emerge as the leaves of a tree, each node representing a point of deliberation and decision”. - Niklaus Wirth.

 

... LAS REDES NEURONALES ARTIFICIALES

Continuando con nuestro esfuerzo por acercar a un plano más sencillo y práctico aquellos conceptos que son claves en el escenario de la Industria 4.0, hoy presentamos una de las principales herramientas analíticas, paradigma de Machine Learning: las redes neuronales artificiales (conocidas por sus siglas en inglés ANN).

1

 

Una ANN no es más que una réplica de lo que podría ser un cerebro humano: una serie de neuronas (centros de procesamiento y memoria) interconectadas entre sí, de tal forma que los datos fluyen desde la capa de entrada a la capa de salida (donde obtenemos el output que queremos conseguir), pasando al menos por una capa oculta.

La forma en que se relacionan estas entradas y salidas puede ser más o menos obvia (desde una regresión lineal a una relación no lineal como una función sigmoidal), pero la clave es la ponderación (siguiendo con el símil cerebral, los pesos sinápticos) que se le da a las distintas entradas.

PARADIGMA DE INTELIGENCIA ARTIFICIAL

Aquí se hace más patente que en ninguna otra herramienta aquello de que los sistemas “aprenden” con el tiempo y la experiencia ya que, observando el desempeño de la ANN mediante una función coste, evaluamos el error entre la salida obtenida y la salida que queríamos haber obtenido y, resumiendo, modificamos los pesos sinápticos para reducir tal error, gracias a un algoritmo automatizado llamado propagación hacia atrás (personalmente, lo más fascinante de las ANN).

Es verdad que perdemos comprensión a la hora de saber cómo las entradas influyen en la salida, pero la precisión que se obtiene en estas herramientas hace que se compense dicha pérdida.

¿CÓMO IMPLEMENTO LAS ANN DE MI EMPRESA?

A partir de aquí, las oportunidades de las ANN son inmensas, pudiéndose agrupar en :2

1) Aproximación de funciones: ya que, aunque se usen nombres vertiginosos para los no expertos (neuronas, pesos sinápticos) no es más que el campo de optimización de funciones, en este caso de una función coste. Algo idéntico a lo que una regresión lineal simple hace sobre la función error.


2) Predicción de series temporales: no deja de ser un tipo especial de aproximación de funciones, en el que el estado actual i es función del estado anterior i-1.

3) Clasificación: quizá el uso más extendido de las ANN, en donde son usadas para categorizar a una muestra en una de las serie de clases ya definidas que más se adecúan a sus variables, e.g categorizar a un tumor si es benigno o maligno, si un correo es spam o no, si la imagen analizada es un coche, un árbol, un gatito…

4) Agrupamiento: Un tipo de clasificación, en el cual no se conocen las categorías de antemano (entramos en el campo del aprendizaje no supervisado). Las muestras serán agrupadas en función de unas característica de entrada, ponderando de sobremanera aquellas que sean “geográficamente” más cercanas entre sí.

EN RESUMEN

Las ANN son una de las herramientas más poderosas dentro del Análisis predictivo y la Inteligencia Artificial, y los procesos industriales son escenario idóneos para “exprimir” al máximo estos cerebros artificiales. Si las máquinas son el músculo de la Industria 4.0, las ANN tienen que ser, sin duda, la cabeza.3

 

 

 

El cerebro es básicamente un ordenador y la conciencia un programa. En teoría, podría ser recreado en una red neuronal”. - Stephen Hawking.

 

Dentro de la gestión de datos para  análisis predictivos, la Detección de Anomalías se ha resuelto como uno de los enfoques más utilizados, por ser sencillo e intuitivo, a la par que efectivo.

Nació como un método válido para detectar intrusos en los sistemas informáticos y es ampliamente usado en campos tan diversos como el mantenimiento predictivo o la clasificación de correo como spam.

1

¿NO VALE CON ALGORITMOS DE CLASIFICACIÓN?

Antes de continuar, una pregunta: ¿no podríamos simplemente utilizar, por ejemplo, por ejemplo, en el caso de mantenimiento preventivo, un algoritmo de clasificación que nos permita catalogar los eventos como "correcto" o "error"?

La respuesta no es fácil de afirmar o negar "a priori", pero es verdad que a pesar de las poderosas herramientas que son los algoritmos de clasificación a la hora de categorizar eventos, estos modelos presentan ciertas limitaciones.

1º PROBLEMA: LA SOBRE-REPRESENTACIÓN

La primera de ellas, muy presente en la vida real, trata del sobre-representación de una de las clases respecto a las otras.

Pensemos, por ejemplo, en un algoritmo destinado a predecir los fallos de cierta máquina industrial. Para poder hacerlo, y basándonos en el esquema de los algoritmos de clasificación de aprendizaje supervisado, necesitamos muestras pasadas de eventos categorizados como “ok” y eventos pasados categorizados como “fallo”, para alimentar a nuestro algoritmo y que pueda, con la experiencia, poder discernir satisfactoriamente entre “fallo” y “ok” para eventos futuros no clasificados todavía.

Si tenemos muchas más muestras del estado “ok” que del estado “fallo” (como es habitual), el algoritmo tenderá a ponderar la clase dominante, no produciendo resultados satisfactorios (el estado “fallo” es el que queremos predecir). 

2º PROBLEMA: ¿CONOCEMOS TODOS LOS FALLOS POSIBLES?

Por otra parte, esta estructura de programación exige conocer todas las situaciones en las que aparece la clase “fallo”, siendo difícil predecir tal salida cuando no se haya producido tal fallo con anterioridad.

Así que, en líneas generales, los algoritmos de clasificación pueden tener un pobre rendimiento en estos escenarios.

¿QUÉ UTILIZAR ENTONCES?

Este tipo de problemas precisan de otro enfoque distinto: la Detección de Anomalías.

En la Detección de Anomalías,más conocido en su forma inglés, Anomaly Detection (todo en inglés suena mejor), se hace clara la idea de que para conocer cuando algo va mal, pueden darse dos enfoques: o conocer cuándo los parámetros indican que el evento de estudio va mal, o conocer cómo son los parámetros cuando el evento de estudio funciona bien.

La primera no es siempre accesible y de esta segunda forma, cuando los parámetros indiquen que el evento se sale de sus parámetros normales en condiciones óptimas, alertará, por tanto, de una anomalía.

Bastará, volviendo al caso de nuestra máquina industrial, con parametrizar los valores cuando ésta funcione correctamente y, estableciendo un rango adecuado móvil (que va aprendiendo con la experiencia), indicar una anomalía cuando estemos fuera de rango.

Dotar a este algoritmo con una nueva información verificando la correcta clasificación de eventos, podrá aumentar su precisión (por ejemplo, ampliando su rango de definición de eventos correctos).

5

UN PASITO MÁS HACIA LA INDUSTRIA 4.0

Aunque con este enfoque conseguimos suplir la sobre-representación de la clase dominante (algo que otros algoritmos como el SMOTE podría suplir), el verdadero poder de la detección de anomalías estriba en el hecho de que podremos predecir anomalías...

¡¡¡aún cuando nunca hayamos visto una!!! 

Esto lo hace idóneo para tareas de predicción basadas en el deterioro y el desgaste, como en las tareas de mantenimiento.

6

Actualmente, las máquinas de todas las industrias están generando datos, no paran de hablar.

Poco a poco, aumentan las herramientas para poder “escucharlas” y dejarlas por ejemplo, que nos indiquen si están bien o están mal, si necesitan un mantenimiento y en qué.

El algoritmo de Detección de Anomalías es un apoyo más para avanzar en la gestión eficientes de recursos y datos, y permite a las empresas obtener esa ventaja competitiva en costes, teniendo un buen posicionamiento en uno de los campos que más en auge está (y estará, acorde a informes de Gartner o Forrester): el Internet of Things (IoT).

Las empresas tratan de embarcarse en esta nueva ola de tecnología que son la Industria 4.0 y el aprovechamiento eficiente de los recursos, las cuales son claves para conseguirlo.

 

“No hay nada tan inútil como hacer con gran eficiencia algo, que no debería hacerse en absoluto”
Peter Drucker

Como hemos explicado en anteriores posts, controlar nuestros procesos a través de los datos que genera nuestro negocio es fundamental.

Debemos dedicar el tiempo necesario a la toma de decisiones y visualización de incidencias en tiempo real, más que a tratar, limpiar y conformar los datos de los que hablamos.

Ahora damos un pasito más allá y además de tener la visualización completa de nuestra cadena de suministro vemos que es necesario tener un panel con escenarios denominados “What If”.

 1

Análisis WHAT IF

Este método trata básicamente de formar escenarios precisos sobre un proceso, cuyo fin es el de generar una serie de preguntas que afecten directamente a ese proceso para definir una gama de probables consecuencias. Por ejemplo, si quiero aumentar mi facturación un X%, ¿qué productos debo colocar en primera línea de salida para conseguirlo?, debemos tener en cuenta las ventas, los proveedores, el stock, por lo que las preguntas nos llevan a jugar con varios factores.

Por lo tanto, podemos definir tendencias, desarrollar respuestas y evaluarlas, generar escenarios de error y de éxito, y a fin de cuentas “llevar nuestro negocio al límite” para ver con claridad las estrategias que debemos llevar a cabo.

De esta forma, el control que tenemos sobre nuestro negocio aumenta.

Identificar los riesgos existentes con los que trabajamos, como las entregas perfectas, proveedores con riesgo, roturas de stock, nos ayudan a explotar este escenario What If donde vamos a realizar las preguntas. Introducimos los factores de riesgo, o los porcentajes que queremos que varíen los indicadores macro del proceso y automáticamente vemos como el resto de variables e indicadores cambian para mostrarnos como sería nuestro proceso o nuestros resultados.

 

2

 

SIMULACIÓN DE ESCENARIOS CRÍTICOS

 Debemos partir de focalizarnos en un proceso en concreto, realizar un  braimstorming con el equipo adecuado o de forma individual para realizar todas las preguntas que se nos ocurran y consideremos interesantes para “probar” este proceso,  y empezar a “trastear” con nuestro simulador.

En la imagen anterior, contamos con campos como Producto, Precio, Precio de What If (el cual es el precio simulado), Volumen, Volumen simulado, Ingresos, Ingresos simulados, Margen, y  Margen simulado, además de los filtros temporales para concretar más las respuestas. Pues bien, cuando utilicemos cualquiera de las barras que nos facilitan introducir por ejemplo un aumento de precio de los productos, o el volumen, automáticamente toda la tabla cambiará sus valores para que veamos cómo afecta directamente este aumento. Lo mismo para disminuirlo, tanto en número como en porcentaje. Y nuestros coloridos indicadores macro nos mostrarán si ese cambio introducido por nosotros afecta a nuestro proceso positiva o negativamente.

 

Contacta con nosotros si estás interesado en realizar un escenario What If para tu negocio, o si te queda cualquier otra duda.

 

Controlar nuestra actividad y nuestros procesos es parte de nuestra tarea cotidiana en la gestión de nuestras empresas.

¿Cómo controlamos nuestros indicadores de actividad (KPI´s)?

logistica excel

 

Nuestra operativa:                                                                     

  • Exportar información seleccionada a Excel desde nuestro ERP/SGA/CRM. Una vez en Excel creamos nuestras fórmulas, tablas dinámicas, gráficos estáticos.
  • Utilizamos reports estáticos predefinidos de nuestros sistemas (consultas) los exportamos a Excel y los tratamos.

Problemas de un sistema de Reporting tradicional:

  • Tareas repetitivas.
  • Tiempo dedicado a extraer y transformar información.
  • No dedicamos tiempo a analizar la información en profundidad, nos quedamos en “grandes números”.
  • Reportamos en vez de proponer soluciones.

Nuestra propuesta de mejora para evitar todos estos tiempos de extracción y tratamiento de la información es automatizar este proceso.

¿Y qué hacemos con este tiempo que hemos ganado? ANALIZAR DATOS

¿Cómo podemos dar este salto en nuestras empresas? Mediante la utilización de una Torre de control de Datos.

Se trata de analizar la información de manera visual e intuitiva, las formas y los colores son percibidos por nuestros cerebros de una manera mucho más rápida que los números.

Beneficios de Torre de Control de Datos:

  • Extracción y tratamiento automatizado, nuestro tiempo se dedica a analizar el negocio.
  • Informes dinámicos, una selección en un gráfico cambiará automáticamente el resto de indicadores
  • Ej. Si selecciono un producto o un proveedor, los indicadores de facturación cambiarán automáticamente.
  • Procesos interrelacionados, no analizamos los procesos de forma independiente sino como una cadena, la Cadena de Suministro.

¿Quieres ver en funcionamiento una Torre de Control de Datos?

Torre de control de datos

Página 5 de 9