Continuando con el post anterior, me gustaría presentaros esta magnífica herramienta: Easymorph, enfocada a la transformación de los datos (ETL).

easymorph

 

Tradicionalmente, se cree que esta tarea pertenece a los desarrolladores de IT, mientras que los usuarios empresariales, suelen quedarse con Excel, scripts de Visual Basic, etc. Al mismo tiempo, los sistemas ETL, aunque potentes (y muy caros), resultan complicados para la audiencia que no es programadora.

 

Es por esto, que al desarrollar una app de explotación de datos, Easymorph nos permite diseñar complejas transformaciones de datos, para poder disfrutar de un desarrollo más simple y rápido. 

PRINCIPALES CARACTERÍSTICAS

  • Transformar visualmente los datos sin utilizar macros VBA, scripts o SQL. 
  • Combinar, filtrar, agregar datos de múltiples fuentes (bases de datos, hojas de cálculo, texto, XML).
  • Preparación de datos para posterior explotación en herramienta BI. 
  • Conversor de archivos de texto en hojas de cálculo y viceversa. 
  • Exportar los datos a un nuevo fichero QVD.  
  • Almacenar los proyectos o procesos ETL para ejecutarlos posteriormente tantas veces como se desee.

tabladepaula

 

Toda la información acerca de esta herramienta (licencia gratuita, etc) se encuentra en easymorph.com, además tiene un apartado de Ejemplos & Tutoriales que puede resultaros muy útil.

 

 

 

 

… MÉTODOS METAHEURÍSTICOSbombilla

En la investigación de operaciones, analítica y ciencias de la computación, suele recurrirse con asiduidad a problemas arquetipos tales como el problema del llenado de la mochila, el problema del comerciante viajante o el del mejor vecino, los cuales pueden resultar confusos en un primer acercamiento a la materia ¿a qué se refieren?

Imaginemos que tenemos que realizar una ruta donde hay que visitar 20 puntos y no queremos pasar dos veces por el mismo lugar, o tenemos que realizar 20 acciones y no sabemos en qué orden ejecutarlas. Imaginemos también que quisiéramos conocer qué combinación (en base a los parámetros que indiquemos como distancia, tiempo, coste, …) es la más eficiente. Podríamos pensar que ahora, con la tecnología y la velocidad de computación que tienen los ordenadores, no hay nada imposible. Sin embargo, si dispusiéramos de un ordenador que cada segundo analiza un millón de combinaciones posibles, para conocer cuál es la mejor (esto es, observar todas las posibles y elegir, de ahí, la mejor) necesitaría… ¡77 mil años! (aunque para el supercomputador chino Tiahne-2, con 33.86 PetaFlop/segundo, esto no es algo insalvable)

Puede que este sea un ejemplo no muy corriente, pero ya nos da una idea de la envergadura que los problemas de combinatoria pueden llegar a tener. Es ahí donde entra en juego el campo de los métodos heurísticos.

HEURÍ... ¿QUÉ?eeuusalesmanproblem

Viendo los problemas de combinatoria, entendemos que necesitamos un tipo de modelos que nos permitan dar una respuesta satisfactoria (aunque quizá no sea la mejor) en un tiempo razonable para que sea útil (de nada servirá tener una solución que no se aplica). Este es precisamente el objetivo de los métodos heurísticos. Y dentro de estos algoritmos, aquellos que son procedimientos usados en planteamientos genéricos, son los denominados métodos metaheurísticos. Hay multitud de métodos metaheurísticos implementados, desde los más intuitivos como algoritmos voraces o implementaciones del mejor vecino, a métodos más sofisticados que intentan superar el problema de caer en mínimos locales, como el recocido simulado o los algoritmos genéticos.

¿CÓMO USAR HEURÍSTICA EN MI EMPRESA?

 

Como hemos repetido a lo largo de diversos post, el objetivo de estas entradas es dar una visión general de los servicio postventa-300x203conceptos, y poder indicar en qué facetas de las empresas se pueden implementar estas teorías. En definitiva: aterrizar la Revolución 4.0. Algunos de los problemas prácticos pueden ser:

  • Llenado de cajas: obtener de un modo ágil una forma eficiente de efectuar un llenado de cajas (en función del precio o el volumen, el coste asociado, …)
  • Diseño de rutas: tanto a nivel de reparto comercial como a nivel de movimientos internos de las fábricas.
  • Mejora de la operativa: encontrar cómo realizar de una forma rápida y eficiente una serie de tareas (el problema podría tener en cuenta tareas que obligatoriamente se tengan que dar antes que otras, por ejemplo, el lijado, antes que el pintado).

La clave para entender dónde usar los algoritmos de metaheurística es disponer, de modo general, de un proceso de combinatoria (diferentes formas de hacer una serie de tareas) y conocer el criterio (función coste) en base al cual decidimos si una combinación es mejor que otra (puede ser el coste, el tiempo, la distancia, …). 

LOS MÉTODOS METAHEURÍSTICOS EN LA GESTIÓN DE DATOS Y COMBINATORIA

 

Los métodos metaheurísticos surgen para dar respuesta a la necesidad de encontrar una solución rápida y eficaz a un problema de combinatoria, en donde las opciones son inmensas y robot futuroencontrar la aguja en el pajar se antoja una tarea ardua. Nuestros procesos empresariales pueden favorecerse de estas implementaciones y guiar, en base a datos, las acciones de nuestras compañías.

 

Existen multitud de herramientas para explotar nuestros datos, desde el famoso Excel, a las más específicas como Qlik o Tableau.

A continuación, os presento dos herramientas que nos ayudarán en muchas ocasiones para la organización y explotación correcta de nuestros datos en Qlik: Easyqlik Qviewer y Easy morph.

 

EASYQLIK QVIEWERqv3

Quienes estamos desarrollando continuamente con Qlikview, nos encontramos con multitud de archivos QVD que debemos concatenar, filtrar, perfilar, etc.  Esta herramienta, nos ahorra tiempo para desarrollar y depurar aplicaciones, especialmente cuando se trata de aplicaciones diseñadas por alguien más.

Para los que no estén muy familiarizados con el concepto QVD de QLik: Es un formato especial de archivos que genera Qlikview para almacenar datos de las tablas de nuestro sistema gestor de datos (un archivo QVD por cada tabla). Utilizamos estos archivos por la rapidez que nos aportan, por lo que es la forma preferida de acumular datos históricos en las apps e intercambiar información entre ellos.

QViewer nos permite buscar en cualquier QVD, filtrar y buscar datos, revisar los campos duplicados, detectar nulos y hacer cualquier tipo de inspección sin crear una aplicación Qlikview descartable cada vez porque, ¿Quién no se ha encontrado alguna vez con un montón de QVDs que desea explotar y utiliza mucho tiempo para explorarlos?

Esta herramienta, nos ayuda a inspeccionar cualquier tabla residente en cualquier punto de la secuencia de comandos de carga y conocer los detalles de la información que contiene.

PRINCIPALES CARACTERÍSTICAS

  • Ver datos a nivel de fila de un archivo QVD.
  • Todo tipo de recuentos (nulos, números, texto) para todos los campos y valores distintos.
  • Extracción de campos únicos con un solo clic (por columna).
  • Filtrado asociativo estilo Qlik (con nulos seleccionables).
  • Metadatos de tabla y columna obtenidos del encabezado XML de un archivo QVD.
  • Carga parcial (limitada) para ver archivos muy grandes (>2GB)  (Version Free limitada a 100.000 filas, la licenciada debe ser ilimitada)
  • Agregar, calcular nuevas columnas, exportar datos (requiere Easymorph, lo vemos a continuación).

qv1

Ejemplo de obtener metadatos de un QVD: Nos muestra todos los campos, el número de claves únicas, densidad, tipo de dato, etc… y todo esto sin ejecutarlo.

 

 

qv2

Espero que os resulte tan útil como a mí. Toda la información acerca de esta herramienta (licencia gratuita, etc) se encuentra en easyqlik.com.

 

Veremos la utilidad de Easymorph en el siguiente post!

 

 

... LAS REGLAS DE ASOCIACIÓN diamante

A menudo, solemos de explicar la minería de datos como “tratar de encontrar diamantes en el pajar” (cuando encontramos algo de valor entre tanto dato, la comparación con una aguja se nos queda corta para explicar su potencial). Encontrar patrones de comportamiento (bien sea de compras, bien sea en fallos o en cualquier proceso operativo) es con diferencia el principal objetivo de las empresas analíticas, pues es identificar estos insigths lo que valoran en gran medida los clientes.

Es por ello que no creo que haya herramienta más apreciada para el análisis de datos como las reglas de asociación (con su implementación más famosa, el algoritmo A Priori).

encajadosLa idea que subyace en las reglas de asociación es simple: analizando un conjunto de datos, descubrir relaciones entre variables. Por ejemplo, analizando transacciones, en donde tenemos muchos productos posibles, descubrir que, en transacciones en las que está el producto A, está también el producto B.

Estas relaciones serán más consistentes cuanto más grande sea el conjunto de datos.

Como imaginarán, estas relaciones no suelen ser tan obvias. Para medir cómo de fuerte es la relación entre variables, hay diferentes métricas (soporte, confianza o para mí una de las más útiles, el llamado lift). A su vez, esta búsqueda de relaciones quizá tenga que optimizarse (imagine las diferentes combinatorias que pueden darse, por ejemplo, en un almacén de 5.000 productos) echando mano de técnicas metaheurísticas, como los algoritmos genéticos.

Dado que el objetivo de estos post no es crear más vértigo e inundar la página de vocablos en inglés, demos un enfoque más práctico y “terrenal” a todo esto. 

 

como implementar¿PARA QUÉ IMPLEMENTAR LA CORRELACIÓN ENTRE PRODUCTOS EN MI EMPRESA?

Las oportunidades donde poder implementar estas herramientas son enormes y muy variadas, no solo en el entorno de ventas o marketing. Pensemos, por ejemplo, en un almacén. Es cierto que un análisis ABC nos puede ayudar a una gestión más eficiente del mismo, pero, ¿acaso no hay productos C que, de expedirse, se expiden con un producto A? ¿no podemos mejorar la eficiencia de la gestión de nuestro almacén estudiando las relaciones entre productos?

 El objetivo de estos procesos no es más que encontrar hechos, situaciones, que se repiten en un conjunto de datos en particular. Si, por ejemplo, disponemos de un conjunto de datos formado por cientos, miles de operaciones de compra de los productos de un supermercado, podemos investigar, analizar las compras efectuadas, y quizá lleguemos a la conclusión de que ciertos artículos se vender junto con ciertos artículos, como la leche con las galletas o el vino con las rosas. Quizá aparezcan relaciones entre productos menos obvias, como que en las compras que se adquieren pañales, se adquieran también cervezas (¿padres de familia mandados a la tienda “a por pañales”?)

 

LAS REGLAS DE ASOCIACIÓN, EN RESUMEN

 La clave de la analítica, englobando conceptos del entorno de Big Data, viene de cruzar multitud de fuentes, de diversos orígenes, para poder llevar a cabo planes de acción.

relacion de productos

 Ejemplo de ello es Walmart, quién cruzando información de las listas de la compra efectuadas, con datos meteorológicos (en este caso en concreto, con huracanes) y de la ubicación de sus tiendas, encontró un patrón curioso: en épocas de huracanes, la gente compra más Pop-Tarts.

 En definitiva, analizando grandes conjuntos de datos en base a reglas de asociación, somos capaces de encontrar relaciones entre productos, empoderando a la organización, y permitiendo la toma de decisiones inteligente en base a datos.

 

 

 ¿sabías que el día que más productos dietéticos se venden, es el viernes? https://www.youtube.com/watch?v=NW8MjxQbtfY

 

 

 

 

Analizar lo que ocurre en un carro de la compra de forma conjunta, nos dice mucho más que los productos por separado.”-Ms. Dillman

 

 

 

Aquí podéis escuchar la entrevista realizada por ONDA VASCA a Asier Barredo Barbero (CEO en LIS-Solutions) donde Asier explica el origen de LIS-Solutions, y el por qué de este nuevo y necesario concepto de "Consultoría de la Cadena Suministro 4.0" basado en herramientas y técnicas avanzadas de análisis de datos (Business Intelligence y Big Data)

 

LIS-Solutions estuvo presente en la jornada Logística 4.0 de la fundación ICIL. 

“Como incorporar herramientas de Big Data y Business Intelligence para monitorizar y optimizar los procesos logísticos. Su aplicación a un caso real” 

Actualmente estamos generando más datos en un solo año que en toda la historia de la humanidad. Vivimos rodeados de datos, generados por nuestra actividad o por otras fuentes externas y dentro de las empresas, la logística es una de las mayores inductoras.

El reto es aprovechar esos datos para transformarlos en información y esta en conocimiento, que nos permita mejorar.

Las herramientas de Big Data o Business Intelligence nos permiten gestionar de manera inteligente millones de datos en tiempo real, que pueden tener múltiples formatos y provenir de diversas fuentes.

Estas herramientas se pueden utilizar para analizar cómo afectan distintas variables a nuestros procesos o generar cuadros de mando en tiempo real para monitorizarlos: (Compras, almacén, distribución, ventas, finanzas…).

Después de la introducción se muestra un caso real de aplicación de Business Intelligence, para la monitorización y análisis dinámico de los procesos logísticos de una empresa de e-commerce

P1020891

EQUILIBRIO SESGO-VARIANZA

Como ya dijimos en otros artículos del blog , uno de los pilares fundamentales en aprendizaje automático (o Machine Learning) es la comprensión del equilibrio sesgo-varianza, y ver cómo podemos gestionarlo en nuestro modelo predictivo.
Para entenderlo, tenemos que saber que los datos, por lo general, serán divididos en dos grandes grupos: un conjunto de entrenamiento, usado para entrenar a nuestro modelo para mejorar su rendimiento y un conjunto de test, destinado a probar cómo de bueno es el modelo a la hora de enfrentarse ante datos que no vio cuando fue entrenado (será nuestro proxy a datos del futuro que están por analizar).

¡¡No caigáis en la tentación de usar todos los datos para entrenar al modelo, pensando en el “cuantos más mejor” y extrapoléis el error en el entrenamiento al error que se tendrá en la realidad, pues es bastante probable que ese no sea el caso!!

ying

Centrémonos en el error del conjunto de test (no olvidemos el objetivo último del modelo: la aplicación en casos futuros) Para entenderlo mejor, usemos la siguiente gráfica, extraída del recomendable libro An Introduction to Statistical Learning.

graf

 Si nos fijamos en el error total (línea roja), mientras dotamos al modelo de más flexibilidad, va disminuyendo (el modelo es capaz de captar mejor la función que trata de replicar). Sin embargo, llega un momento en el que la flexibilidad es contraproducente en este conjunto de test, pues empieza a aumentar de nuevo, ¿qué quiere decir esto? Que el modelo tiene tanta flexibilidad que se adaptó muy bien a los datos de entrenamiento. Tan bien, que lo que obtuvimos fue una solución ad hoc para ese conjunto, generalizando muy mal ante casos futuros (como vemos en el error de test)

Podemos intuir que la línea roja es la suma del resto de líneas:

  • La línea azul indica el error de sesgo,  debido a que el modelo carece de la flexibilidad óptima para capturar la función de los datos (pensemos en tratar de explicar una nube de datos en forma circular mediante un modelo lineal).
  • La línea amarilla indica el error de varianza, achacable a cuánto varía el modelo en caso de cambiar el conjunto de entrenamiento (si el modelo se adapta perfectamente al conjunto de entrenamiento, al cambiar el conjunto, cambiará hasta ajustarse  al nuevo conjunto, siendo buena solución para el conjunto de entrenamiento, pero mala generalización para datos futuros).
  • La línea contínua permanece inalterable a medida que aumenta la flexibilidad. Se refiere al error irreducible,y nos recuerda el desgraciado hecho de que cualquier modelo va a tener un error al aplicarlo en datos futuros, es decir, en la realidad.

Como vemos, ser capaces de encontrar el punto donde el error total se minimice será la tarea primordial del analista, que tendrá que buscar en el equilibrio sesgo-varianza aquella solución que mejor le permita extrapolar su análisis al escenario real.

Continuando con la comparativa de estas dos herramientas: Qlik Sense VS Tableau, le llega el turno a las principales bondades y mejoras de Tableau.

Si aun no has visto la primera parte la tienes disponible en el siguiente enlace: Qlik Sense vs Tableau (Parte I)

TABLEAU

Tablau es un software muy potente que ha ido marcando el ritmo de la visualización de los datos de una forma fácil e intuitiva.
Los usuarios en este caso, tampoco necesitan de una asistencia por parte del departamento de IT, y crear gráficos, tablas y cuadros de mando de una forma autónoma.

Tableau Desktop y Tableau Server


Tableau Desktop, permite realizar el análisis de datos ya sea contra la base de datos de Tableau en memoria, o contra fuentes de datos externas. No contiene un “script” como el de Qlik Sense, por lo que las transformaciones de los datos deben hacerse aparte.

Los usuarios pueden elegir cargar datos en columna, en memoria, comprimidos, etc. El ajuste de los datos es muy rápido (aunque los datos también pueden ser guardados en memoria caché con una inevitable degradación del rendimiento), y los conectores ayudan a relacionar datos de cualquier origen.

tableau-1

Si utilizamos Tableau Server, este actúa como una instalación central para el acceso a los datos, a las visualizaciones y proporcionar seguridad en la gestión de usuarios. Utiliza un navegador web como Qlik Sense para poder acceder a los cuadros de mando desde casi cualquier dispositivo que soporte navegación web (ordenadores y dispositivos móviles).
Esta herramienta no tiene una capacidad asociativa, por lo que la relación de los datos que extraemos debe realizarse de una forma “más cuidada”. La arquitectura de Tableau Server es escalable.

Análisis predictivo con herramientas Business Intelligence

Una de las características más importantes de Tableau es su integración con el lenguaje analítico R. Esta opción no está disponible en Qlik Sense, y está enfocada para el uso de conjuntos y manipulación con el lenguaje R (estadística, predicción de la demanda, etc). Esta característica es muy explotada para usuarios avanzados y programadores que necesiten añadir nuevas capacidades a la herramienta, con Tableau es posible, por lo que contrasta con otras herramientas de la competencia que, además de utilizar recursos de visualización de forma sencilla, ofrece herramientas estadísticas y de análisis predictivo.

stadistic

En un principio, Tableau era la pionera en potencia de visualización, pero es cierto , que hoy en día Qlik Sense se ha desarrollado mucho en este ámbito, por lo que ambas respecto a esto, están muy igualadas. Al igual que la mayoría de plataformas de este tipo, Tableau presenta una interfaz de exploración drag-and-drop, pero además esta herramienta puede instalarse en Mac, y Qlik Sense no está desarrollado aún para este sistema operativo.

Características de Tableau 

Los usuarios de Tableau Server utilizan Workbooks que presentan cuadros de mando y reports o informes. Estos no son estáticos ya que ofrecen todas las facilidades para la manipulación de datos que el usuario necesite realizar.
En cuanto a las selecciones en los cuadros de mando, deben de ser jerárquicas, sin embargo Tableau está particularmente bien considerado por el tratamiento de los datos geográficos, ya que cuenta con potentes gráficos fáciles de utilizar para este caso.
Finalmente, Tableau destaca por:

  • Su facilidad de uso destacable, ya que fue pionera de la sencillez en herramientas de Business Intelligence.
  • Su plataforma escalable y soporta importantes implementaciones externas (como R).
  • Conexión a todo tipo de orígenes de bases de datos.
  • Utiliza herramientas de análisis predictivo y estadística.
  • Visualmente, en cuanto a datos geográficos es de las más potentes.

TABLEAU 2

EN RESUMEN

Cada vez que sale una nueva herramienta se enfrentan la “facilidad de uso” y la “sofisticación” de la misma.

Si queremos la más potente, debemos saber mínimamente programar para transformar nuestros datos, y esto es así, porque si no, estaremos sacando un 20% del jugo de la herramienta.
Siempre comienza ganando la facilidad de uso, pero cuando llevamos mucho tiempo con ella, echamos de menos esto , y lo otro y se nos ocurren muchas cosas nuevas que permiten desarrollar otras herramientas que desestimamos por ser “ un poco más difíciles”.


Tableau no es particularmente sofisticado, pero cualquier persona que busque en foros o en Google, puede encontrar que los usuarios a menudo se sienten frustrados por su falta de extensibilidad.


Qlik Sense es una respuesta al tema “facilidad de uso”, ya que inicialmente con Qlikview (la cual personalmente es mi favorita), se necesitaban conocimientos de programación. Ahora mismo la elección es simple, si las necesidades son sencillas cualquiera de los dos va a satisfacerlas, pero debemos tener un enfoque prudente y asumir que las necesidades futuras son desconocidas y para esto, con Qlik Sense, estamos totalmente cubiertos.

Comparativa de dos grandes herramientas de Business Intelligence para la Logística.

Una vez que nos adentramos en el mundo del Business Intelligence y queremos exprimir al máximo los datos de nuestro negocio, debemos plantearnos qué tecnología encaja mejor en nuestros requerimientos.

Si echamos un vistazo al Cuadrante Mágico de Gartner:

CuadranteMagicoBI

Vemos cómo las tecnologías líderes en Business Intelligence son Qlik y Tableau, por lo que este post se basa en una comparativa de las principales bondades de cada una.

En este primer post, hablaremos de la herramienta estrella de Qlik: Qlik Sense, y en la segunda parte, profundizaremos sobre Tableau.

 Espero que os sirva en vuestra decisión.

QLIK SENSE

Esta tecnología de business intelligence, tiene una plataforma de descubrimiento capaz de hacer frente a la mayoría de los requisitos de negocio, aportando además un apartado de “Storytelling” que nos permite elaborar reports de una forma muy sencilla y dinámica.

Su principal característica de usabilidad, se basa en crear visualizaciones bajo el conocido “drag-and-drop” (arrastrar y soltar), por lo que la interfaz está adaptada a usuarios que no necesitan un alto nivel de programación y que simplemente quieren crear sus propios indicadores sin ningún tipo de asistencia por parte de IT.

qlik-sense-drag-and-drop

Business Intelligence responsive: Visualización desde cualquier dispositivo.

Los usuarios pueden compartir sus visualizaciones a través de diversos mecanismos y desde cualquier tipo de dispositivo (ordenador, tablet, móvil, etc), ya que se desarrollan en HTML5.
Por otro lado, cabe destacar que QLik Sense es responsive (quiere decir que el mismo cuadro de mando no debe ser redimensionado para su visualización en diferentes dispositivos), por lo que al crear las aplicaciones no es necesario una programación enfocada a esto (hasta cierto punto).

responsive

 

Asociatividad en Business Intelligence

La potente característica que diferencia Qlik del resto de tecnologías BI, es su motor de datos asociativos. Mientras que para otras herramientas necesitamos realizar un proceso ETL (extracción, transformación y carga) previo a la carga de datos, en este caso, Qlik tiene habilitado un proceso de carga que te permite realizar todo tipo de transformaciones en nuestros datos. Además, podemos conectarnos a casi cualquier tipo de base de datos sin previa manipulación.
Gracias a esta característica asociativa, al realizar selecciones en nuestro cuadro de mando, todos los indicadores cambiaran instantáneamente en base a esta selección, no importa por qué selección comencemos, la asociatividad permite no tener que seguir ningún tipo de jerarquía para la visualización de nuestros datos. Actualmente en el mercado no existe otra herramienta de Business Intelligence con esta característica.

 analisisAsociativo


Qlik Sense se presenta en dos versiones: Qlik Sense Desktop, la cual es gratuita y se ejecuta en el escritorio de Windows, y Qlik Sense Enterprise, que se ejecuta en servidor y proporciona a los usuarios una interfaz basada en navegador.
Ambas tienen una funcionalidad similar, pero Qlik Sense Enterprise, ofrece otras posibilidades de colaboración: Aporta Streams, que son grupos de usuarios con permisos a unas u otras aplicaciones (cuadros de mando), una administración más personal, y opciones para que los usuarios finales no tengan acceso a la programación interna del cuadro de mando, por lo que el front-end se vuelve amigable y muy fácil de utilizar.

Con esta versión de QLik, lo que se pretende conseguir es un gobierno de datos seguro, sin ambigüedades y que las personas adecuadas puedan acceder siempre que lo necesiten a los datos preparados para ellas.

Nuevas visualizaciones: Otros tipos de gráficos diferentes y potentes.

Existe además, una plataforma especializada (Qlik Branch), donde los propios usuarios desarrollan una gran cantidad de APIs disponibles para crear nuevos tipos de visualizaciones: otros gráficos, indicadores, velocímetros, etc.

branch

 

Por otro lado, Qlik Sense no posee ninguna capacidad de análisis estadístico o de predicción avanzada, ya que no es su dominio. Se pueden incorporar análisis What If, pero aún no tiene implementado ningún tipo de alarma. Las empresas que buscan una plataforma de notificación de la producción de la empresa, deben buscar en otra parte, al igual que los usuarios que necesiten gráficos simples, ya que encontrarían en Qlik Sense una exageración.

Características de Qlik Sense:

  • Rápido y compatible con un nivel de detección de datos que probablemente no tiene otra plataforma.
  • Con un motor asociativo que nos permite comenzar a descubrir desde el punto que elijamos. Es extensible y modular, por lo que hace fácil para los usuarios saber a qué aplicaciones pueden acceder.
  • Para cualquier dispositivo y “responsive”, accedemos a través de interfaz web.
  • Soporta y cubre las necesidades de requerimientos de cualquier tipo de negocio.
  • De fácil uso y gobernación.
  • Posee características como:
    • Marcadores, donde guardamos las selecciones que debemos realizar a diario para que con un simple clic tengamos el cuadro de mando preparado.
    • Storytelling, para contar historias y generar informes.
    • Captura de imágenes, donde directamente exportamos la visualización que necesitemos, con el nivel de detalle apropiado.
Página 4 de 9