En el post anterior aterrizamos el marco teórico de los árboles de decisión , pero como no es lo mismo contarlo que hacerlo, vamos a presentar un caso real de su aplicación.


En concreto, estamos hablando de un Operador Logístico Líder en el sector farmacéutico, y el origen del proyecto era analizar la cadena de frío. La justificación del mismo venía de la necesidad de conocer el origen de las roturas que se producían.

¿Para qué usar árboles de decisión?

El motivo fue conocer cuáles eran las características que más influían a la hora de las roturas de la cadena de frío.


El rango de temperatura óptimo para determinados productos (vacunas antibióticas) estaba garantizado por unas cubetas durante 24 horas. Es decir, en toda orden en la que el tiempo de expedición fuera superior a 24 horas, había habido una rotura en la cadena de frío.


Así pues, se analizó las diferentes muestras que de las que se disponía, cada una de ellas definida por una series de características como el cliente, tipo de almacenamiento, mes o día de la semana, y se categorizó a las mismas en función de si había habido una rotura de la cadena de frío o no.

algoritmo arbol de decision


Convenimos dividir el conjunto de datos en dos subconjuntos, unos de entrenamiento y otro de test, para poner a prueba a nuestro modelo y poder ver cómo de bueno era generalizando a la hora de clasificar datos nuevos.


Los resultados arrojaron información muy interesante.

arbol de decision



Tal como se puede observar en el árbol de decisión creado, la mayoría de los casos en los que había habido una rotura de la cadena de frío (141/143) se habían producido en viernes o sábado. Ello permitió focalizar el problema y dirigir el análisis de problema. Una mala gestión en el proceso burocrático producía una preparación de pedidos (picking) el viernes a última hora que no se expedían hasta el lunes, propiciando con ello las roturas de la cadena de frío. La solución guiada por la aplicación de modelos analíticos permitió solventar el problema, ejecutando el proceso burocrático dentro del almacén de frío y evitando la mayoría de las roturas previas.


Como vemos, los modelos analíticos, en este caso en concreto los árboles de decisión, pueden ser una herramienta muy poderosa para la toma de decisiones en multitud de ámbitos. Y la logística no iba a ser una excepción.

... LOS ÁRBOLES DE DECISIÓN

Si hay unos modelos usados en analítica que son efectivos en el campo del aprendizaje supervisado, y a la vez intuitivos (especialmente en los escenarios de clasificación) son sin duda los árboles de decisión.

Todos pueden entender el enfoque teórico que hay detrás de un árbol de decisión, porque es el mismo esquema que seguimos para clasificar aquello que nos rodea: blanco y en botella, leche.

1

 

¿CÓMO FUNCIONAN?

Los árboles de decisión realizan la división de sus ramas ("esto es o puede ser una manzana"; "esto definitivamente no es una manzana") en función de la información que proporcionen los atributos disponibles.

Básicamente consiste en, a la hora de hacer una división, escoger aquel atributo menos homogéneo de todos: Si todos nuestros ejemplos son frutas, el atributo “fruta” no será escogido como método de discriminación (no habría ningún descarte). Para evitar lo contrario, es decir, que seleccionemos como atributo clasificatorio aquel que es distinto en todas las muestras (y obtener un árbol con una rama por cada muestra) realizamos el ratio de ganancia, donde también se tiene en cuenta el número de opciones que tiene el atributo.

Como en todo modelo, debemos buscar el equilibrio entre sesgo y varianza, para poder utilizarlo para muestras futuras aun no clasificadas (esto se consigue con una técnica denominada, acorde con todo lo anterior, poda de las ramas).

¿PRECISIÓN O INTERPRETABILIDAD?

Pero no todo iba a ser ventajas. Los árboles de decisión tienen, por el contrario, la limitación que su estructura otorga a la hora de clasificar (limitación que, por ejemplo, podríamos suplir con las redes neuronales). Así pues, estará en la decisión del analista lidiar con otro tipo de equilibrio: ¿precisión o interpretabilidad?
Aquí entrarán en juego otros factores, como el grado de conocimiento en analítica del usuario de la solución: si prefiere una herramienta capaz de otorgar una gran precisión en su desempeño (aunque su interpretabilidad sea parecida a una “caja negra mágica”) o quiere algo que pueda entender, aun a riesgo de perder precisión.

23

Clasificación realizada por un árbol de decisión

Para no quedar de agoreros, y contrario a lo que pueda parecer por su simpleza, los árboles de decisión se han resuelto como unas herramientas con mejor desempeño en la práctica, lo que unido a su fácil comprensión los convierten en una de las soluciones más frecuentemente usadas.

¿CÓMO APLICAR ESTO A MI EMPRESA?

Se han aplicado en multitud de campos, con lo que seguro puede amoldarse al caso de su empresa. Basta con plantear adecuadamente el problema. Sea por ejemplo:

  • Determinar si un cliente podrá o no hacer cargo de un préstamo en función de sus características y el histórico de clientes.
  • Evaluar el lanzamiento de una marca en un nuevo mercado en función de experiencias pasadas.
  • Optimizar el uso eficiente de habitaciones de hospital en función de los atributos de los pacientes.
  • Definir la estrategia de marketing en una zona geográfica concreta.


Los atributos no tienen por qué ser discretos, escogiéndose el punto medio de los atributos continuos como punto de división.
Muchas son las áreas en la toma de decisiones que se pueden beneficiar al usar estos árboles, los cuales ayudan en la resolución de problemas claves. Y las empresas, si necesitan algo, son soluciones.


4

  

The possible solutions to given problem emerge as the leaves of a tree, each node representing a point of deliberation and decision”. - Niklaus Wirth.

 

... LAS REDES NEURONALES ARTIFICIALES

Continuando con nuestro esfuerzo por acercar a un plano más sencillo y práctico aquellos conceptos que son claves en el escenario de la Industria 4.0, hoy presentamos una de las principales herramientas analíticas, paradigma de Machine Learning: las redes neuronales artificiales (conocidas por sus siglas en inglés ANN).

1

 

Una ANN no es más que una réplica de lo que podría ser un cerebro humano: una serie de neuronas (centros de procesamiento y memoria) interconectadas entre sí, de tal forma que los datos fluyen desde la capa de entrada a la capa de salida (donde obtenemos el output que queremos conseguir), pasando al menos por una capa oculta.

La forma en que se relacionan estas entradas y salidas puede ser más o menos obvia (desde una regresión lineal a una relación no lineal como una función sigmoidal), pero la clave es la ponderación (siguiendo con el símil cerebral, los pesos sinápticos) que se le da a las distintas entradas.

PARADIGMA DE INTELIGENCIA ARTIFICIAL

Aquí se hace más patente que en ninguna otra herramienta aquello de que los sistemas “aprenden” con el tiempo y la experiencia ya que, observando el desempeño de la ANN mediante una función coste, evaluamos el error entre la salida obtenida y la salida que queríamos haber obtenido y, resumiendo, modificamos los pesos sinápticos para reducir tal error, gracias a un algoritmo automatizado llamado propagación hacia atrás (personalmente, lo más fascinante de las ANN).

Es verdad que perdemos comprensión a la hora de saber cómo las entradas influyen en la salida, pero la precisión que se obtiene en estas herramientas hace que se compense dicha pérdida.

¿CÓMO IMPLEMENTO LAS ANN DE MI EMPRESA?

A partir de aquí, las oportunidades de las ANN son inmensas, pudiéndose agrupar en :2

1) Aproximación de funciones: ya que, aunque se usen nombres vertiginosos para los no expertos (neuronas, pesos sinápticos) no es más que el campo de optimización de funciones, en este caso de una función coste. Algo idéntico a lo que una regresión lineal simple hace sobre la función error.


2) Predicción de series temporales: no deja de ser un tipo especial de aproximación de funciones, en el que el estado actual i es función del estado anterior i-1.

3) Clasificación: quizá el uso más extendido de las ANN, en donde son usadas para categorizar a una muestra en una de las serie de clases ya definidas que más se adecúan a sus variables, e.g categorizar a un tumor si es benigno o maligno, si un correo es spam o no, si la imagen analizada es un coche, un árbol, un gatito…

4) Agrupamiento: Un tipo de clasificación, en el cual no se conocen las categorías de antemano (entramos en el campo del aprendizaje no supervisado). Las muestras serán agrupadas en función de unas característica de entrada, ponderando de sobremanera aquellas que sean “geográficamente” más cercanas entre sí.

EN RESUMEN

Las ANN son una de las herramientas más poderosas dentro del Análisis predictivo y la Inteligencia Artificial, y los procesos industriales son escenario idóneos para “exprimir” al máximo estos cerebros artificiales. Si las máquinas son el músculo de la Industria 4.0, las ANN tienen que ser, sin duda, la cabeza.3

 

 

 

El cerebro es básicamente un ordenador y la conciencia un programa. En teoría, podría ser recreado en una red neuronal”. - Stephen Hawking.

 

Dentro de la gestión de datos para  análisis predictivos, la Detección de Anomalías se ha resuelto como uno de los enfoques más utilizados, por ser sencillo e intuitivo, a la par que efectivo.

Nació como un método válido para detectar intrusos en los sistemas informáticos y es ampliamente usado en campos tan diversos como el mantenimiento predictivo o la clasificación de correo como spam.

1

¿NO VALE CON ALGORITMOS DE CLASIFICACIÓN?

Antes de continuar, una pregunta: ¿no podríamos simplemente utilizar, por ejemplo, por ejemplo, en el caso de mantenimiento preventivo, un algoritmo de clasificación que nos permita catalogar los eventos como "correcto" o "error"?

La respuesta no es fácil de afirmar o negar "a priori", pero es verdad que a pesar de las poderosas herramientas que son los algoritmos de clasificación a la hora de categorizar eventos, estos modelos presentan ciertas limitaciones.

1º PROBLEMA: LA SOBRE-REPRESENTACIÓN

La primera de ellas, muy presente en la vida real, trata del sobre-representación de una de las clases respecto a las otras.

Pensemos, por ejemplo, en un algoritmo destinado a predecir los fallos de cierta máquina industrial. Para poder hacerlo, y basándonos en el esquema de los algoritmos de clasificación de aprendizaje supervisado, necesitamos muestras pasadas de eventos categorizados como “ok” y eventos pasados categorizados como “fallo”, para alimentar a nuestro algoritmo y que pueda, con la experiencia, poder discernir satisfactoriamente entre “fallo” y “ok” para eventos futuros no clasificados todavía.

Si tenemos muchas más muestras del estado “ok” que del estado “fallo” (como es habitual), el algoritmo tenderá a ponderar la clase dominante, no produciendo resultados satisfactorios (el estado “fallo” es el que queremos predecir). 

2º PROBLEMA: ¿CONOCEMOS TODOS LOS FALLOS POSIBLES?

Por otra parte, esta estructura de programación exige conocer todas las situaciones en las que aparece la clase “fallo”, siendo difícil predecir tal salida cuando no se haya producido tal fallo con anterioridad.

Así que, en líneas generales, los algoritmos de clasificación pueden tener un pobre rendimiento en estos escenarios.

¿QUÉ UTILIZAR ENTONCES?

Este tipo de problemas precisan de otro enfoque distinto: la Detección de Anomalías.

En la Detección de Anomalías,más conocido en su forma inglés, Anomaly Detection (todo en inglés suena mejor), se hace clara la idea de que para conocer cuando algo va mal, pueden darse dos enfoques: o conocer cuándo los parámetros indican que el evento de estudio va mal, o conocer cómo son los parámetros cuando el evento de estudio funciona bien.

La primera no es siempre accesible y de esta segunda forma, cuando los parámetros indiquen que el evento se sale de sus parámetros normales en condiciones óptimas, alertará, por tanto, de una anomalía.

Bastará, volviendo al caso de nuestra máquina industrial, con parametrizar los valores cuando ésta funcione correctamente y, estableciendo un rango adecuado móvil (que va aprendiendo con la experiencia), indicar una anomalía cuando estemos fuera de rango.

Dotar a este algoritmo con una nueva información verificando la correcta clasificación de eventos, podrá aumentar su precisión (por ejemplo, ampliando su rango de definición de eventos correctos).

5

UN PASITO MÁS HACIA LA INDUSTRIA 4.0

Aunque con este enfoque conseguimos suplir la sobre-representación de la clase dominante (algo que otros algoritmos como el SMOTE podría suplir), el verdadero poder de la detección de anomalías estriba en el hecho de que podremos predecir anomalías...

¡¡¡aún cuando nunca hayamos visto una!!! 

Esto lo hace idóneo para tareas de predicción basadas en el deterioro y el desgaste, como en las tareas de mantenimiento.

6

Actualmente, las máquinas de todas las industrias están generando datos, no paran de hablar.

Poco a poco, aumentan las herramientas para poder “escucharlas” y dejarlas por ejemplo, que nos indiquen si están bien o están mal, si necesitan un mantenimiento y en qué.

El algoritmo de Detección de Anomalías es un apoyo más para avanzar en la gestión eficientes de recursos y datos, y permite a las empresas obtener esa ventaja competitiva en costes, teniendo un buen posicionamiento en uno de los campos que más en auge está (y estará, acorde a informes de Gartner o Forrester): el Internet of Things (IoT).

Las empresas tratan de embarcarse en esta nueva ola de tecnología que son la Industria 4.0 y el aprovechamiento eficiente de los recursos, las cuales son claves para conseguirlo.

 

“No hay nada tan inútil como hacer con gran eficiencia algo, que no debería hacerse en absoluto”
Peter Drucker

Como hemos explicado en anteriores posts, controlar nuestros procesos a través de los datos que genera nuestro negocio es fundamental.

Debemos dedicar el tiempo necesario a la toma de decisiones y visualización de incidencias en tiempo real, más que a tratar, limpiar y conformar los datos de los que hablamos.

Ahora damos un pasito más allá y además de tener la visualización completa de nuestra cadena de suministro vemos que es necesario tener un panel con escenarios denominados “What If”.

 1

Análisis WHAT IF

Este método trata básicamente de formar escenarios precisos sobre un proceso, cuyo fin es el de generar una serie de preguntas que afecten directamente a ese proceso para definir una gama de probables consecuencias. Por ejemplo, si quiero aumentar mi facturación un X%, ¿qué productos debo colocar en primera línea de salida para conseguirlo?, debemos tener en cuenta las ventas, los proveedores, el stock, por lo que las preguntas nos llevan a jugar con varios factores.

Por lo tanto, podemos definir tendencias, desarrollar respuestas y evaluarlas, generar escenarios de error y de éxito, y a fin de cuentas “llevar nuestro negocio al límite” para ver con claridad las estrategias que debemos llevar a cabo.

De esta forma, el control que tenemos sobre nuestro negocio aumenta.

Identificar los riesgos existentes con los que trabajamos, como las entregas perfectas, proveedores con riesgo, roturas de stock, nos ayudan a explotar este escenario What If donde vamos a realizar las preguntas. Introducimos los factores de riesgo, o los porcentajes que queremos que varíen los indicadores macro del proceso y automáticamente vemos como el resto de variables e indicadores cambian para mostrarnos como sería nuestro proceso o nuestros resultados.

 

2

 

SIMULACIÓN DE ESCENARIOS CRÍTICOS

 Debemos partir de focalizarnos en un proceso en concreto, realizar un  braimstorming con el equipo adecuado o de forma individual para realizar todas las preguntas que se nos ocurran y consideremos interesantes para “probar” este proceso,  y empezar a “trastear” con nuestro simulador.

En la imagen anterior, contamos con campos como Producto, Precio, Precio de What If (el cual es el precio simulado), Volumen, Volumen simulado, Ingresos, Ingresos simulados, Margen, y  Margen simulado, además de los filtros temporales para concretar más las respuestas. Pues bien, cuando utilicemos cualquiera de las barras que nos facilitan introducir por ejemplo un aumento de precio de los productos, o el volumen, automáticamente toda la tabla cambiará sus valores para que veamos cómo afecta directamente este aumento. Lo mismo para disminuirlo, tanto en número como en porcentaje. Y nuestros coloridos indicadores macro nos mostrarán si ese cambio introducido por nosotros afecta a nuestro proceso positiva o negativamente.

 

Contacta con nosotros si estás interesado en realizar un escenario What If para tu negocio, o si te queda cualquier otra duda.

 

Controlar nuestra actividad y nuestros procesos es parte de nuestra tarea cotidiana en la gestión de nuestras empresas.

¿Cómo controlamos nuestros indicadores de actividad (KPI´s)?

logistica excel

 

Nuestra operativa:                                                                     

  • Exportar información seleccionada a Excel desde nuestro ERP/SGA/CRM. Una vez en Excel creamos nuestras fórmulas, tablas dinámicas, gráficos estáticos.
  • Utilizamos reports estáticos predefinidos de nuestros sistemas (consultas) los exportamos a Excel y los tratamos.

Problemas de un sistema de Reporting tradicional:

  • Tareas repetitivas.
  • Tiempo dedicado a extraer y transformar información.
  • No dedicamos tiempo a analizar la información en profundidad, nos quedamos en “grandes números”.
  • Reportamos en vez de proponer soluciones.

Nuestra propuesta de mejora para evitar todos estos tiempos de extracción y tratamiento de la información es automatizar este proceso.

¿Y qué hacemos con este tiempo que hemos ganado? ANALIZAR DATOS

¿Cómo podemos dar este salto en nuestras empresas? Mediante la utilización de una Torre de control de Datos.

Se trata de analizar la información de manera visual e intuitiva, las formas y los colores son percibidos por nuestros cerebros de una manera mucho más rápida que los números.

Beneficios de Torre de Control de Datos:

  • Extracción y tratamiento automatizado, nuestro tiempo se dedica a analizar el negocio.
  • Informes dinámicos, una selección en un gráfico cambiará automáticamente el resto de indicadores
  • Ej. Si selecciono un producto o un proveedor, los indicadores de facturación cambiarán automáticamente.
  • Procesos interrelacionados, no analizamos los procesos de forma independiente sino como una cadena, la Cadena de Suministro.

¿Quieres ver en funcionamiento una Torre de Control de Datos?

Torre de control de datos

Creemos que lo tenemos todo controlado.

Bueno, más bien, cumplimos el día a día y las adversidades a las que nos vamos enfrentando.

Pero eso no es todo, en algún momento nos hemos encontrado  que, de haber tenido las herramientas necesarias, podríamos haber evitado ciertas situaciones que a “mes vencido” aún nos están pasando factura. Mientras tanto, “esto es lo que tengo”.

Hablamos de soluciones Business Intelligence y pensamos en inversiones desorbitadas que no sabemos ciertamente qué beneficios cuantitativos van a traernos. No es un objeto físico, es un trampolín hacia la información afianzada y competitiva, y por supuesto, es el futuro.

1

UNA REALIDAD COMÚN

Después de conocer las preocupaciones de directores, responsables de logística, responsables de IT, operarios, etc, llegamos  a la conclusión de que tener el control de los datos es algo que todo el mundo quiere y aspira, pero creemos que va a llegarnos de un modo natural; y digo natural, porque nos conformamos con lo que tenemos, trabajamos duramente para sacar lo mejor de esto y damos prioridad de inversión a otras cosas que a priori creemos más importantes. Nos equivocamos.

Si tenemos el control con nuestras agendas, con nuestros smartphones, con nuestras aplicaciones personales financieras, nos enfadamos con las comisiones del banco y con esos céntimos que no nos devuelven en el supermercado, ¿por qué no priorizar el control de nuestro negocio?

SI PERO EN MI NEGOCIO... YA TENGO EL CONTROL

Muchas compañías explotan sus documentos Excel durante jornadas completas para tener una serie de gráficos que expliquen las decisiones que se deben tomar en ese mes/trimestre/etc. Parto desde mes, porque muy pocas consiguen tener los datos convertidos en información diaria. Con esto, es creencia extendida, que es suficiente para solventar las incidencias que puedan surgir, porque hablamos de esto, solventar, no prevenir.

 BUSSINES INTELLIGENCE Y SUPPLY CHAIN

control-2

 

Porque nos gusta tener el control de cada pequeño pasito que damos,vamos a focalizar las claves de Business Intelligence.

Centralizar, afinar y conectar los datos de todas las bases de datos y orígenes que puedan existir en nuestra compañía. Porque desconectados no nos dan una imagen DIARIA de cómo se encuentra.

Descubrir información no evidente y con la que no trabajamos porque nunca nos lo hemos planteado: Vitaminar nuestra Supply Chain y tener en nuestro poder indicadores que reaccionan con cada selección que hacemos.

Definición de un plan estratégico y monitorizarlo: Monitorizar las métricas y los objetivos establecidos, para detectar a tiempo cualquier tipo de desviación o cambio de decisión estratégica para corregirlas.

Comparación con el histórico: Podremos utilizar “esas cantidades de datos” que llevamos almacenando durante años y que en un momento dado utilizamos pero no hemos vuelto a trabajar.

Benchmarking: A través de los cuadros de mando podemos establecer indicadores base de nuestro sector que nos ayuden a compararnos, o bien con nosotros mismos hace X años, o bien con el resto de compañías de nuestro sector. Por lo que podemos posicionarnos y mejorar nuestra competitividad.

Simulaciones: No se trata de tener una varita mágica si no de entender a simple vista qué nos quieren decir los datos con los que trabajamos. Por ejemplo: podemos “sospechar” que algo nos ha ido mal este mes, en concreto en aprovisionamiento, y que siempre es con el mismo proveedor y la calidad de entrega, ¿qué pasaría si…..? Podemos realizar todo tipo de simulaciones que nos afinen esta toma de decisiones.

LEAN es una filosofía de organización empresarial basada en la optimización de procesos bajo un concepto de mejora continua. Empezó a aplicarse en el sector automoción con el objetivo de producir coches cada vez mejores y de menor coste.

BigDataLEAN


A nadie se le escapa que si se nos rompe la lavadora mientras está en funcionamiento tenemos un problema pero si se nos rompe el coche tenemos un accidente.

Los beneficios de esta forma de organización son tan evidentes que con el paso del tiempo se ha ido introduciendo en otros procesos industriales, con el objetivo de hacer las cosas de más calidad, evitando despilfarros innecesarios que no aportan valor al producto.

LEANPlanDoCheckAct 
En la actualidad el concepto LEAN se aplica para mejorar cualquier tipo de proceso, ya sea industrial, logístico, administrativo o comercial. En todos ellos podemos aplicar las herramientas LEAN, que están orientadas a la monitorización de los procesos de manera que podamos detectar ineficiencias y aplicar soluciones, en un círculo sin fin “Planificar, Hacer, Verificar y Actuar”. 

 


En esta monitorización de procesos es donde las herramientas para el análisis de datos “Big Data” pueden ayudarnos. Cada vez trabajamos con volúmenes de información más grandes, que provienen de múltiples fuentes o bases de datos (internas y externas).


Estas herramientas nos permiten procesar la información en tiempo real (no únicamente visualizarla) sino que mediante algoritmos predefinidos pueden avisarnos de lo que está a punto de ocurrir, aunque todavía no haya ocurrido.
Por ejemplo, pueden predecir la demanda de un determinado artículo para un periodo determinado, teniendo en cuenta factores internos como el histórico de nuestras ventas o factores externos, como por ejemplo la climatología prevista.
También pueden predecir cuándo un proceso se va a bloquear o cuándo una máquina va a fallar, analizando diversas variables que concurren en ese momento.

TorreControlDatos


¿Podríamos predecir qué equipo va a ganar la liga o qué candidato las elecciones?


Seguro que podríamos acercarnos, aunque lo importante no es saber lo que va a ocurrir sino disponer de información con suficiente antelación como para llegar al resultado deseado “Sin sorpresas”.


Pongo un par de ejemplos:
1) MoneyBall: Trailer de una película, basada en hechos reales, en la que un equipo de béisbol sin presupuesto consigue mantenerse entre los mejores gracias al análisis estadístico: https://www.youtube.com/watch?v=-4R3m4ybDz4

2) Predicción de la demanda en una cadena de farmacias gracias a la utilización de Big Data: https://www.youtube.com/watch?v=NW8MjxQbtfY

¿Quieres saber más acerca del LEAN? LEAN moda o NECESIDAD

Lugar de celebración: Edificio Central – Parque tecnológico de Álava

Ayer se celebró una de las jornadas de presentación de los casos de éxito más relevantes aplicados en empresas para las fases de preproducción, producción y postproducción donde LIS-Solutions participó en la fase de producción. 

logo

logos

Los objetivos de esta Jornada eran por una parte, poner al alcance de los asistentes conceptos y casos aplicados de empresas en el desarrollo de la Industria 4.0 en sus tres fases, y por otra, intercambiar experiencias y debatir sobre la realidad de las empresas participantes y los sectores en que operan.

LIS-Solutions - Industria 4.0: Monitorización de procesos de la cadena de suministro

Hemos participado 22 empresas con presentaciones de cinco minutos cada una, por lo que estas presentaciones han sido escuetas y concretas, donde el objetivo era la exposición de un caso de real de implantación de Industria 4.0 en una empresa.

Por nuestra parte hemos presentado el caso práctico que realizamos para VOIGT, el operador logístico especializado en el sector farmacéutico: Monitorización del proceso de la cadena de frío.

Tenéis disponible esta presentación, en el Escaparate Basque Industry 4.0 y Soluciones TEIC 4.0

BasqueIndustry40

Página 5 de 9