Descripción de la ponencia:
El objetivo de la charla es mostrar cómo aplicar técnicas de análisis de grandes fuentes de datos en la cadena de suministro mediante dos ejemplos de casos reales que se están llevado a cabo con dos empresas logísticas: una gran empresa nacional de paquetería y una pyme dedicada a la logística inversa.
Título de la ponencia:
Data Science para Extraer Valor de tu Cadena de Suministro
Resumen de la ponencia:
Big Data y Data Science son el conjunto de técnicas para el tratamiento de fuentes de grandes volúmenes de datos de diversos orígenes, tanto internos de las empresas, como de variables externas que enriquecen y explican comportamientos de los anteriores, con el objetivo de generar información de valor para la toma de decisiones.
Con la proliferación de los sistemas de información, internet y las redes sociales se estima que en los últimos 10 años se ha generado más información que en toda la historia de la humanidad.
La cadena de suministro es una fuente de datos y de valor dentro de las compañías logísticas, en las que las técnicas de análisis de dichos datos pueden aportar un valor diferencial a aquellos que las aplican.
En ese sentido, en la ponencia mostraremos dos ejemplos de casos reales: por un lado, cómo se aplica en una empresa líder de paquetería nacional e internacional, un modelo de planificación de expediciones a repartir en las grandes plazas a 48 horas vista, con una estimación de recursos a subcontratar como puedan ser las furgonetas o el equipo de call center.
Por otro lado, explicaremos el modelo de análisis de stocks a la empresa española líder en logística inversa. A través del modelo, veremos cómo se consiguen detectar riesgos de obsolescencia y de excedentes (ciclo de vida de los productos), además de predecir devoluciones y posibles fraudes para la venta en eCommerce.
Por último, expondremos cómo gracias a la combinación de datos históricos internos, enriquecidos con variables externas y aplicando técnicas de modelado predictivo somos capaces de evolucionar los mantenimientos preventivos hacia mantenimientos predictivos reduciendo, por tanto, el número de incidencias y los costes asociados a las mismas
Datos del ponente:
Javier di Deco, es ingeniero informático y licenciado en Matemáticas por la Universidad Autónoma de Madrid. Además tiene el Master en Informática y Telecomunicación y Major en Inteligencia Computacional.
Tiene cinco años de experiencia en consultoría e I+D+i, llevando a cabo análisis de datos, aplicación de métodos de aprendizaje automático, prospección de nuevas soluciones y desarrollo de productos en los sectores de Energía, Salud e Industria.
Descripción de PiperLab
PiperLab es una empresa dedicada al tratamiento de grandes fuentes de datos, tanto internas procedentes de sus propios clientes, como externas, con el fin de extraer de ellas información de valor e inteligencia de negocio.
Mediante sus análisis, ofrecen a sus clientes soluciones para optimizar procesos internos y áreas críticas de negocio, mejorar la experiencia de sus propios clientes ayudando a retenerlos y fidelizarlos y a generar nuevos negocios a partir de los datos proporcionados.
Las áreas en las que ponen el foco son:
- Digital: Segmentación y fidelización de clientes y detección de fraude.
- Social: Análisis de comportamiento y conversación de audiencias en Redes Sociales. Detección del impacto y de la influencia.
- Industria: Optimización de obsolescencia, modelos de planificación y mantenimiento predictivo.