FacebookTwitterGoogle PlusYouTubeLinkedin

Los indicadores de gestión desde el Data Analytics / Big Data

El valor que la información tiene es cada día más alto. Por eso, el concepto de Big Data aplica para toda aquella información que no puede ser procesada o analizada utilizando procesos o herramientas tradicionales, lo que hace que su demanda siga en aumento y en diferentes campos. A continuación, se mostrará su relación con los indicadores.

complementaria-2Partamos de querer definir qué son indicadores de gestión o para qué sirven: simplemente son analíticos con los cuales podemos tomar decisiones, provenientes estos, de datos de la organización.

Ahora, ¿Dónde cabe el concepto Big Data y a qué se refiere?

Big Data no es tener una gran cantidad de datos como muchos piensan, es navegar en toda la información de la empresa para descubrir nuevos factores que probablemente están afectando hoy a la organización.

Perfecto, y entonces ¿cómo comenzamos? El primer paso es definir que necesitamos recopilar todos los datos que podamos de la organización y almacenarlos en un repositorio. Cuando hablamos de todos los datos, estos pueden ser desde la información de localización geográfica de nuestra flotilla de entrega, hora de entrada, carga, salida de cada pedido, tiempos de traslado, almacenaje, lugares de almacenaje, comentarios de nuestros clientes en redes sociales, etc.

Todo esto proviene de diferentes fuentes, sistemas, lectores, captura o páginas de internet.

Estos datos se pueden diferenciar como Datos Estructurados (con forma, sentido y orden), Semiestructurados (con orden parcial) o No Estructurados (sin orden ni sentido alguno).

Si la información es estructurada, puede ser explotada fácilmente y encontrar los indicadores que nos harán tomar nuestras decisiones; sin embargo, si proviene de información semiestructurada o no estructurada, ésta no puede ser explotada fácilmente, se convierte entonces este repositorio en un lago o mar de datos (Data Lake) en donde podemos navegar entre toneladas de información, pero muchas veces es difícil lograr algo productivo.

Cuando queremos trabajar con Big Data, tenemos que aprender a navegar en este lago, y para esto los pasos deben ser:

  • Validar que el repositorio de Datos sea suficientemente eficiente para almacenar y trabajar con la cantidad de datos que estimamos tener. Aquí no solo se habla de Gigabytes de información; regularmente ya se habla de Terabytes o hasta Hexabytes de información y dependiendo de dicho tamaño y nuestro presupuesto, debemos elegir la capacidad que más nos convenga.

Existen muchas en el mercado como SAP Hanna, Oracle Exadata, Teradata, Microsoft, así como algunas de uso libre como Hadoop. No obstante, se debe considerar además el nivel de seguridad de datos con los que se estará trabajando, dado que existen organizaciones con lineamientos especiales y limitaciones sobre el almacenamiento de información privada y confidencial.

El contar con un consultor que nos ayude a elegir la más adecuada, nos disminuirá el dolor de cabeza de solo haber elegido la más económica, que no es siempre la mejor opción. 

  • Trabajar con una herramienta de análisis eficiente. Existen muchas en el mercado: Cognos, SAP, Oracle, Microstrategy, entre otras; sin embargo, aquí es donde tengo que hablar de la empresa para la cual trabajo, Tableau Software; que ha sido nombrada por los analistas (GARTNER GROUP) como la mejor herramienta de análisis por varios años consecutivos.
  • Esta es una herramienta muy sencilla de utilizar, extremadamente poderosa y realmente intuitiva. Se dice que, si podemos utilizar Microsoft Excel, entonces podemos usar Tableau Software con el fin de conectarnos a nuestro Data Lake y comenzar a trabajar con datos reales.
  • Establecer una hipótesis. Basado en el origen de los datos, partamos de establecer una hipótesis, la cual puede ser una creencia antigua de la misma organización, cuyo resultado quizás nos pueda sorprender. Una hipótesis podría ser decir “la razón de que siempre se entreguen tarde los pedidos es porque el chofer no es eficiente en el traslado”. Esto es un estimado común y podría ser nuestra hipótesis inicial. 
  • Con el poder de nuestra herramienta analítica, comencemos a navegar en los datos y busquemos todo lo relacionado con la entrega de pedidos, las horas estimadas y horas reales de traslados, cargas, llegadas, etc.
  • Trabajemos con al menos una muestra de un par de meses al menos, posteriormente podemos aumentar la muestra si tenemos dudas de los resultados.
  • Comparemos los resultados con un benchmark del mercado, quizás nuestros estimados iniciales están mal calculados. 
  • Definamos si ratificamos o no nuestra hipótesis basados en los datos reales. Si navegamos en comentarios no estructurados, quizás podemos encontrar en encuestas o datos de redes sociales, que no necesariamente nuestra hipótesis es real.

Tuve un caso de una empresa de logística que dio como resultado que el pedido siempre llegaba a tiempo, sin embargo, el tiempo que se llevaba desde la llegada del chofer a las oficinas del cliente, hasta la apertura de puerta para revisión de mercancía, podía llegar a ser de hasta tres horas, por lo que, al marcar la hora de descarga, esta siempre señalaba que ¡llegó tres horas tarde!

Entonces, de ahí viene el valor y el poder de corroborar o no una hipótesis; ahora imagine todas las cosas que quizás hoy suponemos por paradigma y a las que no hemos dedicado tiempo a ratificar. Esto puede revolucionar la forma de atacar las razones de ineficiencias, altos costos o bajas ventas.

Ahora bien, ¿cómo podemos definir quién es la persona ideal para navegar en este Data Lake?, en las universidades y escuelas se está hablando ya de empleos o puestos laborales del futuro, y entre ellos se habla del Data Scientist o Científico de Datos, cuya labor es precisamente esta: el navegar en todos estos datos.

Recientemente fui invitado por el área de Posgrado de la Universidad Externado de Colombia en Bogotá, y se generó un panel de discusión al respecto. Cuando fue mi turno de intervenir y se me preguntó si estaba de acuerdo con que el Data Scientist era el empleo del futuro, mi comentario fue que no.

Para mí, el ser un Data Scientist no es un empleo o puesto sino una habilidad, y el día de mañana será necesario que todos tengamos esa habilidad en nuestros empleos. Significa entonces que todos podemos navegar en nuestro mar de datos, generar hipótesis, ratificarlas o negarlas y con ellos actuar en consecuencia en beneficio del área donde laboramos, para volvernos indispensables y dar verdadero valor a nuestra organización.

¿En qué áreas se puede hacer esto? ¡En todas las áreas!, lo hemos visto desde áreas financieras (CXC, CXP, contabilidad, tesorería, etc.), operaciones, logística, mantenimiento, etc. En todas las áreas se manejan indicadores y se puede ser más eficiente.

Mire entonces qué importante es contar con herramientas que cualquiera pueda utilizar, que sean extremadamente poderosas e intuitivas (conozcan y prueben Tableau Software, desde la página pueden bajar el Software completo con permiso de uso completo por 15 días).

Los beneficios que he visto son innumerables y en todo tipo de organizaciones a nivel mundial.

Una parte muy importante además de poder hacer todo esto en todas las áreas de la organización, es la capacidad de compartir los resultados de las hipótesis ratificadas o negadas; todo esto, en tableros o dashboards (Ver pantallazo) generados en nuestra herramienta analítica, así, puede ser que nuestros resultados hagan cambiar el pensamiento de otras áreas y sirva esto entonces para que nuestros altos directivos puedan visualizar todo lo que sucede realmente, con base en una realidad, no en estimados ni paradigmas.

screen-shot-2017-10-09-at-4-40-06-pm

No es extraño que los precursores de este tipo de proyectos suban rápidamente en la organización, porque el impacto es tan fuerte que no se puede creer el nivel de beneficios que se puede lograr.

Entonces, queda entendido que:

  1. Big Data es un concepto que puede ser aplicado por cualquier organización y en cualquier área de la misma.
  2. No es necesario ser un experto para trabajar en el concepto, pero sí se recomienda asesoría profesional para la selección de herramientas tanto de almacenamiento como de análisis (para análisis solo compre Tableau Software y evítese problemas)
  3. Cualquiera puede trabajar aplicando el uso de Big Data y generar nuestras hipótesis.
  4. El resultado será una organización más eficiente, productiva, mayor ingreso y mejor visibilidad de lo ¡valiosos que somos nosotros para la organización!

Por: Alejandro Treviño Morales *

Enterprise Account Manager North ROLAC – Tableau Software

atrevino@tableau.com 

 

 

(Visited 272 times, 1 visits today)

Etiquetas:, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,