¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

13 Abr 2021 | Talento

Si lo construyes, ellos vendrán

En anteriores entradas de este blog he enfatizado lo importante que es para el analista digital o el data science la formación continua y el autoaprendizaje para estar al día de las últimas novedades en el universo de los datos. Pero para poder hacerlo, el profesional necesita invertir un porcentaje mínimo de su tiempo muy difícil de encontrar. Ante esta perspectiva, ¿qué acciones pueden garantizar la evolución del profesional del dato?

Cuando apareció el perfil del analista digital, sus funciones estaban destinadas a hacer muchas tareas diferentes: pintar dashboards, crear análisis, realizar implementaciones técnicas, etc. Pero ahora es muy difícil, por no decir imposible, que un único perfil sea capaz de abarcar todas estas tareas, ya que el nivel de dificultad ha ido aumentando a medida que ha evolucionado el sector. De ahí la importancia de la profesionalización de cada una de las áreas que pueden llegar a componer un proyecto: analistas digitales, científicos de datos, ingenieros, data vis, etc. Por ejemplo, desde la experiencia de El Arte de Medir, hemos llegado a un punto de especialización en cada uno de nuestros proyectos que, para ofrecer un servicio profesional, contamos con equipos especializados en diferentes entornos. Esto es así porque cualquiera de nuestros servicios requiere de perfiles con diferentes skills, como por ejemplo, la creación de un cuadro de mandos, en el que los perfiles involucrados son:

  1. Perfil de negocio que defina los KPIS.
  2. Perfil de Data Vis que defina una capa gráfica.
  3. Perfil técnico que defina todos los enganches a las fuentes de datos. 

Esta necesidad de especialización también acarrea cambios estructurales dentro de las empresas. Por ejemplo, volviendo al caso de EAM, hemos pasado de tener equipos de trabajo divididos por especialidades que hablaban un mismo idioma (analistas, técnicos, data science, etc.), a contar con equipos multidisciplinares en los que se integran diferentes perfiles totalmente compenetrados. El porqué de este cambio vino fundamentalmente por la pérdida de información relevante en el momento que un equipo le tenía que pasar el proyecto a otro. Para hacer frente a esto, la mejor solución fue la de crear estas pequeñas células de trabajo formadas por diferentes perfiles profesionales, capaces de cumplimentar cada una de las patas que conforman un proyecto.

El desarrollo profesional como filosofía de empresa

Además con este cambio, también establecimos una garantía con cada uno de los integrantes del equipo para que pudiera sentir que, como profesionales, estaban evolucionando y llevando a cabo la misión de poner en práctica cosas nuevas, independientemente del proyecto que estuviera en cada momento.

Viernes de pasión

Junto a esta apuesta por los equipos multidisciplinares, también ha habido otros cambios importantes dentro de EAM, como por ejemplo el poder invertir el 20% del tiempo de la jornada laboral en formaciones y nuevos proyectos para que cada miembro del equipo pueda seguir desarrollándose como profesionales desde la vía que más les convenga.

Gracias a esta iniciativa, además de asegurar un tiempo para la creación de proyectos y aprendizajes que les ayude de manera individual, también ha impulsado nuevas formas de comunicación entre los miembros del equipo y, lo que es más importante, nuevas formas de aprendizaje y colaboración entre los diferentes perfiles profesionales. 

Sin lugar a dudas, lo importante es encontrar una actividad que ayude a impulsar aquellos proyectos en los que poder encontrar un nexo de unión con el negocio. Y cómo no, también generar mucha fuerza para afrontar el día a día de otra manera.

Si quieres escuchar algunos de los proyectos que hemos creado, puedes hacerlo a continuación en nuestro podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

09 Mar 2021 | Analista Web

Es el ojo del tigre, es la emoción del combate, levántate ante el desafío de tu rival

Uno de los grandes beneficios de la analítica digital es que se puede extrapolar a todo tipo de áreas. Un buen ejemplo lo podemos ver en la analítica de negocio o Business Analytics, la cual gracias a la evolución de las herramientas de Business Intelligence y el almacenamiento Cloud, está ayudando a muchas empresas a hacer del dato un activo más del negocio. Guillermo Ramis de Ayreflor, CEO y fundador de Grdar, lo sabe muy bien ya que gracias al Business Analytics ayuda a sus clientes a interpretar sus datos para generar procesos de negocio.

Cuando Guillermo fundó Grdar hace veinte años, su actividad principal era el desarrollo de herramientas web y procesos a medida. Pero gracias al máster de Analítica Digital de KSchool, en donde tuve la suerte de conocerle, el portfolio de servicios fue aumentando a medida que lo hacían las necesidades de sus clientes, primero agregando servicios de analítica web y, más adelante, incluyendo procesos de analítica de negocio.

Y es que, al igual que en analítica digital, el análisis de negocio traslada todo el conocimiento de los datos a través de unas métricas que no sólo incluyen las propiamente digitales, sino también otras de diferente índole, como las financieras, económicas o de producto. Esta variedad hace que los proyectos en business analytics sean mucho más completos y a la vez complicados, ya que al poder integrar todo el conocimiento que genera una compañía, el número de métricas se multiplica por cien, y con ellas, también sus parámetros de medición. 

El consumo de los datos

Aunque todavía hay empresas en las que las métricas de negocio no se encuentran en disposición del CEO o del responsable financiero, cada vez hay más analistas que ayudan a implementar la cultura del dato dentro de las empresas. Hace veinte años, esta fase de evangelización consistía en dar a conocer todo el poder de la palabra web. Hoy el analista digital sigue evangelizando, pero el mensaje es diferente, como por ejemplo, ayudando a los responsables del negocio a hacer un buen uso de las herramientas a su alcance, como los dashboard.

Cuando un analista se presenta ante el reto de crear un dashboard, no sólo es importante marcar los objetivos que debe cumplir o los KPIs que van a ayudar a conseguirlos, sino también quién va a consumir dicha información. Generalmente, en los análisis de negocio, el público al que van dirigidos suelen ser perfiles directivos y/o financieros, por lo que es importante que la información que se presente esté adecuada a su lenguaje. Y aquí es donde el analista de negocio tiene el verdadero desafío: conseguir que sus interlocutores pasen de las tablas en hojas de cálculo a una representación que refleje la historia que cuenta el dato, la cual incluya de manera ágil toda la información que vayan a necesitar. En cuanto a esto, es importante destacar la importancia de crear dashboards que de verdad sean relevantes para el negocio. El dashboard es un elemento vivo, y como tal, tiene que evolucionar cuando lo hace el negocio. No hay que tener miedo de cambiar métricas que no funcionan o KPIs que ya no arrojan información de interés. Es importante enriquecerlo de forma periódica, ya que así es como evoluciona. 

Para hacer más accesible su consumo en Grdar, por ejemplo, cuentan con una plataforma propia en la que sus clientes tienen acceso directo de todos los dashboards y alertas de una manera organizada y rápida. Ellos se apoyan en Google Data Studio ya que al ser partners de Google, también han evolucionado con ella. Hay quien pueda pensar que con esta herramienta de visualización puede surgir algún problema al conectar datos fuera de analytics, como los de un ETL o data lake, pero por el momento no se les ha presentado ningún reto que no hayan podido afrontar. 

Análisis de negocio

Próximos pasos

La siguiente fase en la que el equipo de Guillermo está trabajando es en la de llegar a optimizar los procesos de ingesta de datos a través de la automatización. Hay sectores como el de la construcción que ya lo están consiguiendo a través del Internet de las Cosas (IoT). ¿Cómo? Gracias a la integración de una red de sensores interconectados los cuales mandan señales automáticas a los cuadros de mando con los que se generan alertas de seguridad y/o tendencias para poder actuar en el momento exacto. Conseguir establecer una tendencia es muy importante, ya que a veces el dato en sí no es relevante, pero sí hacia dónde va. Y gracias al IoT, ahora existe la posibilidad de enriquecer toda esa información con los datos provenientes de estos dispositivos, por lo que es más fácil visualizar dicha tendencia. Pero hay que tener cuidado, ya que ante la posibilidad de recogida de un mayor número de datos, también se eleva el aumento de ruido de los mismos, pero aun así la incorporación de los datos recogidos por dispositivos IoT pueden ser un aliado para nuestro negocio.

Si te has quedado con ganas de saber más, acompáñanos a Guillermo y a mi en el episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El pasado mes, compartí conocimientos y la admiración por Avinash Kaushik con Joan Boluda en la entrevista que me hizo en el nuevo podcats «Un café con Eserp». Puedes escucharla en este link: https://es.eserp.com/conversaciones/un-cafe-con-eserp/

Joan Boluda y Gemma Muñoz

16 Feb 2021 | Data Science

Cuánto más estudias la lógica, más valoras la casualidad

La carrera de matemáticas se ha convertido en una de las opciones más demandadas por los estudiantes universitarios gracias a disciplinas como la ciencia de datos y la gran variedad de aplicaciones que tiene en el ámbito empresarial. Pero, ¿cómo pueden hacer nuestros análisis más inteligentes? Para profundizar en este tema, hoy he querido contar con la experiencia de Roberto Otero, Data Scientist en El Arte de Medir. 

A la hora de plantear nuevos análisis de negocio, hay ocasiones en las que el analista digital no puede evitar incluir hipótesis basadas en su propia experiencia con las que llega a perder la perspectiva de la pregunta de negocio que tiene que responder. Pero gracias a la magia de las matemáticas, el científico de datos consigue que un análisis quede más enriquecido con fórmulas y modelos matemáticos que, además de ofrecer respuestas a las grandes preguntas de negocio, también permita al analista bucear y adelantarse a dichas preguntas para llevar sus análisis a otro nivel.

Quien trabaja con los datos es consciente que detrás de ellos existen patrones ocultos que, sin la ayuda de las matemáticas, jamás llegaríamos a descubrir. Por eso, cuando en un modelo se incluye una variable poco común como puede ser el tiempo meteorológico, es en el momento de analizarla cuando descubres su relación directa con el comportamiento de compra del usuario. Justamente el tipo de información relevante para las áreas de marketing y ventas.

Las matemáticas como herramienta del data scientist

¿Cómo pueden los científicos de datos hacer de las matemáticas una herramienta crucial para dotar de mayor inteligencia los análisis de negocio? Existen multitud de ejemplos a través de los que se puede hacer una explotación más profunda de los datos, entre los que podemos encontrar:

Análisis cluster 

Es un conjunto de técnicas con las que crear agrupaciones de usuarios desconocidos que comparten características comunes bajo unos criterios homogéneos. En otras palabras, gracias a la información recopilada por las empresas, se pueden identificar distintos tipos de clientes que cumplen ciertos criterios en los que poder agruparse, como el comportamiento de compra. Para la realización de estos análisis, el científico de datos cuenta con una serie de herramientas como son la distancia euclídea o la distancia Manhattan.

Este tipo de análisis es un claro ejemplo de lo que esta disciplina hereda del Business Intelligence: ahondar tanto en los datos de cliente como en los patrones que se puedan entender por agrupación para saber a qué tipo de cliente hay que hacerle una determinada campaña o volver a contactar.

Lenguaje de programación

Una de las herramientas más usadas por los data scientist son los lenguajes de programación R y Python. Son lenguajes complementarios ya que hay cosas que se pueden hacer con R que no puedes hacer con Python y viceversa. 

  • Python: Para Machine Learning, Python tiene muchísima fuerza gracias a librerías como Keras, con la que implementar modelos de redes neuronales con el que predecir por ejemplo, el Lifetime Value de un cliente. En visualización de datos, Python cuenta con las librerías matplotlib.pyplot y seaborn para facilitar la creación de gráficos. 
  • R: Para estadísticos y científicos de datos, R es el lenguaje de programación por excelencia. Por eso no es de extrañar que en lo que a visualización de datos se refiere, también cuente con librerías muy potentes con las que el usuario puede encontrar gráficos ya hechos o crearlos, como la librería ggplot2. 
Análisis de supervivencia del cliente

Este tipo de análisis sirve para conocer cuánto tiempo van a estar tus clientes comprando tus productos. Para llegar a este resultado, existe un modelo denominado regresión de Cox que indica el tiempo aproximado que un cliente seguirá comprando productos. Una de sus aplicaciones más interesantes es en el terreno del marketing, ya que permite actuar sobre aquellos clientes que están en riesgo de abandono de la marca, ya que el modelo te dice la fecha en la que es más probable que compren, y si no lo hace, saltan las alarmas. 

Análisis de la cesta de la compra

Con esta técnica de modelado se establece una relación entre variables de un conjunto de datos que aparentemente no la tienen. Un buen ejemplo se puede ver en los supermercados y la colocación de algunos productos que, aunque no existe una relación directa entre ellos, los ponen juntos para maximizar beneficios. Esto es posible gracias a las reglas de asociación.

Matemáticas para dotar de mayor inteligencia los análisis de negocio

Matemáticas y los modelos predictivos

Sin lugar a dudas, lo que más se conoce del trabajo de un data scientist son los modelos predictivos y el uso de algoritmos. Cuando hablamos de modelos predictivos, uno de los factores más en contra es la gran cantidad de elementos y variables que no permiten predecir al 100% lo que va a pasar. Pero gracias a las matemáticas, es posible identificar una serie de escenarios que tienen una probabilidad alta de ocurrir con la que se pueden hacer muchas cosas.  

Con los modelos predictivos también se pueden crear sistemas de alertas que avisan si el comportamiento de las métricas sufren alteraciones no previstas en base a un histórico. Para ello, el modelo “observa” qué ha ocurrido anteriormente para alertar de que en ese momento la predicción realizada no se está cumpliendo y reaccionar a tiempo. En este modelo entran técnicas estadísticas como el cálculo de varianza  y el cálculo de desviación típica, que no solo se centran en fijar un porcentaje, sino que tiene en cuenta otras variables para saber si ha habido algo significativo allí.

Recomendaciones para alguien que ha acabado matemáticas:

  • Máster Data Science KSchool
  • Curso especialización Deep Learning KSchool
  • Machine Learning de la A a la Z» de Udemy

¿Te gustaría saber más de este apasionante tema? Acompáñanos a Roberto y a mi en este episodio del podcast.

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 28 de febrero tuve la oportunidad de participar en la mesa redonda «Vamos por más juntas» celebrada en el Women Economic Forum España. Siempre es un placer hablar de innovación y emprendimiento, sobre todo rodeada de grandes profesionales.

  • El 8 de febrero me invitaron a un viaje muy especial en el programa «Un billete a Chattanooga», con Pablo Moratinos y Ana Cirujano.

26 Ene 2021 | Big Data

Un Anillo para gobernarlos a todos. Un Anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas.

Para que el analista digital pueda realizar su trabajo en las mejores condiciones, necesita poder conectar los datos de las plataformas con las que trabaja con sus herramientas de análisis. Esta labor cada vez se hace más complicada, ya que a medida que van aumentando las fuentes de datos, establecer una conexión fiable es cada vez más difícil. Para poder hacer frente a esto, existen los data lakes, repositorios de almacenamiento en la nube en los que unir todas las fuentes de datos bajo un modelo de análisis. 

Pero, ¿cuánto tiempo se necesita para un proyecto de estas características? Y lo que es más importante, ¿cómo podemos abordarlo? Para ahondar en este proceso, hoy cuento con la colaboración de un gran profesional, David García, Head of Data de Laboratorios ISDIN.

Fases cómo construir un Data Lake

Fase 1: Punto de partida

En el instante en el que desde ISDIN deciden tomar la decisión de construir un data lake, lo hacen con el principal objetivo de unificar y consolidar los datos recopilados de las diferentes plataformas en un único repositorio. El momento era el idóneo ya que coincidió con la apertura de un nuevo mercado importante como es el de Estados Unidos. Vieron que, para evaluar el rendimiento real de sus campañas de publicidad en ese mercado, era fundamental aunar los conjuntos de datos a los que tenían acceso en un único repositorio y, además, poder tenerlos en propiedad para manejarlos sin depender de terceros. 

Esta decisión supuso un gran reto para la compañía, ya que en aquel momento el modelo de madurez analítico no estaba del todo consolidado, por lo que para poder llevarlo a cabo, fue necesaria una reorganización que afectó tanto al almacenamiento de los datos como al propio departamento.

Fase 2: Planteamiento

Con los objetivos del data lake alineados con el negocio, llegó el turno de plantear la línea de trabajo desde la que iniciar el proyecto. En este aspecto, se valoraron dos opciones:

  1. Construir un equipo especializado, lo que suponía contratar a profesionales que pudieran seguir con su trabajo a lo largo del tiempo.
  2. Contratar una agencia especializada que diera soporte en el inicio del proyecto.

Al final se optó por contar con El Arte de Medir para que le ayudáramos a establecer los primeros pasos del data lake, entre los que se encontraba la elección de la plataforma cloud más adecuada para la construcción del mismo. Para esta elección, se tuvieron en cuenta las grandes plataformas dentro del mercado: Google Cloud, Amazon Web Services y Microsoft Azure. Las tres comparten características y precios similares, por lo que al final se decidieron por aquella que mejor se adaptara a las necesidades de ISDIN en ese momento, Google Cloud. 

El último punto de esta fase fue determinar cuáles serían las métricas y KPIs del data lake. Para ello, lo ideal siempre es hablar con los diferentes stakeholders para conocer cómo ayudarles a dar respuesta a las dudas o problemas que surjan en el día a día. Si esto no es posible, como ocurrió en ISDIN, la elección de métricas dependerá de los objetivos del negocio que a medio y largo plazo puedan ayudar de una manera más directa. 

Fase 3: Construcción 

En esta fase entró en juego uno de los puntos claves del proyecto y, que sin duda, marcaron su rumbo: la construcción y explotación del dato dentro del data lake. Esta construcción se puede hacer de varias maneras: a través de terceros o desde la propia empresa (in house). En el caso de ISDIN, desde el comienzo del proyecto sabían que el data lake tenía que ser in house ya que, aunque el volumen de datos no era muy grande, contaban con fuentes de datos muy diversas (datos digitales, marketplaces, farmacias digitales), y gracias a este tipo de repositorio, tendrían una mayor flexibilidad en la explotación de los datos.

Sin lugar a dudas, contar con un data lake in house tiene muchas ventajas, como no depender de otros. Pero también tiene sus desventajas, como por ejemplo el difícil acceso a los datos en bruto de las plataformas de terceros. Esto se convirtió en uno de los puntos de fricción del desarrollo del proyecto, ya que cada plataforma tiene unas limitaciones con las que hay que saber lidiar. 

A esto hay que añadirle otro punto muy importante: el nivel de detalle de información que se desea almacenar dentro del data lake, conocido como granularidad. ¿Por qué? Pongamos un ejemplo: cuando se quiere analizar los datos de inversión publicitaria en una plataforma como Facebook o Google, estas herramientas ofrecen un nivel de profundidad de análisis que un data lake in house no tiene. Por eso es importante tener claro desde el principio hasta dónde van a llegar los análisis que se vayan a realizar, sobre todo en las primeras fases del proyecto. La parte positiva es que al ser un proyecto vivo y en continua transformación, a medida que evoluciona, también lo hacen las necesidades de la compañía, por lo que se puede ir profundizando es esta granularidad. 

Fase 4: Explotación

En lo que respecta a la explotación del data lake, aunque el verdadero potencial reside en propio repositorio, en ISDIN también le han sacado partido con diferentes elementos, como por ejemplo:

  • Visualizaciones automatizadas de consulta diaria como dashboards en Google Data Studio.
  • Creación de reportes y cuadros de mando ad-hoc para campañas y promociones puntuales. 

En definitiva, lo que empezó como un proyecto básico ha ido evolucionando en el tiempo y hoy día sigue manteniéndose a pleno rendimiento. Cuando se afronta un proyecto como la construcción de un data lake, se puede llegar a pensar que es un proceso largo y complejo, pero nada más lejos de la realidad. En el caso de ISDIN, al partir con un volumen de datos no muy grande, pudieron comenzar a construir una base sólida con la que el negocio fuera evolucionando. En otras palabras, partieron de un Mínimo Producto Viable con el que sacar rendimiento al repositorio casi desde el primer minuto. 

¿Te gustaría saber más acerca de lo que supuso la construcción del data lake para ISDIN? Te invito a que sigas la conversación en el episodio que le dedicamos en el podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

11 Ene 2021 | Gemma, Herramientas

Hay quien piensa que si vas muy lejos, no podrás volver donde están los demás

Una de las plataformas de visualización más demandadas y que mayor éxito está cosechando en los últimos años es sin duda la de Microsoft, Power BI. Y no es para menos, ya que es una herramienta muy cercana al usuario de negocio y con una estrategia muy bien construida: combinar todo el Power Platform con el apartado ofimático de Office 365, lo que asegura una cercanía al usuario de negocio muy alta. 

Para los que trabajamos como profesionales de la visualización y del negocio, es de sobra conocida la potencia de esta herramienta con los datos. Pero ¿cómo es la experiencia de usuario desde el punto de vista de un profesional IT? Se lo pregunto a Gilberto Flórez, jefe de estrategia, arquitectura y tendencias IT en Ferrovial. 

Cuando Power BI aterriza en el área de estrategia, arquitectura y tendencias IT de Ferrovial en 2017, lo hace con cierta inquietud ya que al ser una herramienta de exportación de datos con una distribución descentralizada, se tiene que tener en cuenta ciertos riesgos, como por ejemplo:

  • Los costes.
  • La infrautilización o reutilización de determinados datos.
  • Los efectos colaterales en las descargas de SAP para explotarlas con Power BI.

Para hacer frente a estos riesgos, el primer paso del equipo fue entender bien el funcionamiento de Power BI y estudiar en profundidad todas las posibilidades de monitorización, gobierno, educación y formación de cara a los diferentes negocios de la compañía. Así también pudieron averiguar de qué manera iban a sacar el máximo rendimiento a la herramienta para hacer un buen uso de ella. 

Visualización de datos con Power BI

Cuando se trabaja con plataformas como Power BI, la mayoría de los datos suelen ser los derivados del negocio: ventas, costes, ROIs de campaña, etc. Pero en el caso de Ferrovial quisieron ir un poco más allá, y aprovecharon la reorganización del área financiera de la compañía para ayudar a equiparla de una nueva forma de visualización de sus datos que, dentro de los objetivos del departamento, facilitara la información a todos los stakeholders que la consumían. Sin duda, este fue el gran reto del proyecto y lo que supuso conocer el verdadero potencial de Power BI, ya que en lo que a explotación y visualización del dato se refiere, no es lo mismo intentar ayudar en la toma de decisiones a nivel de negocio que a nivel financiero, puesto que:

  • El indicador de negocio es una visión más agregada, gráfica y perfecta para Power BI. 
  • La información financiera todavía sigue teniendo esa reminiscencia de mostrar datos en tablas, donde Power BI no es tan agradecido. 

Junto a este reto, el equipo de IT también tuvo que poner foco en la comunicación con el stakeholder, ya que al haber trabajado con la herramienta, tenían ciertos conocimientos de su funcionamiento, por lo que hubo que explicarles muy bien cada uno de los aspectos que iban apareciendo a medida que evolucionaba el proyecto. Afortunadamente, esta manera de trabajar hizo que la dinámica de comunicación con el equipo financiero fuera agile. Es decir, que gracias a sus interacciones constantes, se pudo conseguir conjuntamente una herramienta de visualización centrada en la experiencia de usuario y compuesta por una navegación que llegaba al dato en concreto de una manera intuitiva y rápida. Es por resultados como este por lo que es fundamental ir de la mano del stakeholder, y la mejor manera de hacerlo es a través de una comunicación fluida en la que las partes interesadas terminen hablando el mismo idioma. Por eso es tan importante aterrizar bien los conceptos y entender desde un primer momento qué se necesita, por qué y, a partir de ahí, construir sobre ello. 

Aunque parece un esfuerzo extra, todo este proceso es lo que ayudó al departamento de IT a entender lo que el stakeholder necesitaba, sin olvidar la importancia de la usabilidad de la herramienta en cuestión, ya que aunque se maneje el dato perfecto, si la experiencia del usuario final no es buena, el proyecto no funciona. De ahí el éxito de este proyecto.

Business Case Power BI

La evolución del BI

Como hemos podido ver, las plataformas de Business Intelligence y la manera de trabajar en ellas han experimentado una gran evolución. Antiguamente, los proyectos eran más largos y con muchas dificultades tanto en la extracción y almacenamiento de los datos, como en la experiencia del usuario final. Pero con la llegada del cloud y de herramientas como Power BI, se ha experimentado una gran mejora en todos estos procesos y sobre todo, se ha agilizado mucho en la parte de infraestructura, donde hay que construir el almacenamiento para dar valor al negocio. 

En el caso particular de Power BI, Microsoft ha conseguido entrar en casi todas las organizaciones, cambiando su filosofía. Es decir, cuando antes se tardaba meses en cargar el dato, ahora se puede empezar a ver cosas de una manera ágil y rápida en pocos días. Además, y como hemos comentado anteriormente, Power BI es una herramienta intuitiva con la que si cuentas con una formación básica, en proyectos no muy complejos se puede llegar a hacer cosas impactantes y de gran valor para el negocio. Aunque sí es cierto que a la hora enfrentarse a proyectos de mayor envergadura, es necesario contar con una base técnica importante para poder sacar el máximo potencial a la plataforma.

Sin duda, es en la continua evolución de este tipo de herramientas donde se encuentra la clave del éxito, ya que áreas como las de IT se reinventan para poder acompañar al negocio a través de este tipo de plataformas, y a su vez tener cierto control sobre la tecnología. Por eso es importante que IT lo lidere, ya que al final el dato es un activo que puede estar en muchos sitios, por lo que necesita cierto control, gobierno e información para que verdaderamente sea útil de cara al negocio. 

¿Te gustaría profundizar más sobre Power BI? Acompáñanos a Gilberto y a mi en el episodio que le dedicamos en El Arte de Medir Podcast. 

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast
  • 1
  • 2
  • 3
  • …
  • 64
  • Siguiente »

Copyright © 2021 · Política de Privacidad
WordPress · Genesis Framework