¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

09 Mar 2021 | Analista Web

Es el ojo del tigre, es la emoción del combate, levántate ante el desafío de tu rival

Uno de los grandes beneficios de la analítica digital es que se puede extrapolar a todo tipo de áreas. Un buen ejemplo lo podemos ver en la analítica de negocio o Business Analytics, la cual gracias a la evolución de las herramientas de Business Intelligence y el almacenamiento Cloud, está ayudando a muchas empresas a hacer del dato un activo más del negocio. Guillermo Ramis de Ayreflor, CEO y fundador de Grdar, lo sabe muy bien ya que gracias al Business Analytics ayuda a sus clientes a interpretar sus datos para generar procesos de negocio.

Cuando Guillermo fundó Grdar hace veinte años, su actividad principal era el desarrollo de herramientas web y procesos a medida. Pero gracias al máster de Analítica Digital de KSchool, en donde tuve la suerte de conocerle, el portfolio de servicios fue aumentando a medida que lo hacían las necesidades de sus clientes, primero agregando servicios de analítica web y, más adelante, incluyendo procesos de analítica de negocio.

Y es que, al igual que en analítica digital, el análisis de negocio traslada todo el conocimiento de los datos a través de unas métricas que no sólo incluyen las propiamente digitales, sino también otras de diferente índole, como las financieras, económicas o de producto. Esta variedad hace que los proyectos en business analytics sean mucho más completos y a la vez complicados, ya que al poder integrar todo el conocimiento que genera una compañía, el número de métricas se multiplica por cien, y con ellas, también sus parámetros de medición. 

El consumo de los datos

Aunque todavía hay empresas en las que las métricas de negocio no se encuentran en disposición del CEO o del responsable financiero, cada vez hay más analistas que ayudan a implementar la cultura del dato dentro de las empresas. Hace veinte años, esta fase de evangelización consistía en dar a conocer todo el poder de la palabra web. Hoy el analista digital sigue evangelizando, pero el mensaje es diferente, como por ejemplo, ayudando a los responsables del negocio a hacer un buen uso de las herramientas a su alcance, como los dashboard.

Cuando un analista se presenta ante el reto de crear un dashboard, no sólo es importante marcar los objetivos que debe cumplir o los KPIs que van a ayudar a conseguirlos, sino también quién va a consumir dicha información. Generalmente, en los análisis de negocio, el público al que van dirigidos suelen ser perfiles directivos y/o financieros, por lo que es importante que la información que se presente esté adecuada a su lenguaje. Y aquí es donde el analista de negocio tiene el verdadero desafío: conseguir que sus interlocutores pasen de las tablas en hojas de cálculo a una representación que refleje la historia que cuenta el dato, la cual incluya de manera ágil toda la información que vayan a necesitar. En cuanto a esto, es importante destacar la importancia de crear dashboards que de verdad sean relevantes para el negocio. El dashboard es un elemento vivo, y como tal, tiene que evolucionar cuando lo hace el negocio. No hay que tener miedo de cambiar métricas que no funcionan o KPIs que ya no arrojan información de interés. Es importante enriquecerlo de forma periódica, ya que así es como evoluciona. 

Para hacer más accesible su consumo en Grdar, por ejemplo, cuentan con una plataforma propia en la que sus clientes tienen acceso directo de todos los dashboards y alertas de una manera organizada y rápida. Ellos se apoyan en Google Data Studio ya que al ser partners de Google, también han evolucionado con ella. Hay quien pueda pensar que con esta herramienta de visualización puede surgir algún problema al conectar datos fuera de analytics, como los de un ETL o data lake, pero por el momento no se les ha presentado ningún reto que no hayan podido afrontar. 

Análisis de negocio

Próximos pasos

La siguiente fase en la que el equipo de Guillermo está trabajando es en la de llegar a optimizar los procesos de ingesta de datos a través de la automatización. Hay sectores como el de la construcción que ya lo están consiguiendo a través del Internet de las Cosas (IoT). ¿Cómo? Gracias a la integración de una red de sensores interconectados los cuales mandan señales automáticas a los cuadros de mando con los que se generan alertas de seguridad y/o tendencias para poder actuar en el momento exacto. Conseguir establecer una tendencia es muy importante, ya que a veces el dato en sí no es relevante, pero sí hacia dónde va. Y gracias al IoT, ahora existe la posibilidad de enriquecer toda esa información con los datos provenientes de estos dispositivos, por lo que es más fácil visualizar dicha tendencia. Pero hay que tener cuidado, ya que ante la posibilidad de recogida de un mayor número de datos, también se eleva el aumento de ruido de los mismos, pero aun así la incorporación de los datos recogidos por dispositivos IoT pueden ser un aliado para nuestro negocio.

Si te has quedado con ganas de saber más, acompáñanos a Guillermo y a mi en el episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El pasado mes, compartí conocimientos y la admiración por Avinash Kaushik con Joan Boluda en la entrevista que me hizo en el nuevo podcats «Un café con Eserp». Puedes escucharla en este link: https://es.eserp.com/conversaciones/un-cafe-con-eserp/

Joan Boluda y Gemma Muñoz

16 Feb 2021 | Data Science

Cuánto más estudias la lógica, más valoras la casualidad

La carrera de matemáticas se ha convertido en una de las opciones más demandadas por los estudiantes universitarios gracias a disciplinas como la ciencia de datos y la gran variedad de aplicaciones que tiene en el ámbito empresarial. Pero, ¿cómo pueden hacer nuestros análisis más inteligentes? Para profundizar en este tema, hoy he querido contar con la experiencia de Roberto Otero, Data Scientist en El Arte de Medir. 

A la hora de plantear nuevos análisis de negocio, hay ocasiones en las que el analista digital no puede evitar incluir hipótesis basadas en su propia experiencia con las que llega a perder la perspectiva de la pregunta de negocio que tiene que responder. Pero gracias a la magia de las matemáticas, el científico de datos consigue que un análisis quede más enriquecido con fórmulas y modelos matemáticos que, además de ofrecer respuestas a las grandes preguntas de negocio, también permita al analista bucear y adelantarse a dichas preguntas para llevar sus análisis a otro nivel.

Quien trabaja con los datos es consciente que detrás de ellos existen patrones ocultos que, sin la ayuda de las matemáticas, jamás llegaríamos a descubrir. Por eso, cuando en un modelo se incluye una variable poco común como puede ser el tiempo meteorológico, es en el momento de analizarla cuando descubres su relación directa con el comportamiento de compra del usuario. Justamente el tipo de información relevante para las áreas de marketing y ventas.

Las matemáticas como herramienta del data scientist

¿Cómo pueden los científicos de datos hacer de las matemáticas una herramienta crucial para dotar de mayor inteligencia los análisis de negocio? Existen multitud de ejemplos a través de los que se puede hacer una explotación más profunda de los datos, entre los que podemos encontrar:

Análisis cluster 

Es un conjunto de técnicas con las que crear agrupaciones de usuarios desconocidos que comparten características comunes bajo unos criterios homogéneos. En otras palabras, gracias a la información recopilada por las empresas, se pueden identificar distintos tipos de clientes que cumplen ciertos criterios en los que poder agruparse, como el comportamiento de compra. Para la realización de estos análisis, el científico de datos cuenta con una serie de herramientas como son la distancia euclídea o la distancia Manhattan.

Este tipo de análisis es un claro ejemplo de lo que esta disciplina hereda del Business Intelligence: ahondar tanto en los datos de cliente como en los patrones que se puedan entender por agrupación para saber a qué tipo de cliente hay que hacerle una determinada campaña o volver a contactar.

Lenguaje de programación

Una de las herramientas más usadas por los data scientist son los lenguajes de programación R y Python. Son lenguajes complementarios ya que hay cosas que se pueden hacer con R que no puedes hacer con Python y viceversa. 

  • Python: Para Machine Learning, Python tiene muchísima fuerza gracias a librerías como Keras, con la que implementar modelos de redes neuronales con el que predecir por ejemplo, el Lifetime Value de un cliente. En visualización de datos, Python cuenta con las librerías matplotlib.pyplot y seaborn para facilitar la creación de gráficos. 
  • R: Para estadísticos y científicos de datos, R es el lenguaje de programación por excelencia. Por eso no es de extrañar que en lo que a visualización de datos se refiere, también cuente con librerías muy potentes con las que el usuario puede encontrar gráficos ya hechos o crearlos, como la librería ggplot2. 
Análisis de supervivencia del cliente

Este tipo de análisis sirve para conocer cuánto tiempo van a estar tus clientes comprando tus productos. Para llegar a este resultado, existe un modelo denominado regresión de Cox que indica el tiempo aproximado que un cliente seguirá comprando productos. Una de sus aplicaciones más interesantes es en el terreno del marketing, ya que permite actuar sobre aquellos clientes que están en riesgo de abandono de la marca, ya que el modelo te dice la fecha en la que es más probable que compren, y si no lo hace, saltan las alarmas. 

Análisis de la cesta de la compra

Con esta técnica de modelado se establece una relación entre variables de un conjunto de datos que aparentemente no la tienen. Un buen ejemplo se puede ver en los supermercados y la colocación de algunos productos que, aunque no existe una relación directa entre ellos, los ponen juntos para maximizar beneficios. Esto es posible gracias a las reglas de asociación.

Matemáticas para dotar de mayor inteligencia los análisis de negocio

Matemáticas y los modelos predictivos

Sin lugar a dudas, lo que más se conoce del trabajo de un data scientist son los modelos predictivos y el uso de algoritmos. Cuando hablamos de modelos predictivos, uno de los factores más en contra es la gran cantidad de elementos y variables que no permiten predecir al 100% lo que va a pasar. Pero gracias a las matemáticas, es posible identificar una serie de escenarios que tienen una probabilidad alta de ocurrir con la que se pueden hacer muchas cosas.  

Con los modelos predictivos también se pueden crear sistemas de alertas que avisan si el comportamiento de las métricas sufren alteraciones no previstas en base a un histórico. Para ello, el modelo “observa” qué ha ocurrido anteriormente para alertar de que en ese momento la predicción realizada no se está cumpliendo y reaccionar a tiempo. En este modelo entran técnicas estadísticas como el cálculo de varianza  y el cálculo de desviación típica, que no solo se centran en fijar un porcentaje, sino que tiene en cuenta otras variables para saber si ha habido algo significativo allí.

Recomendaciones para alguien que ha acabado matemáticas:

  • Máster Data Science KSchool
  • Curso especialización Deep Learning KSchool
  • Machine Learning de la A a la Z» de Udemy

¿Te gustaría saber más de este apasionante tema? Acompáñanos a Roberto y a mi en este episodio del podcast.

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 28 de febrero tuve la oportunidad de participar en la mesa redonda «Vamos por más juntas» celebrada en el Women Economic Forum España. Siempre es un placer hablar de innovación y emprendimiento, sobre todo rodeada de grandes profesionales.

  • El 8 de febrero me invitaron a un viaje muy especial en el programa «Un billete a Chattanooga», con Pablo Moratinos y Ana Cirujano.

26 Ene 2021 | Big Data

Un Anillo para gobernarlos a todos. Un Anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas.

Para que el analista digital pueda realizar su trabajo en las mejores condiciones, necesita poder conectar los datos de las plataformas con las que trabaja con sus herramientas de análisis. Esta labor cada vez se hace más complicada, ya que a medida que van aumentando las fuentes de datos, establecer una conexión fiable es cada vez más difícil. Para poder hacer frente a esto, existen los data lakes, repositorios de almacenamiento en la nube en los que unir todas las fuentes de datos bajo un modelo de análisis. 

Pero, ¿cuánto tiempo se necesita para un proyecto de estas características? Y lo que es más importante, ¿cómo podemos abordarlo? Para ahondar en este proceso, hoy cuento con la colaboración de un gran profesional, David García, Head of Data de Laboratorios ISDIN.

Fases cómo construir un Data Lake

Fase 1: Punto de partida

En el instante en el que desde ISDIN deciden tomar la decisión de construir un data lake, lo hacen con el principal objetivo de unificar y consolidar los datos recopilados de las diferentes plataformas en un único repositorio. El momento era el idóneo ya que coincidió con la apertura de un nuevo mercado importante como es el de Estados Unidos. Vieron que, para evaluar el rendimiento real de sus campañas de publicidad en ese mercado, era fundamental aunar los conjuntos de datos a los que tenían acceso en un único repositorio y, además, poder tenerlos en propiedad para manejarlos sin depender de terceros. 

Esta decisión supuso un gran reto para la compañía, ya que en aquel momento el modelo de madurez analítico no estaba del todo consolidado, por lo que para poder llevarlo a cabo, fue necesaria una reorganización que afectó tanto al almacenamiento de los datos como al propio departamento.

Fase 2: Planteamiento

Con los objetivos del data lake alineados con el negocio, llegó el turno de plantear la línea de trabajo desde la que iniciar el proyecto. En este aspecto, se valoraron dos opciones:

  1. Construir un equipo especializado, lo que suponía contratar a profesionales que pudieran seguir con su trabajo a lo largo del tiempo.
  2. Contratar una agencia especializada que diera soporte en el inicio del proyecto.

Al final se optó por contar con El Arte de Medir para que le ayudáramos a establecer los primeros pasos del data lake, entre los que se encontraba la elección de la plataforma cloud más adecuada para la construcción del mismo. Para esta elección, se tuvieron en cuenta las grandes plataformas dentro del mercado: Google Cloud, Amazon Web Services y Microsoft Azure. Las tres comparten características y precios similares, por lo que al final se decidieron por aquella que mejor se adaptara a las necesidades de ISDIN en ese momento, Google Cloud. 

El último punto de esta fase fue determinar cuáles serían las métricas y KPIs del data lake. Para ello, lo ideal siempre es hablar con los diferentes stakeholders para conocer cómo ayudarles a dar respuesta a las dudas o problemas que surjan en el día a día. Si esto no es posible, como ocurrió en ISDIN, la elección de métricas dependerá de los objetivos del negocio que a medio y largo plazo puedan ayudar de una manera más directa. 

Fase 3: Construcción 

En esta fase entró en juego uno de los puntos claves del proyecto y, que sin duda, marcaron su rumbo: la construcción y explotación del dato dentro del data lake. Esta construcción se puede hacer de varias maneras: a través de terceros o desde la propia empresa (in house). En el caso de ISDIN, desde el comienzo del proyecto sabían que el data lake tenía que ser in house ya que, aunque el volumen de datos no era muy grande, contaban con fuentes de datos muy diversas (datos digitales, marketplaces, farmacias digitales), y gracias a este tipo de repositorio, tendrían una mayor flexibilidad en la explotación de los datos.

Sin lugar a dudas, contar con un data lake in house tiene muchas ventajas, como no depender de otros. Pero también tiene sus desventajas, como por ejemplo el difícil acceso a los datos en bruto de las plataformas de terceros. Esto se convirtió en uno de los puntos de fricción del desarrollo del proyecto, ya que cada plataforma tiene unas limitaciones con las que hay que saber lidiar. 

A esto hay que añadirle otro punto muy importante: el nivel de detalle de información que se desea almacenar dentro del data lake, conocido como granularidad. ¿Por qué? Pongamos un ejemplo: cuando se quiere analizar los datos de inversión publicitaria en una plataforma como Facebook o Google, estas herramientas ofrecen un nivel de profundidad de análisis que un data lake in house no tiene. Por eso es importante tener claro desde el principio hasta dónde van a llegar los análisis que se vayan a realizar, sobre todo en las primeras fases del proyecto. La parte positiva es que al ser un proyecto vivo y en continua transformación, a medida que evoluciona, también lo hacen las necesidades de la compañía, por lo que se puede ir profundizando es esta granularidad. 

Fase 4: Explotación

En lo que respecta a la explotación del data lake, aunque el verdadero potencial reside en propio repositorio, en ISDIN también le han sacado partido con diferentes elementos, como por ejemplo:

  • Visualizaciones automatizadas de consulta diaria como dashboards en Google Data Studio.
  • Creación de reportes y cuadros de mando ad-hoc para campañas y promociones puntuales. 

En definitiva, lo que empezó como un proyecto básico ha ido evolucionando en el tiempo y hoy día sigue manteniéndose a pleno rendimiento. Cuando se afronta un proyecto como la construcción de un data lake, se puede llegar a pensar que es un proceso largo y complejo, pero nada más lejos de la realidad. En el caso de ISDIN, al partir con un volumen de datos no muy grande, pudieron comenzar a construir una base sólida con la que el negocio fuera evolucionando. En otras palabras, partieron de un Mínimo Producto Viable con el que sacar rendimiento al repositorio casi desde el primer minuto. 

¿Te gustaría saber más acerca de lo que supuso la construcción del data lake para ISDIN? Te invito a que sigas la conversación en el episodio que le dedicamos en el podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

11 Ene 2021 | Gemma, Herramientas

Hay quien piensa que si vas muy lejos, no podrás volver donde están los demás

Una de las plataformas de visualización más demandadas y que mayor éxito está cosechando en los últimos años es sin duda la de Microsoft, Power BI. Y no es para menos, ya que es una herramienta muy cercana al usuario de negocio y con una estrategia muy bien construida: combinar todo el Power Platform con el apartado ofimático de Office 365, lo que asegura una cercanía al usuario de negocio muy alta. 

Para los que trabajamos como profesionales de la visualización y del negocio, es de sobra conocida la potencia de esta herramienta con los datos. Pero ¿cómo es la experiencia de usuario desde el punto de vista de un profesional IT? Se lo pregunto a Gilberto Flórez, jefe de estrategia, arquitectura y tendencias IT en Ferrovial. 

Cuando Power BI aterriza en el área de estrategia, arquitectura y tendencias IT de Ferrovial en 2017, lo hace con cierta inquietud ya que al ser una herramienta de exportación de datos con una distribución descentralizada, se tiene que tener en cuenta ciertos riesgos, como por ejemplo:

  • Los costes.
  • La infrautilización o reutilización de determinados datos.
  • Los efectos colaterales en las descargas de SAP para explotarlas con Power BI.

Para hacer frente a estos riesgos, el primer paso del equipo fue entender bien el funcionamiento de Power BI y estudiar en profundidad todas las posibilidades de monitorización, gobierno, educación y formación de cara a los diferentes negocios de la compañía. Así también pudieron averiguar de qué manera iban a sacar el máximo rendimiento a la herramienta para hacer un buen uso de ella. 

Visualización de datos con Power BI

Cuando se trabaja con plataformas como Power BI, la mayoría de los datos suelen ser los derivados del negocio: ventas, costes, ROIs de campaña, etc. Pero en el caso de Ferrovial quisieron ir un poco más allá, y aprovecharon la reorganización del área financiera de la compañía para ayudar a equiparla de una nueva forma de visualización de sus datos que, dentro de los objetivos del departamento, facilitara la información a todos los stakeholders que la consumían. Sin duda, este fue el gran reto del proyecto y lo que supuso conocer el verdadero potencial de Power BI, ya que en lo que a explotación y visualización del dato se refiere, no es lo mismo intentar ayudar en la toma de decisiones a nivel de negocio que a nivel financiero, puesto que:

  • El indicador de negocio es una visión más agregada, gráfica y perfecta para Power BI. 
  • La información financiera todavía sigue teniendo esa reminiscencia de mostrar datos en tablas, donde Power BI no es tan agradecido. 

Junto a este reto, el equipo de IT también tuvo que poner foco en la comunicación con el stakeholder, ya que al haber trabajado con la herramienta, tenían ciertos conocimientos de su funcionamiento, por lo que hubo que explicarles muy bien cada uno de los aspectos que iban apareciendo a medida que evolucionaba el proyecto. Afortunadamente, esta manera de trabajar hizo que la dinámica de comunicación con el equipo financiero fuera agile. Es decir, que gracias a sus interacciones constantes, se pudo conseguir conjuntamente una herramienta de visualización centrada en la experiencia de usuario y compuesta por una navegación que llegaba al dato en concreto de una manera intuitiva y rápida. Es por resultados como este por lo que es fundamental ir de la mano del stakeholder, y la mejor manera de hacerlo es a través de una comunicación fluida en la que las partes interesadas terminen hablando el mismo idioma. Por eso es tan importante aterrizar bien los conceptos y entender desde un primer momento qué se necesita, por qué y, a partir de ahí, construir sobre ello. 

Aunque parece un esfuerzo extra, todo este proceso es lo que ayudó al departamento de IT a entender lo que el stakeholder necesitaba, sin olvidar la importancia de la usabilidad de la herramienta en cuestión, ya que aunque se maneje el dato perfecto, si la experiencia del usuario final no es buena, el proyecto no funciona. De ahí el éxito de este proyecto.

Business Case Power BI

La evolución del BI

Como hemos podido ver, las plataformas de Business Intelligence y la manera de trabajar en ellas han experimentado una gran evolución. Antiguamente, los proyectos eran más largos y con muchas dificultades tanto en la extracción y almacenamiento de los datos, como en la experiencia del usuario final. Pero con la llegada del cloud y de herramientas como Power BI, se ha experimentado una gran mejora en todos estos procesos y sobre todo, se ha agilizado mucho en la parte de infraestructura, donde hay que construir el almacenamiento para dar valor al negocio. 

En el caso particular de Power BI, Microsoft ha conseguido entrar en casi todas las organizaciones, cambiando su filosofía. Es decir, cuando antes se tardaba meses en cargar el dato, ahora se puede empezar a ver cosas de una manera ágil y rápida en pocos días. Además, y como hemos comentado anteriormente, Power BI es una herramienta intuitiva con la que si cuentas con una formación básica, en proyectos no muy complejos se puede llegar a hacer cosas impactantes y de gran valor para el negocio. Aunque sí es cierto que a la hora enfrentarse a proyectos de mayor envergadura, es necesario contar con una base técnica importante para poder sacar el máximo potencial a la plataforma.

Sin duda, es en la continua evolución de este tipo de herramientas donde se encuentra la clave del éxito, ya que áreas como las de IT se reinventan para poder acompañar al negocio a través de este tipo de plataformas, y a su vez tener cierto control sobre la tecnología. Por eso es importante que IT lo lidere, ya que al final el dato es un activo que puede estar en muchos sitios, por lo que necesita cierto control, gobierno e información para que verdaderamente sea útil de cara al negocio. 

¿Te gustaría profundizar más sobre Power BI? Acompáñanos a Gilberto y a mi en el episodio que le dedicamos en El Arte de Medir Podcast. 

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

02 Dic 2020 | Herramientas

Hasta el infinito… ¡y más allá!

En los últimos meses, Google ha vuelto a dar un giro a su herramienta de análisis Google Analytics. Ha pasado más de un año desde que la compañía nos sorprendiera con la versión beta, la conocida como propiedad Web + App, y por fin el lanzamiento de la versión definitiva se ha hecho realidad: Google Analytics 4 (GA4). En este blog ya compartí las impresiones del equipo de El Arte de Medir de la versión beta, y como no podía ser de otra forma, ha llegado el momento de analizar las posibilidades que presenta GA4, de la mano de Eduardo Sánchez, CDO de El Arte de Medir; y Alba Torres, Ingeniera de datos en El Arte de Medir. 

Con este anuncio, Google Analytics se despide de Universal Analytics (UA) para ofrecer a todos sus usuarios una nueva herramienta de análisis basada en un ecosistema más acorde a las necesidades actuales de los consumidores y usuarios. Entre sus novedades, nos encontramos:

  • La medición unificada en muchos entornos.
  • El volcado de datos en bruto.
  • La posibilidad de volcar en Google Cloud otros productos como Google Atributtion, 

¿Cómo cambia esta versión definitiva el trabajo actual del analista?

La nueva medición unificada

Al igual que vimos en la versión beta, uno de los cambios más significativos de Google Analytics 4, y también más esperado, es la unificación en la medición entre dispositivos. Esto implica un gran cambio con respecto al modelo de datos, convirtiendo así a GA4 en una herramienta completamente nueva compuesta de métodos de recolección distintos a los usados en su versión anterior. Como cabe esperar, estos nuevos métodos afectan directamente a la implementación de la herramienta, de la cual hablaremos más adelante, pero sin duda estos cambios nos van a hacer replantearnos la manera en la que hemos estado midiendo hasta ahora. 

Cómo no podía ser menos, la interfaz también sufre cambios. En la versión gratuita de GA4, por ejemplo, desaparecen los informes predeterminados y, aunque existe la posibilidad de crear informes abiertos, el analista cuenta con el centro de análisis, un espacio en donde crear informes a medida con la ayuda de Google BigQuery y SQL. Esta era una propiedad que también pudimos ver en la versión beta, y de la que estamos seguros que ayudará a visualizar y valorar el trabajo del analista, y por qué no, también hacerlo más divertido.

Cambios a nivel técnico: eventos y BigQuery

Los cambios que supone Google Analytics 4 a nivel técnico también son muy interesantes, sobre todo de cara a su implementación. Como hemos señalado antes, el modelo de datos cambia. Esto quiere decir que el envío de datos también lo hace. ¿Una de las consecuencias directas? La desaparición de los hits (páginas vista, visitas, etc), dando la bienvenida a los nuevos eventos. 

Este es un cambio muy significativo, ya que los nuevos eventos son muy distintos a los que conocíamos hasta ahora. Por ejemplo, en UA se podían clasificar por categoría, acción, etiqueta y valor. En cambio ahora, cada evento tiene un nombre y va acompañado de hasta veinticinco parámetros. 

Esta nueva forma de recoger el dato da como resultado una implementación mucho más estratégica y ajustada a los objetivos de negocio, por lo que es muy importante que el analista tenga muy clara la arquitectura de lo que quiere construir. Por otro lado, el analista se ve empujado a centrarse más en la explotación del dato en bruto, y cómo hemos comentado antes, le llevará a hacer un mayor uso de BigQuery para realizar análisis más profundos, lo que supone todo un reto. 

Es importante señalar que, aunque de cara a la implementación de la herramienta es preferible contar con un perfil técnico, la implementación base es más fácil que la de Universal Analytics. Uno de los factores que lo facilita es que gracias al nuevo etiquetado, se incide en la medición automatizada de links externos, es decir, algo muy parecido a lo que realiza Google Tag Manager.  

Funionalidades Google Analytics 4

Algunos apuntes finales

Como podemos ver, la llegada de Google Analytics 4 supone para el analista un gran desafío, pero es una herramienta necesaria para el análisis del comportamiento del consumidor de hoy. Por ejemplo, ¿cómo hace GA4 para medir si un usuario cambia de dispositivo? La misma herramienta ofrece tres opciones:

  • A través de un User ID o un login.
  • A través de la medición cookie, aunque esta opción tiene fecha de caducidad.
  • A través de Google signals, la tecnología que Google ofrece a herramientas como Analytics para medir con el login de Google. 

Con estas tres opciones, GA4 elige el mejor método de medición que tenga a su alcance. y así mejorar la duplicidad de usuarios y el análisis entre dispositivos, entre otras cosas. 

En definitiva, gracias a este lanzamiento, se abre un nuevo horizonte tanto para las empresas como para los profesionales del dato, lo que indiscutiblemente acarreará cambios importantes a los que debemos permanecer atentos. Por ejemplo, los que afectarán al traspaso de cuadros de mando de una versión a otra. En este aspecto, y desde nuestro punto de vista, sería recomendable hacer una transición paulatina, es decir, empezar por algo sencillo, aunque todo depende del objetivo de negocio que se persiga. Es importante enfatizar que Google Analytics 4 es un producto abierto y aún tiene algunos aspectos que pulir, por lo que realizar un Mínimo Producto Viable para empezar a ver cómo funciona, y sobre todo, cómo encajarlo en las necesidades de cada negocio, sería un buen punto de partida. 

Si quieres profundizar en el funcionamiento de Google Analytics 4, te invito a que sigas la conversación en el episodio que le dedicamos a esta herramientas en nuestros canales de podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 20 de octubre tuve la oportunidad de participar con HubersXP en su evento «DATOS: Un activo muy importante en tu negocio». Siempre es un placer compartir conocimientos con grandes amigos.

  • « Anterior
  • 1
  • 2
  • 3
  • 4
  • 5
  • …
  • 66
  • Siguiente »

Copyright © 2023 · Política de Privacidad
WordPress · Genesis Framework