¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

02 Jul 2018 | Estrategia

No es nada fácil cuando estás perdido, escuchar la música entre tanto ruido

A la hora de medir el branding y la estrategia de una marca, el storytelling es una herramienta que ayuda a traducir la historia que se quiere contar a cada cliente para conectar con ellos. Y por supuesto, medirlo en consecuencia.

Si la estrategia que se quiere medir es en redes, ¿cómo puede el storytelling ayudar al analista a conectar con los stakeholders; es decir, con las personas a las que puede ayudar a tomar decisiones, en base a contar dicha historia?

¿Quién soy? Comienzo del storytelling

Para poder hacerlo, el punto de partida es definir quién eres como marca. O en otras palabras, lo que vas a aportar a los demás en el foco emocional. Cuando esto lo tienes claro, lo siguiente es preguntar a tu cliente potencial quién es y dónde se encuentra. Es importante no hacerlo de una manera superficial, ya que es imprescindible conocer la historia que el cliente te cuenta. Cuando esté bien definido, es fácil conocer en qué puntos de contacto te vas a encontrar con él.

conocer, conectar y medir

Aquí es cuando entra en juego el storytelling. Esta es la herramienta que te ayudará a diseñar la estrategia en cada uno de esos puntos de conexión. Para entenderlo mejor, es cómo poner a tu cliente en un tablero donde tú como marca, eres el guía. Tu misión es impactarle por diferentes vías: campañas offline, internet, redes sociales, etc; y la finalidad del tablero es facilitarte la narración de tu historia en cada uno de los puntos de conexión.

¿Y en qué momento necesitamos a la figura del analista? Justo ahora. Pero dependiendo de lo que precise el proyecto, hay dos vías por las que guiarse: verificar el comportamiento del cliente final; y contar el storytelling que la marca tiene con el stakeholder.

1.Todo lo que conecta tu marca con tu cliente, verifica que el comportamiento del éste está vinculado con lo que esperas.

Cuando hablamos de vinculación con un cliente, nos referimos a preestablecer cómo será el comportamiento de éste cuando llega a tu plataforma. Es importante verificar que navega por los caminos que le facilitas, para que así haga lo que quieres que haga.

Recopilada toda esta información, es el momento de trazar la estrategia. Ésta tiene que estar definida para todas las áreas implicadas. Por un lado el departamento creativo, quiénes centran la estrategia en buscar el lenguaje para conectar con las personas; y por otro el departamento analista, quienes construyen la estrategia a partir de los datos. Esto servirá para actuar en el tablero que estableciste previamente.

diseño de la estrategia

Cuando el analista le pasa la información al creativo, éste tiene que construir una historia con la que dar solución a sus necesidades. Y sin una estrategia, esto no es posible. Y no nos podemos olvidar de as métricas, cuantitativas y cualitativas. Éstas también juegan un papel fundamental dentro de la estrategia. Es muy importante observarlas, ya que muestran comportamientos que en muchas ocasiones no son verbalizados por los clientes; (como, por ejemplo, leer un diario o ver un programa de televisión que les da vergüenza reconocer).

Toda esta información es muy importante. Por eso, hay que contar con las herramientas adecuadas para medir tanto lo que dicen cómo lo que no. Por ejemplo, si necesitas saber quién habla con quién, Twitter es muy útil ya que tiene herramientas que se conectan entre sí como si fueran un mapa neuronal.

También existen herramientas que analizan como se distribuye la información en grupos más cerrados que usan lenguajes encriptados, como en casos de redes pro anorexia y bulimia. En este ejemplo, y gracias a la combinación de herramientas, se pudo indagar en el sentimiento real de un tweet que previamente parecía inofensivo. En este punto no hay que olvidar que, aunque se cuente con muchas herramientas, siempre tiene que haber una mente detrás que sepa lo que hay que analizar para poder realizar acciones. Si ponemos como ejemplo un análisis semántico de comentarios, como en el caso anterior, no hay ninguna herramienta a día de hoy 100% fiable.

Storytelling

Y es que la semántica es un punto clave en todo proceso de branding. Siempre hay que contar con alguien que monitorice, no sólo la cantidad de veces que hablan de una marca, sino también lo que se dice de ella. La clave de la creatividad es unir puntos inconexos, y a día de hoy eso es imposible automatizarlo. Otro factor a tener muy en cuenta es el Real Time. Un gran ejemplo se puede ver en los analistas de medios. En su trabajo necesitan ver lo que está sucediendo en el mismo momento de la acción. Esto es vital en la toma de decisiones sobre la estrategia que están analizando. Por esto, siempre es preciso contar con una tecnología capaz de ayudar a la estrategia.

2.Storytelling de mi marca con el stakeholder.

Cómo analistas, nosotros vemos al cliente de la marca como un stakeholder al que facilitarle la información que necesite para hacer su trabajo. Y esa información se la tengo que entregar de forma que la entienda. Para facilitar el trabajo al resto del equipo, tenemos que transformar los datos y extrapolarlos a un lenguaje que cuente las historias de las personas que están detrás de esos datos. En otras palabras: hablar un mismo idioma de negocio y de análisis. 

Para ello es necesario que todos las implicados en el proyecto conozcan su rol.  Así será más fácil llegar juntos a un fin común. Y en el caso del storytelling hay que entender:

  • El proyecto.
  • A tu cliente.
  • Al potencial cliente de este cliente.

El storytelling sirve para dar vida a esos números dentro de una historia que es lo que la gente recuerda.

A continuación, puedes escuchar la conversación que mantuve con Ana Álvarez, consultora creativa.

18 Jun 2018 | Análisis Completo

Cuando al punto final de los finales no le siguen dos puntos suspensivos

Cómo analistas, cuando afrontamos una campaña offline, uno de los grandes desafíos al que nos enfrentamos es conocer su repercusión e impacto y reportarlo al entorno online. En El Arte de Medir estos desafíos son los que más nos gustan. Por eso hoy queremos presentar junto con nuestro cliente Waynabox, un Business Case sobre la optimización de una campaña publicitaria (offline); y su impacto en el tráfico a la web (online).

El reto

Waynabox es una empresa que organiza viajes sorpresa a través de internet. Para darse a conocer, concertaron una campaña en televisión de captación y branding destinada a la acción, la cual se iba a traducir en el tráfico a su web y a su aplicación móvil. Nuestra misión: ver el impacto real de esta campaña offline en su entorno online.

Antiguamente se montaban las campañas teniendo en cuenta el impacto del tráfico directo en las métricas más habituales. Pero en El Arte de Medir queríamos conocer el impacto real y ponerle cifras; (o hacer la estimación más cercana posible). Así que la primera pregunta con la que empezamos fue: ¿qué datos son los verdaderamente importantes?

EAM_BussinesCase_Waynabox_01

La labor del equipo Data Science

  1. Establecer una línea base de comportamiento

Antes de empezar con nuestro análisis, Waynabox llevaba midiendo el comportamiento de los usuarios de su web desde hacía varios meses. Esto se convirtió en una fuente inestimable de valor, ya que se pudimos establecer un histórico de patrones de conducta.  Esto permitió sentar una línea base de comportamiento con la que analizar como los usuarios habían interactuado en campañas anteriores.

Con este flujo de datos, y teniendo en cuenta de antemano lo difícil que es etiquetar el tráfico offline que llega a una web; la primera aproximación que se hizo fue filtrar todo el tráfico para saber cuáles eran los principales canales por los que aterrizaban los nuevos usuarios a la web. Una vez identificados, se estableció la línea base de comportamiento y se comparararon los datos que llegaban de la campaña de publicidad. Esta acción estimó el impacto que la campaña publicitaria estaba ejerciendo en la web de Waynabox. Es importante destacar que no sólo se midió el tráfico, sino que también intervinieron otras métricas a nivel de negocio, como el engagement con los usuarios, las transacciones, etc.

  1. Correlación y medición de variables: el efecto recuerdo

Al conocer los datos de navegación de los usuarios y los datos proporcionados por la presión publicitaria en televisión (franja horaria, audiencia alcanzada, número de anuncios del bloque, el tipo cadena, etc.); se pudo correlacionar todo con el impacto de las métricas online. Ya lo dice el refrán: cuantas más variables haya, más rico es el resultado.

Todo este proceso se realizó a través de un modelado estadístico que trasladó los datos a una fórmula que nos ayudó a: explicar el tráfico de la web, los usuarios interesados en los productos, las reservas de viajes, etc. En este punto hay que añadir un paso intermedio muy importante; la visión del analista como parte integrante del negocio para ver qué variables son las que pueden afectar a la consecución final y decidir cómo hay que modelarlas.

En nuestro caso, hubo una variable decisiva. Partiendo de la premisa que un anuncio no se puede correlacionar en tiempo directo de la emisión en televisión con el acceso del usuario a internet, tiene que existir un efecto recuerdo, el cual que tiene que ser modelado.

Así, con este efecto recuerdo, se modelamos una variable que calculó el ratio de recuerdo que tenía para los usuarios el anuncio, teniendo siempre en cuenta la oscilación en función de la fecha y hora de emisión. Una vez obtenida esta variable, se incluyó en el modelo global para correlacionarla a alto nivel de lo que sucede entre el offline y en el online. Ante este punto, el gran trabajo fue determinar qué se iba a incluir.

  1. Recomendaciones a nivel de negocio

El análisis previo de los datos fue vital. En todo proceso de modelado estadístico, surge una gran cantidad de información muy importante a nivel de negocio que hay que saber correlacionar. En nuestro caso, y gracias al efecto recuerdo, se pudo contar con una base con la que poder optimizar de cara a futuro.

Al tratar de estimar el impacto de la campaña publicitaria, incluimos variables como las horas de los anuncios, la posición, el día de la semana, etc.; lo que nos permitió evaluar cuales eran las mejores horas y días de emisión. Estas recomendaciones estaban directamente relacionadas con el impacto y las conversiones.

EAM_BussinesCase_Waynabox_02

La labor del equipo de Data Analysis

Gracias a la elección de las variables adecuadas, cuando llegó el momento de realizar el análisis, el trabajo fue mucho más fácil. Se pudieron exprimir los datos de una manera óptima para sacar conclusiones muy claras relacionadas con las horas de emisión y días de la semana que mejor funcionaban. A su vez, se correlacionaron estos datos con las visitas a la web, y lo que era más importante, el número de accesos al proceso de compra.

  1. Transmisión de conocimiento

Un punto a parte fue el relacionado con la transmisión de conocimiento; es decir, lo que proporcionaba el modelo estadístico con recomendaciones de negocio. Esto se llevó a cabo con periodicidad diaria debido a la fluctuación del perfil del usuario. (Por ejemplo, el público que ve la televisión por la mañana no es el mismo que el que la ve por la noche).

En base al modelo global y los datos que proporcionó Waynabox, se pudo establecer qué días de la semana funcionaba mejor un anuncio determinado. Además, constatando todos estos datos con los reflejados por Google Analytics, se realizaron diferentes recomendaciones acerca de qué franjas horarias y qué posición en la parrilla de anuncios eran los más óptimos para invertir.

  1. Conversión a futuro

Por último, otra de las variables a tratar fue la conversión a futuro. Waynabox es una web de viajes diferente y en este caso la variable recuerdo jugó un papel fundamental. El modelo realizado por el equipo de data science estimó la previsión en cuanto a tráfico web y conversiones que se esperaba si no hubiera habido campaña, y cuál era la real.

Nuestro análisis determinó que tras la campaña hubo:

  • Un aumento del tráfico de visitas a la página web.
  • Un aumento del tráfico de visitas al proceso de compra.
  • Un ligero aumento de las ventas, pero no significativo.

EAM_BussinesCase_Waynabox_03

Ante esto se concluyó que la campaña no se vio traducida inmediatamente en conversiones, cómo sí se vio beneficiada en sesiones. Esto fue debido a que los usuarios de Waynabox tienen un proceso de maduración de compra más largo en comparación con otros productos.

Si quieres conocer más detalles de este Business Case, puedes escucharlo a continuación de la mano del equipo de El Arte de Medir, José Ramón Cajide, Data Science & Big Data Analyst; y Jorge Llorente, Digital Analyst.

04 Jun 2018 | Talento

A veces no basta con saber qué significan las cosas, a veces tienes que saber que no significan

En plena transformación digital, los modelos educativos centrados en el contenido se están quedando obsoletos. Es por ello que cada vez están tomando mayor relevancia los modelos dónde la colaboración y las emociones son los pilares principales para una adquisición del aprendizaje más efectiva y acorde a las nuevas tecnologías. Para ahondar en este tema, hoy os doy a conocer Neurok, un proyecto liderado por Agustín Cuenca, CEO de ASPgems, el cual viene a presentar un nuevo concepto: la NEURODIDÁCTICA.

El modo de aprender está cambiado y las necesidades de formación están en aumento. Antiguamente, el modelo de educación se basaba en pasar una media de 22 años de nuestra vida formándonos; pero hoy día, aunque seguimos estudiando los mismos años, si no empleamos un 15% más de nuestros esfuerzos en seguir aprendiendo cada día, a la velocidad de conocimiento en la que se mueve la sociedad, en 3 años nos quedamos obsoletos. Ahora nos encontramos con la posibilidad de aprender cuando queramos sin tener que desplazarnos, aunque siempre contando con alguien que reflexione sobre nuestro proceso educativo.

Neuroeducación

Si nos ponemos a recapacitar en el modelo de aprendizaje que se usa en la mayoría de colegios, este está basado en la figura del aprendiz, es decir, por imitación. Pero con el avance de la sociedad y la evolución del aprendizaje y los medios digitales, el modelo se está quedando obsoleto. Existe una necesidad inminente de adaptar el método educativo a estas nuevas tendencias.

Para dar respuesta a esta necesidad nace Neurok; una plataforma de formación online que dista del concepto de aprendizaje e-learning conocido hasta ahora. En Neurok no se pretende digitalizar la enseñanza, sino que se centra en aprobar el impacto digital para transformar el proceso educativo bajo unos principios neurocientíficos.

¿Y cuáles son estos principios? El principio básico es que el aprendizaje es un cambio de estructura del cerebro. En el proceso de aprendizaje, se refuerzan o se debilitan conexiones neuronales a través de la “mielina” (grasa encargada de reforzar dichas conexiones). Por lo tanto, estos procesos de cambio son puramente fisiológicos y requieren de una determinada estructura. Evolutivamente, nuestro cerebro está diseñado a sobrevivir en un entorno hostil. Esto hace que las emociones y el aprendizaje estén íntegramente relacionados. Pero a día de hoy no existen herramientas que empleen las emociones como proceso de aprendizaje. Todo está centrado en el contenido.

evolucionar el modelo de aprendizaje

Y aquí es donde innova Neurok. Mide la participación, los niveles de engagement y de posicionamiento grafo social dentro de la comunidad de aprendizaje para dar al profesor herramientas que gestionen todo este proceso. Con estas métricas, el stakeholder es el propio profesor, el cuál es el encargado de diseñar el método de aprendizaje más efectivo para cada uno de sus alumnos.

En otras palabras, lo que tiene en cuenta Neurok es:

  • La gestión de la motivación: La motivación para aprender es un elemento sustancial. Ninguna herramienta tiene métricas de motivación ni de participación, y eso hay que cambiarlo.
  • El aprendizaje colaborativo: Nuestro cerebro está diseñado para aprender en equipo. El sistema empleado en los colegios de individualizar el aprendizaje va a la contra de la capacidad de colaboración. Hay que diseñar la colaboración como parte sustancial del proceso de aprendizaje
  • “Aprender haciendo”: Es un elemento que no se está teniendo en cuenta por el protagonismo que tiene el contenido.

Por esto, el cambio que propone Neurok es el basado en la filosofía “Lifelong learning”, es decir, hay que aprender toda la vida. Y la mejor plataforma para ello, tanto por costes como por alcance, es el e-learning.

Compartir crea valor

Uno de los problemas a los que se enfrentan las herramientas de e-learning es su desprestigio. Existe mucho contenido de fácil disposición que no aporta valor. Pero para salir de esta generalización, el quid está en la diferenciación a través de todos los aspectos anteriores que hemos comentado.

Una de las mejores propuestas para solventar este cambio son las comunidades de aprendizaje por colaboración. En analítica web, por ejemplo, se están generando comunidades de miles de usuarios que comparten información de herramientas, como R. En estos casos, son sus miembros los que hacen evolucionar a la propia herramienta, poniendo a disposición del resto de usuarios su conocimiento, ayudando así a que todos los componentes de dicha comunidad evolucionen conjuntamente.

Indicadores de e-learning

¿Cuáles son los planes de evolución de Neurok?

Actualmente, las dos líneas a seguir son:

  • Mejorar las métricas. Es muy complicado medir el aprendizaje, por lo que se está intentando extraer el tipo de contribuciones de cada alumno. Para ello, el conocimiento que tiene el profesor de sus alumnos es la función que se quiere trasladar a una máquina. Esto es posible gracias, por ejemplo, a las herramientas de analítica de aprendizaje, las cuáles sacan los datos en base al análisis de texto a través de tags cloud.
  • Las métricas de redes sociales. O en otras palabras, saber identificar al usuario adecuado del cual extraer el conocimiento. Este aspecto se basa en el posicionamiento social de cada alumno: dependiendo de sus comentarios, la frecuencia de estos, las reacciones que obtiene,… Así, se busca desarrollar métricas para averiguar si existe correlación entre el posicionamiento de un alumno en la red y su nivel de aprendizaje.

Aquí es donde entra en juego el learning analytics, el cuál nos ayudará a percibir si realmente se está produciendo el aprendizaje.

A continuación puedes escuchar toda la conversación que mantuvimos Agustín y yo:

21 May 2018 | Herramientas

Deslízate dentro del ojo de tu mente, no sabes si podrías encontrar un mejor lugar para jugar

A raíz de los podcast en lo que hablé de data viz, muchos oyentes me han hecho llegar sus dudas a la hora de saber la diferencia entre las herramientas de visualización a la hora de crear un cuadro de mando.

En este programa, conté con la presencia de Jorge Llorente, analista digital en El Arte de Medir, para hablar de las diferentes herramientas de visualización que hay en el mercado para crear nuestro cuadro de mando y el potencial de cada una.

Empezamos con un poco de historia. Excel ha estado con los analistas desde el principio de la profesión tanto a la hora de tratar los datos como a la hora de visualizarlos. Con el paso de los años han ido surgiendo otras herramientas cuyo potencial es mucho mayor, pero sin dejar de lado Excel, ya que su uso dependerá de los requerimientos del proyecto que tengamos entre manos. Si el proyecto es posible abarcarlo en Excel, contamos con Supermetrics, una API muy asequible con la que automatizar la extracción de datos en Google Analytics y con la que podemos montar unos dashboards muy atractivos y potentes.

Pero como muchos saben, Excel tiene limitaciones ya que es una herramienta local. En otras palabras, no todo el mundo puede tener acceso y no se puede poner a la disposición de muchos usuarios. A pesar de esto, Excel es una herramienta muy flexible que permite establecer la capa de datos al gusto. Ha mejorado mucho a nivel visual, es muy intuitiva y es una de las indicadas para alguien que empiece a realizar dashboards por primera vez.

En el siguiente escalón que tenemos de herramientas de visualización, existe una gratuita relativamente nueva: Google Data Studio. Es una apuesta de Google que acabará teniendo mucho potencial para sus clientes, sobre todo los que trabajan solo con datos online como Google Analytics. La capacidad de actualización de datos y de generación de gráficos es muy ágil, y la herramienta en sí es rápida e intuitiva.

A la hora de hacer una comparación Data Studio y Excel, ambas herramientas ofrecen gráficos preestablecidos. Sin embargo, el abanico de Data Studio es un poco más limitado. A pesar de ello, si Google apuesta por la herramienta, lo más probable es que la vaya desarrollando rápidamente a corto o medio plazo, como ha hecho con el resto de la Suite, lo que nos lleva al pro más importante de Data Studio: se conecta muy bien con todo el universo Google.

Esto es fundamental dado que existen muchas empresas en España que funcionan con Google Analytics en su versión 360. Además, y cómo hemos dicho antes, trabajar en Excel implica trabajar en local, lo que dificulta la interactuación con la herramienta y le vuelve más compleja. Esto no pasa con Google Data Studio, ya que al ser todo online, ofrece una mayor facilidad de colaboración e interactuación. También ofrece la posibilidad de filtrar los datos de un modo muy óptimo, e incluso de forma más flexible que si lo hiciéramos con Excel.

Otra herramienta de visualización (de pago, pero muy asequible, menos de 30€/mes) es Klipfolio.

Esta es una herramienta que requiere una buena estructuración mental como base para poder llevar a cabo todas las consultas que son necesarias para extraer los datos o representarlos. Es muy potente, ya que da la posibilidad de realizar visualizaciones más allá de lo que pueda ofrecer Excel o Data Studio.

Aunque es necesario realizar una programación previa antes del tratamiento de los datos para su visualización, uno de los puntos fuertes de Klipfolio es que se puede integrar los datos desde diversas fuentes de datos, incluso los obtenidos tanto de fuentes offline como online, y así visualizar dashboards que contengan información de ambos mundos. Pero es importante tener en cuenta que el complemento que debe tener el analista de programación y de poder ajustar bien las llamadas a un Klipfolio es infinitamente más complejo que hacerlo desde Data Studio, por ejemplo.

Le ha tocado el turno a unas de las herramientas de visualización más importante a día de hoy: Tableau. Es muy intuitiva y está orientada directamente a personas sin experiencia. Dispone de visualizaciones preestablecidas, pero si se adquieren algunos conocimientos, las composiciones que se pueden llegar a hacer son muy interesantes.

Uno de las grandes ventajas de Tableau es que cuenta con una comunidad muy grande, por lo que a la hora de buscar apoyo o ayuda online, es muy sencillo. Pero sin lugar a dudas, el gran potencial de esta herramienta es la posibilidad de poder bucear en los datos.

Al ofrecer más posibilidades, se convierte en una herramienta costosa, ya que las licencias tienen un precio considerablemente más elevado. Por eso hay que medir si merece la pena hacerse con ella o con Data Studio sería suficiente. Todo depende del modelo de madurez y del negocio en cuestión.

En relación con el análisis de Big Data, CRM y almacenamiento y gestión de datos, tanto QlikView y Qlik Sense son las mejor posicionadas.

El uso de cada herramienta dependerá siempre de las necesidades del cliente. Cuando la integración es muy grande y la magnitud de datos desmesurada, cómo por ejemplo un proyecto de Business Intelligence, no podemos limitarnos al empleo de Data Studio, sino que tenemos que ir más allá. Uno de sus contras es que tanto QlikView como Qlik Sense no son tan intuitivas de manejar, pero al final lo que importa es que el receptor obtenga la información correctamente extraída y procesada.

Dentro de este grupo, Microsoft ha sacado Power BI: una herramienta multitarea cuyo uso va en continuo aumento. Es muy útil de cara a proyectos grandes, ya que permite integrarse con varias fuentes. Cómo comentábamos antes, la mayoría de los analistas están acostumbrados a integrar con Excel, y Power BI emplea un lenguaje de programación muy parecido llamado Dash.

Uno de los grandes pros de Power BI es que da la posibilidad de importar visualizaciones ya empaquetadas. Es decir, que tenemos la posibilidad de acudir a reposiciones en comunidades de esta herramienta online, escoger la visualización que más nos guste, importarla a local e instalarla en nuestro PowerBI. Además, también podemos importar una visualización que haya creado otra persona y poder emplearla como queramos.

Al igual que pasara con Tableau, en Power BI la comunidad es muy importante ya que es la base para poder evolucionar con la herramienta y saber sacarle el mejor partido posible.

¿Cuál es la mejor herramienta para mi negocio?

Pongamos un ejemplo: tenemos un cliente que lo que quiere es un dashboard estratégico acerca de lo que ha pasado en el entorno online, además de alguna métrica del offline (como puede ser un ecommerce) y así conocer si el crecimiento o decrecimiento de su negocio es de la parte online, offline o global. ¿Por cuál nos deberíamos decantar?

• En el caso de que el cliente se mueva sobre todo en el mundo online, la más apropiada sería Google Data Studio, siempre y cuando la magnitud de datos no sea excesivamente grande.

• En caso de que se entremezclen fuentes online y offline, de ventas, devoluciones o datos de marketing, podemos emplear otras herramientas, pero sin dejar de lado Data Studio. Tendemos a asociarla únicamente con Google Analytics, pero también da la posibilidad de conectar con otras fuentes e incluso bases de datos.

Al final todo depende de la magnitud de los datos. Si observamos que las necesidades van en aumento y que el negocio crece, nos podemos plantear la posibilidad de optar por otra herramienta de pago ya sea Klipfolio, Tableau, etc.

Hay que tener en cuenta que cuando se empieza una estrategia o cultura de medición en una empresa, muchas veces el hecho de invertir dinero en la visualización de datos es complicado. Esto nos lleva a emplear Data Studio como estrategia para lo que queremos mostrar. Con su uso podemos crear una necesidad en los stakeholders o personas dedicadas a la toma de decisiones a través de los datos, y a partir de ahí decantarnos por la que mejor nos convenga.Herramientas¿Cuántas horas hace falta invertir para elaborar un buen Data Studio o uno normal?

Si la fuente de datos es solo de Google Analytics o alguna otra fuente de datos externa con poco volumen de datos, puede estar listo en un periodo de 10 a 15 horas, dependiendo de la complejidad. Y para dejarlo plenamente finalizado, alrededor de dos o tres días.

En algunas herramientas más complicadas, como Tableau por ejemplo, dependerá del nivel de aprendizaje que tengamos, pero deberemos necesitar bastante más tiempo. Ya no es solo quedarnos en la visualización, sino unir unas visualizaciones con otras, montar el dashboard, hacer que sea interactivo, incluirle filtros, parámetros, etc. De ahí que el proyecto sea de un ámbito mucho mayor.

Si quieres ahondar más en el tema, aquí te dejo el podcast completo con la intervención de Jorge:

07 May 2018 | Analista Web, Talento

Nuestras vidas se definen por las oportunidades, incluso las que perdemos

Siempre he pensado que la capacidad de adaptación del analista digital ha de ser completa para poder llevar a cabo estrategias no solo en empresas distintas sino en los diferentes objetivos dentro de una misma compañía.

A la hora de comparar el trabajo de un analista en una consultora o en una empresa específica, destacaríamos que desde la consultora se realizan análisis más específicos, pero a veces, una vez comunicado al cliente, no se dispone del poder para ser capaz de influir en nada más. Le decimos al cliente lo que puede estar fallando, y damos las recomendaciones oportunas para que funcione mejor, pero no podemos ser parte de la implementación de la solución porque muchas veces no está en nuestra mano. Cuando estamos en la posición del cliente final, puede que dediquemos menos tiempo al análisis, porque estamos más tiempo haciendo gestión, lo cual, a priori puede parecer que no forma parte de la labor del analista, pero es precisamente esto lo que nos permite llevar a cabo proyectos que de otra forma no conseguiríamos. Ya no es solo ver el dato y ver una posible solución, sino perseguir que esa solución acabe siendo una realidad; es decir, accionar en base a los datos y no ser parte del problema únicamente.

En EAM pensamos que ha cambiado la forma de trabajar. Nuestro trabajo hoy en día va mucho más allá de tocar más o menos fuentes de datos o tipos de datos, sino que ahora mismo los datos deben dar soluciones relevantes a problemas que tengan las empresas. Con lo cual, es mucho más fuerte la relación que tiene el analista ahora con los datos que la que podía tener entonces.

Las herramientas son otro factor a tener en cuenta debido a que han ido evolucionando hasta el punto de alienarse bastante bien. Por ejemplo, antes Adobe Analytics y Comscore estaban mucho más avanzadas que Google Analytics, pero a día de hoy se encuentran más niveladas; teniendo Adobe más ventajas en cuanto a funcionalidades, a la vez que Google en lo que respecta a formas de integración.

Uno de los temas más candentes en estos tiempos desde la visión del marketing es la atribución de las conversiones. Todos sabemos que es bastante complicado poder tener datos precisos; sobre todo cuando hay que mezclar datos online con datos offline. Lo que interesa de los modelos de atribución es encontrar la relación que existe entre los canales y dónde se encuentra cada uno en el embudo de conversión. Es decir, dónde tenemos que poner más foco de atención para conseguir mejores resultados. Por eso si perdemos la conexión entre en on y el off, corremos el riesgo de perder la perspectiva real a la hora de toma de decisiones. Para eso, usamos los modelos multicanal de Google Analytics, pues a pesar de que la parte del empleo de distintos dispositivos complica el análisis, el nuevo producto de Google Atribution logra resultados mucho más precisos.

Atribucion_multicanal@3x

Ahora consumimos mucho más dinero que antes, aun así, es más complicado averiguar qué es lo que funciona. Antes era más sencillo, pero ahora, con el ruido que se está generando, es más complicado.

Hemos pasado de poder medirlo todo en lo que respecta a la parte digital, a que se nos vaya un poco de las manos. Y es que lo hemos complicado tanto que se vuelve a hacer difícil poder medir absolutamente todo. Por ello, necesitamos que empresas grandes como Google o Facebook ayuden a medir y arrojen luz, lo importante es poder tener acceso a los datos que necesitamos para poder usarlos en la toma de decisiones de marketing de la empresa.

Hablamos de analítica vinculada a marketing porque casi siempre la analítica ha estado ubicada o en este departamento o en el de IT, aunque ya se va moviendo por toda la empresa y debe estar siempre en UX. Hasta ahora solo se asociaba a marketing, pero poco a poco se ha convertido en una disciplina transversal, y por fin se ha hecho patente que la estrategia de UX o CRO se enriquece muchísimo y puede suponer una importante mejora. Cada vez tiene más sentido que el analista esté más ligado a la parte de UX y de negocio: por la disposición de los distintos productos en el caso de un e-commerce, el contenido en el caso de un medio… al final para el analista esto es mucho más gratificante y aporta mucho al negocio.

Transversalidad@3x

Los datos son un activo más para la empresa y a veces no se dan cuenta de la potencia real que puede tener a la hora, por ejemplo, de buscar nuevos productos, de cambiar incluso la estrategia de la empresa en un momento dado. Creemos que ahora es el momento para ir más allá, y efectivamente pensamos que cada vez más se tiene en cuenta el dato como factor indispensable; lo que demuestra que la empresa apuesta también cada vez más por los datos y no solo la intuición, aunque esta también sea una parte importante.

Si hablamos del uso de la intuición a nivel de la toma de decisiones, podemos decir que ayuda más a nivel de medios de comunicación que en un e-commerce, ya que nos basamos en datos más genéricos. A fin de cuentas, una noticia tiene una vida de uno o dos días como máximo, de hecho, casi siempre la medimos en horas por lo que aquí la intuición (o la experiencia) ayuda. Por otro lado, es realmente de gran ayuda el Real Time. Poder ver en tiempo real lo que está ocurriendo, nos permite reaccionar muy rápido ante cualquier desviación; y si además a esto lo unimos con conocimientos de SEO, conseguimos la capacidad de ofrecer un servicio mucho más completo.

A fin de cuentas, en lo que respecta a moda, por ejemplo, hay que disponer de ese punto más creativo. No importa solo lo que digan los datos, sino lo que diga la moda. Todo forma parte del juego, eso es lo que lo hace interesante.

Por último, el analista no debe olvidar que es fundamental leer mucho para evolucionar, y aunque hoy en día se han reducido las fuentes de lectura, es importante acudir a charlas, hacer networking e ir probando novedades. Una vez sabemos lo básico, no hay que seguir buscando más riqueza de conocimiento en los libros, sino aprender experimentando y compartiendo información con otros profesionales.

Muchas gracias a Oriol Farré, responsable de Analítica Digital y SEO en Mango. Empezó su carrera como consultor en Webanalytics.es, pasando por Atrápalo.com y en Mundo Deportivo; además ser el fundador de un conocido blog: Trucos Google Analytics. Ejerce como profesor en diversas universidades y escuelas de negocio. Es una persona que se ha ido formando en diferentes sectores donde la forma de medir y los objetivos de negocio son totalmente diferentes.

Aquí tienes toda nuestra conversación en el podcast de Analítica Digital en castellano.

  • « Anterior
  • 1
  • …
  • 5
  • 6
  • 7
  • 8
  • 9
  • …
  • 63
  • Siguiente »

Copyright © 2021 · Política de Privacidad
WordPress · Genesis Framework