¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

26 Ene 2021 | Big Data

Un Anillo para gobernarlos a todos. Un Anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas.

Para que el analista digital pueda realizar su trabajo en las mejores condiciones, necesita poder conectar los datos de las plataformas con las que trabaja con sus herramientas de análisis. Esta labor cada vez se hace más complicada, ya que a medida que van aumentando las fuentes de datos, establecer una conexión fiable es cada vez más difícil. Para poder hacer frente a esto, existen los data lakes, repositorios de almacenamiento en la nube en los que unir todas las fuentes de datos bajo un modelo de análisis. 

Pero, ¿cuánto tiempo se necesita para un proyecto de estas características? Y lo que es más importante, ¿cómo podemos abordarlo? Para ahondar en este proceso, hoy cuento con la colaboración de un gran profesional, David García, Head of Data de Laboratorios ISDIN.

Fases cómo construir un Data Lake

Fase 1: Punto de partida

En el instante en el que desde ISDIN deciden tomar la decisión de construir un data lake, lo hacen con el principal objetivo de unificar y consolidar los datos recopilados de las diferentes plataformas en un único repositorio. El momento era el idóneo ya que coincidió con la apertura de un nuevo mercado importante como es el de Estados Unidos. Vieron que, para evaluar el rendimiento real de sus campañas de publicidad en ese mercado, era fundamental aunar los conjuntos de datos a los que tenían acceso en un único repositorio y, además, poder tenerlos en propiedad para manejarlos sin depender de terceros. 

Esta decisión supuso un gran reto para la compañía, ya que en aquel momento el modelo de madurez analítico no estaba del todo consolidado, por lo que para poder llevarlo a cabo, fue necesaria una reorganización que afectó tanto al almacenamiento de los datos como al propio departamento.

Fase 2: Planteamiento

Con los objetivos del data lake alineados con el negocio, llegó el turno de plantear la línea de trabajo desde la que iniciar el proyecto. En este aspecto, se valoraron dos opciones:

  1. Construir un equipo especializado, lo que suponía contratar a profesionales que pudieran seguir con su trabajo a lo largo del tiempo.
  2. Contratar una agencia especializada que diera soporte en el inicio del proyecto.

Al final se optó por contar con El Arte de Medir para que le ayudáramos a establecer los primeros pasos del data lake, entre los que se encontraba la elección de la plataforma cloud más adecuada para la construcción del mismo. Para esta elección, se tuvieron en cuenta las grandes plataformas dentro del mercado: Google Cloud, Amazon Web Services y Microsoft Azure. Las tres comparten características y precios similares, por lo que al final se decidieron por aquella que mejor se adaptara a las necesidades de ISDIN en ese momento, Google Cloud. 

El último punto de esta fase fue determinar cuáles serían las métricas y KPIs del data lake. Para ello, lo ideal siempre es hablar con los diferentes stakeholders para conocer cómo ayudarles a dar respuesta a las dudas o problemas que surjan en el día a día. Si esto no es posible, como ocurrió en ISDIN, la elección de métricas dependerá de los objetivos del negocio que a medio y largo plazo puedan ayudar de una manera más directa. 

Fase 3: Construcción 

En esta fase entró en juego uno de los puntos claves del proyecto y, que sin duda, marcaron su rumbo: la construcción y explotación del dato dentro del data lake. Esta construcción se puede hacer de varias maneras: a través de terceros o desde la propia empresa (in house). En el caso de ISDIN, desde el comienzo del proyecto sabían que el data lake tenía que ser in house ya que, aunque el volumen de datos no era muy grande, contaban con fuentes de datos muy diversas (datos digitales, marketplaces, farmacias digitales), y gracias a este tipo de repositorio, tendrían una mayor flexibilidad en la explotación de los datos.

Sin lugar a dudas, contar con un data lake in house tiene muchas ventajas, como no depender de otros. Pero también tiene sus desventajas, como por ejemplo el difícil acceso a los datos en bruto de las plataformas de terceros. Esto se convirtió en uno de los puntos de fricción del desarrollo del proyecto, ya que cada plataforma tiene unas limitaciones con las que hay que saber lidiar. 

A esto hay que añadirle otro punto muy importante: el nivel de detalle de información que se desea almacenar dentro del data lake, conocido como granularidad. ¿Por qué? Pongamos un ejemplo: cuando se quiere analizar los datos de inversión publicitaria en una plataforma como Facebook o Google, estas herramientas ofrecen un nivel de profundidad de análisis que un data lake in house no tiene. Por eso es importante tener claro desde el principio hasta dónde van a llegar los análisis que se vayan a realizar, sobre todo en las primeras fases del proyecto. La parte positiva es que al ser un proyecto vivo y en continua transformación, a medida que evoluciona, también lo hacen las necesidades de la compañía, por lo que se puede ir profundizando es esta granularidad. 

Fase 4: Explotación

En lo que respecta a la explotación del data lake, aunque el verdadero potencial reside en propio repositorio, en ISDIN también le han sacado partido con diferentes elementos, como por ejemplo:

  • Visualizaciones automatizadas de consulta diaria como dashboards en Google Data Studio.
  • Creación de reportes y cuadros de mando ad-hoc para campañas y promociones puntuales. 

En definitiva, lo que empezó como un proyecto básico ha ido evolucionando en el tiempo y hoy día sigue manteniéndose a pleno rendimiento. Cuando se afronta un proyecto como la construcción de un data lake, se puede llegar a pensar que es un proceso largo y complejo, pero nada más lejos de la realidad. En el caso de ISDIN, al partir con un volumen de datos no muy grande, pudieron comenzar a construir una base sólida con la que el negocio fuera evolucionando. En otras palabras, partieron de un Mínimo Producto Viable con el que sacar rendimiento al repositorio casi desde el primer minuto. 

¿Te gustaría saber más acerca de lo que supuso la construcción del data lake para ISDIN? Te invito a que sigas la conversación en el episodio que le dedicamos en el podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

11 Ene 2021 | Gemma, Herramientas

Hay quien piensa que si vas muy lejos, no podrás volver donde están los demás

Una de las plataformas de visualización más demandadas y que mayor éxito está cosechando en los últimos años es sin duda la de Microsoft, Power BI. Y no es para menos, ya que es una herramienta muy cercana al usuario de negocio y con una estrategia muy bien construida: combinar todo el Power Platform con el apartado ofimático de Office 365, lo que asegura una cercanía al usuario de negocio muy alta. 

Para los que trabajamos como profesionales de la visualización y del negocio, es de sobra conocida la potencia de esta herramienta con los datos. Pero ¿cómo es la experiencia de usuario desde el punto de vista de un profesional IT? Se lo pregunto a Gilberto Flórez, jefe de estrategia, arquitectura y tendencias IT en Ferrovial. 

Cuando Power BI aterriza en el área de estrategia, arquitectura y tendencias IT de Ferrovial en 2017, lo hace con cierta inquietud ya que al ser una herramienta de exportación de datos con una distribución descentralizada, se tiene que tener en cuenta ciertos riesgos, como por ejemplo:

  • Los costes.
  • La infrautilización o reutilización de determinados datos.
  • Los efectos colaterales en las descargas de SAP para explotarlas con Power BI.

Para hacer frente a estos riesgos, el primer paso del equipo fue entender bien el funcionamiento de Power BI y estudiar en profundidad todas las posibilidades de monitorización, gobierno, educación y formación de cara a los diferentes negocios de la compañía. Así también pudieron averiguar de qué manera iban a sacar el máximo rendimiento a la herramienta para hacer un buen uso de ella. 

Visualización de datos con Power BI

Cuando se trabaja con plataformas como Power BI, la mayoría de los datos suelen ser los derivados del negocio: ventas, costes, ROIs de campaña, etc. Pero en el caso de Ferrovial quisieron ir un poco más allá, y aprovecharon la reorganización del área financiera de la compañía para ayudar a equiparla de una nueva forma de visualización de sus datos que, dentro de los objetivos del departamento, facilitara la información a todos los stakeholders que la consumían. Sin duda, este fue el gran reto del proyecto y lo que supuso conocer el verdadero potencial de Power BI, ya que en lo que a explotación y visualización del dato se refiere, no es lo mismo intentar ayudar en la toma de decisiones a nivel de negocio que a nivel financiero, puesto que:

  • El indicador de negocio es una visión más agregada, gráfica y perfecta para Power BI. 
  • La información financiera todavía sigue teniendo esa reminiscencia de mostrar datos en tablas, donde Power BI no es tan agradecido. 

Junto a este reto, el equipo de IT también tuvo que poner foco en la comunicación con el stakeholder, ya que al haber trabajado con la herramienta, tenían ciertos conocimientos de su funcionamiento, por lo que hubo que explicarles muy bien cada uno de los aspectos que iban apareciendo a medida que evolucionaba el proyecto. Afortunadamente, esta manera de trabajar hizo que la dinámica de comunicación con el equipo financiero fuera agile. Es decir, que gracias a sus interacciones constantes, se pudo conseguir conjuntamente una herramienta de visualización centrada en la experiencia de usuario y compuesta por una navegación que llegaba al dato en concreto de una manera intuitiva y rápida. Es por resultados como este por lo que es fundamental ir de la mano del stakeholder, y la mejor manera de hacerlo es a través de una comunicación fluida en la que las partes interesadas terminen hablando el mismo idioma. Por eso es tan importante aterrizar bien los conceptos y entender desde un primer momento qué se necesita, por qué y, a partir de ahí, construir sobre ello. 

Aunque parece un esfuerzo extra, todo este proceso es lo que ayudó al departamento de IT a entender lo que el stakeholder necesitaba, sin olvidar la importancia de la usabilidad de la herramienta en cuestión, ya que aunque se maneje el dato perfecto, si la experiencia del usuario final no es buena, el proyecto no funciona. De ahí el éxito de este proyecto.

Business Case Power BI

La evolución del BI

Como hemos podido ver, las plataformas de Business Intelligence y la manera de trabajar en ellas han experimentado una gran evolución. Antiguamente, los proyectos eran más largos y con muchas dificultades tanto en la extracción y almacenamiento de los datos, como en la experiencia del usuario final. Pero con la llegada del cloud y de herramientas como Power BI, se ha experimentado una gran mejora en todos estos procesos y sobre todo, se ha agilizado mucho en la parte de infraestructura, donde hay que construir el almacenamiento para dar valor al negocio. 

En el caso particular de Power BI, Microsoft ha conseguido entrar en casi todas las organizaciones, cambiando su filosofía. Es decir, cuando antes se tardaba meses en cargar el dato, ahora se puede empezar a ver cosas de una manera ágil y rápida en pocos días. Además, y como hemos comentado anteriormente, Power BI es una herramienta intuitiva con la que si cuentas con una formación básica, en proyectos no muy complejos se puede llegar a hacer cosas impactantes y de gran valor para el negocio. Aunque sí es cierto que a la hora enfrentarse a proyectos de mayor envergadura, es necesario contar con una base técnica importante para poder sacar el máximo potencial a la plataforma.

Sin duda, es en la continua evolución de este tipo de herramientas donde se encuentra la clave del éxito, ya que áreas como las de IT se reinventan para poder acompañar al negocio a través de este tipo de plataformas, y a su vez tener cierto control sobre la tecnología. Por eso es importante que IT lo lidere, ya que al final el dato es un activo que puede estar en muchos sitios, por lo que necesita cierto control, gobierno e información para que verdaderamente sea útil de cara al negocio. 

¿Te gustaría profundizar más sobre Power BI? Acompáñanos a Gilberto y a mi en el episodio que le dedicamos en El Arte de Medir Podcast. 

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

02 Dic 2020 | Herramientas

Hasta el infinito… ¡y más allá!

En los últimos meses, Google ha vuelto a dar un giro a su herramienta de análisis Google Analytics. Ha pasado más de un año desde que la compañía nos sorprendiera con la versión beta, la conocida como propiedad Web + App, y por fin el lanzamiento de la versión definitiva se ha hecho realidad: Google Analytics 4 (GA4). En este blog ya compartí las impresiones del equipo de El Arte de Medir de la versión beta, y como no podía ser de otra forma, ha llegado el momento de analizar las posibilidades que presenta GA4, de la mano de Eduardo Sánchez, CDO de El Arte de Medir; y Alba Torres, Ingeniera de datos en El Arte de Medir. 

Con este anuncio, Google Analytics se despide de Universal Analytics (UA) para ofrecer a todos sus usuarios una nueva herramienta de análisis basada en un ecosistema más acorde a las necesidades actuales de los consumidores y usuarios. Entre sus novedades, nos encontramos:

  • La medición unificada en muchos entornos.
  • El volcado de datos en bruto.
  • La posibilidad de volcar en Google Cloud otros productos como Google Atributtion, 

¿Cómo cambia esta versión definitiva el trabajo actual del analista?

La nueva medición unificada

Al igual que vimos en la versión beta, uno de los cambios más significativos de Google Analytics 4, y también más esperado, es la unificación en la medición entre dispositivos. Esto implica un gran cambio con respecto al modelo de datos, convirtiendo así a GA4 en una herramienta completamente nueva compuesta de métodos de recolección distintos a los usados en su versión anterior. Como cabe esperar, estos nuevos métodos afectan directamente a la implementación de la herramienta, de la cual hablaremos más adelante, pero sin duda estos cambios nos van a hacer replantearnos la manera en la que hemos estado midiendo hasta ahora. 

Cómo no podía ser menos, la interfaz también sufre cambios. En la versión gratuita de GA4, por ejemplo, desaparecen los informes predeterminados y, aunque existe la posibilidad de crear informes abiertos, el analista cuenta con el centro de análisis, un espacio en donde crear informes a medida con la ayuda de Google BigQuery y SQL. Esta era una propiedad que también pudimos ver en la versión beta, y de la que estamos seguros que ayudará a visualizar y valorar el trabajo del analista, y por qué no, también hacerlo más divertido.

Cambios a nivel técnico: eventos y BigQuery

Los cambios que supone Google Analytics 4 a nivel técnico también son muy interesantes, sobre todo de cara a su implementación. Como hemos señalado antes, el modelo de datos cambia. Esto quiere decir que el envío de datos también lo hace. ¿Una de las consecuencias directas? La desaparición de los hits (páginas vista, visitas, etc), dando la bienvenida a los nuevos eventos. 

Este es un cambio muy significativo, ya que los nuevos eventos son muy distintos a los que conocíamos hasta ahora. Por ejemplo, en UA se podían clasificar por categoría, acción, etiqueta y valor. En cambio ahora, cada evento tiene un nombre y va acompañado de hasta veinticinco parámetros. 

Esta nueva forma de recoger el dato da como resultado una implementación mucho más estratégica y ajustada a los objetivos de negocio, por lo que es muy importante que el analista tenga muy clara la arquitectura de lo que quiere construir. Por otro lado, el analista se ve empujado a centrarse más en la explotación del dato en bruto, y cómo hemos comentado antes, le llevará a hacer un mayor uso de BigQuery para realizar análisis más profundos, lo que supone todo un reto. 

Es importante señalar que, aunque de cara a la implementación de la herramienta es preferible contar con un perfil técnico, la implementación base es más fácil que la de Universal Analytics. Uno de los factores que lo facilita es que gracias al nuevo etiquetado, se incide en la medición automatizada de links externos, es decir, algo muy parecido a lo que realiza Google Tag Manager.  

Funionalidades Google Analytics 4

Algunos apuntes finales

Como podemos ver, la llegada de Google Analytics 4 supone para el analista un gran desafío, pero es una herramienta necesaria para el análisis del comportamiento del consumidor de hoy. Por ejemplo, ¿cómo hace GA4 para medir si un usuario cambia de dispositivo? La misma herramienta ofrece tres opciones:

  • A través de un User ID o un login.
  • A través de la medición cookie, aunque esta opción tiene fecha de caducidad.
  • A través de Google signals, la tecnología que Google ofrece a herramientas como Analytics para medir con el login de Google. 

Con estas tres opciones, GA4 elige el mejor método de medición que tenga a su alcance. y así mejorar la duplicidad de usuarios y el análisis entre dispositivos, entre otras cosas. 

En definitiva, gracias a este lanzamiento, se abre un nuevo horizonte tanto para las empresas como para los profesionales del dato, lo que indiscutiblemente acarreará cambios importantes a los que debemos permanecer atentos. Por ejemplo, los que afectarán al traspaso de cuadros de mando de una versión a otra. En este aspecto, y desde nuestro punto de vista, sería recomendable hacer una transición paulatina, es decir, empezar por algo sencillo, aunque todo depende del objetivo de negocio que se persiga. Es importante enfatizar que Google Analytics 4 es un producto abierto y aún tiene algunos aspectos que pulir, por lo que realizar un Mínimo Producto Viable para empezar a ver cómo funciona, y sobre todo, cómo encajarlo en las necesidades de cada negocio, sería un buen punto de partida. 

Si quieres profundizar en el funcionamiento de Google Analytics 4, te invito a que sigas la conversación en el episodio que le dedicamos a esta herramientas en nuestros canales de podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 20 de octubre tuve la oportunidad de participar con HubersXP en su evento «DATOS: Un activo muy importante en tu negocio». Siempre es un placer compartir conocimientos con grandes amigos.

21 Jul 2020 | Herramientas

Me he subido a mi mesa para recordar que hay que mirar las cosas de un modo diferente. El mundo se ve distinto desde aquí arriba

El SEO es una disciplina en la que cada vez existe una mayor demanda de perfiles. Y no es para menos ya que hoy en día Google sigue siendo un distribuidor capital de tráfico importante para la mayoría de sitios web, aunque con el paso de los años, el buscador ha ido cambiando, y con él el posicionamiento orgánico. ¿A qué nuevos retos tiene que hacer frente el profesional del SEO hoy? Para ello, he pedido ayuda a mi gran amigo Fernando Maciá, Fundador y CEO de la consultora Human Level, para que nos ponga al día en esta disciplina gracias a su nuevo libro SEO avanzado: casi todo lo que sé sobre posicionamiento web, de Anaya Multimedia. 

Mi primera pregunta para Fernando es qué objetivos persigue en este nuevo libro, y él lo tiene claro: que sirva como un manual sobre el aprendizaje del SEO para todas aquellas personas que ya tienen adquirida cierta experiencia. Además de centrarse en los aspectos más avanzados y novedosos del posicionamiento natural, también cuenta con referencias de calidad en cada tema, para que el lector pueda profundizar y seguir actualizándose.

Tras 20 años de experiencia y unos cuantos libros a sus espaldas, la primera pregunta para Fernando es obligada: ¿cómo ha ido evolucionando la disciplina desde su primer libro?

Cuando nació su libro Posicionamiento en buscadores en 2006, las cosas eran más sencillas, es decir, con tan sólo unas keywords y unos titles ya se veían resultados en Google Analytics. Pero a lo largo de estos años, el SEO, Google y los usuarios han sufrido una gran transformación, y ahora se necesitan muchos más elementos para poder ver resultados. Por ejemplo, se ha pasado de contar como principales factores de relevancia las acciones on page y off page, a prestar atención a otras acciones como: 

  • Análisis de contexto: Cómo Google analiza y tiene en cuenta muchos elementos en el contexto de búsqueda. 
  • Estudio del comportamiento del usuario: Cómo Google hace uso de los datos de sus calificadores de calidad, los cuales posteriormente son tomados como datos de entrenamiento para los procesos de Inteligencia Artificial o aprendizaje automático.
  • Evolución y aprendizaje automático: en donde de alguna manera, para los que están detrás del algoritmo, empiezan a perder el control de hacia dónde se está encaminando.

En este último factor, si bien es cierto que cada vez hay menos pistas de las nuevas actualizaciones, la verdad es que Google se ha vuelto más transparente a lo largo de los años. Ahora existe más documentación procedente del propio buscador o de gente como John Mueller o Danny Sullivan, aunque en ocasiones esta transparencia genera una mayor confusión. 

Google, ¿sólo un buscador?

Muchos estamos de acuerdo que el cambio más significativo con respecto a las funciones de Google a lo largo de estos últimos años, es que ha pasado de ser un buscador distribuidor de tráfico a convertirse en un auténtico competidor para las marcas, ya que trata de primar sus propios resultados. Por ejemplo, a la hora de realizar cualquier búsqueda, las primeras posiciones son ocupadas por los productos de Google. Estos es así por dos factores fundamentales:

  • El protagonismo del smartphone como principal dispositivo de acceso a internet. Esto ha hecho que la visibilidad de los anuncios que en web aparecían a la derecha ocupen las primeras posiciones.
  • La maquetación de los Google Local Pack o respuestas directas. La página de resultados de Google ha cambiado de forma muy significativa. Por ejemplo, aunque un resultado logre posicionarse el número uno en orgánico, se encuentra muy lejos de los 30%-40% de CTR que acreditaba este mismo resultado años atrás. Ahora se situaría entre el 25% y 30% de CTR, aunque eso sí, dependiendo del tipo de búsquedas. 

Ante esto, ¿qué podemos hacer? Pues lamentablemente poco, ya que es imposible competir. Pero eso no significa que el tráfico orgánico no vaya a seguir formando parte importante de la atracción a un sitio web, todo lo contrario. Pero para ello hay que centrar esfuerzos en otros factores como el modelo de intención de búsqueda, en desarrollar más, y sobre todo, en el análisis del customer journey de cara a la generación de contenidos capaces de satisfacer la intención de búsqueda del usuario en cada una de sus fases. 

Seo y Análisis digital en posicionamiento web

SEO y analítica

El SEO y la analítica siempre han ido de la mano, y gracias al análisis del viaje del cliente, ahora mucho más. Hoy en día hacen falta soluciones de análisis que permitan visualizar e integrar datos. Esta parte es vital ya que las empresas cuentan con fuentes de datos muy diferente cuya integración es necesaria para convertir toda esta información en conocimiento y así poder tomar decisiones. Por eso, uno de los retos al que se enfrentan los profesionales del SEO es saber cómo aprovechar estos datos para retroalimentar su estrategia y ver si están impactando realmente en el negocio a todos los niveles. 

Antes de terminar, Fernando ofreció un último consejo a todos los que se queráis dirigir vuestra carrera hacia el SEO: “Es un reto intelectual interminable. Es como estar siempre jugando a pasatiempos y acertijos. Es muy divertido pero a la vez muy intenso y es enormemente gratificante cuando ves en la analítica de las empresas que eres capaz de aportar valor, el cual se convierte en negocio y en una evolución positiva para las empresas”. 

¿Te gustaría seguir con la conversación? Entonces acompáñanos a Fernando y a mi en este episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

30 Jun 2020 | Marketing

Y si al principio tú no tienes éxito, entonces sácate el polvo y empieza de nuevo

El pasado febrero tuve la oportunidad de participar en Womprende, un evento increíble dirigido para y por mujeres emprendedoras en el cual aprendí mucho de las experiencias de todas ellas. Tratamos temas muy variados, pero hubo uno que llamó mi atención especialmente: los infoproductos. 

En los últimos años, el mercado de los infoproductos ha experimentado un gran crecimiento en España, gracias a emprendedores digitales, como algunas de mis compañeras de Womprende, que emplean una estrategia de lanzamiento específica para ofertar un tipo de formación determinada. Pero, ¿a qué nos referimos cuando hablamos de infoproductos? Para que me cuente las claves de esta estrategia de marketing digital, he pedido ayuda a Fernando Ortega, analista digital y productor digital. 

Para aquellos que no estéis familiarizados con el término, los infoproductos, o productos digitales, son todos aquellos materiales en formato digital distribuidos 100% online, con la finalidad de transmitir un conocimiento concreto. Cursos online, e-books, plantillas o webinars son los formatos más comunes.  

Muchos profesionales han optado por esta estrategia ya que, además de ofrecerles la oportunidad de compartir su conocimiento a un público concreto, cuenta con una serie de ventajas:

  • Al ser 100% online no acarrea mucho coste de producción.
  • El productor digital o infoproductor puede llegar a posicionarse como un especialista en su disciplina.
  • Aporta valor. 
  • Crea vínculos con el público al que van dirigidos sus productos. 

La fórmula de lanzamiento paso a paso

Lo que caracteriza a los infoproductos es la llamada “Fórmula de lanzamiento”. Este término fue acuñado en 2014 por Jeff Walker en su libro Launch: An Internet Millionaire’s Secret Formula to Sell Almost Anything Online, Build a Business You Love and Live the Life of Your Dreams. En él, Walker explica paso por paso cómo hacer el lanzamiento de un infoproducto bajo la metodología Product Launch Formula, una estrategia de marketing digital en la que se oferta un producto, por ejemplo un curso online, durante un periodo de tiempo determinado a una lista de suscriptores, los cuales son invitados a pasar por un entrenamiento gratuito compuesto por tres vídeos, y un cuarto a modo resumen.

Lo llamativo de la estrategia es que se genera todo un evento alrededor de la fase de lanzamiento para atraer la atención del consumidor, con elementos como la apertura de carrito en un periodo concreto, o disparadores de escasez para crear urgencia. 

Qué es un infoproducto

Este lanzamiento se hace en plataformas de generación, comercialización y distribución de infoproductos como Hotmart. A través de ellas, se ubica toda la dinámica de crecimiento y expansión de emprendedores que, desde casa, enseñan a quien quiera aprender sobre una temática de manera online.

Análisis de los infoproductos

A la hora de analizar los resultados de un lanzamiento, al ser un material 100% digital su  medición es más sencilla. Fernando, por ejemplo, cuenta con una serie de dashboards en los que mide la fase de venta para ver la evolución de los leads, la tasa de conversión o el número de afiliados. Para ello, se ayuda de indicadores como:

  • Captación de leads: La fase de captación se suele hacer a través de una lista de suscriptores junto con el tráfico conseguido en redes sociales como Facebook, Youtube e Instagram. Es importante tener presente que en un periodo corto de tiempo, hay que conseguir la mayor cantidad de leads a los que exponer los vídeos, por lo que una de las métricas a tener en cuenta es el coste por lead. Otra de las métricas es la tasa de conversión de los que ven el primer vídeo y acaban comprando el curso, sobre todo para ver si el contenido que estás mostrando es el adecuado. 
  • Engagement con el contenido: Uno de los focos en los que un infoproductor debe esforzarse, es en validar la calidad del contenido para verificar si ha generado engagement entre los vídeos, sobre todo entre el primero y el segundo. Si no se cuida esto, puede haber una caída del 50% o 60% de los leads. Como no podía ser menos, también es importante el trabajo de campañas de recuperación de visualización que empujen el contenido. Pero como hemos comentado al principio, al ser un contenido con tiempos de lanzamiento tan ajustados, la medición se realiza después de haber creado los vídeos, por lo que si hay algún problema, no se puede solucionar. Pero sin duda ayuda de cara a los siguientes lanzamientos. 

Un detalle que facilita aún más la medición de la fase de venta es que los KPI’s se pueden reutilizar en otros cuadros de mando ya que prácticamente van a ser los mismas, sobre todo si los productos digitales comparten formato.    

Si quieres profundizar en cómo medir infoproductos, te invito a que sigas la conversación que mantuve con Fernando en el podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El pasado 16 de junio participé en el programa de «Hoy por hoy Madrid» de la Cadena Ser hablando de El Arte de Medir y nuestra experiencia durante los últimos meses a causa del Covid-19.

  • 1
  • 2
  • 3
  • …
  • 64
  • Siguiente »

Copyright © 2021 · Política de Privacidad
WordPress · Genesis Framework