¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

Categoría: Metodología

03 Dic 2019 | Metodología

La marea es fuerte y nos desvía… Hay que remar con más fuerza… Hay que luchar contra la corriente

Nuestro mantra es que la analítica digital es útil si habla el lenguaje del negocio e impacta directamente en él. Y para hacer de este mantra una realidad, cuando afrontamos un nuevo proyecto en El Arte de Medir, antes de ponernos manos a la obra hacemos un trabajo previo, que denominamos desembarco, el cual se compone de diferentes fases: 

  1. Identificación de los stakeholders
  2. Comprensión de los datos
  3. Conocimiento de la tecnología del cliente
  4. Creación de data lakes
  5. Interpretación de las fuentes de datos

El desembarco

El primer paso del desembarco es conocer cómo es la relación de cada uno de los departamentos con los datos. Para ello, nos sentamos con los stakeholders para profundizar en dos aspectos: entender el uso que les dan a sus datos y el objetivo que tienen con ellos. 

Ventas, atención al cliente, marketing, etc., todos ellos hacen uso de los datos día a día, y buscamos saber cómo lo hacen. Este mismo proceso lo hacemos también con el departamento de IT, ya que al ser los encargados de dar soporte a los datos de cada una de las áreas, nos ayudan a tener una visión más concreta de las fuentes que manejan, su calidad, como son obtenidos, con qué velocidad se actualizan, etc.

Tras recopilar toda esta información, llega el momento de estudiarla para poder llegar a conclusiones. Y a partir de aquí: 

  • Planteamos mejores prácticas.
  • Normalizamos las fuentes de datos.
  • Y si fuera necesario, construimos data lakes (lago de datos) lo más simples posible pero que nos ayude para impactar en el negocio.

Para nosotros, todo este proceso de calidad del origen de los datos es muy importante ya que son la herramienta para la toma de decisiones. Por ejemplo, hacer previsiones de ventas a partir de datos erróneos provenientes de métricas medidas de forma diferente, perjudica directamente al negocio. Por eso primamos el garantizar la calidad de los datos y normalizarlos de manera transversal a toda la compañía para después montar un data lake, si fuera necesario, del cual poder acceder para cualquier consulta de negocio. 

Fases de un desembarco

Herramientas para el desembarco

En estos momentos nos encontramos en un escenario donde a nivel tecnológico, se está facilitando el trabajo del analista. Incluso no sólo de herramientas de pago, sino también a nivel gratuito. Los tiempos en los que se manejaban los datos de ventas con Google Analytics se han quedado atrás. Ahora este mismo trabajo se puede hacer con el dato real, como podemos ver con la Suite de Google.

Cuando trabajas día a día con datos, la integración de todas las fuentes en un mismo sitio es complicado. Pero gracias al auge de tecnologías como BigQuery, el proceso es más ágil. ¿Cómo? Gracias a herramientas de extracción, tratamiento y carga de datos como Stich Data. Con este tipo de herramientas se puede conectar una base de datos MySQL, pedirle que cada x tiempo consulte la base de datos de cualquier plataforma (Magento, WordPress…), detectar los cambios y trasladarlos a una tabla de BigQuery. En esta tabla, además, también se pueden volcar otro tipo de datos, como CRM, Analytics, etc. Así es como se puede montar un data lake de una forma más fácil para que puedan ser explotados desde el lado del analista o de la persona que necesite los datos con cierta facilidad. 

Acabamos de comentar la creación de un data lake con BigQuery, pero si queremos pintar un cuadro de mandos, por ejemplo, también tenemos la posibilidad de integrar datos de muy diversas fuentes gracias a su herramienta de visualización Data Studio. Y es que la apuesta de Google por la visualización de datos se ve claramente reflejada en la evolución de Data Studio. Ahora cuenta con una serie de recursos que hace que sea muy potente. Si bien es cierto que no resuelve todos los problemas a nivel de cuadro de mandos, no requiere una gran inversión ni contar con una gran cantidad de conocimientos técnicos. ¿Y cómo podemos sacar partido a esta herramienta? En El Arte de Medir, primero creamos un Mínimo Producto Viable vía Data Studio para empezar a trabajar rápidamente con quick wins. Con esto buscamos dar un servicio de calidad suficiente para empezar a trabajar con los insights sin tener que esperar un tiempo razonable. Más adelante, y si Data Studio no es suficiente para el proyecto, buscamos en otras herramientas, pero gracias al trabajo previo, la construcción se hace de forma más rápida. 

Cómo podemos ver, el analista ya no sólo depende de una herramienta para poder realizar su trabajo. Él es la conexión entre los datos y el negocio a través de su fuente de uso: la analítica digital. Y para poder realizar bien su trabajo, es imprescindible entender los datos, el marco de uso y, sobre todo, qué respuestas de negocio se necesitan contestar. 

Si quieres ampliar la información, aquí tienes el episodio del podcast en donde Edu y yo hablamos de la fase del desembarco:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

02 Dic 2015 | Big Data, Metodología

La ciencia es más que un simple conjunto de conocimientos: es una manera de pensar

Al hilo de lo que comentaba en mi anterior post, de la cercanía entre el analista tradicional y el científico de datos, hay que aprender nuevas metodologías que nos permitan adaptarnos a los nuevos tiempos.

Las empresas que están haciendo mejor analítica y Big Data no se quedan solamente en tomar mejores decisiones de forma interna… van más allá y crean nuevos productos y servicios basados en los datos. La clave es empezar a medir las capacidades y avanzar en aquellos puntos que nos permitan dar un salto diferencial con respecto a la competencia.

Una de las personas de las que aprendí en mis inicios en la analítica web, sobre todo de estrategia de análisis fue Thomas Davenport. Tuve la suerte de verle en 2007 presentando su libro Competing On Analytics y adopté enseguida su modelo DELTA.

Ahora la idea es que el modelo Data Enterprise Leadership Targets Analysts (DELTA) que se utilizaba en el análisis tradicional puede ser llevado al Big Data con alguna modificación, ya que es la base de todo proceso de tratamiento y análisis de datos:

DELTA ANALYTICS

DATA: El mayor esfuerzo en estos tiempos de Big Data reside en el trabajo previo al análisis; es decir: capturar, procesar y estructurar los datos de forma que queden listos para ser analizados.

ENTERPRISE: En la analítica tradicional, era importante llevar todo de forma transversal en la empresa: compartir los datos, la tecnología y los recursos dentro de la empresa para crear la cultura basada en datos y que toda la empresa estuviera involucrada. La base es la misma. Ninguna empresa que quiera hacer Big Data puede hacerlo sin tener una buena base de analítica tradicional sobre la que construir. Es decir, si no existe una cultura de datos en la compañía, hay que crearla desde abajo antes de ir a proyectos más ambiciosos.

LEADERSHIP: Como el Big Data se trata sobre todo de experimentar, de descubrir, es complicado generar valor rápidamente. No se asocia como la analítica tradicional a un ROI o una determinada optimización de un proceso, sino que hay que tener un poco de fe y paciencia, sobre todo al principio. Por lo que el proyecto de Big Data tiene que tener soporte directo de las altas esferas de la compañía, y relacionarse mucho con el equipo de analistas que sí tienen como misión el análisis cuantitativo y un ROI al que remitirse. Así no habrá tanta presión de resultados desde el minuto 1. Por lo que da igual que el responsable se llame CDO (Chief Data Officer) o CAO (Chief Analytics Officer), la idea es que ambas disciplinas convivan y se apoyen.

TARGET: Una buena estrategia de datos debe tener sí o sí una meta en el tiempo. ES decir, saber con certeza qué área se va a optimizar y dónde focalizar esfuerzos. ¿En las decisiones de productos? ¿En la forma de contactar a los clientes? ¿En la distribución del presupuesto? Es importante para determinar qué datos se necesitan, de dónde sacarlos, cómo segmentarlos… No se puede simplemente «hacer analítica» sin un fin, sin una priorización.

Esto cambia con Big Data y su concepto de exploración, ya que a priori parece difícil el establecer prioridades tan focalizadas cuando no sabemos lo que nos vamos a encontrar. Sin embargo, mi experiencia es que no se puede lidiar con todo Big Data a la vez, menos incluso que cuando teníamos small data. Corremos entonces el peligro de tener lo que llamamos «la parálisis postanálisis» de angustia por tener tantos datos que no sabemos muy bien donde nos llevan y no somos capaces de ir más allá y se quedan en datos, no en conocimiento.

Por eso lo que hay que cambiar son las preguntas, no serán tan focalizadas como en el análisis pero sí creo que nos servirán como punto de partida: «¿Qué proceso de negocio necesita un apoyo de datos para crecer?» «Qué datos nos pueden ayudar a reducir nuestros costes?» «¿Cómo debemos crear los productos o servicios basados en datos y dónde les sacaríamos más partido?». Son preguntas que requieren de más iniciativa y exploración que antes, pero que nos centran lo suficiente como para saber qué estamos buscando y qué nos puede ayudar.

Introduciría en el modelo DELTA, tal y como propone Thomas Davenport en su nuevo libro «Big Data at Work» una T más (DELTTA) puesto que la Tecnología se ha convertido en una parte importante del proceso, del Big Data. Sin Tecnología no hay BIG DATA.

TECHNOLOGY: Se está convirtiendo en una fuente de disrupción. Es la palanca de innovación de una empresa y cada día se desarrollan nuevas herramientas, nuevos proyectos open-source (MapReduce, Hadoop, Pig, Hive..), incluso los grandes gigantes actuales como Amazon, Google, Facebook… están invirtiendo en tecnologías propias e incluso ponerlas al alcance de todos como una especie de proyectos de open-source.

ANALYSTS: No sé qué pasará en el futuro pero ahora mismo los analistas y científicos de datos tienen una parte importante en el establecimiento de la cultura de datos. Sea analizando o programando máquinas que analicen por ellos. Lo que es difícil es encontrar todo lo que se requiere para triunfar en Big Data en un solo perfil ya que se supone que el científico de datos debe saber programar, debe conocer las diferentes tecnologías, debe saber analizar, debe saber del negocio, debe dominar el arte de comunicar, debe saber matemáticas, debe conocer el análisis visual, debe estar al día de machine learning….

Por eso es complicado encontrar buenos científicos de datos. Por mi experiencia, el éxito en las organizaciones suele estar ligado a tener todo lo que he comentado antes pero en diferentes personas de forma que la combinación del trabajo de todas produzca los resultados deseados (perfil técnico, perfil visual-comunicador, perfil negocio, perfil matemático-analítico). Puede ser que alguna persona tenga dos perfiles a la vez pero los cuatro es harto complicado.

Modelo Delta Madurez

Realmente lo que defiende el modelo DELTA es poder desarrollar un plan estratégico de datos para alcanzar una madurez analítica que aporte a la empresa desde el principio. Si la empresa nunca ha basado las decisiones en datos, necesitará ir paso a paso creciendo en las diferentes áreas (cultura de datos en la empresa, tecnología, liderazgo, analítica y target del análisis) para garantizar llegar a buen puerto y que no vayamos dando palos de ciego.

¿En qué fase estás en cada uno de los factores?

 

01 Oct 2015 | Analista Web, Big Data, Metodología

El flamenco siempre es una pena, el amor es una pena también. En el fondo, todo es una pena y una alegría

 

Me encuentro que en la mayoría de empresas con las que trabajo almacenan muchos datos, incluso los tratan con nuevos lenguajes de analítica… pero no se toman decisiones de negocio asociadas a los datos.

El problema real es que estamos generando tantos datos que no tenemos capacidad ni tiempo para procesarlos de manera inteligente. Los analistas, los científicos de datos no dan abasto y mucho menos las empresas. Y los datos únicamente son señales, por sí mismos no aportan conocimiento. De hecho lo que me llama la atención es que la mayoría de los datos que estamos recogiendo lo hacemos con una idea en la cabeza y al final lo que hacemos es usarlos para otro propósito. Por eso hemos de tener sí o sí flexibilidad para poder usarlos en muy diferentes contextos. Y ahí entramos los analistas y los científicos de datos, debemos empezar definiendo problemas, preguntas de negocio y lo que se espera de nosotros es ser capaces de diseñar caminos e hipótesis para encontrar soluciones y cambiar las cosas. Pero de esto he hablado en multitud de ocasiones, hoy quiero ir un poco más allá.

Pero… ¿cómo lo hacemos? Los que me conocéis sabéis que me gusta mucho asociar todo a metodologías, entender bien los pasos que puedo seguir y cómo seguirlos. Hace unos meses accedí a una charla de Carlos Somohano, el fundador de Data Science London y me abrió los ojos.

La idea es simplificar las métricas pasando de millones de datos a las métricas clave de nuestro negocio y partir de preguntas clave para obtener las hipótesis. En un momento dado tendremos el equilibrio perfecto entre métricas necesarias y las hipótesis en base al análisis de las mismas que nos permita accionar. He traducido libremente y cambiado alguna cosilla de lo que propone Carlos, el resultado es el siguiente:

Metodología de estrategia de data science
Metodología de estrategia de data science

Tendremos la DICHA de pasar de millones de datos en bruto que al ponerlos en contexto nos permitirá establecer relaciones y nos dará señales de lo QUE HA PASADO. Podremos así describir a través de la información que nos dan estos datos y su evolución generar unos informes que nos permitan establecer nuestro Conocimiento, el cómo ha pasado. Mediante la experiencia, y el testing aprenderemos y automatizaremos muchos procesos que nos permitan entender el pasado, saber el por qué ha pasado. Encontrando la causa y probando las hipótesis podremos generar modelos y algoritmos que iremos combinando para intentar saber lo que aún no sabemos. Finalmente intentaremos actuar sobre el futuro, con análisis predictivos en base a los modelos e hipótesis y con la optimización en marketing, en el entorno, en el negocio. Solamente así, aplicando el conocimiento, seremos capaces de seguir creciendo.

Resumiendo, esto es lo que sabemos que sabemos, entramos en la zona de lo que sabemos que no sabemos y la dicha nos pillará cuando exploremos más allá, cuando lleguemos a saber lo que no sabemos que no sabemos 🙂

lo que sabemos y lo que no
lo que sabemos y lo que no

La parte estratégica está clara, verdad? Entonces pasemos al proceso real, lo que nos encontramos en nuestro día a día. Tenemos que intentar tener claras las respuestas a estas preguntas:

  • Qué sabemos de nuestros productos, de nuestros servicios, de nuestro negocio?
  • Qué podemos intuir en base a nuestra experiencia?
  • Qué hipótesis podemos realizar?
  • Dónde no nos hemos aventurado aún?

El proceso está claro, partimos de los datos brutos, por ejemplo las transacciones, ingresos, intentos de fraude, llamadas al call center… de todas las fuentes de origen propias y ajenas que tengamos a nuestra disposición. Extraemos los datos por medio de queries o de Mapreduce o de Lenguaje R o Python que también permiten análisis y generamos un dataset.

Metodología proceso data science
Metodología proceso data science

Este dataset será nuestra herramienta de trabajo, sobre la que buscaremos entre todos los datos las correlaciones que nos deriven en causalidades, en distintas formas de segmentación de clientes, de nuestros productos, y que nos permitan realizar un análisis de predicción potente.

El tratamiento está claro, hay que explorar los datos, representarlos visualmente, descubrir y aprender. Datos Información Conocimiento de nuevo. Para tener los insights que tendremos que presentar de manera visual y que llamen a la acción. Solamente así garantizamos que tendremos impacto directo en el negocio.

Los procesos implicados es partir del qué está sucediendo, dónde hacemos los descubrimientos y la exploración (sistema descriptivo), intentar entender el por qué sucedió por medio del análisis de las métricas clave, qué pudo haber sucedido o va a suceder con el análisis predictivo y la construcción de modelos y finalmente qué acciones debería tomar con la foto completa sobre la mesa y qué es lo que he aprendido para mejorar mis sistemas cognitivos.

Mi experiencia es que no tenemos por qué saberlo todo pero sí deberíamos tener una idea general que nos permita identificar qué optimizar y cómo. Para esto tenemos sí o sí que encontrar la metodología correcta para conectar el problema o la pregunta que queremos resolver con los datos correctos. Porque esto es el mundo real, el objetivo final es resolver problemas: No ser parte del problema, sino parte de la solución.

Como resumen me gustaría compartir un esquema que utilizo siempre que me preguntan la diferencia entre un analista de datos y un científico de datos. Básicamente todo se reduce a las preguntas que realizamos y las que no sabemos o no podemos realizar aún basándonos en las cosas que sabemos teniendo en cuenta las que podemos no saber 🙂 (via @AppliedDataLabs)

Diferencias Analista y Científico de datos
Diferencias Analista y Científico de datos

Si estáis aplicando otro marco de metodología en los proyectos de análisis me encantaría que comentaráis y las incluiré en el texto para enriquecerlo con vuestros comentarios. Gracias!

 

¿Qué ha pasado en Septiembre?

Lancé junto a muchos compañeros de profesión la guía de INKS de las profesiones de internet

Participé en RNE en una tertulia sobre blogs

Estamos cerrando las últimas plazas para el master de Analítica que empieza en 15 días, date prisa si te apetece convertirte en analista digital (quedan 2 plazas)

15 Jul 2015 | Metodología

Todo lo difícil comienza siempre fácil. Todo lo grande comienza siempre pequeño.

En muchos casos, el enfrentarse a realizar un análisis supone un gran problema si no tenemos una metodología que nos guíe de forma efectiva por cada uno de los pasos hasta dar con las conclusiones y recomendaciones.

Los análisis que realizamos los analistas o científicos de datos no difieren demasiado de lo que se lleva haciendo en los procesos científicos desde tiempos inmemoriales: lanzar hipótesis, probar y finalmente optimizar para lograr el resultado deseado.

Por lo que lo primero que tenemos que tener en cuenta es que el proceso de análisis es un ciclo en cualquier proyecto de mejora. Planificar en qué puntos del proceso, qué datos necesitamos y con qué herramientas los recogeremos, almacenaremos y realizaremos el análisis de los datos es una parte crítica de cualquier proyecto online u offline. Si no planificamos bien este punto podemos encontrarnos que o bien nos faltarán datos importantes o bien no lo hacemos a tiempo o bien no tenemos los medios adecuados, etc…

Una vez tenemos la planificación, es importante gestionar la calidad de los datos a la hora de recogerlos para garantizar que en el momento en que los vayamos a analizar, tenemos lo que necesitamos, en el formato que necesitamos y con la veracidad que necesitamos.

Y no nos engañemos, por mucha metodología y planificación que realicemos, tendremos que pasar mucho tiempo tratando datos, probando… cuantas más variables introduzcamos en el análisis, más tiempo se tarda en cuadrarlas y en sacar conclusiones. Pero a la vez esas conclusiones serán mucho más sólidas y enfocadas a atacar el problema que nos estemos encontrando. ¿Por qué? Porque cuantas más variables utilicemos más posibilidades tendremos de mirar los datos desde diferentes perspectivas, desde diferentes formas de organizarlos hasta representarlos de forma visual ya que saldrán conexiones que no se nos hubieran ocurrido de otra manera.

Por supuesto no debemos olvidar que los datos han de tener contexto, para tener la foto completa y poder ver la luz de manera más indolora 🙂

Para afrontar los datos podemos hacer lo típico de generar tablas que nos permitan organizar los datos de forma que nos permita identificar información relevante de manera rápida, comparando datos y detectando dónde tenemos que profundizar.

Otra manera es poner los datos en gráficos, así podremos sacar lo esencial de manera más visual. Muchas veces se piensa en los gráficos como la mejor manera de presentar los datos a un tercero, pero realmente los gráficos son una forma muy interesante de analizar. El manipular los datos en diferentes formas de visualización hace que los estudiemos desde muchas perspectivas y veamos aspectos que quizás no nos hubiéramos planteado en un primer momento.

La idea es que ver los datos en diferentes formatos gráficos nos lleven a nuevas conclusiones o preguntas o detectemos que necesitamos más datos de contexto para llegar a analizar en profundidad.

Para analizar en profundidad tenemos que aplicar a los datos en tablas y gráficos que nos determinen los pasos a seguir y comprobar si nuestras hipótesis o conclusiones o recomendaciones o predicciones tienen o no sentido.

Vamos a verlo en un ejemplo básico:

matriz-analisis

Este tipo de matrices nos permiten en formato tabla + formato visual con un mapa de calor estudiar la afinidad en este caso de distintas secciones de una web de venta de ropa de mujer.

Además de ver los datos propios de cada una de las secciones (volumen de sesiones, interés (por consulta de productos) y conversión (ventas)) podremos ir más allá y comprobar qué tipo de secciones se relacionan entre sí y profundizar en este tipo de relaciones para:

– Venta cruzada de productos: Si como vemos en el ejemplo la gente que ve complementos también está interesada en abrigos, podríamos aprovechar e incluir fotos de los complementos en modelos que también lleven este tipo de prendas.

– Recomendaciones en prendas de otra categoría para potenciar el interés de los visitantes en otra sección distinta de la que vienen a ver en un primer momento en base a los datos recogidos de determinados visitantes que nos interesan por alto volumen de visitas o de ventas o…

– Descuentos o promociones en base a dos productos de distintas categorías que sabemos afines para potenciar más la subida del precio medio del ticket de la compra.

– Tomar decisión de dónde colocar una sección u otra en la home o en los menús laterales o superiores dependiendo de la relación entre las secciones para que sea más fácil para el usuario cruzar las secciones que nos interesan 🙂

etc…

Pero lo interesante de esta matriz es que podemos utilizarla con distintos datos: Se me ocurre por ejemplo el construir a partir de la matriz global una segmentada por clientes de los que nos interesan porque compra mucho o compra frecuentemente, ¿qué tipo de afinidad tiene con las secciones de nuestra tienda? A lo mejor podemos generar una newsletter construida con los productos que los propios usuarios relacionan en sus visitas.

O construir una matriz con los datos de relación entre dónde aterrizan los usuarios y luego los productos que compran. ¿Qué sección capta y qué sección termina de rematar la compra? Utilicemos campañas de captación basándonos en esas secciones y montemos luego un sistema de recomendación de las otras secciones en la landing page, por ejemplo.

O comparar secciones que se visitan mucho y sin embargo los usuarios no compran o comparar secciones por las que pasan los usuarios DESPUÉS de añadir un producto al carrito para ver con qué quieren complementar su compra y promover un segundo producto de otra categoría según preferencias del usuario…

O ver las relaciones entre las secciones segmentando por el canal de entrada. ¿Ven las mismas secciones aquellos usuarios que vinieron por mi campaña SEM de mi producto estrella que aquellos que vinieron por búsqueda orgánica del mismo producto? ¿Se comportan igual? ¿En qué se diferencian? En uno de mis clientes resultó que el comportamiento de un determinado sector de un canal de pago se parecía muchísimo al comportamiento de los clientes que venían por las newsletter y decidimos hacer una campaña a la vez para captar y para fidelizar y salió fantástica :))))

O saber el orden en que se visitan las secciones para entender el uso que hacen los usuarios de nuestro sitio y verlo desde su perspectiva para ayudar en una mejor distribución de las secciones e incluso bajando a nivel de productos…

Lo importante es que de una matriz, de ver unos datos de una determinada manera resaltando lo importante por colores y empezar a analizar y a tener claro el tipo de recomendaciones que hemos de hacer para sacarle mayor partido al canal online. Y esto con una matriz que tardamos en realizar en excel cuánto… ¿10 minutos? Esto es solamente el principio, empezamos por una matriz y acabamos por gráficos mucho más elaborados pero centrados siempre en cambiar cosas, en mejorar, en optimizar nuestra estrategia… Si no, no llegaremos a ser grandes nunca!

 

Si quieres ir más allá en el análisis puede que te puedas convertir en ninja de la analítica en el Master en Analítica Web de KSchool o si quieres especializarte en análisis de visualización de datos, a lo mejor te interesa el Programa Profesional de Visualización de datos de KSchool.

24 Oct 2013 | Metodología

La táctica es saber qué hacer cuando hay algo que hacer, mientras que la estrategia es saber qué hacer cuando no hay nada que hacer.

Desde que empecé en esto de la analítica web, no paro de darle vueltas a conseguir un modelo de trabajo que me permita establecer cómo puedo ayudar a cada una de las empresas que solicitan nuestros servicios de forma efectiva. Es decir, intentar determinar qué tipo de pasos en analítica web debe seguir cada empresa de forma personalizada.
Me refiero a centrar los esfuerzos en los objetivos que se marcan pero siempre teniendo en cuenta el marco de actuación de cada una de las empresas, con sus distintos sectores, sus diferentes presupuestos, etc…

Por lo tanto, desde que en noviembre de 2008 me empecé a plantear lo importante de los modelos de esta disciplina gracias al que presentó  Bill Gassman de Gartner en el Emetrics de San Francisco de 2007. Es la base de lo que ha venido después:

copyright by Bill Gassman


Este modelo pretendía que cada empresa se situara en su escalón correspondiente según las actividades que estuviera desarrollando, determinar qué le falta para ir subiendo de nivel y constituir una hoja de ruta para lograr una web de alto rendimiento.

Llegó entonces Stéphane Hamel en el Emetrics de 2009 con su conocido como OAMM (Online Analytics Maturity Model) que centraba su potencial en saber cómo se comporta la empresa en base a cinco áreas de proceso: Estadística, Tecnología, Marketing, Negocio y Personas.
copyright by Stéphane Hamel
Gracias a Stéphane, cualquier empresa podía saber en qué situación estaba con respecto a todas las áreas y cuál era la que necesitaba más atención y esfuerzos. Para ilustrar cómo se puede sacar partido de esta forma de hacer las cosas, Michael Notté en su blog en noviembre 2011 proponía este ejemplo: cómo pasar de la realidad (gráfico de la izquierda) a plasmar los objetivos a corto, medio y largo plazo para poner de manifiesto dónde queremos llegar en cada momento:
copyright by Michael Notté
En abril de 2012, de la mano de Brian Thopsey, surge una nueva tentativa para establecer el modelo de madurez de una empresa, que combina 5 niveles con 6 tipos de acciones que combina la parte más técnica (herramientas) con la metodología, los recursos, el alcance de las acciones, los objetivos, la distribución y la persona responsable. En mi opinión es el más lioso y difícil de entender porque se puede estar en varios niveles a la vez según el tipo de empresa:
copyright by Brian Thopsey
Unilytics en 2011 saca su propia visión sobre el modelo de madurez en analítica web que como podemos comprobar consiste en 5 fases empezando por la preparación para una buena estrategia en analítica web, para después centrarse en las métricas, en la optimización de la conducta, en los esfuerzos de emarketing para finalizar en la estrategia corporativa:
copyright by Unilytics
Creo que lo que gana este modelo es en agrupar cada una de las acciones según un color para poder determinar qué falta o puede faltar en cada una de las fases para la organización correspondiente. Al tener un poco de cada tipo de acción en cada una de las fases, al organizar por color se clarifica dónde hay que focalizar los esfuerzos, si a nivel táctico, a nivel técnico, de métricas, integración…
La base de las acciones es muy parecida a la que usaba Grassman en 2008, lo que me hizo pensar que el problema con el que me estaba encontrando es que no daba con la combinación que, en mi opinión, las empresas españolas necesita para poder planificar de forma óptima su estrategia en analítica web.
Lo mismo debió de pensar la gente de Bersin & Associates cuando en 2012 publicaron en su web el modelo de madurez en analítica web, en este caso repartida en 4 niveles, empezando en operacional, reporting avanzado, análisis estratégico y finalmente análisis predictivo:
copyright by Bersin&Associates
A mí este modelo se me queda muy corto, porque aunque se comenta qué implica cada uno de los niveles, yo me he encontrado en mi experiencia laboral empresas que están a mitad de camino entre el nivel 2, el 3 y el 4, no queda claro qué determina el siguiente paso a seguir.
Por eso, desde que empecé a dedicarme a la consultoría, uno de los primeros retos a los que me enfrenté fue el intentar establecer un modelo de madurez que reflejara lo que, a mis ojos y según mi experiencia, necesitamos para determinar en qué punto se encuentra una empresa y hacia dónde debe encaminar sus pasos en materia de analítica web.
He pasado por varios modelos hasta llegar al que me llena 100%:
MODELO DE MADUREZ EN ANALÍTICA DIGITAL (EAM)
Modelo Madurez Analítica Digital
copyright by Gemma Muñoz EAM

Como podéis observar, hay dos áreas bien diferenciadas, la del análisis y la de integración. La primera se refiere a todo lo que puede hacer la empresa en su canal online, empezando por la implementación de la herramienta, el establecimiento de objetivos y KPIs, la medición básica para poder llegar a tener el control de los datos desde el primer momento.
Seguidamente se aborda la fase del marketing online, que engloba todo lo relacionado con las campañas, los modelos de personas y el dashboard para un análisis proactivo continuo, el objetivo es gestionar todo lo relacionado con el ROI.
Una última fase de análisis consiste en el estudio a fondo de la web o la aplicación en sí, en basar decisiones en los datos cualitativos y empezar con tareas más avanzadas como el testing para toda la parte del diseño y la usabilidad, el objetivo es la optimización total del canal online.
Una vez tenemos la parte de análisis ya gestionada debidamente, es momento de integrar los datos primero del CRM con el objetivo de focalizar y hacer de nuestro cliente el centro de atención y finalmente integrar la parte de Business Intelligence, con analítica predictiva, diseño de balanced scorecards y BI en Real Time porque ahora mismo, la evolución pasa por cambiar la conducta del comprador o potencial comprador por lo que es indispensable ir un paso más allá en nuestra estrategia global de BI.
He agrupado también las acciones dentro de cada una de las fases (también 5) según si tratan de infraestructura, de creación de valor o de fundamentos estratégicos. La idea es que la empresa señale de cada grupo lo que ya está hecho para hacernos una idea global de qué se está consiguiendo en la actualidad y a lo que se quiere llegar. Las acciones que queden por marcar serán las que nos lleven a diseñar una estrategia absolutamente personalizada para alcanzar el objetivo del proyecto de analítica web.
He puesto en marcha este modelo desde hace tiempo y puedo afirmar que funciona para la totalidad de empresas con las que estoy trabajando. Por un lado tenemos una base en la que las empresas ven su nivel en el primer momento y por otro tienen claras las acciones que les restan para pasar al siguiente nivel.
Al final se trata de adaptar lo que hay a lo que se necesita, en este caso es un camino el que llevamos recorriendo desde 2008 en busca del modelo de madurez en analítica web que cubra todas nuestras expectativas y necesidades: Este es el resultado de poner encima de la mesa mi conocimiento de los diferentes sectores y la adaptación de lo que se ha hecho antes.
Muchas gracias a Bill, a Stéphane, a Michael, a Brian y la gente de Unilytics y Bersin&Associates por sus distintas aportaciones que han hecho posible que hallemos nuestro modelo de madurez para hacer más efectivo mi trabajo 🙂

Para saber qué hacer cuando se quiere abordar de manera efectiva la analítica digital, se empieza por marcar la estrategia. La táctica va después 🙂

  • 1
  • 2
  • 3
  • 4
  • Siguiente »

Copyright © 2023 · Política de Privacidad
WordPress · Genesis Framework