¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

Categoría: Análisis Completo

18 Jun 2018 | Análisis Completo

Cuando al punto final de los finales no le siguen dos puntos suspensivos

Cómo analistas, cuando afrontamos una campaña offline, uno de los grandes desafíos al que nos enfrentamos es conocer su repercusión e impacto y reportarlo al entorno online. En El Arte de Medir estos desafíos son los que más nos gustan. Por eso hoy queremos presentar junto con nuestro cliente Waynabox, un Business Case sobre la optimización de una campaña publicitaria (offline); y su impacto en el tráfico a la web (online).

El reto

Waynabox es una empresa que organiza viajes sorpresa a través de internet. Para darse a conocer, concertaron una campaña en televisión de captación y branding destinada a la acción, la cual se iba a traducir en el tráfico a su web y a su aplicación móvil. Nuestra misión: ver el impacto real de esta campaña offline en su entorno online.

Antiguamente se montaban las campañas teniendo en cuenta el impacto del tráfico directo en las métricas más habituales. Pero en El Arte de Medir queríamos conocer el impacto real y ponerle cifras; (o hacer la estimación más cercana posible). Así que la primera pregunta con la que empezamos fue: ¿qué datos son los verdaderamente importantes?

EAM_BussinesCase_Waynabox_01

La labor del equipo Data Science

  1. Establecer una línea base de comportamiento

Antes de empezar con nuestro análisis, Waynabox llevaba midiendo el comportamiento de los usuarios de su web desde hacía varios meses. Esto se convirtió en una fuente inestimable de valor, ya que se pudimos establecer un histórico de patrones de conducta.  Esto permitió sentar una línea base de comportamiento con la que analizar como los usuarios habían interactuado en campañas anteriores.

Con este flujo de datos, y teniendo en cuenta de antemano lo difícil que es etiquetar el tráfico offline que llega a una web; la primera aproximación que se hizo fue filtrar todo el tráfico para saber cuáles eran los principales canales por los que aterrizaban los nuevos usuarios a la web. Una vez identificados, se estableció la línea base de comportamiento y se comparararon los datos que llegaban de la campaña de publicidad. Esta acción estimó el impacto que la campaña publicitaria estaba ejerciendo en la web de Waynabox. Es importante destacar que no sólo se midió el tráfico, sino que también intervinieron otras métricas a nivel de negocio, como el engagement con los usuarios, las transacciones, etc.

  1. Correlación y medición de variables: el efecto recuerdo

Al conocer los datos de navegación de los usuarios y los datos proporcionados por la presión publicitaria en televisión (franja horaria, audiencia alcanzada, número de anuncios del bloque, el tipo cadena, etc.); se pudo correlacionar todo con el impacto de las métricas online. Ya lo dice el refrán: cuantas más variables haya, más rico es el resultado.

Todo este proceso se realizó a través de un modelado estadístico que trasladó los datos a una fórmula que nos ayudó a: explicar el tráfico de la web, los usuarios interesados en los productos, las reservas de viajes, etc. En este punto hay que añadir un paso intermedio muy importante; la visión del analista como parte integrante del negocio para ver qué variables son las que pueden afectar a la consecución final y decidir cómo hay que modelarlas.

En nuestro caso, hubo una variable decisiva. Partiendo de la premisa que un anuncio no se puede correlacionar en tiempo directo de la emisión en televisión con el acceso del usuario a internet, tiene que existir un efecto recuerdo, el cual que tiene que ser modelado.

Así, con este efecto recuerdo, se modelamos una variable que calculó el ratio de recuerdo que tenía para los usuarios el anuncio, teniendo siempre en cuenta la oscilación en función de la fecha y hora de emisión. Una vez obtenida esta variable, se incluyó en el modelo global para correlacionarla a alto nivel de lo que sucede entre el offline y en el online. Ante este punto, el gran trabajo fue determinar qué se iba a incluir.

  1. Recomendaciones a nivel de negocio

El análisis previo de los datos fue vital. En todo proceso de modelado estadístico, surge una gran cantidad de información muy importante a nivel de negocio que hay que saber correlacionar. En nuestro caso, y gracias al efecto recuerdo, se pudo contar con una base con la que poder optimizar de cara a futuro.

Al tratar de estimar el impacto de la campaña publicitaria, incluimos variables como las horas de los anuncios, la posición, el día de la semana, etc.; lo que nos permitió evaluar cuales eran las mejores horas y días de emisión. Estas recomendaciones estaban directamente relacionadas con el impacto y las conversiones.

EAM_BussinesCase_Waynabox_02

La labor del equipo de Data Analysis

Gracias a la elección de las variables adecuadas, cuando llegó el momento de realizar el análisis, el trabajo fue mucho más fácil. Se pudieron exprimir los datos de una manera óptima para sacar conclusiones muy claras relacionadas con las horas de emisión y días de la semana que mejor funcionaban. A su vez, se correlacionaron estos datos con las visitas a la web, y lo que era más importante, el número de accesos al proceso de compra.

  1. Transmisión de conocimiento

Un punto a parte fue el relacionado con la transmisión de conocimiento; es decir, lo que proporcionaba el modelo estadístico con recomendaciones de negocio. Esto se llevó a cabo con periodicidad diaria debido a la fluctuación del perfil del usuario. (Por ejemplo, el público que ve la televisión por la mañana no es el mismo que el que la ve por la noche).

En base al modelo global y los datos que proporcionó Waynabox, se pudo establecer qué días de la semana funcionaba mejor un anuncio determinado. Además, constatando todos estos datos con los reflejados por Google Analytics, se realizaron diferentes recomendaciones acerca de qué franjas horarias y qué posición en la parrilla de anuncios eran los más óptimos para invertir.

  1. Conversión a futuro

Por último, otra de las variables a tratar fue la conversión a futuro. Waynabox es una web de viajes diferente y en este caso la variable recuerdo jugó un papel fundamental. El modelo realizado por el equipo de data science estimó la previsión en cuanto a tráfico web y conversiones que se esperaba si no hubiera habido campaña, y cuál era la real.

Nuestro análisis determinó que tras la campaña hubo:

  • Un aumento del tráfico de visitas a la página web.
  • Un aumento del tráfico de visitas al proceso de compra.
  • Un ligero aumento de las ventas, pero no significativo.

EAM_BussinesCase_Waynabox_03

Ante esto se concluyó que la campaña no se vio traducida inmediatamente en conversiones, cómo sí se vio beneficiada en sesiones. Esto fue debido a que los usuarios de Waynabox tienen un proceso de maduración de compra más largo en comparación con otros productos.

Si quieres conocer más detalles de este Business Case, puedes escucharlo a continuación de la mano del equipo de El Arte de Medir, José Ramón Cajide, Data Science & Big Data Analyst; y Jorge Llorente, Digital Analyst.

29 Mar 2017 | Análisis Completo

Ningún jugador es tan bueno como todo el equipo junto

Es importante tener en cuenta que muchas veces los analistas nos centramos en qué medir y cómo en un portal de venta directa por eso hoy quiero analizar  la forma de medir un ecosistema digital de un negocio que no es un ecommerce.

En el caso de LaLiga se están centrando los esfuerzos en intentar analizar el comportamiento de los usuarios en los diferentes entornos que se ponen a disposición del usuario (web, aplicaciones móviles, redes sociales). Lo importante no es vender, sino entender al fan del fútbol y cómo su comportamiento cambia según el país de donde procede.  Ecosistema Digital No Ecommerce

Cómo actúa el usuario durante un partido de fútbol, qué aplicación utiliza, qué noticias le interesan, qué tipo de videos visualiza, … Esto es lo que realmente importa para poder tomar decisiones en este negocio y sobre todo para poder optimizar al máximo el ecosistema del que disponemos.

Pero una semana tiene 7 días y hay que ofrecer contenido interesante en todo momento, por lo que es vital estudiar qué funciona, para quién y en qué formato. Aquí tiene mucha importancia también la globalidad ya que no se genera únicamente contenido para España sino que hay que pensar en el resto del mundo.

La gamificación es un ejemplo de contenido global y que engancha al usuario independientemente de dónde se encuentre. En LaLiga se ha aprendido mucho de HeadSoccer, ya que el 90% de los usuarios que lo juegan (3 millones de usuarios al mes) son de fuera de España, sobre todo de Mexico, USA, Sudeste asiático, Europa… Al Fantasy juega 1 millón de usuarios por semana y es un juego más nacional que el resto.

Gamificacion DatosEstos datos son muy buenos pero lo importante es que están en continuo crecimiento y van a más.

La web está en español y en inglés pero las apps tienen hasta 8 idiomas distintos, porque se ha comprobado que a mayor número de idiomas, mayor éxito tiene porque penetra más en otros países. En las Redes Sociales pasa lo mismo, recientemente se ha incorporado el árabe por ejemplo. Se está comprobando que la variable país no es importante a la hora de analizar al usuario, ya que el contenido siempre es el mismo y lo que varía es el idioma únicamente y funciona de la misma manera.

En España hay grandes periódicos deportivos dedicados casi en exclusiva al fútbol, cosa que no pasa en otras ligas potentes en Europa. En Inglaterra cuando el aficionado quiere saber de la Premier va a la web de la Premier por ejemplo, pero en España la competencia es feroz. De ahí que la estrategia global que se sigue en la organización es ofrecer distintos contenidos además de las clásicas noticias.

El reto actualmente es analizar el comportamiento del mismo usuario en todo el ecosistema online y offline, saber que el usuario X se conecta al HeadSoccer, a la app principal durante el fin de semana, que es de tal equipo y le interesa un tipo de noticias. ¿Con qué objetivo? El de interactuar con este usuario y darle el contenido que necesita en el momento que necesita con la frecuencia que necesita. Es decir, al final todo se reduce a lo mismo, sea un ecommerce o una web de contenidos, estudiar a las personas para poder ofrecerle un contenido/producto/servicio personalizado que nos permita cumplir nuestros objetivos.

Herramientas Medición LaLiga

Las herramientas que se utilizan en LaLiga para llegar a este conocimiento son sobre todo Google Analytics Premium (analizar el perfil del usuario) y Blinkfire (analizar la comunicación). Esta última es una herramienta de medición en Redes Sociales para entender los impactos de los diferentes patrocinadores. Así podemos entender la fuerza de una imagen para el patrocinador más importante ahora mismo de LaLiga, el Banco de Santander. Es fundamental para entender el papel de las redes sociales en el engagement del aficionado, la fuerza del patrocinio, …

Para la medición del usuario 360 se tendría que trabajar codo a codo con los diferentes clubes que conforman LaLiga y cruzar los datos de los usuarios de forma que se pueda saber que un determinado aficionado del Espanyol que juega al HeadSoccer y al Fantasy, ha entrado en el estadio a ver a su equipo esta jornada y poder interactuar directamente en ese momento desde la app principal. Actualmente la ley de protección de datos (LOPD) no permite a LaLiga utilizar los datos de los tornos de los estadios, únicamente pueden almacenarlos.

La comunicación en LaLiga con sus usuarios se realiza por push en las apps (que funciona muy bien aún sin segmentar por audiencia) y por Newsletter (hay que segmentar para conseguir buenos resultados). Para visualizar estos y otros datos en la organización, se utiliza PowerBI en todos los departamentos.

Se están explorando continuamente nuevos formatos de comunicación. En la última Copa del Rey por primera vez se puso a disposición de los usuarios de Facebook los partidos de la semifinal en directo, únicamente para países donde no se podía ver en la TV, y se llegó a un crecimiento del 200% en seguidores en dicha red social y en interacciones. Es la primera liga mundial que ha hecho algo parecido y los resultados son muy buenos, por lo que se pretende seguir en la misma línea innovadora y buscar nuevas formas de engagement con el usuario.

En resumen, cada negocio, cada entorno, ha de estar pensado en base a los objetivos que se persiguen y tanto en tecnología (la combinación de herramientas a utilizar) como en estrategia (los análisis que se realizan) han de estar en sincronía con el objetivo final.

Si quieres profundizar más en el tema de medición en LaLiga, puedes escuchar el podcast de PRNoticias en Ondacro:

También de este tema salió un reportaje el 14 de Marzo en Voxpopuli sobre medir al fan del fútbol.

16 Mar 2017 | Análisis Completo

El corazón de Roma no late en el mármol del senado sino en la arena del coliseo.

Hace un par de años un grupo de locos por la analítica decidimos crear el MeasureCamp en España, concretamente en Madrid, y allá por Mayo 2015 celebramos la primera edición de este evento que básicamente consiste en compartir conocimiento entre los profesionales del sector digital.

Allí fue donde conocí a Sergio Jimenez. Un analista de los que me gusta conocer porque me hace pensar. Y mucho. Nos ofreció una charla sobre medir en portales públicos que aún recuerdo con emoción. Un portal público es mucho más complejo de medir que un ecommerce ya que lo que se busca no es convertir al usuario sino darle servicio y que la visita al portal sea fructífera. Y esto supone un reto, muy interesante, para el analista. Cómo ayudar al responsable de una institución pública a medir en base a la conducta del usuario. Gran tema.

Por eso invité a Sergio a hablar como experto en la materia en el podcast semanal de “Mi Arte de Medir”, donde nos centramos en comentar cómo medir los portales de transparencia. Hablamos de todo, de cómo establecer los objetivos de los portales de transparencia como servicio público y sobre todo como llegar a conocer al usuario y leer su comportamiento.

Llegamos a la conclusión de que al final cualquier portal, sea público o no público, de transparencia o de servicio al ciudadano, no ha de medirse de manera muy diferente al resto de portales, puesto que los objetivos siguen siendo cuantificables y el customer journey sigue siendo el principal componente de una buena medición.

Realmente un portal de transparencia tiene una función primordial que es aportar información sobre la acción de los gobiernos y administraciones públicas al ciudadano. Por lo que hay que medir que esta información sobre contratos, remuneraciones, nombramientos, etc… esté disponible (localizable, bien organizada, bien ordenada y normalizada), bien difundida (convenientemente distribuida y publicada) y permita la interacción con el ciudadano (realización de consultas).

Tipo de Portales Públicos

En base a la disponibilidad, difusión e interacción de los portales, podemos hablar de:

  • Portales tramitadores: Posee poco tráfico pero con mucha interacción. Hay que estudiar bien las búsquedas que se realizan para ver cómo comunicar mejor los contenidos porque suelen fallar en la disponibilidad.
  • Portales organizados: Posee poco tráfico pero fidelizado donde se encuentra la documentación de manera fácil y eficaz. Faltaría llevar a cabo una buena difusión.
  • Portales publicitarios: Tiene un alto número de visitas con mucha interacción donde la información no siempre está disponible o localizable.
  • Portales activos: Posee un tráfico alto y equilibrado puesto que tiene una correcta difusión y permite el acceso eficaz a la información y la interacción con el usuario.

El perfil del usuario de este tipo de portales va desde:

  • El usuario puntual (que viene de forma puntual a obtener información y necesite navegar por distintos contenidos -> poca visita, mucha interacción, poca descarga). Este usuario suele interesarse por los portales publicitarios.
  • El usuario interesado (que viene buscando una información específica -> poca visita, poca interacción pero muy directa, poca descarga) . Esencialmente este tipo de usuarios consulta los portales tramitadores.
  • El usuario especializado (que accede de manera recurrente a la información que se va actualizando -> mucha visita, poca interacción, mucha descarga). Normalmente este tipo de usuarios consulta los portales tramitadores u organizados.
  • El usuario editorialista (que consume muchos contenidos de manera periódica según lo que necesite en cada momento -> mucha visita, mucha interacción, mucha descarga). Usualmente este tipo de usuarios consulta los portales organizados y publicitarios.

Perfil Usuario Sector Público

A todos ellos hay que complacerlos y medir en consecuencia para garantizar que la información está disponible, bien difundida y se han podido llevar a cabo los trámites que el usuario ha necesitado.

¿Y cómo medimos entonces estos tres tipos de accesos y si el contenido ha sido satisfactorio? Debemos establecer bien los objetivos primordiales del portal y definir las métricas que nos digan cuan cerca o lejos estamos de cumplir dichos objetivos. Normalmente podremos medir de manera global cualquier tipo de portal público con:

  • Número de visitas o tráfico que genera el portal
  • Tasa de rebote de la página de entrada (entender la calidad de la visita)
  • Páginas vistas por visita y tiempo en el sitio (profundidad de la lectura)
  • Conversión: documentos descargados (intercambio de información)
  • Consultas realizadas (qué se busca, desde dónde y en qué condiciones)
  • Frecuencia de visitas

Medicion Sector Público Segmentado por origen de la visita (difusión) y por tipo de usuario (primera vista o visita recurrente). También podemos segmentar estas KPIs por dispositivo utilizado, para anticiparnos a la adaptación de resolución de pantallas de los dispositivos móviles, por ejemplo. Indispensable segmentar también por tipo de contenido para entender qué interesa y las sinergias entre distintos tipos de contenido.

Entendiendo el tipo de usuario que viene y el contenido y conducta que ofrece, podemos entender bien qué podemos hacer para que nuestro portal de el servicio que necesitamos en cada momento. Lo más importante es definir nuestros objetivos de manera adecuada y medir en consecuencia, para garantizar que tenemos todo lo necesario para conocer qué está pasando en el portal y cómo podemos optimizarlo en consecuencia.

Lo que hemos comentado es un breve resumen de lo que explicamos en nuestra Guía metodológica para el Análisis de Portales de Transparencia, que puedes solicitar en el siguiente enlace: http://publilitica.es/descargas/

Si además quieres ampliar información, no dudes en escuchar mi charla con Sergio en el podcast; juntos hemos montado un nuevo servicio especializado en la medición de este tipo de portales públicos de transparencia, que creemos necesario para entender bien las necesidades del ciudadano y optimizar este tipo de portales al máximo.

También estuve hace poco en El Plural, donde me hicieron una entrevista por motivo del día de la mujer trabajadora:

http://www.elplural.com/tech/2017/03/08/en-su-justa-medida

el_arte_de_medir_seleccion_web-7

 

30 Ene 2017 | Análisis Completo

Poca gente es capaz de prever hacia donde les lleva el camino hasta que llegan a su fin.

El proceso de análisis lo he comentado hasta la saciedad en este blog, diversas técnicas y metodologías, se puede realizar desde muchas perspectivas, pero es clave tener en mente los tres pasos básicos para llegar a realmente impactar en el negocio. Empezamos por el primero para entender las circunstancias, después abordamos el segundo para establecer las hipótesis y finalmente el tercer paso es el que supone el impacto, el que nos da el resultado traducido en acciones a realizar sobre la estrategia.

Si recordamos el modelo de madurez de la Analítica, tendríamos el análisis descriptivo en los primeros niveles de madurez, relativos a las técnicas de análisis digitales mientras que el análisis Predictivo se concentra especialmente en la etapa de Análisis Competitivo mediante el uso de Modelos Estadísticos. La idea es partir de la pregunta de negocio («M» de Meditar sobre el negocio), identificar las KPIs que voy a necesitar para recogerlas de las diferentes fuentes de origen («A» de  Adquisición de datos), verificar que los datos que conforman mi dataset son correctos («M» de Manejar los datos), y en este punto ponernos a trabajar en sacarles el máximo jugo a la información que se nos presenta:

Captura de pantalla 2017-02-06 a las 13.07.01

Primer Paso – Análisis Descriptivo:

Captura de pantalla 2017-02-06 a las 13.07.13

Describe el pasado y el presente, el qué pasó y qué ha pasado. Se basa en el Business Intelligence de toda la vida, en busca del conocimiento que nos permitirá saber cómo afrontar el futuro.

analisis-prescriptivo

Segundo Paso – Análisis Predictivo:

Captura de pantalla 2017-02-06 a las 13.07.24 Busca realizar predicciones en base a lo que ha pasado para convertir el dato en información accionable. En este tipo de análisis se utilizan los datos para determinar el resultado posible de un evento futuro o lo que obtendremos si no realizamos acción ninguna. Abarca una amplia variedad de técnicas estadísticas: desde modelado, aprendizaje automático, teoría de juegos… que analiza hechos históricos para hacer predicciones sobre eventos futuros. En definitiva, se trata de procesos que explotan los patrones que se encuentran en los datos históricos y transaccionales para identificar los riesgos y oportunidades.

analisis-predictivo

Tercer Paso – Análisis Prescriptivo:

Captura de pantalla 2017-02-06 a las 13.07.34

Se refiere a la transformación del conocimiento en acción. El análisis prescriptivo se basa en la idea de realizar toda acción que esté en nuestra mano para que el resultado previsto mejore respecto a una predicción inicial. Son las recomendaciones basadas en lo que ha pasado que es lo que nos dice el análisis descriptivo y en los modelos predictivos que construimos para saber qué tocar, cuándo y dónde de forma que mejoremos el futuro. Es decir, nos centraremos en este tipo de análisis en identificar oportunidades buscando mejorar el resultado esperado y aprendiendo de la experiencia de entender qué pasa y por qué.

analisis-descriptivo

Es decir, la idea es llegar siempre a un análisis prescriptivo: con el objetivo de negocio en la mente (subir la tasa de conversión un 2%), la estrategia clara (disminuir la tasa de rechazo un 20%) y la táctica a poner en marcha (rediseño de páginas de aterrizaje). Todo ello complementado con los datos de inicio (50% de las visitas se van sin interaccionar con nuestro sitio web – descriptivo) y teniendo preparado con el análisis predictivo la contrapartida a qué pasará si no se hace nada pero se aumenta un 25% la captación (con la inversión que ello conlleva).

En el podcast hay más información sobre las técnicas de análisis que nos llevan al resultado final 🙂

16 Ene 2017 | Análisis Completo, Analista Web

El camino verdadero pasa por una cuerda, que no está extendida en alto, sino sobre el suelo. Parece preparada más para hacer tropezar, que para que se siga su rumbo.

Seguimos con la explicación del método MAMBO para el trabajo del analista o científico de datos. Ya explicamos hace unos días la (M) de Meditar sobre el negocio, la (A) de Adquisición de datos y hoy tenemos por delante explicar la (M) de Manejar los datos. ¿Preparados?

Esta fase es la que tiene más miga desde hace unos cuantos años. Hasta ahora, el analista tomaba los datos de la herramienta de analítica que tocara, Google Analytics por ejemplo, y empezaba a buscar insights directamente en dichos datos. Ahora no, ahora es más complicado pero mucho más divertido 🙂

Desde que entró en escena el Big Data, no basta con tomar los datos de la herramienta como si en ellos estuviera la verdad absoluta. Ahora toca extraer los datos de todas las herramientas disponibles, tratarlos, cruzarlos, limpiarlos y dejarlos listos para empezar a trabajar. Es una parte del proceso absolutamente decisiva, pues será el momento en el que detectemos si la calidad de los datos es suficientemente buena para seguir avanzando. Además, exploraremos la información para descubrir si ofrece lo que necesitamos para los siguientes pasos y validaremos que tenemos todos los datos para el análisis. Esta clase de operaciones, en general, están más cerca de perfiles ‘data scientist’ (científicos de datos), que están más cerca de la capa técnica que los analistas, que están más cerca de la capa de negocio.

De ahí que no me vaya a centrar ahora en hablar de herramientas para la preparación de los datos, sino en las diferentes operaciones que vamos a llevar a cabo sobre estos datos para poder avanzar en nuestra metodología. Por tanto… ¿Qué se plantea el analista, cuando tiene que enfrentarse a un análisis y encontrar respuestas a las preguntas de negocio? Lo primero que realizamos es un análisis exploratorio de los datos. Este análisis consiste en la comprobación de los formatos de las distintas variables que tenemos en nuestro conjunto de datos, se visualizan las primeras y las últimas filas y realizamos una descripción básica a nivel estadístico, valores medios máximos, mínimos y desviaciones.

El siguiente paso sería comprobar los ‘outlier’, es decir, los valores atípicos o valores extremos. Tendremos que buscar los valores extremos o atípicos, para que estos valores pueden ocasionar un análisis erróneo. Podemos hacerlo con algún método exploratorio básico, incluso graficando los datos, o con un modelo matemático que los detecte automáticamente en base a cálculos sobre desviaciones típicas o dispersión.

PREPARACION-DATASET-EAM

Otra de las situaciones con las que nos encontramos, es la de la existencia de valores anómalos, que no tienen por qué corresponderse con valores extremos. Estos valores muchas veces están enmascarados en nuestros datos y son una fuente de información muy valiosa.

El siguiente paso consistirá en añadir nuevos datos a nuestro ‘dataset’, incorporar nuevas variables fusionando distintas fuentes de los mismos. Del mismo modo, una de las partes que más tiempo consume al analista es la relacionada con la integración de datos de otras fuentes. En ocasiones, nos enfrentaremos a la necesidad de unir datos de nuestra herramienta de analítica con el back up interno de la empresa, que puede ser un CRM, RP u otra fuente de datos disponible. Estas operaciones pueden ser tan sencillas como hacer una unión entre tablas, el problema surge cuando no tenemos identificadores, variables o claves únicas por las que poder relacionar conjuntos de datos distintos.

El objetivo de esto es poder realizar análisis más ricos y potentes, creando cuanto más contexto mejor y obteniendo una foto mucho más completa de lo que necesitamos para empezar a buscar insights.

Por último, no hay que olvidar la ordenación de los datos y la limpieza de los mismos. Ordenar entiendo el concepto como poner todos los datos en un formato común para poder trabajar con ellos desde la herramienta de procesamiento elegida (R, Python…). Estas herramientas funcionan de manera más eficiente con datasets simplificados con pocas columnas pero muchas filas.

En resumen, el objetivo de esta clase de técnicas como comprobar los valores atípicos o incorporar nuevas fusiones de datos u ordenar el dataset o simplificarlo, no es otro que el de preparar los datos que extrajimos en el paso previo para comenzar a Buscar en los datos, que es el paso siguiente de nuestra metodología MAMBO.

Si quieres profundizar más en el concepto del manejo de los datos, puedes escuchar este podcast en PRNoticias sobre este tema 🙂

  • 1
  • 2
  • 3
  • …
  • 12
  • Siguiente »

Copyright © 2023 · Política de Privacidad
WordPress · Genesis Framework