¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

16 Feb 2021 | Data Science

Cuánto más estudias la lógica, más valoras la casualidad

La carrera de matemáticas se ha convertido en una de las opciones más demandadas por los estudiantes universitarios gracias a disciplinas como la ciencia de datos y la gran variedad de aplicaciones que tiene en el ámbito empresarial. Pero, ¿cómo pueden hacer nuestros análisis más inteligentes? Para profundizar en este tema, hoy he querido contar con la experiencia de Roberto Otero, Data Scientist en El Arte de Medir. 

A la hora de plantear nuevos análisis de negocio, hay ocasiones en las que el analista digital no puede evitar incluir hipótesis basadas en su propia experiencia con las que llega a perder la perspectiva de la pregunta de negocio que tiene que responder. Pero gracias a la magia de las matemáticas, el científico de datos consigue que un análisis quede más enriquecido con fórmulas y modelos matemáticos que, además de ofrecer respuestas a las grandes preguntas de negocio, también permita al analista bucear y adelantarse a dichas preguntas para llevar sus análisis a otro nivel.

Quien trabaja con los datos es consciente que detrás de ellos existen patrones ocultos que, sin la ayuda de las matemáticas, jamás llegaríamos a descubrir. Por eso, cuando en un modelo se incluye una variable poco común como puede ser el tiempo meteorológico, es en el momento de analizarla cuando descubres su relación directa con el comportamiento de compra del usuario. Justamente el tipo de información relevante para las áreas de marketing y ventas.

Las matemáticas como herramienta del data scientist

¿Cómo pueden los científicos de datos hacer de las matemáticas una herramienta crucial para dotar de mayor inteligencia los análisis de negocio? Existen multitud de ejemplos a través de los que se puede hacer una explotación más profunda de los datos, entre los que podemos encontrar:

Análisis cluster 

Es un conjunto de técnicas con las que crear agrupaciones de usuarios desconocidos que comparten características comunes bajo unos criterios homogéneos. En otras palabras, gracias a la información recopilada por las empresas, se pueden identificar distintos tipos de clientes que cumplen ciertos criterios en los que poder agruparse, como el comportamiento de compra. Para la realización de estos análisis, el científico de datos cuenta con una serie de herramientas como son la distancia euclídea o la distancia Manhattan.

Este tipo de análisis es un claro ejemplo de lo que esta disciplina hereda del Business Intelligence: ahondar tanto en los datos de cliente como en los patrones que se puedan entender por agrupación para saber a qué tipo de cliente hay que hacerle una determinada campaña o volver a contactar.

Lenguaje de programación

Una de las herramientas más usadas por los data scientist son los lenguajes de programación R y Python. Son lenguajes complementarios ya que hay cosas que se pueden hacer con R que no puedes hacer con Python y viceversa. 

  • Python: Para Machine Learning, Python tiene muchísima fuerza gracias a librerías como Keras, con la que implementar modelos de redes neuronales con el que predecir por ejemplo, el Lifetime Value de un cliente. En visualización de datos, Python cuenta con las librerías matplotlib.pyplot y seaborn para facilitar la creación de gráficos. 
  • R: Para estadísticos y científicos de datos, R es el lenguaje de programación por excelencia. Por eso no es de extrañar que en lo que a visualización de datos se refiere, también cuente con librerías muy potentes con las que el usuario puede encontrar gráficos ya hechos o crearlos, como la librería ggplot2. 
Análisis de supervivencia del cliente

Este tipo de análisis sirve para conocer cuánto tiempo van a estar tus clientes comprando tus productos. Para llegar a este resultado, existe un modelo denominado regresión de Cox que indica el tiempo aproximado que un cliente seguirá comprando productos. Una de sus aplicaciones más interesantes es en el terreno del marketing, ya que permite actuar sobre aquellos clientes que están en riesgo de abandono de la marca, ya que el modelo te dice la fecha en la que es más probable que compren, y si no lo hace, saltan las alarmas. 

Análisis de la cesta de la compra

Con esta técnica de modelado se establece una relación entre variables de un conjunto de datos que aparentemente no la tienen. Un buen ejemplo se puede ver en los supermercados y la colocación de algunos productos que, aunque no existe una relación directa entre ellos, los ponen juntos para maximizar beneficios. Esto es posible gracias a las reglas de asociación.

Matemáticas para dotar de mayor inteligencia los análisis de negocio

Matemáticas y los modelos predictivos

Sin lugar a dudas, lo que más se conoce del trabajo de un data scientist son los modelos predictivos y el uso de algoritmos. Cuando hablamos de modelos predictivos, uno de los factores más en contra es la gran cantidad de elementos y variables que no permiten predecir al 100% lo que va a pasar. Pero gracias a las matemáticas, es posible identificar una serie de escenarios que tienen una probabilidad alta de ocurrir con la que se pueden hacer muchas cosas.  

Con los modelos predictivos también se pueden crear sistemas de alertas que avisan si el comportamiento de las métricas sufren alteraciones no previstas en base a un histórico. Para ello, el modelo “observa” qué ha ocurrido anteriormente para alertar de que en ese momento la predicción realizada no se está cumpliendo y reaccionar a tiempo. En este modelo entran técnicas estadísticas como el cálculo de varianza  y el cálculo de desviación típica, que no solo se centran en fijar un porcentaje, sino que tiene en cuenta otras variables para saber si ha habido algo significativo allí.

Recomendaciones para alguien que ha acabado matemáticas:

  • Máster Data Science KSchool
  • Curso especialización Deep Learning KSchool
  • Machine Learning de la A a la Z» de Udemy

¿Te gustaría saber más de este apasionante tema? Acompáñanos a Roberto y a mi en este episodio del podcast.

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 28 de febrero tuve la oportunidad de participar en la mesa redonda «Vamos por más juntas» celebrada en el Women Economic Forum España. Siempre es un placer hablar de innovación y emprendimiento, sobre todo rodeada de grandes profesionales.

  • El 8 de febrero me invitaron a un viaje muy especial en el programa «Un billete a Chattanooga», con Pablo Moratinos y Ana Cirujano.

26 Ene 2021 | Big Data

Un Anillo para gobernarlos a todos. Un Anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas.

Para que el analista digital pueda realizar su trabajo en las mejores condiciones, necesita poder conectar los datos de las plataformas con las que trabaja con sus herramientas de análisis. Esta labor cada vez se hace más complicada, ya que a medida que van aumentando las fuentes de datos, establecer una conexión fiable es cada vez más difícil. Para poder hacer frente a esto, existen los data lakes, repositorios de almacenamiento en la nube en los que unir todas las fuentes de datos bajo un modelo de análisis. 

Pero, ¿cuánto tiempo se necesita para un proyecto de estas características? Y lo que es más importante, ¿cómo podemos abordarlo? Para ahondar en este proceso, hoy cuento con la colaboración de un gran profesional, David García, Head of Data de Laboratorios ISDIN.

Fases cómo construir un Data Lake

Fase 1: Punto de partida

En el instante en el que desde ISDIN deciden tomar la decisión de construir un data lake, lo hacen con el principal objetivo de unificar y consolidar los datos recopilados de las diferentes plataformas en un único repositorio. El momento era el idóneo ya que coincidió con la apertura de un nuevo mercado importante como es el de Estados Unidos. Vieron que, para evaluar el rendimiento real de sus campañas de publicidad en ese mercado, era fundamental aunar los conjuntos de datos a los que tenían acceso en un único repositorio y, además, poder tenerlos en propiedad para manejarlos sin depender de terceros. 

Esta decisión supuso un gran reto para la compañía, ya que en aquel momento el modelo de madurez analítico no estaba del todo consolidado, por lo que para poder llevarlo a cabo, fue necesaria una reorganización que afectó tanto al almacenamiento de los datos como al propio departamento.

Fase 2: Planteamiento

Con los objetivos del data lake alineados con el negocio, llegó el turno de plantear la línea de trabajo desde la que iniciar el proyecto. En este aspecto, se valoraron dos opciones:

  1. Construir un equipo especializado, lo que suponía contratar a profesionales que pudieran seguir con su trabajo a lo largo del tiempo.
  2. Contratar una agencia especializada que diera soporte en el inicio del proyecto.

Al final se optó por contar con El Arte de Medir para que le ayudáramos a establecer los primeros pasos del data lake, entre los que se encontraba la elección de la plataforma cloud más adecuada para la construcción del mismo. Para esta elección, se tuvieron en cuenta las grandes plataformas dentro del mercado: Google Cloud, Amazon Web Services y Microsoft Azure. Las tres comparten características y precios similares, por lo que al final se decidieron por aquella que mejor se adaptara a las necesidades de ISDIN en ese momento, Google Cloud. 

El último punto de esta fase fue determinar cuáles serían las métricas y KPIs del data lake. Para ello, lo ideal siempre es hablar con los diferentes stakeholders para conocer cómo ayudarles a dar respuesta a las dudas o problemas que surjan en el día a día. Si esto no es posible, como ocurrió en ISDIN, la elección de métricas dependerá de los objetivos del negocio que a medio y largo plazo puedan ayudar de una manera más directa. 

Fase 3: Construcción 

En esta fase entró en juego uno de los puntos claves del proyecto y, que sin duda, marcaron su rumbo: la construcción y explotación del dato dentro del data lake. Esta construcción se puede hacer de varias maneras: a través de terceros o desde la propia empresa (in house). En el caso de ISDIN, desde el comienzo del proyecto sabían que el data lake tenía que ser in house ya que, aunque el volumen de datos no era muy grande, contaban con fuentes de datos muy diversas (datos digitales, marketplaces, farmacias digitales), y gracias a este tipo de repositorio, tendrían una mayor flexibilidad en la explotación de los datos.

Sin lugar a dudas, contar con un data lake in house tiene muchas ventajas, como no depender de otros. Pero también tiene sus desventajas, como por ejemplo el difícil acceso a los datos en bruto de las plataformas de terceros. Esto se convirtió en uno de los puntos de fricción del desarrollo del proyecto, ya que cada plataforma tiene unas limitaciones con las que hay que saber lidiar. 

A esto hay que añadirle otro punto muy importante: el nivel de detalle de información que se desea almacenar dentro del data lake, conocido como granularidad. ¿Por qué? Pongamos un ejemplo: cuando se quiere analizar los datos de inversión publicitaria en una plataforma como Facebook o Google, estas herramientas ofrecen un nivel de profundidad de análisis que un data lake in house no tiene. Por eso es importante tener claro desde el principio hasta dónde van a llegar los análisis que se vayan a realizar, sobre todo en las primeras fases del proyecto. La parte positiva es que al ser un proyecto vivo y en continua transformación, a medida que evoluciona, también lo hacen las necesidades de la compañía, por lo que se puede ir profundizando es esta granularidad. 

Fase 4: Explotación

En lo que respecta a la explotación del data lake, aunque el verdadero potencial reside en propio repositorio, en ISDIN también le han sacado partido con diferentes elementos, como por ejemplo:

  • Visualizaciones automatizadas de consulta diaria como dashboards en Google Data Studio.
  • Creación de reportes y cuadros de mando ad-hoc para campañas y promociones puntuales. 

En definitiva, lo que empezó como un proyecto básico ha ido evolucionando en el tiempo y hoy día sigue manteniéndose a pleno rendimiento. Cuando se afronta un proyecto como la construcción de un data lake, se puede llegar a pensar que es un proceso largo y complejo, pero nada más lejos de la realidad. En el caso de ISDIN, al partir con un volumen de datos no muy grande, pudieron comenzar a construir una base sólida con la que el negocio fuera evolucionando. En otras palabras, partieron de un Mínimo Producto Viable con el que sacar rendimiento al repositorio casi desde el primer minuto. 

¿Te gustaría saber más acerca de lo que supuso la construcción del data lake para ISDIN? Te invito a que sigas la conversación en el episodio que le dedicamos en el podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

11 Ene 2021 | Gemma, Herramientas

Hay quien piensa que si vas muy lejos, no podrás volver donde están los demás

Una de las plataformas de visualización más demandadas y que mayor éxito está cosechando en los últimos años es sin duda la de Microsoft, Power BI. Y no es para menos, ya que es una herramienta muy cercana al usuario de negocio y con una estrategia muy bien construida: combinar todo el Power Platform con el apartado ofimático de Office 365, lo que asegura una cercanía al usuario de negocio muy alta. 

Para los que trabajamos como profesionales de la visualización y del negocio, es de sobra conocida la potencia de esta herramienta con los datos. Pero ¿cómo es la experiencia de usuario desde el punto de vista de un profesional IT? Se lo pregunto a Gilberto Flórez, jefe de estrategia, arquitectura y tendencias IT en Ferrovial. 

Cuando Power BI aterriza en el área de estrategia, arquitectura y tendencias IT de Ferrovial en 2017, lo hace con cierta inquietud ya que al ser una herramienta de exportación de datos con una distribución descentralizada, se tiene que tener en cuenta ciertos riesgos, como por ejemplo:

  • Los costes.
  • La infrautilización o reutilización de determinados datos.
  • Los efectos colaterales en las descargas de SAP para explotarlas con Power BI.

Para hacer frente a estos riesgos, el primer paso del equipo fue entender bien el funcionamiento de Power BI y estudiar en profundidad todas las posibilidades de monitorización, gobierno, educación y formación de cara a los diferentes negocios de la compañía. Así también pudieron averiguar de qué manera iban a sacar el máximo rendimiento a la herramienta para hacer un buen uso de ella. 

Visualización de datos con Power BI

Cuando se trabaja con plataformas como Power BI, la mayoría de los datos suelen ser los derivados del negocio: ventas, costes, ROIs de campaña, etc. Pero en el caso de Ferrovial quisieron ir un poco más allá, y aprovecharon la reorganización del área financiera de la compañía para ayudar a equiparla de una nueva forma de visualización de sus datos que, dentro de los objetivos del departamento, facilitara la información a todos los stakeholders que la consumían. Sin duda, este fue el gran reto del proyecto y lo que supuso conocer el verdadero potencial de Power BI, ya que en lo que a explotación y visualización del dato se refiere, no es lo mismo intentar ayudar en la toma de decisiones a nivel de negocio que a nivel financiero, puesto que:

  • El indicador de negocio es una visión más agregada, gráfica y perfecta para Power BI. 
  • La información financiera todavía sigue teniendo esa reminiscencia de mostrar datos en tablas, donde Power BI no es tan agradecido. 

Junto a este reto, el equipo de IT también tuvo que poner foco en la comunicación con el stakeholder, ya que al haber trabajado con la herramienta, tenían ciertos conocimientos de su funcionamiento, por lo que hubo que explicarles muy bien cada uno de los aspectos que iban apareciendo a medida que evolucionaba el proyecto. Afortunadamente, esta manera de trabajar hizo que la dinámica de comunicación con el equipo financiero fuera agile. Es decir, que gracias a sus interacciones constantes, se pudo conseguir conjuntamente una herramienta de visualización centrada en la experiencia de usuario y compuesta por una navegación que llegaba al dato en concreto de una manera intuitiva y rápida. Es por resultados como este por lo que es fundamental ir de la mano del stakeholder, y la mejor manera de hacerlo es a través de una comunicación fluida en la que las partes interesadas terminen hablando el mismo idioma. Por eso es tan importante aterrizar bien los conceptos y entender desde un primer momento qué se necesita, por qué y, a partir de ahí, construir sobre ello. 

Aunque parece un esfuerzo extra, todo este proceso es lo que ayudó al departamento de IT a entender lo que el stakeholder necesitaba, sin olvidar la importancia de la usabilidad de la herramienta en cuestión, ya que aunque se maneje el dato perfecto, si la experiencia del usuario final no es buena, el proyecto no funciona. De ahí el éxito de este proyecto.

Business Case Power BI

La evolución del BI

Como hemos podido ver, las plataformas de Business Intelligence y la manera de trabajar en ellas han experimentado una gran evolución. Antiguamente, los proyectos eran más largos y con muchas dificultades tanto en la extracción y almacenamiento de los datos, como en la experiencia del usuario final. Pero con la llegada del cloud y de herramientas como Power BI, se ha experimentado una gran mejora en todos estos procesos y sobre todo, se ha agilizado mucho en la parte de infraestructura, donde hay que construir el almacenamiento para dar valor al negocio. 

En el caso particular de Power BI, Microsoft ha conseguido entrar en casi todas las organizaciones, cambiando su filosofía. Es decir, cuando antes se tardaba meses en cargar el dato, ahora se puede empezar a ver cosas de una manera ágil y rápida en pocos días. Además, y como hemos comentado anteriormente, Power BI es una herramienta intuitiva con la que si cuentas con una formación básica, en proyectos no muy complejos se puede llegar a hacer cosas impactantes y de gran valor para el negocio. Aunque sí es cierto que a la hora enfrentarse a proyectos de mayor envergadura, es necesario contar con una base técnica importante para poder sacar el máximo potencial a la plataforma.

Sin duda, es en la continua evolución de este tipo de herramientas donde se encuentra la clave del éxito, ya que áreas como las de IT se reinventan para poder acompañar al negocio a través de este tipo de plataformas, y a su vez tener cierto control sobre la tecnología. Por eso es importante que IT lo lidere, ya que al final el dato es un activo que puede estar en muchos sitios, por lo que necesita cierto control, gobierno e información para que verdaderamente sea útil de cara al negocio. 

¿Te gustaría profundizar más sobre Power BI? Acompáñanos a Gilberto y a mi en el episodio que le dedicamos en El Arte de Medir Podcast. 

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

02 Dic 2020 | Herramientas

Hasta el infinito… ¡y más allá!

En los últimos meses, Google ha vuelto a dar un giro a su herramienta de análisis Google Analytics. Ha pasado más de un año desde que la compañía nos sorprendiera con la versión beta, la conocida como propiedad Web + App, y por fin el lanzamiento de la versión definitiva se ha hecho realidad: Google Analytics 4 (GA4). En este blog ya compartí las impresiones del equipo de El Arte de Medir de la versión beta, y como no podía ser de otra forma, ha llegado el momento de analizar las posibilidades que presenta GA4, de la mano de Eduardo Sánchez, CDO de El Arte de Medir; y Alba Torres, Ingeniera de datos en El Arte de Medir. 

Con este anuncio, Google Analytics se despide de Universal Analytics (UA) para ofrecer a todos sus usuarios una nueva herramienta de análisis basada en un ecosistema más acorde a las necesidades actuales de los consumidores y usuarios. Entre sus novedades, nos encontramos:

  • La medición unificada en muchos entornos.
  • El volcado de datos en bruto.
  • La posibilidad de volcar en Google Cloud otros productos como Google Atributtion, 

¿Cómo cambia esta versión definitiva el trabajo actual del analista?

La nueva medición unificada

Al igual que vimos en la versión beta, uno de los cambios más significativos de Google Analytics 4, y también más esperado, es la unificación en la medición entre dispositivos. Esto implica un gran cambio con respecto al modelo de datos, convirtiendo así a GA4 en una herramienta completamente nueva compuesta de métodos de recolección distintos a los usados en su versión anterior. Como cabe esperar, estos nuevos métodos afectan directamente a la implementación de la herramienta, de la cual hablaremos más adelante, pero sin duda estos cambios nos van a hacer replantearnos la manera en la que hemos estado midiendo hasta ahora. 

Cómo no podía ser menos, la interfaz también sufre cambios. En la versión gratuita de GA4, por ejemplo, desaparecen los informes predeterminados y, aunque existe la posibilidad de crear informes abiertos, el analista cuenta con el centro de análisis, un espacio en donde crear informes a medida con la ayuda de Google BigQuery y SQL. Esta era una propiedad que también pudimos ver en la versión beta, y de la que estamos seguros que ayudará a visualizar y valorar el trabajo del analista, y por qué no, también hacerlo más divertido.

Cambios a nivel técnico: eventos y BigQuery

Los cambios que supone Google Analytics 4 a nivel técnico también son muy interesantes, sobre todo de cara a su implementación. Como hemos señalado antes, el modelo de datos cambia. Esto quiere decir que el envío de datos también lo hace. ¿Una de las consecuencias directas? La desaparición de los hits (páginas vista, visitas, etc), dando la bienvenida a los nuevos eventos. 

Este es un cambio muy significativo, ya que los nuevos eventos son muy distintos a los que conocíamos hasta ahora. Por ejemplo, en UA se podían clasificar por categoría, acción, etiqueta y valor. En cambio ahora, cada evento tiene un nombre y va acompañado de hasta veinticinco parámetros. 

Esta nueva forma de recoger el dato da como resultado una implementación mucho más estratégica y ajustada a los objetivos de negocio, por lo que es muy importante que el analista tenga muy clara la arquitectura de lo que quiere construir. Por otro lado, el analista se ve empujado a centrarse más en la explotación del dato en bruto, y cómo hemos comentado antes, le llevará a hacer un mayor uso de BigQuery para realizar análisis más profundos, lo que supone todo un reto. 

Es importante señalar que, aunque de cara a la implementación de la herramienta es preferible contar con un perfil técnico, la implementación base es más fácil que la de Universal Analytics. Uno de los factores que lo facilita es que gracias al nuevo etiquetado, se incide en la medición automatizada de links externos, es decir, algo muy parecido a lo que realiza Google Tag Manager.  

Funionalidades Google Analytics 4

Algunos apuntes finales

Como podemos ver, la llegada de Google Analytics 4 supone para el analista un gran desafío, pero es una herramienta necesaria para el análisis del comportamiento del consumidor de hoy. Por ejemplo, ¿cómo hace GA4 para medir si un usuario cambia de dispositivo? La misma herramienta ofrece tres opciones:

  • A través de un User ID o un login.
  • A través de la medición cookie, aunque esta opción tiene fecha de caducidad.
  • A través de Google signals, la tecnología que Google ofrece a herramientas como Analytics para medir con el login de Google. 

Con estas tres opciones, GA4 elige el mejor método de medición que tenga a su alcance. y así mejorar la duplicidad de usuarios y el análisis entre dispositivos, entre otras cosas. 

En definitiva, gracias a este lanzamiento, se abre un nuevo horizonte tanto para las empresas como para los profesionales del dato, lo que indiscutiblemente acarreará cambios importantes a los que debemos permanecer atentos. Por ejemplo, los que afectarán al traspaso de cuadros de mando de una versión a otra. En este aspecto, y desde nuestro punto de vista, sería recomendable hacer una transición paulatina, es decir, empezar por algo sencillo, aunque todo depende del objetivo de negocio que se persiga. Es importante enfatizar que Google Analytics 4 es un producto abierto y aún tiene algunos aspectos que pulir, por lo que realizar un Mínimo Producto Viable para empezar a ver cómo funciona, y sobre todo, cómo encajarlo en las necesidades de cada negocio, sería un buen punto de partida. 

Si quieres profundizar en el funcionamiento de Google Analytics 4, te invito a que sigas la conversación en el episodio que le dedicamos a esta herramientas en nuestros canales de podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 20 de octubre tuve la oportunidad de participar con HubersXP en su evento «DATOS: Un activo muy importante en tu negocio». Siempre es un placer compartir conocimientos con grandes amigos.

21 Jul 2020 | Herramientas

Me he subido a mi mesa para recordar que hay que mirar las cosas de un modo diferente. El mundo se ve distinto desde aquí arriba

El SEO es una disciplina en la que cada vez existe una mayor demanda de perfiles. Y no es para menos ya que hoy en día Google sigue siendo un distribuidor capital de tráfico importante para la mayoría de sitios web, aunque con el paso de los años, el buscador ha ido cambiando, y con él el posicionamiento orgánico. ¿A qué nuevos retos tiene que hacer frente el profesional del SEO hoy? Para ello, he pedido ayuda a mi gran amigo Fernando Maciá, Fundador y CEO de la consultora Human Level, para que nos ponga al día en esta disciplina gracias a su nuevo libro SEO avanzado: casi todo lo que sé sobre posicionamiento web, de Anaya Multimedia. 

Mi primera pregunta para Fernando es qué objetivos persigue en este nuevo libro, y él lo tiene claro: que sirva como un manual sobre el aprendizaje del SEO para todas aquellas personas que ya tienen adquirida cierta experiencia. Además de centrarse en los aspectos más avanzados y novedosos del posicionamiento natural, también cuenta con referencias de calidad en cada tema, para que el lector pueda profundizar y seguir actualizándose.

Tras 20 años de experiencia y unos cuantos libros a sus espaldas, la primera pregunta para Fernando es obligada: ¿cómo ha ido evolucionando la disciplina desde su primer libro?

Cuando nació su libro Posicionamiento en buscadores en 2006, las cosas eran más sencillas, es decir, con tan sólo unas keywords y unos titles ya se veían resultados en Google Analytics. Pero a lo largo de estos años, el SEO, Google y los usuarios han sufrido una gran transformación, y ahora se necesitan muchos más elementos para poder ver resultados. Por ejemplo, se ha pasado de contar como principales factores de relevancia las acciones on page y off page, a prestar atención a otras acciones como: 

  • Análisis de contexto: Cómo Google analiza y tiene en cuenta muchos elementos en el contexto de búsqueda. 
  • Estudio del comportamiento del usuario: Cómo Google hace uso de los datos de sus calificadores de calidad, los cuales posteriormente son tomados como datos de entrenamiento para los procesos de Inteligencia Artificial o aprendizaje automático.
  • Evolución y aprendizaje automático: en donde de alguna manera, para los que están detrás del algoritmo, empiezan a perder el control de hacia dónde se está encaminando.

En este último factor, si bien es cierto que cada vez hay menos pistas de las nuevas actualizaciones, la verdad es que Google se ha vuelto más transparente a lo largo de los años. Ahora existe más documentación procedente del propio buscador o de gente como John Mueller o Danny Sullivan, aunque en ocasiones esta transparencia genera una mayor confusión. 

Google, ¿sólo un buscador?

Muchos estamos de acuerdo que el cambio más significativo con respecto a las funciones de Google a lo largo de estos últimos años, es que ha pasado de ser un buscador distribuidor de tráfico a convertirse en un auténtico competidor para las marcas, ya que trata de primar sus propios resultados. Por ejemplo, a la hora de realizar cualquier búsqueda, las primeras posiciones son ocupadas por los productos de Google. Estos es así por dos factores fundamentales:

  • El protagonismo del smartphone como principal dispositivo de acceso a internet. Esto ha hecho que la visibilidad de los anuncios que en web aparecían a la derecha ocupen las primeras posiciones.
  • La maquetación de los Google Local Pack o respuestas directas. La página de resultados de Google ha cambiado de forma muy significativa. Por ejemplo, aunque un resultado logre posicionarse el número uno en orgánico, se encuentra muy lejos de los 30%-40% de CTR que acreditaba este mismo resultado años atrás. Ahora se situaría entre el 25% y 30% de CTR, aunque eso sí, dependiendo del tipo de búsquedas. 

Ante esto, ¿qué podemos hacer? Pues lamentablemente poco, ya que es imposible competir. Pero eso no significa que el tráfico orgánico no vaya a seguir formando parte importante de la atracción a un sitio web, todo lo contrario. Pero para ello hay que centrar esfuerzos en otros factores como el modelo de intención de búsqueda, en desarrollar más, y sobre todo, en el análisis del customer journey de cara a la generación de contenidos capaces de satisfacer la intención de búsqueda del usuario en cada una de sus fases. 

Seo y Análisis digital en posicionamiento web

SEO y analítica

El SEO y la analítica siempre han ido de la mano, y gracias al análisis del viaje del cliente, ahora mucho más. Hoy en día hacen falta soluciones de análisis que permitan visualizar e integrar datos. Esta parte es vital ya que las empresas cuentan con fuentes de datos muy diferente cuya integración es necesaria para convertir toda esta información en conocimiento y así poder tomar decisiones. Por eso, uno de los retos al que se enfrentan los profesionales del SEO es saber cómo aprovechar estos datos para retroalimentar su estrategia y ver si están impactando realmente en el negocio a todos los niveles. 

Antes de terminar, Fernando ofreció un último consejo a todos los que se queráis dirigir vuestra carrera hacia el SEO: “Es un reto intelectual interminable. Es como estar siempre jugando a pasatiempos y acertijos. Es muy divertido pero a la vez muy intenso y es enormemente gratificante cuando ves en la analítica de las empresas que eres capaz de aportar valor, el cual se convierte en negocio y en una evolución positiva para las empresas”. 

¿Te gustaría seguir con la conversación? Entonces acompáñanos a Fernando y a mi en este episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast
  • 1
  • 2
  • 3
  • …
  • 64
  • Siguiente »

Copyright © 2021 · Política de Privacidad
WordPress · Genesis Framework