¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

Categoría: Herramientas

15 Feb 2022 | Herramientas

Hay animales que nunca duermen. Las ovejas no lo hacen jamás, al menos yo no lo he visto.

Aunque parece que la Inteligencia Artificial es algo que ha surgido desde hace relativamente poco tiempo, en realidad es una disciplina que lleva acompañándonos muchos años. Pero el que se hable ahora más que nunca de ella se lo tenemos que agradecer al avance en lo que respecta a la capacidad de adquisición, tratamiento y elaboración de los datos para que las máquinas puedan procesarlos. Pero, ¿sabemos qué es exactamente y sus aplicaciones reales en el día a día de las empresas? Para responder a ello y mostrarnos el uso que le están dando las compañías, cuento con la experiencia y conocimiento de Aitor Moreno, Responsable del Área de Inteligencia Artificial y Computación Cuántica en Ibermática.

¿Qué es la IA aplicada a los datos y a la empresa?

Desde el punto productivo de la empresa, la Inteligencia Artificial es un conjunto de sistemas, algoritmos y programas que permiten acelerar de una forma exponencial, la toma de decisiones empresariales con respecto al negocio gracias a acciones como cruzar datos históricos, tablas dinámicas, atributos, dimensiones, etc. Si bien es cierto que estas acciones también pueden ser realizadas por humanos, la realidad es que las máquinas, además de hacerlo de forma mucho más rápida, eficiente y automática, también:

  • Ofrecen reglas de negocio que van a explicar el por qué de lo que ocurre. 
  • Predicen qué es lo que va a ocurrir a corto o medio plazo. 
  • Guían a las empresas a saber qué acciones deben potenciar o minimizar de cara a la optimización de recursos.

Sin duda, la IA es una herramienta de gran ayuda para muchos perfiles, como por ejemplo aquellos que analizan datos de negocio. Pero a su vez, está acelerando algunos cambios que afectan a los profesionales de las disciplinas involucradas:

  • Con respecto a la IA, la digitalización y la robotización de procesos, aquellos trabajos repetitivos que no ofrecen un valor añadido ya están desapareciendo para centrarse en trabajos donde la masa gris humana sea potente y disruptiva. 
  • Las máquinas son muy buenas dando respuestas, pero no saben hacer las preguntas adecuadas, y aquí es donde el humano entra en juego. Por ello, aquellas personas que quieran tener una ventaja competitiva en su negocio, serán los que sepan hacer uso de ellas a nivel usuario. Es más, en algún momento habrá que enfrentarse a una brecha de analfabetismo digital avanzado en el cual todo aquel que tenga que tomar una decisión, si no lo hace en base a los datos que lancen estos sistemas, perderá competitividad. 

Cómo hacer frente un proyectos de IA

En el área de Inteligencia Artificial y Computación Cuántica de Ibermática, llevan desde 2007 creando proyectos de IA en prácticamente todos los sectores: desde médicos, industriales, de marketing, educación, etc. Y en todos los proyectos en los que trabajan, buscan la excelencia. En otras palabras, mejorar dentro de los procesos de los clientes aquello que no pueden mejorar más en base a su experiencia pasada. Al final su objetivo es ayudar a los clientes a que dejen de usar el 80% de su tiempo en analizar datos, para que lo usen en analizar las conclusiones que las máquinas ya dan sobre esos datos. 

A la hora de abordar estos proyectos de la manera más óptima, han comprobado que la clave es la personalización. Para conseguirla, hacen uso de la metodología CRISP-DM con la que, además de dar respuesta a las necesidades del cliente, van directamente a descubrir qué es lo que realmente quieren y para qué lo quieren. Para ello, parten de la siguiente pregunta: “¿cuál es el objetivo de negocio a buscar con una solución de IA?”. Con la respuesta que reciban, ya tienen todo lo necesario para desgranar qué tipo de modelado van a necesitar, qué algoritmia, etc.

En el momento de la puesta en marcha del proyecto, y como ya hemos comentado antes, se hace un acercamiento ágil con metodologías como Scrum o Jira. Esto permite, de forma muy rápida, saber si se va a poder alcanzar el objetivo marcado o no. Si se supera el umbral, el proyecto sigue adelante. Sino, se da marcha atrás para revisar los datos y descubrir en dónde se está fallando. Es por cosas así por lo que siempre es recomendable medirlo todo muy bien de forma objetiva y empezar con pequeños proyectos que den mucho valor a la empresa. 

Inteligencia Artificial aplicada a los datos y la empresa

Equipo implicado

Una parte fundamental de cualquier proyecto es el equipo humano. En el caso de los proyectos de IA, Aitor maneja unos cinco perfiles:

  • El analista de datos: Es un perfil muy funcional que sabe hablar con el cliente en su mismo idioma. En otras palabras, traduce lo que quiere el cliente a cada uno de los otros perfiles implicados en el proyecto. Está muy especializado en su vertical y sabe hablar desde esa funcionalidad y contexto. En los proyectos de IA se habla mucho de semántica y la labor del analista de datos es traducir esos datos dentro de un contexto. 
  • Arquitecto de datos: Es el encargado de dimensionar los equipos y los sistemas que van a dar soporte a todo el proyecto de IA. 
  • Ingeniero de datos: Habla tanto con el analista de datos como con el cliente para entender los datos, ver qué datos tiene que recoger, si faltan datos, la calidad del dato o su potencia predictiva, por ejemplo. Son los que más importancia tienen en el proyecto. 
  • Científico de datos: Cuando el ingeniero de datos ha certificado la calidad y que con esos datos se pueden realizar los “para qués” que el analista de datos ha extractado del cliente, son los encargados de trabajar en el modelado más atractivo del proyecto.
  • Diseñador del proyecto: cuando el científico de datos termina, se lo pasa al diseñador que es quién traduce visualmente estos datos analíticos en un cuadro de mando, aplicación web, aplicación móvil, app… O sea, que traduce los resultados a algo visual y comprensible para el usuario final. 

¿Te has quedado con ganas de más? No te pierdas la conversación que mantuvieron Aitor y Eduardo en el episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • Marc Cortés me invitó a hablar de analítica digital, cómo entender los datos y generar mejores resultados a partir de ellos, en el episodio 10 de su podcast «Transformación 4.0».

21 Dic 2021 | Herramientas

Todos los caminos que tenemos que andar son difíciles y todas las luces que nos guían se están apagando

Uno de los temas de moda entre los analistas en estos momentos es todo lo que tiene que ver con la medición, o en muchos casos la ausencia de ella, provocada tanto por el consentimiento de cookies (ePrivacy) como por el Reglamento General de Protección de Datos (GDPR). Por ello, hemos querido que Rafael Jiménez, fundador de SealMetrics, solución de cookieless tracking, y CEO y fundador de Adinton, empresa que desarrolla soluciones de marketing de atribución, para que nos ayude a medir la privacidad del usuario respetando la ley.  

La solución SealMetrics

En El Arte de Medir by Ibermática nos encontramos con una problemática recurrente entre nuestros clientes relacionada con la analítica post GDPR y ePrivacy. Estas dos nuevas normativas están impidiendo que muchas herramientas de análisis como Google Analytics, ya no recoja el 100% de la medición. Con este escenario y tras investigar en el mercado, vimos que SealMetrics es una herramienta que puede ayudar a rellenar ese espacio. ¿Cómo surgió y cómo funciona? 

Antes de fundar SealMetrics, Rafael ya contaba con una herramienta de modelos de atribución, Adinton, con la que miden teniendo en cuenta las cookies. Pero cuando salieron a la luz los primeros borradores de la GDPR y se empezó a hablar de la ePrivacy Regulation, observaron que todo ello iba a afectar directamente a cómo se estaba midiendo hasta ese momento. Con este cambio de escenario, empezaron a desarrollar un sistema cookieless para detectar el fraude publicitario con el cual consiguieron detectar si un usuario era el mismo que estaba clicando en una publicidad aunque borrase las cookies y cambiara su IP. Y gracias a este desarrollo nació SealMetrics, un sistema de datos agregados que no analiza individualmente al usuario y además intentan añadir estadísticas útiles para ayudar al marketer de cara a la toma de decisiones. En otras palabras, basándose en tecnología cookieless, analizan toda la información y el tráfico de una página web y, a partir de ahí, ofrecen datos como las conversiones por fuente de tráfico, las páginas más visitadas o las páginas que generan más clics.

Es importante dejar claro que esta no es una herramienta de analítica digital como tal, sino que más bien es una solución que permite entender los datos agregados de tráfico o de fuentes, sin tener que requerir del consentimiento previo del usuario ya que no se hace uso de las cookies. La visión de Sealmetrics, y su lema desde el primer día, es ir acorde y cumplir con lo que la normativa establece en lo que respecta a la privacidad del usuario y, además, dar información nutrida al marketer.

Herramientas de medición que respetan la privacidad del usuario

Cómo combatir la pérdida de información

A la hora de medir con el nuevo entorno cookieless, se puede ver cómo las diferencias a veces rondan en el orden de un 30% o 40% de pérdida de información, lo que sin duda supone un problema a la hora de analizar los datos. Es por ello que gracias a soluciones como esta, los equipos de analítica pueden entender la diferencia que existe con respecto a los datos de la herramienta de analytics que se use, junto con los datos reales para poder estimar mejor esta pérdida de información. 

A la hora de combatir esta pérdida, aunque el conocido como faldón de cookies pueda ser un elemento relevante de cara al tráfico, es incluso más importante tener en cuenta el tipo de tráfico que cada compañía genera. En este aspecto, lo que han observado desde SealMetrics es que con respecto a la desviación, por ejemplo, han llegado a tener casos de un 85% de tráfico que no aceptaba las cookies. Al analizar estos casos, se dieron cuenta que la empresa contaba con un faldón estándar de cookies. Entonces, ¿por qué esta discrepancia? La respuesta la encontraron en el tipo de tráfico que se captaba. Es decir, si la compañía cuenta con mucho tráfico SEO informacional y una gran cantidad de contenido a la que el usuario va a informarse y se va, ese perfil normalmente no acepta las cookies. En cambio, si la empresa cuenta con una marca potente que genera confianza, el usuario suele aceptar cookies. 

Cómo medir sin cookies

A lo largo de este post hemos visto cómo funciona SealMetrics, pero, ¿cómo consigue medir las visitas sin tener las cookies? Para ello intentan huir de todo lo que son cajas negras, machine learning y modelados. ¿Por qué? Porque cuando se usa machine learning no se puede demostrar si son privacy first. En lo que respecta a las visitas, lo han resuelto de una manera que no es exacta, pero sí es bastante fiel, y es haciendo uso de la referer, la cual permite a los servidores identificar de dónde los visitan las personas. Si la referer es el mismo dominio, entonces es una página vista y así pueden trabajar de forma agregada. Por otro lado, también han creado un parámetro o un ID aleatorio que trabaja como un ID de fuente de tráfico y que va contando las páginas vista que ese ID va visitando a medida que el usuario navega. Es decir, el ID refleja el origen del tráfico y va arrastrando en cada nueva página que el usuario visite. En el momento que hay una conversión, se identifica el ID correspondiente con la información que ha ido arrastrando y así se genera una conversión a esa fuente de tráfico.

Como podemos ver, desde SealMetrics no buscan tener un sistema cookieless, sino que lo que buscan es un sistema Privacy First con el que sus clientes tengan la confianza de que cumplen la normativa y, además, sea un complemento a las herramientas de analítica para saber que los datos que miden cumplen con los estándares de legalidad. 

¿Quieres saber más sobre este tema? Puedes descargarte nuestro manual sobre Cookieless y no te pierdas la conversación entre Rafael y Eduardo Sánchez, que se estrena como presentador de El Arte de Medir Podcast: 

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

11 Ene 2021 | Gemma, Herramientas

Hay quien piensa que si vas muy lejos, no podrás volver donde están los demás

Una de las plataformas de visualización más demandadas y que mayor éxito está cosechando en los últimos años es sin duda la de Microsoft, Power BI. Y no es para menos, ya que es una herramienta muy cercana al usuario de negocio y con una estrategia muy bien construida: combinar todo el Power Platform con el apartado ofimático de Office 365, lo que asegura una cercanía al usuario de negocio muy alta. 

Para los que trabajamos como profesionales de la visualización y del negocio, es de sobra conocida la potencia de esta herramienta con los datos. Pero ¿cómo es la experiencia de usuario desde el punto de vista de un profesional IT? Se lo pregunto a Gilberto Flórez, jefe de estrategia, arquitectura y tendencias IT en Ferrovial. 

Cuando Power BI aterriza en el área de estrategia, arquitectura y tendencias IT de Ferrovial en 2017, lo hace con cierta inquietud ya que al ser una herramienta de exportación de datos con una distribución descentralizada, se tiene que tener en cuenta ciertos riesgos, como por ejemplo:

  • Los costes.
  • La infrautilización o reutilización de determinados datos.
  • Los efectos colaterales en las descargas de SAP para explotarlas con Power BI.

Para hacer frente a estos riesgos, el primer paso del equipo fue entender bien el funcionamiento de Power BI y estudiar en profundidad todas las posibilidades de monitorización, gobierno, educación y formación de cara a los diferentes negocios de la compañía. Así también pudieron averiguar de qué manera iban a sacar el máximo rendimiento a la herramienta para hacer un buen uso de ella. 

Visualización de datos con Power BI

Cuando se trabaja con plataformas como Power BI, la mayoría de los datos suelen ser los derivados del negocio: ventas, costes, ROIs de campaña, etc. Pero en el caso de Ferrovial quisieron ir un poco más allá, y aprovecharon la reorganización del área financiera de la compañía para ayudar a equiparla de una nueva forma de visualización de sus datos que, dentro de los objetivos del departamento, facilitara la información a todos los stakeholders que la consumían. Sin duda, este fue el gran reto del proyecto y lo que supuso conocer el verdadero potencial de Power BI, ya que en lo que a explotación y visualización del dato se refiere, no es lo mismo intentar ayudar en la toma de decisiones a nivel de negocio que a nivel financiero, puesto que:

  • El indicador de negocio es una visión más agregada, gráfica y perfecta para Power BI. 
  • La información financiera todavía sigue teniendo esa reminiscencia de mostrar datos en tablas, donde Power BI no es tan agradecido. 

Junto a este reto, el equipo de IT también tuvo que poner foco en la comunicación con el stakeholder, ya que al haber trabajado con la herramienta, tenían ciertos conocimientos de su funcionamiento, por lo que hubo que explicarles muy bien cada uno de los aspectos que iban apareciendo a medida que evolucionaba el proyecto. Afortunadamente, esta manera de trabajar hizo que la dinámica de comunicación con el equipo financiero fuera agile. Es decir, que gracias a sus interacciones constantes, se pudo conseguir conjuntamente una herramienta de visualización centrada en la experiencia de usuario y compuesta por una navegación que llegaba al dato en concreto de una manera intuitiva y rápida. Es por resultados como este por lo que es fundamental ir de la mano del stakeholder, y la mejor manera de hacerlo es a través de una comunicación fluida en la que las partes interesadas terminen hablando el mismo idioma. Por eso es tan importante aterrizar bien los conceptos y entender desde un primer momento qué se necesita, por qué y, a partir de ahí, construir sobre ello. 

Aunque parece un esfuerzo extra, todo este proceso es lo que ayudó al departamento de IT a entender lo que el stakeholder necesitaba, sin olvidar la importancia de la usabilidad de la herramienta en cuestión, ya que aunque se maneje el dato perfecto, si la experiencia del usuario final no es buena, el proyecto no funciona. De ahí el éxito de este proyecto.

Business Case Power BI

La evolución del BI

Como hemos podido ver, las plataformas de Business Intelligence y la manera de trabajar en ellas han experimentado una gran evolución. Antiguamente, los proyectos eran más largos y con muchas dificultades tanto en la extracción y almacenamiento de los datos, como en la experiencia del usuario final. Pero con la llegada del cloud y de herramientas como Power BI, se ha experimentado una gran mejora en todos estos procesos y sobre todo, se ha agilizado mucho en la parte de infraestructura, donde hay que construir el almacenamiento para dar valor al negocio. 

En el caso particular de Power BI, Microsoft ha conseguido entrar en casi todas las organizaciones, cambiando su filosofía. Es decir, cuando antes se tardaba meses en cargar el dato, ahora se puede empezar a ver cosas de una manera ágil y rápida en pocos días. Además, y como hemos comentado anteriormente, Power BI es una herramienta intuitiva con la que si cuentas con una formación básica, en proyectos no muy complejos se puede llegar a hacer cosas impactantes y de gran valor para el negocio. Aunque sí es cierto que a la hora enfrentarse a proyectos de mayor envergadura, es necesario contar con una base técnica importante para poder sacar el máximo potencial a la plataforma.

Sin duda, es en la continua evolución de este tipo de herramientas donde se encuentra la clave del éxito, ya que áreas como las de IT se reinventan para poder acompañar al negocio a través de este tipo de plataformas, y a su vez tener cierto control sobre la tecnología. Por eso es importante que IT lo lidere, ya que al final el dato es un activo que puede estar en muchos sitios, por lo que necesita cierto control, gobierno e información para que verdaderamente sea útil de cara al negocio. 

¿Te gustaría profundizar más sobre Power BI? Acompáñanos a Gilberto y a mi en el episodio que le dedicamos en El Arte de Medir Podcast. 

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

02 Dic 2020 | Herramientas

Hasta el infinito… ¡y más allá!

En los últimos meses, Google ha vuelto a dar un giro a su herramienta de análisis Google Analytics. Ha pasado más de un año desde que la compañía nos sorprendiera con la versión beta, la conocida como propiedad Web + App, y por fin el lanzamiento de la versión definitiva se ha hecho realidad: Google Analytics 4 (GA4). En este blog ya compartí las impresiones del equipo de El Arte de Medir de la versión beta, y como no podía ser de otra forma, ha llegado el momento de analizar las posibilidades que presenta GA4, de la mano de Eduardo Sánchez, CDO de El Arte de Medir; y Alba Torres, Ingeniera de datos en El Arte de Medir. 

Con este anuncio, Google Analytics se despide de Universal Analytics (UA) para ofrecer a todos sus usuarios una nueva herramienta de análisis basada en un ecosistema más acorde a las necesidades actuales de los consumidores y usuarios. Entre sus novedades, nos encontramos:

  • La medición unificada en muchos entornos.
  • El volcado de datos en bruto.
  • La posibilidad de volcar en Google Cloud otros productos como Google Atributtion, 

¿Cómo cambia esta versión definitiva el trabajo actual del analista?

La nueva medición unificada

Al igual que vimos en la versión beta, uno de los cambios más significativos de Google Analytics 4, y también más esperado, es la unificación en la medición entre dispositivos. Esto implica un gran cambio con respecto al modelo de datos, convirtiendo así a GA4 en una herramienta completamente nueva compuesta de métodos de recolección distintos a los usados en su versión anterior. Como cabe esperar, estos nuevos métodos afectan directamente a la implementación de la herramienta, de la cual hablaremos más adelante, pero sin duda estos cambios nos van a hacer replantearnos la manera en la que hemos estado midiendo hasta ahora. 

Cómo no podía ser menos, la interfaz también sufre cambios. En la versión gratuita de GA4, por ejemplo, desaparecen los informes predeterminados y, aunque existe la posibilidad de crear informes abiertos, el analista cuenta con el centro de análisis, un espacio en donde crear informes a medida con la ayuda de Google BigQuery y SQL. Esta era una propiedad que también pudimos ver en la versión beta, y de la que estamos seguros que ayudará a visualizar y valorar el trabajo del analista, y por qué no, también hacerlo más divertido.

Cambios a nivel técnico: eventos y BigQuery

Los cambios que supone Google Analytics 4 a nivel técnico también son muy interesantes, sobre todo de cara a su implementación. Como hemos señalado antes, el modelo de datos cambia. Esto quiere decir que el envío de datos también lo hace. ¿Una de las consecuencias directas? La desaparición de los hits (páginas vista, visitas, etc), dando la bienvenida a los nuevos eventos. 

Este es un cambio muy significativo, ya que los nuevos eventos son muy distintos a los que conocíamos hasta ahora. Por ejemplo, en UA se podían clasificar por categoría, acción, etiqueta y valor. En cambio ahora, cada evento tiene un nombre y va acompañado de hasta veinticinco parámetros. 

Esta nueva forma de recoger el dato da como resultado una implementación mucho más estratégica y ajustada a los objetivos de negocio, por lo que es muy importante que el analista tenga muy clara la arquitectura de lo que quiere construir. Por otro lado, el analista se ve empujado a centrarse más en la explotación del dato en bruto, y cómo hemos comentado antes, le llevará a hacer un mayor uso de BigQuery para realizar análisis más profundos, lo que supone todo un reto. 

Es importante señalar que, aunque de cara a la implementación de la herramienta es preferible contar con un perfil técnico, la implementación base es más fácil que la de Universal Analytics. Uno de los factores que lo facilita es que gracias al nuevo etiquetado, se incide en la medición automatizada de links externos, es decir, algo muy parecido a lo que realiza Google Tag Manager.  

Funionalidades Google Analytics 4

Algunos apuntes finales

Como podemos ver, la llegada de Google Analytics 4 supone para el analista un gran desafío, pero es una herramienta necesaria para el análisis del comportamiento del consumidor de hoy. Por ejemplo, ¿cómo hace GA4 para medir si un usuario cambia de dispositivo? La misma herramienta ofrece tres opciones:

  • A través de un User ID o un login.
  • A través de la medición cookie, aunque esta opción tiene fecha de caducidad.
  • A través de Google signals, la tecnología que Google ofrece a herramientas como Analytics para medir con el login de Google. 

Con estas tres opciones, GA4 elige el mejor método de medición que tenga a su alcance. y así mejorar la duplicidad de usuarios y el análisis entre dispositivos, entre otras cosas. 

En definitiva, gracias a este lanzamiento, se abre un nuevo horizonte tanto para las empresas como para los profesionales del dato, lo que indiscutiblemente acarreará cambios importantes a los que debemos permanecer atentos. Por ejemplo, los que afectarán al traspaso de cuadros de mando de una versión a otra. En este aspecto, y desde nuestro punto de vista, sería recomendable hacer una transición paulatina, es decir, empezar por algo sencillo, aunque todo depende del objetivo de negocio que se persiga. Es importante enfatizar que Google Analytics 4 es un producto abierto y aún tiene algunos aspectos que pulir, por lo que realizar un Mínimo Producto Viable para empezar a ver cómo funciona, y sobre todo, cómo encajarlo en las necesidades de cada negocio, sería un buen punto de partida. 

Si quieres profundizar en el funcionamiento de Google Analytics 4, te invito a que sigas la conversación en el episodio que le dedicamos a esta herramientas en nuestros canales de podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 20 de octubre tuve la oportunidad de participar con HubersXP en su evento «DATOS: Un activo muy importante en tu negocio». Siempre es un placer compartir conocimientos con grandes amigos.

21 Jul 2020 | Herramientas

Me he subido a mi mesa para recordar que hay que mirar las cosas de un modo diferente. El mundo se ve distinto desde aquí arriba

El SEO es una disciplina en la que cada vez existe una mayor demanda de perfiles. Y no es para menos ya que hoy en día Google sigue siendo un distribuidor capital de tráfico importante para la mayoría de sitios web, aunque con el paso de los años, el buscador ha ido cambiando, y con él el posicionamiento orgánico. ¿A qué nuevos retos tiene que hacer frente el profesional del SEO hoy? Para ello, he pedido ayuda a mi gran amigo Fernando Maciá, Fundador y CEO de la consultora Human Level, para que nos ponga al día en esta disciplina gracias a su nuevo libro SEO avanzado: casi todo lo que sé sobre posicionamiento web, de Anaya Multimedia. 

Mi primera pregunta para Fernando es qué objetivos persigue en este nuevo libro, y él lo tiene claro: que sirva como un manual sobre el aprendizaje del SEO para todas aquellas personas que ya tienen adquirida cierta experiencia. Además de centrarse en los aspectos más avanzados y novedosos del posicionamiento natural, también cuenta con referencias de calidad en cada tema, para que el lector pueda profundizar y seguir actualizándose.

Tras 20 años de experiencia y unos cuantos libros a sus espaldas, la primera pregunta para Fernando es obligada: ¿cómo ha ido evolucionando la disciplina desde su primer libro?

Cuando nació su libro Posicionamiento en buscadores en 2006, las cosas eran más sencillas, es decir, con tan sólo unas keywords y unos titles ya se veían resultados en Google Analytics. Pero a lo largo de estos años, el SEO, Google y los usuarios han sufrido una gran transformación, y ahora se necesitan muchos más elementos para poder ver resultados. Por ejemplo, se ha pasado de contar como principales factores de relevancia las acciones on page y off page, a prestar atención a otras acciones como: 

  • Análisis de contexto: Cómo Google analiza y tiene en cuenta muchos elementos en el contexto de búsqueda. 
  • Estudio del comportamiento del usuario: Cómo Google hace uso de los datos de sus calificadores de calidad, los cuales posteriormente son tomados como datos de entrenamiento para los procesos de Inteligencia Artificial o aprendizaje automático.
  • Evolución y aprendizaje automático: en donde de alguna manera, para los que están detrás del algoritmo, empiezan a perder el control de hacia dónde se está encaminando.

En este último factor, si bien es cierto que cada vez hay menos pistas de las nuevas actualizaciones, la verdad es que Google se ha vuelto más transparente a lo largo de los años. Ahora existe más documentación procedente del propio buscador o de gente como John Mueller o Danny Sullivan, aunque en ocasiones esta transparencia genera una mayor confusión. 

Google, ¿sólo un buscador?

Muchos estamos de acuerdo que el cambio más significativo con respecto a las funciones de Google a lo largo de estos últimos años, es que ha pasado de ser un buscador distribuidor de tráfico a convertirse en un auténtico competidor para las marcas, ya que trata de primar sus propios resultados. Por ejemplo, a la hora de realizar cualquier búsqueda, las primeras posiciones son ocupadas por los productos de Google. Estos es así por dos factores fundamentales:

  • El protagonismo del smartphone como principal dispositivo de acceso a internet. Esto ha hecho que la visibilidad de los anuncios que en web aparecían a la derecha ocupen las primeras posiciones.
  • La maquetación de los Google Local Pack o respuestas directas. La página de resultados de Google ha cambiado de forma muy significativa. Por ejemplo, aunque un resultado logre posicionarse el número uno en orgánico, se encuentra muy lejos de los 30%-40% de CTR que acreditaba este mismo resultado años atrás. Ahora se situaría entre el 25% y 30% de CTR, aunque eso sí, dependiendo del tipo de búsquedas. 

Ante esto, ¿qué podemos hacer? Pues lamentablemente poco, ya que es imposible competir. Pero eso no significa que el tráfico orgánico no vaya a seguir formando parte importante de la atracción a un sitio web, todo lo contrario. Pero para ello hay que centrar esfuerzos en otros factores como el modelo de intención de búsqueda, en desarrollar más, y sobre todo, en el análisis del customer journey de cara a la generación de contenidos capaces de satisfacer la intención de búsqueda del usuario en cada una de sus fases. 

Seo y Análisis digital en posicionamiento web

SEO y analítica

El SEO y la analítica siempre han ido de la mano, y gracias al análisis del viaje del cliente, ahora mucho más. Hoy en día hacen falta soluciones de análisis que permitan visualizar e integrar datos. Esta parte es vital ya que las empresas cuentan con fuentes de datos muy diferente cuya integración es necesaria para convertir toda esta información en conocimiento y así poder tomar decisiones. Por eso, uno de los retos al que se enfrentan los profesionales del SEO es saber cómo aprovechar estos datos para retroalimentar su estrategia y ver si están impactando realmente en el negocio a todos los niveles. 

Antes de terminar, Fernando ofreció un último consejo a todos los que se queráis dirigir vuestra carrera hacia el SEO: “Es un reto intelectual interminable. Es como estar siempre jugando a pasatiempos y acertijos. Es muy divertido pero a la vez muy intenso y es enormemente gratificante cuando ves en la analítica de las empresas que eres capaz de aportar valor, el cual se convierte en negocio y en una evolución positiva para las empresas”. 

¿Te gustaría seguir con la conversación? Entonces acompáñanos a Fernando y a mi en este episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast
  • 1
  • 2
  • 3
  • …
  • 5
  • Siguiente »

Copyright © 2023 · Política de Privacidad
WordPress · Genesis Framework