¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

Categoría: Herramientas

21 May 2018 | Herramientas

Deslízate dentro del ojo de tu mente, no sabes si podrías encontrar un mejor lugar para jugar

A raíz de los podcast en lo que hablé de data viz, muchos oyentes me han hecho llegar sus dudas a la hora de saber la diferencia entre las herramientas de visualización a la hora de crear un cuadro de mando.

En este programa, conté con la presencia de Jorge Llorente, analista digital en El Arte de Medir, para hablar de las diferentes herramientas de visualización que hay en el mercado para crear nuestro cuadro de mando y el potencial de cada una.

Empezamos con un poco de historia. Excel ha estado con los analistas desde el principio de la profesión tanto a la hora de tratar los datos como a la hora de visualizarlos. Con el paso de los años han ido surgiendo otras herramientas cuyo potencial es mucho mayor, pero sin dejar de lado Excel, ya que su uso dependerá de los requerimientos del proyecto que tengamos entre manos. Si el proyecto es posible abarcarlo en Excel, contamos con Supermetrics, una API muy asequible con la que automatizar la extracción de datos en Google Analytics y con la que podemos montar unos dashboards muy atractivos y potentes.

Pero como muchos saben, Excel tiene limitaciones ya que es una herramienta local. En otras palabras, no todo el mundo puede tener acceso y no se puede poner a la disposición de muchos usuarios. A pesar de esto, Excel es una herramienta muy flexible que permite establecer la capa de datos al gusto. Ha mejorado mucho a nivel visual, es muy intuitiva y es una de las indicadas para alguien que empiece a realizar dashboards por primera vez.

En el siguiente escalón que tenemos de herramientas de visualización, existe una gratuita relativamente nueva: Google Data Studio. Es una apuesta de Google que acabará teniendo mucho potencial para sus clientes, sobre todo los que trabajan solo con datos online como Google Analytics. La capacidad de actualización de datos y de generación de gráficos es muy ágil, y la herramienta en sí es rápida e intuitiva.

A la hora de hacer una comparación Data Studio y Excel, ambas herramientas ofrecen gráficos preestablecidos. Sin embargo, el abanico de Data Studio es un poco más limitado. A pesar de ello, si Google apuesta por la herramienta, lo más probable es que la vaya desarrollando rápidamente a corto o medio plazo, como ha hecho con el resto de la Suite, lo que nos lleva al pro más importante de Data Studio: se conecta muy bien con todo el universo Google.

Esto es fundamental dado que existen muchas empresas en España que funcionan con Google Analytics en su versión 360. Además, y cómo hemos dicho antes, trabajar en Excel implica trabajar en local, lo que dificulta la interactuación con la herramienta y le vuelve más compleja. Esto no pasa con Google Data Studio, ya que al ser todo online, ofrece una mayor facilidad de colaboración e interactuación. También ofrece la posibilidad de filtrar los datos de un modo muy óptimo, e incluso de forma más flexible que si lo hiciéramos con Excel.

Otra herramienta de visualización (de pago, pero muy asequible, menos de 30€/mes) es Klipfolio.

Esta es una herramienta que requiere una buena estructuración mental como base para poder llevar a cabo todas las consultas que son necesarias para extraer los datos o representarlos. Es muy potente, ya que da la posibilidad de realizar visualizaciones más allá de lo que pueda ofrecer Excel o Data Studio.

Aunque es necesario realizar una programación previa antes del tratamiento de los datos para su visualización, uno de los puntos fuertes de Klipfolio es que se puede integrar los datos desde diversas fuentes de datos, incluso los obtenidos tanto de fuentes offline como online, y así visualizar dashboards que contengan información de ambos mundos. Pero es importante tener en cuenta que el complemento que debe tener el analista de programación y de poder ajustar bien las llamadas a un Klipfolio es infinitamente más complejo que hacerlo desde Data Studio, por ejemplo.

Le ha tocado el turno a unas de las herramientas de visualización más importante a día de hoy: Tableau. Es muy intuitiva y está orientada directamente a personas sin experiencia. Dispone de visualizaciones preestablecidas, pero si se adquieren algunos conocimientos, las composiciones que se pueden llegar a hacer son muy interesantes.

Uno de las grandes ventajas de Tableau es que cuenta con una comunidad muy grande, por lo que a la hora de buscar apoyo o ayuda online, es muy sencillo. Pero sin lugar a dudas, el gran potencial de esta herramienta es la posibilidad de poder bucear en los datos.

Al ofrecer más posibilidades, se convierte en una herramienta costosa, ya que las licencias tienen un precio considerablemente más elevado. Por eso hay que medir si merece la pena hacerse con ella o con Data Studio sería suficiente. Todo depende del modelo de madurez y del negocio en cuestión.

En relación con el análisis de Big Data, CRM y almacenamiento y gestión de datos, tanto QlikView y Qlik Sense son las mejor posicionadas.

El uso de cada herramienta dependerá siempre de las necesidades del cliente. Cuando la integración es muy grande y la magnitud de datos desmesurada, cómo por ejemplo un proyecto de Business Intelligence, no podemos limitarnos al empleo de Data Studio, sino que tenemos que ir más allá. Uno de sus contras es que tanto QlikView como Qlik Sense no son tan intuitivas de manejar, pero al final lo que importa es que el receptor obtenga la información correctamente extraída y procesada.

Dentro de este grupo, Microsoft ha sacado Power BI: una herramienta multitarea cuyo uso va en continuo aumento. Es muy útil de cara a proyectos grandes, ya que permite integrarse con varias fuentes. Cómo comentábamos antes, la mayoría de los analistas están acostumbrados a integrar con Excel, y Power BI emplea un lenguaje de programación muy parecido llamado Dash.

Uno de los grandes pros de Power BI es que da la posibilidad de importar visualizaciones ya empaquetadas. Es decir, que tenemos la posibilidad de acudir a reposiciones en comunidades de esta herramienta online, escoger la visualización que más nos guste, importarla a local e instalarla en nuestro PowerBI. Además, también podemos importar una visualización que haya creado otra persona y poder emplearla como queramos.

Al igual que pasara con Tableau, en Power BI la comunidad es muy importante ya que es la base para poder evolucionar con la herramienta y saber sacarle el mejor partido posible.

¿Cuál es la mejor herramienta para mi negocio?

Pongamos un ejemplo: tenemos un cliente que lo que quiere es un dashboard estratégico acerca de lo que ha pasado en el entorno online, además de alguna métrica del offline (como puede ser un ecommerce) y así conocer si el crecimiento o decrecimiento de su negocio es de la parte online, offline o global. ¿Por cuál nos deberíamos decantar?

• En el caso de que el cliente se mueva sobre todo en el mundo online, la más apropiada sería Google Data Studio, siempre y cuando la magnitud de datos no sea excesivamente grande.

• En caso de que se entremezclen fuentes online y offline, de ventas, devoluciones o datos de marketing, podemos emplear otras herramientas, pero sin dejar de lado Data Studio. Tendemos a asociarla únicamente con Google Analytics, pero también da la posibilidad de conectar con otras fuentes e incluso bases de datos.

Al final todo depende de la magnitud de los datos. Si observamos que las necesidades van en aumento y que el negocio crece, nos podemos plantear la posibilidad de optar por otra herramienta de pago ya sea Klipfolio, Tableau, etc.

Hay que tener en cuenta que cuando se empieza una estrategia o cultura de medición en una empresa, muchas veces el hecho de invertir dinero en la visualización de datos es complicado. Esto nos lleva a emplear Data Studio como estrategia para lo que queremos mostrar. Con su uso podemos crear una necesidad en los stakeholders o personas dedicadas a la toma de decisiones a través de los datos, y a partir de ahí decantarnos por la que mejor nos convenga.Herramientas¿Cuántas horas hace falta invertir para elaborar un buen Data Studio o uno normal?

Si la fuente de datos es solo de Google Analytics o alguna otra fuente de datos externa con poco volumen de datos, puede estar listo en un periodo de 10 a 15 horas, dependiendo de la complejidad. Y para dejarlo plenamente finalizado, alrededor de dos o tres días.

En algunas herramientas más complicadas, como Tableau por ejemplo, dependerá del nivel de aprendizaje que tengamos, pero deberemos necesitar bastante más tiempo. Ya no es solo quedarnos en la visualización, sino unir unas visualizaciones con otras, montar el dashboard, hacer que sea interactivo, incluirle filtros, parámetros, etc. De ahí que el proyecto sea de un ámbito mucho mayor.

Si quieres ahondar más en el tema, aquí te dejo el podcast completo con la intervención de Jorge:

19 Mar 2018 | Herramientas

Del tiempo perdido en causas perdidas, nunca me he arrepentido, ni estando vencido

Contenido realizado con la colaboración de Ana Duato, Analista digital en El Arte de Medir; experta en análisis de la implementación técnica en Google Analytics, y en diseño de implementaciones estratégicas enfocadas a los objetivos de negocio.

La elaboración de una apropiada hoja de ruta a seguir sirve de base para ser capaces de realizar una correcta analítica digital con herramientas como Google Analytics. Esta hoja representa los pasos para garantizar que efectivamente sabemos lo que estamos haciendo, cómo lo estamos midiendo, y si tenemos todo lo necesario para afrontar una buena estrategia de datos.

Tanto las herramientas de implementación como de analítica deberían estar alineadas con los objetivos de negocio. Esto se debe a que las herramientas no vienen personalizadas por defecto, ya que pueden ser modificadas de forma que se adapten a la medición tanto de un blog, como un sitio de venta online, uno destinado a contenido…

Banner_Whitepaper

Por lo tanto, ¿Dónde está realmente el potencial de estas herramientas?

En adaptarlas a nuestras necesidades dependiendo de los objetivos de negocio, para entender realmente qué está pasado, porqué, y como se puedo poner solución.

Por ese motivo, al igual que no podemos analizar los datos sin haber pasado antes por estudiar los objetivos, tenemos que conocer qué queremos hacer con esos datos.

Una buena implementación nos servirá de base para conseguir unos datos de calidad. La confianza en los datos es delicada y fácil de perder, por lo que es primordial realizar una auditoría para garantizar que la calidad del dato es la correcta.

Debemos especificar qué estamos midiendo y porqué lo estamos midiendo.

Pasos a seguir de cara a la auditoría:

1. Objetivos

Como hemos dicho, lo primero es cerciorarnos que conocemos los objetivos de negocio de un proyecto, concretar los KPIs que se van a emplear y sus respectivas métricas, además de cómo vas a ser dimensionadas.

Es necesario disponer de métricas muy agregadas para poder segmentar y ser capaces de convertir los datos en información útil.

2. Configuración de la herramienta

Con los objetivos fijados, debemos asegurarnos de que Google Analytics está bien configurando para el proyecto, cuando normalmente no lo está.
Por ello debemos conocer de primera mano la web, la funcionabilidad que ofrece y fijarse en los aspectos técnicos, así como los dominios que abarca. Por ejemplo, en un ecommerce, debemos conocer si el usuario se sale de la web y tiene que retroceder.

Dependiendo del comportamiento de la web, puede haber ciertas explicaciones a la hora de analizar los datos. Conociendo bien el entorno, se podrá diseñar la implementación estratégica a posteriori.

3. Implementación de la herramienta

A continuación, debemos asegurarnos de que se ha hecho la implementación con Google Analytics directamente en la página o se ha empleado un Tag Manager como podría ser Google Tag Manager; herramienta que aporta muchísima flexibilidad a la medición.

Nota: a más herramientas a configurar, mayor posibilidad de error.

Por lo tanto:

• Tag o código de Google Analytics directamente insertado en la página
• Tag de google Tag Manager insertado en la página

Para asegurarnos de dicha configuración de Google Tag Manager está bien hecha, debemos asegurarnos que todas las páginas tienen el código adecuado.

En caso de las webs modernas y los TMS de hoy en día, no hay problema ya que la programación se hace mediante plantillas, simplificando su inserción.

Sin embargo, en webs de desarrollo muy antiguo, es fácil tener deslices tales como olvidarse de insertar en código en alguna página.

auditoria-implementacion_01

¿Existe alguna herramienta que se pueda utilizar de manera fácil para saber si una página tiene la implementación de Google Analytics o de Tag Manager?

Existen herramientas de pago como sería el caso de InsertPoint, muy potentes, pero de coste muy elevado; por lo que solo están recomendadas para empresas de grandes dimensiones con entornos muy complicados.

A su vez existen otras herramientas que pueden ser empleadas por SEOs como Screaming Frog, las cuales también pueden detectar los tags que hay en las páginas.

¿Existe alguna herramienta que muestre la parte interna de una web?

Existen diversos Pluggings, especialmente para Google Chrome que muestran toda la información que se envía a Analytics o a Google Tag Manager. Dichas pluggins son de uso muy sencillo e intuitivo, además de gratuitos. La diferencia de estos pluggis con respecto a herramientas más potentes de pago, es que es necesario ir navegando e interactuando con la página para que vaya mostrando los resultados. De esta forma logramos un barrido completo de toda la web.

Antes de realizar el estudio de lo que está pasando en la web, es necesario realizar métricas muy generales para detectar cualquier incoherencia (número de usuarios demasiado elevado, sesiones que solo dispongan de una página, rebotes muy bajos de páginas).

A partir de ahí, se elabora un documento que especifique lo que hay y lo que debería haber para sacar el mayor partido a la herramienta en base a los objetivos de negocio.

Sin embargo, en caso de Google Tag Manager, es necesario comprobar su configuración. En este caso no basta solo con poner el código de Tag Manager, sino exportar los datos a la herramienta y comprobar su configuración; ya que puede darse el caso de que los tags y los triggers estén mal configurados.

Por ello, la analítica es una labor muy procedimental: debe ser cerciorado de que los datos se están recogiendo, se están lanzado bien y a su vez estos están siendo recogidos.

auditoria-implementacion_02

¿Existe diferencia entre auditar un sitio pequeño y otro grande? ¿Hay diferencia en el tipo de implementación?

La diferencia de un site grande es que tiene muchos más dominios. El seguimiento de los usuarios y la medición en las herramientas están basadas en cookies, y estas están a su vez ligadas a los dominios de las páginas; por lo que cuantos más dominios tenga una web, más compleja es la configuración.

Recoger por qué páginas pasa el usuario es muy sencillo, pero lo que nos interesa es saber como analistas es saber qué está pensando el usuario, qué le ha llevado al usuario a hacer lo que hace. Esto es mucho más complicado de medir. Nos podemos basar para ello en la interacción que tiene el usuario con la página web, por lo que hay que implementar la herramienta de forma que registre toda la actividad del usuario.

¿Se puede tener una implementación básica y poder pasar después a los implementos personalizados? ¿Es mejor tenerlo todo ya medido desde el principio para poder entender bien esa navegación que realiza el usuario?

Tenerlo todo medido desde el principio es un error, ya que se complica la implementación o la inserción del código por parte de los desarrolladores y se alargan los tiempos de disposición de datos. Lo importante es centrarse en las KPIs de negocio y las métricas.

Está ocurriendo un cambio de mentalidad absoluto con los Quick Wins, ahora se tiende más a cumplir los KPIs a corto plazo que a medio o largo plazo como ocurría anteriormente, es decir, a ir cumpliendo objetivos día a día. Para eso es necesario ir trabajando con el analista técnico de modo que dispongamos en la herramienta todo lo que necesitamos para poder profundizar.

Este cambio de mentalidad se rige por centrarse en lo básico para tener las métricas generales de las cuales partiremos posteriormente e ir profundizando en una medición más focalizada.

auditoria-implementacion_03

Hoy en día hay empresas que tienden a analizar todo empleando una herramienta gratuita sin darse cuenta de las limitaciones de estas. No es la cantidad de datos recogida lo que importa, sino la precisión y la calidad de estos con respecto a los objetivos.

Estamos en una era de almacenamiento de información a lo grande, pero ocurre que en ocasiones la información que realmente nos hace falta es tan solo un 10% o 15% de lo que se está recogiendo.

Una medición focalizada es una medición flexible y mucho más productiva. Sobre todo, teniendo en cuenta que la web está viva, es decir, están en constante cambio, rediseño, con funcionalidades nuevas… Si se tiende a abarcar mucho al principio, se corre el riesgo de que en unos meses se rediseñe la web, volviendo a necesitar rehacer todo el trabajo realizado. Es pérdida de dinero, de tiempo y de recursos.

A continuación, puedes escuchar la conversación completa que mantuvimos Ana y yo:

12 Abr 2017 | Herramientas

El hombre es mortal por sus temores e inmortal por sus deseos

La base de la inteligencia de negocio es tanto la planificación como la estrategia. De ahí que tener la capa técnica como apoyo y no como finalidad es vital para poder tener éxito!

La estrategia surge de los objetivos de negocio, y esto ha supuesto un gran cambio en la manera de actuar en las empresas, se ha pasado de almacenar teras y teras de datos en diversos sistemas (la base del Big Data), a realmente entender qué necesito, para qué, e incluso cómo lo necesito. El partir de este punto podremos centrarnos y hacer las cosas bien.

Todo cambia muy deprisa, sobre todo en los negocios que tienen una parte (o son todo) online. Hace tiempo, los analistas nos basábamos unicamente en lo que hacía el usuario en el entorno que poníamos a su disposición. Esto ya es historia, hemos dado un paso adelante,y ahora la estrategia viene desde antes de que el usuario se interese en nosotros, hasta que nos ha dejado. Por lo que planificar de antemano qué necesito en cada etapa del funnel de conversión se convierte en una necesidad ANTES de medir y analizar .

EAM-estrategia-negocios-1

Obviamente las herramientas también han evolucionado, la tecnología nos va marcando el camino. El problema es que cada herramienta está orientada a un objetivo, y no se puede ni se debe forzar a que sirvan para otro, por lo que la planificación ha de tener en cuenta, no solamente los datos, sino también la tecnología que vamos a utilizar, y que va a evolucionar con nosotros.

Como vemos día a día, las herramientas han evolucionado, empezando por las gratuitas como Google Analytics que, desde que sacó el UserID nos ofreció la posibilidad de identificar al usuario a través de los dispositivos. Pero hay que entender bien cómo funciona: en las webs que no tienen un login, no se puede recoger esta información. Se puede poner en marcha diversas técnicas para lograr que un usuario se loguee, con descuentos y demás, para poder recogerlo antes de que por ejemplo convierta, y así poder estudiar su comportamiento de antes de la compra. Pero no nos engañemos, no podemos (ni debemos) tener una base de datos de clientes en Google Analytics por ejemplo.

Pero sí podemos enriquecer lo que nos ofrece la herramienta con el Measure Protocol . Consiste en que, desde que se nos permite documentar cómo recoge los datos GA, podamos integrar datos offline en la herramienta. Lo que nos faltaba porque estaba en otros sistemas, ahora sí se puede meter todo en Google Analytics. Es interesante sobre todo por temas de cualificación para entender costes, margen, posibilidad de devolución de una conversión por ejemplo y enriquecer toda la información que nos proporciona actualmente la herramienta. Aquí dependemos mucho del departamento de IT.

La empresa ha entendido que los datos son un activo más, y ahora cualquier directivo sabe que la analítica digital puede auditar campañas, pero también que puede entender el comportamiento del cliente, por ejemplo. Y puede ayudar a todos los departamentos, no solamente al de marketing. De ahí que cada vez sea más y más importante que la información sea transversal a toda la compañía y que el analista sea pieza clave.

EAM-estrategia-negocios-2

¿Y cómo lo hacemos? El ecosistema tiene 3 piezas muy claras:
– Carga e Integración
– Soporte y Agilidad
– Consumo: Reporting y Adhoc (perfiles más avanzados)

EAM-estrategia-negocios-3

Cualquier proyecto de Inteligencia de Negocio ha de tener en cuenta las tres piezas para poder llegar a buen fin. No solamente las herramientas que van a formar parte de cada una de las etapas, (almacenamiento, modelo de datos y consumo o visualización), sino también la estrategia a seguir. Modelar el dato para que el entorno de trabajo lo tenga todo orientado al negocio, y que todas las piezas encajen convenientemente.

No ha de tener un coste muy alto, se puede empezar por una base de datos con los datos que se necesitan, y luego ya ir creciendo tanto en tecnología como en la parte de negocio. Las herramientas al final vienen solas, lo que necesitamos es, como comentaba al principio, una buena estrategia de qué quiero conseguir desde negocio para poder crecer y evolucionar.

De esto y mucho más hablo con Iñaki Huerta en el podcast de ONDACRO en PRNoticias, por si os quedáis con ganas de más 🙂

En esta semana hemos salido El Arte de Medir en la publicación Actualidad Económica de Expansión hablando sobre aplicar Inteligencia de Negocio en la empresa a través de los datos:

20170322-nwp1-actualidad-economica-com_clipCaptura de pantalla 2017-04-11 a las 12.53.30

13 Mar 2017 | Herramientas

Hay tres maneras de hacer las cosas: la correcta, la incorrecta y la mía

Piwik es una herramienta de analítica digital de software libre, lo que significa que su código fuente está disponible para colaborar en su desarrollo, mejorarlo y adaptarlo a nuestras necesidades. Se trata además, de una solución gratuita que se puede aplicar a la inmensa mayoría de proyectos de analítica, no solamente como herramienta principal, sino también como herramienta de “backup” que puede servir para contrastar la calidad del dato, y comparar si la información que se recoge a través de dos sistemas es consistente y robusta.

Entonces, ¿por qué no se escucha hablar tanto de Piwik como de sus rivales? El hecho de que sea gratis y accesible, no significa que sea tan conocida como las dos herramientas que prácticamente monopolizan el sector: Google Analytics y Adobe Analytics. Al estar soportada casi únicamente por la generosidad de la comunidad de desarrolladores, no cuenta con tantos recursos como puedan tener otras herramientas comerciales. Aunque con la última versión, han sacado ciertas funcionalidades de pago que desarrollan ciertos extras, lo que facilita mucho la vida al analista, y tienen como finalidad dar cierta independencia al proyecto. Hay que recordar que, pese a que la herramienta de analítica del gigante Google es a priori gratuita, la realidad es que tiene una versión que no lo es. Google Analytics 360, antiguamente conocida como Google Analytics Premium, tiene más capacidades, integraciones, y está orientada a empresas que hacen un uso intensivo de la analítica, superando un determinado volumen de datos al mes. El caso de Adobe es distinto, es una herramienta que prácticamente nadie utiliza en su limitada versión gratuita, y está orientada a empresas que buscan un software específico, con una complejidad más alta, y que requiere para implementarla y explotarla, de un equipo profesional muy especializado.

Otra de las barreras para la adopción de Piwik, es que precisa de unos conocimientos algo más avanzados para una implementación básica, lo que hace que un público algo más generalista y menos profesionalizado, no lo contemple como una opción. El hecho de tener que configurar una base de datos para que la información que se recoge quede almacenada en la misma, es algo que supone un sobreesfuerzo que no todo el mundo está dispuesto a asumir. En esto Google Analytics lleva mucha ventaja, puesto que es una solución que es prácticamente de “Plug & Play”, y que se considera un estándar en la práctica totalidad de gestores de contenido para web.

Piwik-GoogleAnalytics

Sin embargo, este esfuerzo extra que hay que realizar para poner en marcha el sistema, tiene una justificación de peso. En Piwik, nosotros somos los dueños de los datos. Nosotros gestionamos los datos. Y nosotros somos los responsables de su custodia.

Para ciertas organizaciones, en las que el hecho de tener el control de los datos es una premisa, el hecho de que exista una herramienta como Piwik, es la mejor de las noticias. Organismos públicos y ONGs, por citar algunas empresas y organizaciones, son usuarios potenciales de Piwik. No solamente sabemos qué pasa en nuestra solución analítica porque tenemos acceso al código fuente, sino que además podemos almacenar los datos que queramos, y lo más importante, donde queramos. Mucha gente desconoce que el dueño de los datos cuando utilizamos Google Analytics no somos nosotros, sino el propio Google, de hecho cuando nos damos de alta en el servicio, en ese interminable contrato que ninguno de nosotros leemos, se detalla explícitamente.

Piwik-Ventajas

Existe, además, cierta información sensible de los usuarios que en Piwik podemos querer guardar, y en Google Analytics, como sabemos, no se puede hacer. En Piwik, puesto que somos dueños de los datos y los almacenamos en nuestros servidores, podemos guardar y gestionar la información que queramos. Sin embargo, en el resto de herramientas no podemos. De hecho, no se puede almacenar ningún dato que permita identificar al usuario. El DNI o la dirección de correo electrónico son datos que actualmente muchas empresas desearían almacenar en la herramienta de analítica y no es posible. La razón no es otra que la propiedad de los datos. Los datos se almacenan en sus servidores, que pueden estar físicamente en países en los que la legislación no contemple ese intercambio de datos personales.

La implementación que posibilita la recolección de los datos es similar a la del resto de soluciones. Unas líneas de JavaScript en el código fuente de la página, bastan para recopilar la información básica sobre sesiones, páginas vistas, tiempos en página, etc. Con algo más de esfuerzo, se pueden medir fácilmente todo tipo de interacciones del usuario en la página, que podemos almacenar en forma de eventos. Y finalmente, se puede dotar de un contexto adicional a esta información a través de las dimensiones personalizadas. Además, Piwik cuenta también con un Tag Manager propio, que permite al analista cierta independencia del equipo de desarrollo a la hora de implementar la medición, sin necesidad de modificar el código fuente de la web. Eso sí, esta característica está pensada para empresas y tiene un coste adicional.

Una vez que tenemos los datos en Piwik, llega la hora de utilizarlos para analizarlos y, a través de decisiones apoyadas en los mismos, cumplir los objetivos de negocio. Para ello tenemos dos opciones: los informes predefinidos de la interfaz web de Piwik, o bien integrar los datos en un dashboard personalizado orientado específicamente a nuestras necesidades.

Los informes predefinidos de Piwik, al igual que en el resto de herramientas, son algo básicos, y no nos ayudan más que a rascar la superficie de todo el potencial que tienen los datos. Cuando nos presentan los datos en informes encapsulados, puede que nos resulte difícil responder a las preguntas de negocio con la información que se nos muestra y de la manera que lo hace.

Piwik-Metodología

Un dashboard personalizado y diseñado a partir de nuestros KPI´s de negocio, siempre resultará mucho más útil para tal propósito. En este punto, la desventaja de Piwik es que no cuenta con integraciones directas con los programas más utilizados para “dibujar” nuestros cuadros de mando. No obstante, cuenta con una API para acceder a los datos, aunque una vez más, se necesita de un esfuerzo extra para obtener los mismos.

¿Esto quiere decir que no podemos obtener los datos que queremos y de la manera que deseamos? En absoluto, pero sí que es cierto que la inmediatez que tenemos con otras soluciones no la vamos a obtener con Piwik.

Si quieres saber un poco más en profundidad lo que nos aporta esta herramienta de analítica digital, te invito a escuchar la conversación junto a Gabriel Gallego  en PRNoticias (OndaCRO) :

 

01 Ago 2014 | Herramientas, Técnico

Que otros se jacten de las páginas que han escrito; a mí me enorgullecen las que he leído

Llevamos ya 7 ediciones del master en analítica web en Kschool. 7 ediciones que hemos realizado en Madrid y alguna de ellas en Valencia y Barcelona. Y cuando hablo con los alumnos que finalizan el master y les pregunto su opinión, el 90% me dice que lo que más les cuesta es la parte técnica.
Pero no se puede ser analista web si no entiendes la parte técnica. Porque la calidad de tu análisis reside en que te puedas fiar de los datos que utilizas. Si no sabes cómo funcionan las tripas de internet o cómo colocar la herramienta de forma correcta no podrás ser un analista web completo.
En el master tenemos más de 30 horas dedicadas a la parte técnica, a entender la tecnología, a entender una implementación, Google Tag Manager, la parte más técnica de Universal Analytics, de SiteCatalyst… Por lo que lo mejor es aliarte con el enemigo ya que no puedes con él!
¿Cómo lo hacemos?
Leyendo mucho. Para sacarle el máximo partido a la analítica digital has de entender sí o sí la parte técnica. Lo malo es que los libros se quedan obsoletos en tiempo breve, entonces?
He seleccionado los blogs técnicos de analítica digital más importantes en español y en inglés para que si vas a cursar este master o simplemente quieres enterarte de cómo aprender analítica a nivel técnico puedas crearte una base de conocimientos lo suficientemente sólida para que le pierdas el miedo a la parte técnica de la analítica digital:
Iñaki Huerta @ikhuerta
http://blog.ikhuerta.com
Si te quieres enterar de cómo implementar lo que va saliendo de Universal Analytics y Google Tag Manager, empieza por aquí.
David Vallejo @thyng
www.thyngster.com 
http://www.inside-gtm.com/en
Habla de Universal Analytics y Google Tag Manager, explicando cómo sacarles el máximo partido a nivel de implementación.
Oriol Farré @oriolfb
Oriolfarre.me/
Una de las personas que mejor controla Universal Analytics y le saca todos los trucos posibles para adaptar la herramienta a tus objetivos de negocio.
Mónica Arévalo @nikalytics
http://www.inside-gtm.com/es
Postea en español sobre Google Tag Manager y explica paso a paso cómo integrarlo de la mejor forma posible en tu sitio web.
Rubén Gallardo @rugago
www.rubengallardo.com
Escribe poco, pero cuando lo hace es impresionante. Habla de Google pero también de Adobe y de todo lo que le llama la atención.
Agustín Suarez @Agustin__Suarez
www.agustin-suarez.com
Además de hablar de dashboards, también mete las manos en el barro de la implementación, no te arrepentirás de leer este blog.
Paula Sánchez @paula_sanchez
www.webanalyticsdata.com
Habla de estadística, de la API con Google Analytics y de implementación. Muy completo.

AroundAnalytics @nicodangelo @borja_gf @eliowell @jorgelopgar
http://aroundanalytics.com/
Interesante blog donde los diferentes autores ilustran sobre Google Tag Manager, Google Analytics y Adobe SiteCatalyst.

En inglés:
Justin Cutroni @justincutroni
Cutroni.com
Un clásico, Analytics Talk, donde habla de todo un poco pero que desde su fichaje por Google hace un par de años se centra en sacarle todo el jugo a la herramienta de Google Analytics.
Simo Ahava @SimoAhava
http://www.simoahava.com/
El mejor blog sobre Google Tag Manager,  especialista en contar cómo implementar la herramienta de la mejor forma posible.
Kissmetrics @kissmetrics
Blog.kissmetrics.com/
No es un blog técnico como tal pero cuando se ponen a hablar de implementación lo clavan, otro clásico de la analítica web.
Brian Clifton @BrianClifton
www.advanced-web-metrics.com/
El libro más completo sobre Google Analytics que va actualizándose con las nuevas incorporaciones, su blog también tiene muchas perlas.
Lunametrics @lunametrics
www.lunametrics.com/blog/
Desde hace años la gente de Lunametrics nos enseña cómo experimentan con temas técnicos para hacer cosas nuevas con Universal Analytics.
Online Behavior – Kristoffer Olofsson @olofssonK
http://online-behavior.com/author/kristoffer-olofsson
Kristoffer habla de Google Analytics Premium, Universal Analytics, Google Tag Manager y es muy interesante todo lo que cuenta de mobile.
Analytics Ninja – @analyticsninja
www.analytics-ninja.com/blog.html
Muy interesante cómo cuenta paso a paso cómo implementar las mejores prácticas en Google Analytics

Eivind Savio – @eivindsavio
http://www.savio.no/blogg/
Blog noruego en inglés. Muy completo, sobre todo trucos de implementación y uso de Google Analytics.

Lecturas muy interesantes de cara al verano! Si tienes algún otro blog interesante y quieres completar la lista por favor déjame un comentario!

Gracias al equipo técnico de www.elartedemedir.com por sus maravillosas aportaciones a esta lista (@javiriestra, @jrcajide, @esanchezrojo).
  • « Anterior
  • 1
  • 2
  • 3
  • 4
  • 5
  • Siguiente »

Copyright © 2023 · Política de Privacidad
WordPress · Genesis Framework