¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

Categoría: Gemma

11 Ene 2021 | Gemma, Herramientas

Hay quien piensa que si vas muy lejos, no podrás volver donde están los demás

Una de las plataformas de visualización más demandadas y que mayor éxito está cosechando en los últimos años es sin duda la de Microsoft, Power BI. Y no es para menos, ya que es una herramienta muy cercana al usuario de negocio y con una estrategia muy bien construida: combinar todo el Power Platform con el apartado ofimático de Office 365, lo que asegura una cercanía al usuario de negocio muy alta. 

Para los que trabajamos como profesionales de la visualización y del negocio, es de sobra conocida la potencia de esta herramienta con los datos. Pero ¿cómo es la experiencia de usuario desde el punto de vista de un profesional IT? Se lo pregunto a Gilberto Flórez, jefe de estrategia, arquitectura y tendencias IT en Ferrovial. 

Cuando Power BI aterriza en el área de estrategia, arquitectura y tendencias IT de Ferrovial en 2017, lo hace con cierta inquietud ya que al ser una herramienta de exportación de datos con una distribución descentralizada, se tiene que tener en cuenta ciertos riesgos, como por ejemplo:

  • Los costes.
  • La infrautilización o reutilización de determinados datos.
  • Los efectos colaterales en las descargas de SAP para explotarlas con Power BI.

Para hacer frente a estos riesgos, el primer paso del equipo fue entender bien el funcionamiento de Power BI y estudiar en profundidad todas las posibilidades de monitorización, gobierno, educación y formación de cara a los diferentes negocios de la compañía. Así también pudieron averiguar de qué manera iban a sacar el máximo rendimiento a la herramienta para hacer un buen uso de ella. 

Visualización de datos con Power BI

Cuando se trabaja con plataformas como Power BI, la mayoría de los datos suelen ser los derivados del negocio: ventas, costes, ROIs de campaña, etc. Pero en el caso de Ferrovial quisieron ir un poco más allá, y aprovecharon la reorganización del área financiera de la compañía para ayudar a equiparla de una nueva forma de visualización de sus datos que, dentro de los objetivos del departamento, facilitara la información a todos los stakeholders que la consumían. Sin duda, este fue el gran reto del proyecto y lo que supuso conocer el verdadero potencial de Power BI, ya que en lo que a explotación y visualización del dato se refiere, no es lo mismo intentar ayudar en la toma de decisiones a nivel de negocio que a nivel financiero, puesto que:

  • El indicador de negocio es una visión más agregada, gráfica y perfecta para Power BI. 
  • La información financiera todavía sigue teniendo esa reminiscencia de mostrar datos en tablas, donde Power BI no es tan agradecido. 

Junto a este reto, el equipo de IT también tuvo que poner foco en la comunicación con el stakeholder, ya que al haber trabajado con la herramienta, tenían ciertos conocimientos de su funcionamiento, por lo que hubo que explicarles muy bien cada uno de los aspectos que iban apareciendo a medida que evolucionaba el proyecto. Afortunadamente, esta manera de trabajar hizo que la dinámica de comunicación con el equipo financiero fuera agile. Es decir, que gracias a sus interacciones constantes, se pudo conseguir conjuntamente una herramienta de visualización centrada en la experiencia de usuario y compuesta por una navegación que llegaba al dato en concreto de una manera intuitiva y rápida. Es por resultados como este por lo que es fundamental ir de la mano del stakeholder, y la mejor manera de hacerlo es a través de una comunicación fluida en la que las partes interesadas terminen hablando el mismo idioma. Por eso es tan importante aterrizar bien los conceptos y entender desde un primer momento qué se necesita, por qué y, a partir de ahí, construir sobre ello. 

Aunque parece un esfuerzo extra, todo este proceso es lo que ayudó al departamento de IT a entender lo que el stakeholder necesitaba, sin olvidar la importancia de la usabilidad de la herramienta en cuestión, ya que aunque se maneje el dato perfecto, si la experiencia del usuario final no es buena, el proyecto no funciona. De ahí el éxito de este proyecto.

Business Case Power BI

La evolución del BI

Como hemos podido ver, las plataformas de Business Intelligence y la manera de trabajar en ellas han experimentado una gran evolución. Antiguamente, los proyectos eran más largos y con muchas dificultades tanto en la extracción y almacenamiento de los datos, como en la experiencia del usuario final. Pero con la llegada del cloud y de herramientas como Power BI, se ha experimentado una gran mejora en todos estos procesos y sobre todo, se ha agilizado mucho en la parte de infraestructura, donde hay que construir el almacenamiento para dar valor al negocio. 

En el caso particular de Power BI, Microsoft ha conseguido entrar en casi todas las organizaciones, cambiando su filosofía. Es decir, cuando antes se tardaba meses en cargar el dato, ahora se puede empezar a ver cosas de una manera ágil y rápida en pocos días. Además, y como hemos comentado anteriormente, Power BI es una herramienta intuitiva con la que si cuentas con una formación básica, en proyectos no muy complejos se puede llegar a hacer cosas impactantes y de gran valor para el negocio. Aunque sí es cierto que a la hora enfrentarse a proyectos de mayor envergadura, es necesario contar con una base técnica importante para poder sacar el máximo potencial a la plataforma.

Sin duda, es en la continua evolución de este tipo de herramientas donde se encuentra la clave del éxito, ya que áreas como las de IT se reinventan para poder acompañar al negocio a través de este tipo de plataformas, y a su vez tener cierto control sobre la tecnología. Por eso es importante que IT lo lidere, ya que al final el dato es un activo que puede estar en muchos sitios, por lo que necesita cierto control, gobierno e información para que verdaderamente sea útil de cara al negocio. 

¿Te gustaría profundizar más sobre Power BI? Acompáñanos a Gilberto y a mi en el episodio que le dedicamos en El Arte de Medir Podcast. 

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

29 Abr 2020 | Big Data, Gemma

¿Por qué caemos Bruce? Para aprender a levantarnos

El sector inmobiliario, al igual que el resto de sectores, también evoluciona dentro de la transformación digital. Desde la crisis y la irrupción de la nueva era digital, este sector está trabajando para conectar con el consumidor digital. Para abordar esta nueva era de digitalización, cuento con la experiencia de Dania Hernández, Responsable Digital de la consultora inmobiliaria Gloval Advisory. 

El sector inmobiliario se ha caracterizado por ser un sector tradicional. Durante el boom (1996-2006) por ejemplo, no tuvo la necesidad de adaptarse a las tecnologías digitales porque no hacía falta ya que la demanda superaba a la oferta. Pero cuando llegó la crisis, el músculo financiero se empezó a debilitar. Fue en ese momento cuando nacieron empresas como Idealista o las plataformas Proptech (startups enfocadas a la tecnología en el sector inmobiliario), pero el resto de compañías todavía tardarían un poco más en afrontar su propia transformación digital, impulsada entre otras cosas, por el cambio de los hábitos de compra de los consumidores. 

El Big Data en el sector inmobiliario

En España, a diferencia de otros países, en el sector inmobiliario los datos no están democratizados, es decir, las empresas no suelen compartir su información. Esto hace que las compañías acumulen sus datos sin un fin concreto, pero son las que los aprovechan las que salen adelante. Como hemos dicho en muchas ocasiones en este blog, el dato es poder, información y conocimiento y con una buena estrategia, eso lo convierte un elemento diferenciador frente a la competencia.

Afortunadamente las empresas del sector se han dado cuenta de estos beneficios y están enfocando sus esfuerzos sobre todo en el cliente, ya que, en definitiva, la empresa más fuerte es la que se encuentra más cerca de él. Se pueden crear análisis de mercado muy potentes gracias a la tipología de datos que lanza este sector: la tasación de las casas, el precio de compra real, geolocalización, domótica, IoT, etc… Y gracias a las herramientas y profesionales adecuados, se pueden hacer grandes cosas, como modelos de predicción de cara a las ventas.

La importancia de la cultura del dato

Gloval apuesta por el área de analítica digital y sus habilidades. Pero como hemos comentado antes, no basta con almacenar sino que hay que integrar la cultura del dato en toda la organización. De ahí la importancia de la digitalización y el uso de herramientas de analítica enfocadas tanto al negocio como al cliente. 

Por otro lado, a la hora de trabajar con datos, es importante recordar que una de las partes más delicadas es el trabajo de recopilación y tratamiento de los mismos. Para hacer un buen trabajo, las compañías tienen que tener claro:

  • Dónde está el dato.
  • Cómo negociar el dato. 
  • Hacer un ejercicio inteligente con el dato. 

Analítica en el sector inmobiliario

 

Para ello, no sólo basta con crear un área de analítica digital, sino que hay que trabajar en las necesidades del cliente. El caso del sector inmobiliario es un poco particular, ya que su negocio va dirigido tanto a B2B (Business-to-Business) como B2C (Business-to-Consumer). Por eso saben que cuando el cliente se encuentra en el centro de la estrategia, cuántos más datos le facilites para tomar una decisión, mejor experiencia tendrá. 

Blockchain

El blockchain es una tecnología disruptiva que viene para cambiar las reglas del juego. En estos momentos no lo parece, pero al igual que con la banca digital y los cambios de regulación que se realizaron desde los gobiernos, con el blockchain también se podría dar el mismo caso. Se podría pensar que uno de los escollos por los que el avance del blockchain no está siendo tan rápido podría estar ligado a la desaparición de la figura del intermediario, pero en realidad tiene que seguir existiendo al igual que la parte notarial. 

Por otro lado, el desconocimiento de lo que el blockchain puede aportar aún es muy elevado. Por ejemplo, mucha gente no sabe que una de sus principales fortalezas es la seguridad. Por ello, es labor de los profesionales de la analítica la de informar tanto a empresas como a cliente final de todo lo que esta tecnología es capaz de hacer por ellos. 

Si quieres seguir la conversación que tengo con Dania, lo puedes hacer en el episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

22 Ene 2019 | Gemma

No hay nada tan estable como el cambio

En post anteriores ya he tratado cómo trabajar con Learning Analytics. Pero hoy de la mano de Daniel de la Mata, Responsable Técnico de NeuroK en ASPGems, ahondaremos un poco más en las entrañas del funcionamiento de esta plataforma de formación online colaborativa que está basada en los principios de la Neurodidáctica.

Cuando nos enfrentamos a un proyecto de medición de learning analytics como sucede en NeuroK, los KPI’S que hay para evaluar el aprendizaje son: la gestión de la motivación, el aprendizaje colaborativo y la evolución del contenido.

Partiendo de esto, ¿cómo se puede abordar un proyecto en que las KPI’S están directamente relacionadas con el aprendizaje?

En el caso de NeuroK es más sencillo ya que siendo una plataforma de e-learning, los datos que se recopilan ayudan a poner en relieve el proceso de aprendizaje de alumnos y profesores. Además, estos datos son de gran ayuda para los desarrolladores para saber cómo trabajar en la optimización continua de la plataforma.Medición proceso de aprendizaje

¿Y cómo lo hacen? Es muy interesante ver que a la hora de fijar los KPI’s, no sólo se tiene en cuenta qué aprende el alumno, sino que se miden otras variables cómo la comunicación entre los alumnos, la relación de éstos con los profesores, la adaptación al contenido de los cursos y la usabilidad con la plataforma de aprendizaje. Esta última es la que más interesa desde el punto de vista del desarrollador ya que está directamente relacionada con las mejoras propias de la plataforma. Así, toda esta información es recopilada en una BBDD que, junto a logs y otras métricas, es analizada en su propia herramienta de medición para poder seguir evolucionando.

La medición Grafo social

Como hemos comentado antes, la comunicación entre los usuarios es muy importante. Por eso en NeuroK cuentan con un grafo social que muestra las relaciones que se establecen entre alumnos-profesores y alumnos-alumnos. La información resultante de este gráfico arroja datos tan relevantes como:

  • La centralidad que tiene cada alumno en el grafo social del curso.
  • La influencia en base a comentarios, valoraciones, favoritos y menciones, que es lo que más cuenta. Cada una de estas mediciones tiene un peso, y sus relaciones 1 a 1 crean una línea que de pendiendo del uso que el alumno haga de ellas, va aumentando o disminuyendo.

Este grafo también es muy útil para saber qué es lo que está pasando en el curso. Si un alumno se encuentra fuera del grafo es porque no participa por alguna razón, y ahí el profesor puede saber qué es lo que pasa. En definitiva, este tipo de métricas ayudan a tomar conciencia de cómo está funcionando el curso en real time.

Learning Analytics para alumnos

Uno de los valores añadidos de NeuroK es que los alumnos también tienen acceso a datos relevantes para su aprendizaje. Por ejemplo, cuando acceden al curso, lo primero que ven es su puntuación en comparación con el resto de sus compañeros. Esta es una métrica que está directamente relacionada con la motivación, indispensable en todo tipo de formación online.

Optimización del proceso de aprendizaje

Existen otras KPI’s relevantes que pone NeuroK a disposición del usuario, como:

  • Las relativas a su propio aprendizaje.
  • Los contenidos que cada alumno aporta al curso.
  • La participación del alumno y sus compañeros

Todos este learning analytics está al alcance de los alumnos para que puedan incorporar el conocimiento de sus compañeros. No sólo se aprende de lo que el profesor aporta, también de la comunidad.

Nube de palabras: la herramienta para profesores

Hay que tener en cuenta que el curso en sí es un agregado de unidades de aprendizaje, que a su vez es un agregado de contenidos. Estos últimos son, además de contenidos en sí mismos, también comentarios y valoraciones. En NeuroK, todos estos contenidos son marcados para luego analizarlos en una nube de palabras.

¿Y por qué es útil? Para el profesor lo es ya que mientras está en el curso puede ver si los alumnos siguen el planteamiento de keywords inicial con el que había arrancado o, por el contrario, tiene que cambiarlo. Pero no sólo es útil en el curso en general, sino que este tipo de segmentación se puede hacer a diferentes niveles y así comparar en cada caso la coincidencia de nubes. Se puede comparar:

  • Por curso completo.
  • Por cada unidad de aprendizaje.
  • Por usuarios.

Sin dudas, con la nube de palabras, el profesor también aprende y adapta su enseñanza dependiendo de cómo sus alumnos vayan adquiriendo conocimientos, sin necesidad de seguir un guion marcado. Así es la nueva evolución en el aprendizaje: ser capaces de medir lo que funciona gracias al learning analytics para poder hacer cambios en el mismo momento en que se detecta. Esta es una de las claves para poder construir algo sólido. Así es como se optimiza y personaliza el proceso de aprendizaje.

A continuación puedes disfrutar de la charla que mantuvimos Daniel y yo:

27 Sep 2016 | Gemma, Podcast

El hombre no está hecho para la derrota. Un hombre puede ser destruido, pero no derrotado.

Uno de los problemas más importantes a la hora de enfrentarnos a definir las KPIs que van a componer un plan de medición, es que la gran mayoría de métricas que asociamos a los objetivos de negocio son financieras.

El problema es que las mediciones financieras son incapaces de explicar las causas y efectos de las acciones de la empresa. Una compañía que confía únicamente en los aspectos financieros sólo dispone de una visión muy limitada de la realidad.

Por lo tanto, los stakeholders que esperan tomar decisiones en base a datos deben tener muy claro qué objetivo u objetivos persiguen con la estrategia que están siguiendo online para que se puedan determinar qué métricas nos van a ayudar a saber si se ha llegado a cumplimentar con éxito o no.

En el podcast de esta semana, hablo de esta cuestión, que se refiere a las otras métricas que hay que tener en cuenta para valorar en su conjunto una estrategia digital.

 

En el estudio de grabación
En el estudio de grabación :)
http://dondeestaavinashcuandoselenecesita.com/wp-content/uploads/2016/09/PDOCRO_MAM_270916_APORTACIONES_ANALITICA_01.mp3

 

¿Manejáis métricas no financieras en vuestros análisis de conversión? Contadme, contadme 🙂

 

02 Jun 2015 | Gemma

Preciso es encontrar lo infinitamente grande en lo infinitamente pequeño…

La teoría está muy bien. Durante estos últimos años he ido a un montón de eventos relacionados con la analítica web, con el Big Data, con el Data Science, etc… Y me he dado cuenta de que ninguno me ha llegado al corazón 🙂 Después de lloriquear un poco decidí pasar a la acción. Si Mahoma no va a la montaña, pues eso, habrá que movilizar la montaña. Así que en 2015 me he liado la manta a la cabeza y he formado parte de la organización de dos eventos, con contenidos y ponentes muy distintos pero con la misma filosofía: Evento Gratuito que Aportara Conocimiento.

Porque efectivamente, la teoría está muy bien, hay que ir avanzando en conocimiento. ¿Cómo lo hacemos? Aprendiendo de otros, tanto en blogs y libros como en eventos. El problema es que hay que aprender nuevas técnicas de análisis, nuevas tecnologías, etc… Y es muy difícil avanzar en el conocimiento de los usuarios y los clientes sin meternos en un análisis exhaustivo con modelos complejos, de ahí que necesitemos basarnos en la tecnología que nos permite, teniendo la idea clara en la cabeza de lo qué buscamos, tener una respuesta.

Esto lo vi claro cuando, colaborando con IBM en su evento anual, el gran Jaime Requejo me enseñó hace unos meses la beta de su sistema cognitivo Watson. Poder preguntar directamente con lenguaje natural a una máquina cuáles son las conclusiones y los pasos a seguir después de que realice un análisis es el futuro. Pero la máquina sigue necesitando alguien que lidere las preguntas. Que entienda los datos que necesitamos para realizar ese análisis.

Y por eso empezó a nacer la idea de buscar un entorno donde aprender de los mejores, de los que llevan tiempo en esta dinámica del Big Data y Data Science para que empiecen a transmitirnos esa pasión por estas disciplinas. Me uní a Alejandro de KSchool y diseñamos juntos una jornada de acercamiento al Data Science dentro de los eventos Fighters que creó Lula de Diga33. Me emocioné mucho porque creo que actualmente los eventos relacionados con Big Data son más tecnológicos y menos «de ciencia» así que me puse manos a la obra para conseguir un elenco de ponentes que conjugaran la parte tecnológica con la parte de análisis.

Por supuesto contamos con Jaime de IBM y seguimos pensando que después del machine learning de Watson, necesitábamos definir al científico de datos y sus funciones por lo que Daniel Rodriguez de Teradata era la persona ideal para presentarnos las características de este perfil que, según Forrester es el trabajo más sexy de la década 🙂 Daniel lo definió como una intersección de distintas disciplinas (matemáticas, computación) pero sobre todo Y CREO QUE ESTO ES LO IMPORTANTE, que entiende de negocio y que es capaz de transformar la realidad (los datos) en modelos comprensibles que la describen y nos permiten actuar sobre ella.

datasciencefighters

Hablando después con Daniel, comentábamos que es vital encontrar esos patrones ocultos y valiosos que constituirán una gran oportunidad. Pero igual de importante es convencer a la organización de que el negocio debe estructurarse más y más alrededor de estos insights.

Pero para tener tecnología debíamos contar con la tecnología más adecuada para almacenar y extraer de forma indolora estos datos. Era el turno de Rubén Casado, de Treelogic. Que tenía la dura tarea de hablar de Big Data y que realizó el mejor repaso que he visto hasta la fecha de soluciones según la naturaleza y las herramientas y la tecnología de procesamiento más adecuada.

Dividió su ponencia en Batch Processing (gestión de datos históricos), Streaming Processing (real time) y Hybrid Computation Model (combinación de batch y streaming). No se trata de tener la última herramienta, la última tecnología, sino de detectar cuál es la más adecuada según la gestión de la información que vayamos a realizar. Rubén es el director del master de Big Data que sacará próximamente Kschool!

Después de la magistral clase tecnológica, pedí a Carlos Gil Bellosta que viniera para bajar a la realidad el día a día del data scientist. Y vaya si lo hizo 🙂 Con una historia personal sumamente amena y en la que los informáticos nos sentimos muy identificados (a mí también se me pasó media vida esperando la ejecución de varias SQLs jajaja), Carlos nos iba explicando cómo la vida del científico de datos no es tan glamourosa como parece y que no podemos dejar en el olvido las bases del análisis… Además de formarnos día a día en los lenguajes que nos permitan aplicar técnicas cuantitativas sobre grandes cantidades de datos. Carlos imparte en Kschool el programa profesional de iniciación a R para todos aquellos que antes del verano quieran hacer sus deberes 🙂

DataScienceFighters

Y llegó entonces Josep Curto, de Delfos Research para orientarnos sobre los modelos de negocio analítico, cómo la analítica de datos debe convertirse en la base de la diferenciación de las empresas, por lo que no podemos quedarnos en el dato, hay que generar propuestas de valor y llevarnos los datos al negocio. Me pareció muy interesante un listado que tiene con las empresas que se dedican en cuerpo y alma a sacarle valor a los datos. La lista ha crecido en los últimos años hasta límites insospechados lo cual es síntoma de que cada vez es más importante esta cultura de datos para las empresas.

No podemos olvidarnos del internet de las cosas, Soraya Paniagua del grupo Macrodatos nos introdujo en ese mundo impresionante de los sensores (actualmente los máximos generadores de datos), de Hardware libre, de robótica, las impresoras 3D, los weareables, etc… El reto está claro, conseguir que todos los dispositivos se conecten entre sí y hablen el mismo idioma para poder combinar sus datos, los estructurados y los no estructurados.

Llegaba el momento de la visualización de los datos, de poder transmitir el conocimiento de una manera efectiva y que nos lleve a tomar decisiones en base a toda la información recopilada y tratada para que el análisis nos empuje a la acción. Llegaba el momento de Carlos Gamez Kindelán y creo que lo más importante de su presentación es la combinación de datos más historia más sensaciones, llegar a los receptores de la información pero sin olvidar el diseño y la historia que hay que contar en torno a los datos.

Para poner el punto final, qué mejor ponente que el fundador de DataBeers, Marcelo Soria, que nos habló de que ahora es mucho más fácil, barato y eficiente el obtener los datos y que el análisis de éstos y basar nuestras decisiones en la información puede ser clave para crecer en el futuro. Trajo ejemplos propios de su trabajo en BBVA como el uso de tarjetas de crédito en un periodo determinado para estudiar el comportamiento de la población tanto en ciudades grandes como en poblaciones vacacionales.

Si te interesa saber más:

Web de Data Science Fighters

Twitter de Big Data Science Fighters

Si queréis un resumen más amplio de las ponencias del Data Science Fighters, he recopilado varios posts al respecto:

– DBI: Digital Business Intelligence

– Flat101

– Creativate.es

– El blog de Jesús Martín

 

Pero aquí no acaba la cosa. Desde hace meses veníamos rumiando un grupo de frikis analistas (Xavier Colomés, Ricardo Tayar, Guiomar Gonzalez, Diego Marquinez, Ana Soplón, Maite Acinas, Bárbara Mackey y yo ) traernos a Madrid el conocido evento Measure Camp de Londres. El sábado 23 de Mayo fue el día elegido para este evento, bastante diferente a lo que había experimentado con anterioridad.

Con este evento se intenta una proximidad entre ponentes y asistentes, casi me atrevería a decir que se fusionan, siendo ambos los partícipes del evento. Cualquiera puede pretender hablar de algún tema y plantearlo de la manera y forma que elija. Esta “Desconferencia”, que es así como se la llama, es una palabreja bastante chocante, pero tiene mucha miga y enseguida se asocia con su significado.

organizacionmeasurecamp

Me explico. Aquí lo que tratamos es de poner en común ideas, para poder intercambiar conocimientos y de esta forma tener una mayor participación por parte de los asistentes. Nuestro objetivo es aumentar nuestros conocimientos mediante la “puesta en común” con la idea de que las experiencias de todos los asistentes formen el contenido y el conocimiento fluya. Tratamos de que fuera algo diferente a lo habitual: la típica conferencia con agenda en la que unos ponentes hablan y los demás escuchan.

A primera hora de la mañana, después de tomar un café todos juntos, empezaba lo bueno. Cuando tienes un programa predeterminado, te puedes hacer una idea de cómo se va a desarrollar la jornada, sin embargo, este tablón estaba completamente en blanco. Tan sólo mostraba una matriz con 8 franjas de media hora y 5 salas. Es decir, hasta 40 espacios de ponencia.

Así que los interesados empezaron a coger ficha, elegir un título para su charla y buscar un hueco en el tablón de hora y lugar. El tema de la charla podían llevarlo preparado o improvisar sobre la marcha, incluso podían plantear un tema a debate y consultarse dudas entre unos y otros. Es decir, es totalmente libre y abierto.

La verdad es que estaba muy nerviosa porque no sabíamos la aceptación que iba a tener aquí un evento de este tipo ni si seríamos capaces de llenar el tablón de charlas, aunque con la buena acogida que ha tenido en Londres durante los últimos cinco años, pensamos que aquí no podía ser menos, y así fue. En unos minutos estaba prácticamente lleno!

tablonmeasure

Los organizadores teníamos el objetivo de no hablar para que los asistentes fueran los que saltaran a la palestra 🙂

El contenido de las sesiones y el formato fueron muy variados, se habló de temas como el futuro de la profesión, reputación digital, SEO, CRO, Tag Manager, cómo empezar en este mundo, analítica para administraciones públicas, mejores prácticas para implementar enhanced ecommerce… etc, hasta hubo una sesión de terapia para analistas (que muchos necesitamos y lo sabéis).

El día se desarrolló muy satisfactoriamente, la verdad, y el ambiente que se respiró durante toda la jornada era de gente con muchas ganas de aprender y compartir. Había gran bullicio en los cambios de sala y sin embargo, en el hall no quedaba ni un alma durante las jornadas, indicador de éxito de las sesiones.

Me encantó ver a gente del mundillo que hacía siglos que no veía en un evento, parece que volvemos a surgir de las cenizas jajaja.

Esto no ha hecho más que empezar. Esperamos que cada vez conozca más gente este tipo de eventos tan enriquecedores para todos y yo particularmente tengo mucha fe en la calidad del aprendizaje con este tipo de puestas en común, ya que no hay un solo camino que lleve al fín último, y la palabra “compartir” cada vez cobra un significado más especial.

Espero que haya muchas más convocatorias y seáis muchos los asistentes, gracias a vosotros podemos hacer realidad este tipo de eventos. Sé que mucha gente vino desde fuera de Madrid, sois muy grandes. Y también quiero agradecer a todos mis compañeros de profesión el disfrute del que hacen alarde en estas ocasiones.

measuremadrid

Si te interesa saber más:

Web de Measure Camp Madrid

Twitter de Measure Camp Madrid

Algunas ponencias que se han subido a slideshare:

– MJ Cachón

– Peter O´Neill

– Miguel Angel Quesada

– Maria Gomez Moriano

– Carlos Lebrón

 Si me he olvidado de incluir alguna, avísame por favor 🙂

Recopilación de posts al respecto:

– El blog de las Madrid Geek Girls

– Divisadero

– KPIsLand

En resumen, estoy muy orgullosa de participar y organizar tanto eventos clásicos como el Data Science Fighters como eventos nuevos como Measure Camp porque, aunque llevan mucho tiempo y esfuerzo, creo que valen la pena y nos hacen vivir con intensidad esta disciplina. Una vez mas declaro: amo mi profesión. 🙂

  • 1
  • 2
  • 3
  • …
  • 7
  • Siguiente »

Copyright © 2023 · Política de Privacidad
WordPress · Genesis Framework