¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

Categoría: Big Data

29 Abr 2020 | Big Data, Gemma

¿Por qué caemos Bruce? Para aprender a levantarnos

El sector inmobiliario, al igual que el resto de sectores, también evoluciona dentro de la transformación digital. Desde la crisis y la irrupción de la nueva era digital, este sector está trabajando para conectar con el consumidor digital. Para abordar esta nueva era de digitalización, cuento con la experiencia de Dania Hernández, Responsable Digital de la consultora inmobiliaria Gloval Advisory. 

El sector inmobiliario se ha caracterizado por ser un sector tradicional. Durante el boom (1996-2006) por ejemplo, no tuvo la necesidad de adaptarse a las tecnologías digitales porque no hacía falta ya que la demanda superaba a la oferta. Pero cuando llegó la crisis, el músculo financiero se empezó a debilitar. Fue en ese momento cuando nacieron empresas como Idealista o las plataformas Proptech (startups enfocadas a la tecnología en el sector inmobiliario), pero el resto de compañías todavía tardarían un poco más en afrontar su propia transformación digital, impulsada entre otras cosas, por el cambio de los hábitos de compra de los consumidores. 

El Big Data en el sector inmobiliario

En España, a diferencia de otros países, en el sector inmobiliario los datos no están democratizados, es decir, las empresas no suelen compartir su información. Esto hace que las compañías acumulen sus datos sin un fin concreto, pero son las que los aprovechan las que salen adelante. Como hemos dicho en muchas ocasiones en este blog, el dato es poder, información y conocimiento y con una buena estrategia, eso lo convierte un elemento diferenciador frente a la competencia.

Afortunadamente las empresas del sector se han dado cuenta de estos beneficios y están enfocando sus esfuerzos sobre todo en el cliente, ya que, en definitiva, la empresa más fuerte es la que se encuentra más cerca de él. Se pueden crear análisis de mercado muy potentes gracias a la tipología de datos que lanza este sector: la tasación de las casas, el precio de compra real, geolocalización, domótica, IoT, etc… Y gracias a las herramientas y profesionales adecuados, se pueden hacer grandes cosas, como modelos de predicción de cara a las ventas.

La importancia de la cultura del dato

Gloval apuesta por el área de analítica digital y sus habilidades. Pero como hemos comentado antes, no basta con almacenar sino que hay que integrar la cultura del dato en toda la organización. De ahí la importancia de la digitalización y el uso de herramientas de analítica enfocadas tanto al negocio como al cliente. 

Por otro lado, a la hora de trabajar con datos, es importante recordar que una de las partes más delicadas es el trabajo de recopilación y tratamiento de los mismos. Para hacer un buen trabajo, las compañías tienen que tener claro:

  • Dónde está el dato.
  • Cómo negociar el dato. 
  • Hacer un ejercicio inteligente con el dato. 

Analítica en el sector inmobiliario

 

Para ello, no sólo basta con crear un área de analítica digital, sino que hay que trabajar en las necesidades del cliente. El caso del sector inmobiliario es un poco particular, ya que su negocio va dirigido tanto a B2B (Business-to-Business) como B2C (Business-to-Consumer). Por eso saben que cuando el cliente se encuentra en el centro de la estrategia, cuántos más datos le facilites para tomar una decisión, mejor experiencia tendrá. 

Blockchain

El blockchain es una tecnología disruptiva que viene para cambiar las reglas del juego. En estos momentos no lo parece, pero al igual que con la banca digital y los cambios de regulación que se realizaron desde los gobiernos, con el blockchain también se podría dar el mismo caso. Se podría pensar que uno de los escollos por los que el avance del blockchain no está siendo tan rápido podría estar ligado a la desaparición de la figura del intermediario, pero en realidad tiene que seguir existiendo al igual que la parte notarial. 

Por otro lado, el desconocimiento de lo que el blockchain puede aportar aún es muy elevado. Por ejemplo, mucha gente no sabe que una de sus principales fortalezas es la seguridad. Por ello, es labor de los profesionales de la analítica la de informar tanto a empresas como a cliente final de todo lo que esta tecnología es capaz de hacer por ellos. 

Si quieres seguir la conversación que tengo con Dania, lo puedes hacer en el episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

25 Feb 2020 | Big Data

En los libros podemos refugiar nuestros sueños para que no se mueran de frío

El Big Data Analytics ya no es una promesa y sin duda esto está provocando cambios profundos en el ecosistema empresarial. O eso parece. Si analizamos cómo las empresas hacen uso de su Big Data, podríamos ver que existen dos tipos: el de las grandes compañías como Google, Facebook, Amazon, etc; y el del mundo real. Ante esto, ¿cómo pueden las empresas del mundo real sacar el máximo partido a sus datos? De aquí es donde parte la premisa del libro he escrito junto a Eduardo Sánchez, al cual hemos titulado “Big Data como activo de negocio”, de ediciones Anaya Multimedia.

A la hora de sacar provecho del Big Data, hay muchas empresas que invierten una gran cantidad de recursos únicamente en tecnología. Sin duda, es un paso muy importante y permite almacenar y tratar sus datos de forma sencilla y barata. Pero el problema es que si sólo nos centramos en la tecnología, el dato sigue siendo un pasivo. Por esto, la intención de este libro es ayudar al lector a recopilar una serie de mejores prácticas basadas en nuestra experiencia en El Arte de Medir, dentro de un marco donde indicarle hacia dónde tiene que dirigirse para conseguir sus objetivos. En otras palabras, poner un poco de orden en todo lo que conlleva el Big Data y ayudar a la gente a que sea capaz de aprovechar los datos de su compañía para sacar rendimiento de cara al negocio. 

Comienza la partida

A la hora de plantear este libro, una de las primeras dificultades a las que nos enfrentamos fue decidir el hilo conductor que podría unir la tecnología y el negocio con el analista, el data scientist, el ingeniero de datos, etc…, Y la mejor alegoría la encontramos en el ajedrez. Este juego de estrategia aúna el arte y el cálculo y además recuerda que el mundo está lleno de posibilidades infinitas. Lo mismo pasa con en el Big Data, donde hay que decidir cuales son las posibilidades que nos ayudan a conseguir los objetivos de negocio.

¿Y cómo empieza la partida? Se puede pensar que la grandeza del Big Data Analytics proviene de su capacidad de explicar y predecir lo que debemos hacer para evolucionar en el negocio. Y los aspectos más complejos tienen que ver con el lenguaje matemático que no muchas personas manejan en su día a día. Pero para que el dato pase de ser un pasivo a un activo de negocio, es necesario involucrar a todas las personas de la organización. Esto incluye a las que no hablen este idioma. ¿Cómo? Traduciendo todos los análisis al lenguaje del negocio. Está claro que para realizar una buena partida, es importante que las piezas del tablero, en nuestro caso las personas de negocio, entiendan la capa tecnológica, y sobre todo los tipos de almacenamiento existentes a nivel de estructural. Así es como personas y tecnología tienen que ir de la mano. 

Estrategia: Método MAMBO

El siguiente paso es hablar de la estrategia que se va a aplicar en toda la partida, y que es con la que trabajamos en El Arte de Medir: la metodología MAMBO. Esta metodología es la que, para nosotros, reúne todos los pasos para entender cómo nuestros datos nos pueden ayudar en la toma de decisiones de negocio. Pero, ¿en qué consiste cada uno de los pasos?

  • Meditar y entender el negocio: Es importante hacer un buen desembarco y conocer todo lo que rodea al negocio y entenderlo. Sin este paso, es imposible hacer del dato un activo del negocio. 
  • Adquirir los datos: Se tiene que realizar un mapeo de los sistemas de datos que tiene la compañía a su alcance para identificar los datos que hay que extraer que nos ayuden a responder las preguntas de negocio. 
  • Manejar los datos: ¿Cómo podemos transformar los datos en conocimiento? Validando la calidad del dato. Tras esta validación, el siguiente paso es empezar a entender la información para la realización de los análisis adecuados.
  • Buscar en los datos: Tenemos los datos, tenemos las preguntas claras, conocemos el negocio. Ahora toca ver qué es lo que ocurre, es decir, analizar. Existen diferentes tipos de análisis: de diagnóstico, descriptivos, predictivos, prescriptivos, etc…, pero también es importante conocer algunas técnicas que faciliten estos análisis. 
  • Ordenar y visualizar: La transmisión de los datos suele ser el más olvidado, pero es imprescindible. Por ello, dentro de este punto contamos con una metodología propia la cual ayuda a trasladar todo el conocimiento a un impacto real en el negocio: SEVEN. Si un análisis no cambia la forma de actuar, no ha cumplido su cometido. Y sobre todo con proyectos con muchos datos, por lo que es importante buscar la información que la gente de negocio necesita para hacer su trabajo diario. El análisis y su visualización es el producto del analista. Si no sabe cómo comunicar, el trabajo no sirve para nada.

Metodología Mambo

Jaque Mate: El futuro que nos viene

El libro finaliza con una vista puesta a las nuevas fuentes de datos y métodos que empiezan a surgir y que, sin duda, marcarán el futuro de la analítica digital:

  • Internet of Things es una parte fundamental del Big Data ya que las empresas que trabajan con grandes cantidades de datos, pueden manejarlos con las herramientas de IoT. Se pueden hacer grandes cosas, por lo que esta es sin duda la gran asignatura pendiente dentro del análisis. 
  • Blockchain Analytics aplicado como método de medición puede ser un gran avance, sobre todo en lo que respecta a la confianza en el dato. 
  • Streaming de datos, es decir, todos los entornos que permiten flujos constantes de datos. 

Sin lugar a dudas, gracias a los datos podemos entender mejor el por qué suceden las cosas. Además, por medio de las tecnologías podemos:

  • Construir modelos de datos que tomen más factores que influyan en el modelo de datos.
  • Producir pronósticos de mayor calidad.
  • Producir algoritmos infalibles para visualizaciones espectaculares. 

En definitiva, lo que buscamos con este libro es hacer ver qué se puede implementar una buena cultura de datos en la organización desde el principio hasta el final. Definitivamente, hay un horizonte amplio de posibilidades. 

¿Te gustaría saber más? Te invito a que te unas a la conversación en nuestro podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 8 de febrero tuve la suerte de compartir jornada con mujeres increíbles en «Womprende». Sin duda una experiencia increíble.

Womprende 2020

30 May 2017 | Big Data

Mejor una solución aproximada a un problema correcto que una solución correcta a un problema aproximado.

Cada día se habla más y más de la Ciencia de Datos o de Data Science, una disciplina muy interesante para las empresas, para que saquen provecho a la gran cantidad de información que almacenan en sus sistemas.

Es habitual que el analista disponga de cierto bagaje tecnológico porque necesita tener conocimiento de técnicas complejas pero no debe perder el foco de que con su trabajo, ha de solucionar un problema de negocio. El objetivo no es el dato, es solucionar un problema de la empresa. Y este es el tema principal que ha de tratarse cuando hablamos de Data Science, la vinculación que el científico o el analista de datos con el NEGOCIO.

Existen proyectos en los que a pesar de haber llegado a una solución se quedan guardados en el cajón porque no hay interés en los destinatarios, los responsables de su explotación. La no comprensión, el miedo o rechazo a los algoritmos… son barreras que frenan el desarrollo cuando en realidad, lo que permite es adquirir una ventaja competitiva frente al resto.

Entre las áreas de negocio y tecnología es habitual que no haya mucha comunicación porque hablan lenguajes diferentes. El científico de datos desempeña un rol de “traductor” e intermediario, disponen de un carácter didáctico. Se trata de profesiones con un perfil híbrido que suponen muchas veces un quebradero de cabeza porque no se sabe dónde ubicarlos.

Eliminar el binomio negocio vs tecnología, que vayan de la mano y hablen un mismo idioma, ayudaría en gran medida a que las dos grandes patas trabajen conjuntamente en armonía. Sin embargo, tal y como están planificadas las carreras en la universidad en España, no ayuda a lograr ese ideal. Por ejemplo, en las carreras técnicas como informática, matemáticas y estadística en ningún momento se enriquecen con enseñanzas sobre posibles aplicaciones técnicas al negocio. También es cierto que cada vez va habiendo más perfiles de tipo mixto: personas que estudiaron arte o arquitectura, se han reciclado al mundo técnico y son capaces de aportar una visión más innovadora.

En el perfil de analista de datos debe predominar la inquietud. Debe ser alguien que quiera explorar nuevos sectores o segmentos que le interese. Es un profesional que no le debe ser difícil salir de su zona de confort para enfrentarse a conocer otros mundos.

DataScience_01

El comienzo de todo proyecto debe partir por tener claro el problema de negocio que se quiere solucionar y cómo se quiere hacer. Es fundamental tener clara la perspectiva que se le quiera dar al problema ya que uno mismo puede tener varias.

Por ejemplo, si una empresa quiere atacar el problema del abandono de sus clientes, su preguntas pueden ser:

  • Quiero saber quién ha dejado de comprar
  • Quiero saber por qué ha dejado de comprar
  • Quiero saber quien va a dejar de comprar
  • Quiero saber cuáles son los incentivos que han llevado a algunos clientes a abandonar

DataScience_02

Centrar la idea es importante, y también lo es el hecho de tener claro cómo se va a poder accionar la solución. Una vez claro el resultado al que se quiere llegar, el proyecto continúa por identificar la información que me gustaría disponer y ver de la que se dispone, porque igual hay cosas que no se están midiendo y ese es el primer punto sobre el que actuar.

No hay que olvidar empaparse del contexto: hablar con la gente de negocio, percibir sus impresiones, conocer las opiniones de los profesionales expertos como por ejemplo los comerciales… para comprender la esencia de la situación y enriquecer los datos con información cualitativa.

Una vez superadas las fases anteriores, es importante optimizar recursos, tiempo y esfuerzo de tal forma que el proyecto no pase a ser un “gran proyecto de 3 meses” cuyo resultado final no sea el esperado. La metodología “agile” está a la orden del día y es habitual en el campo de la investigación: consiste en hacer una aproximación rápida al problema, por ejemplo dedicando un día laboral (8 horas) en caso de que ya se conozca la tecnología con la que se trabaja. El objetivo es obtener el mínimo producto viable para ir evolucionándolo. Es un cambio de filosofía: nunca va a ser el trabajo final, la solución va a evolucionar conforme los datos y el entorno cambien.

DataScience_03

En definitiva, se trata de crear un proyecto inicial e irlo desarrollando con interacciones cortas. Cambiar la idea de que un proyecto es algo que se empieza y termina. Disponer de un modelo inicial que arroja un resultado con el que se puede trabajar desde un primer día, sin olvidar mejorarlo constantemente en los días siguientes. La prioridad inicial no debe ser la exactitud sino mejorar lo que hay o llegar a un modelo que permita abrir una línea de exploración por muchos más canales.

En resumen: El proyecto debe partir de un conocimiento de la situación actual para medir lo que se tiene, es decir, disponer datos con los que comparar los resultados de un modelo “ultra-sencillo”. Si se compara y se ha mejorado, entonces el esfuerzo habrá merecido la pena 🙂

Si quieres saber más sobre este tema, no te pierdas mi conversación con Antonio Pita en ONDACRO de PRNoticias:

¿Qué ha pasado en el último mes?

Me han hecho una entrevista en Territori Mac

Estuve en Lima, Perú, hablando sobre analítica digital y data science:

gemma_peru

02 Dic 2015 | Big Data, Metodología

La ciencia es más que un simple conjunto de conocimientos: es una manera de pensar

Al hilo de lo que comentaba en mi anterior post, de la cercanía entre el analista tradicional y el científico de datos, hay que aprender nuevas metodologías que nos permitan adaptarnos a los nuevos tiempos.

Las empresas que están haciendo mejor analítica y Big Data no se quedan solamente en tomar mejores decisiones de forma interna… van más allá y crean nuevos productos y servicios basados en los datos. La clave es empezar a medir las capacidades y avanzar en aquellos puntos que nos permitan dar un salto diferencial con respecto a la competencia.

Una de las personas de las que aprendí en mis inicios en la analítica web, sobre todo de estrategia de análisis fue Thomas Davenport. Tuve la suerte de verle en 2007 presentando su libro Competing On Analytics y adopté enseguida su modelo DELTA.

Ahora la idea es que el modelo Data Enterprise Leadership Targets Analysts (DELTA) que se utilizaba en el análisis tradicional puede ser llevado al Big Data con alguna modificación, ya que es la base de todo proceso de tratamiento y análisis de datos:

DELTA ANALYTICS

DATA: El mayor esfuerzo en estos tiempos de Big Data reside en el trabajo previo al análisis; es decir: capturar, procesar y estructurar los datos de forma que queden listos para ser analizados.

ENTERPRISE: En la analítica tradicional, era importante llevar todo de forma transversal en la empresa: compartir los datos, la tecnología y los recursos dentro de la empresa para crear la cultura basada en datos y que toda la empresa estuviera involucrada. La base es la misma. Ninguna empresa que quiera hacer Big Data puede hacerlo sin tener una buena base de analítica tradicional sobre la que construir. Es decir, si no existe una cultura de datos en la compañía, hay que crearla desde abajo antes de ir a proyectos más ambiciosos.

LEADERSHIP: Como el Big Data se trata sobre todo de experimentar, de descubrir, es complicado generar valor rápidamente. No se asocia como la analítica tradicional a un ROI o una determinada optimización de un proceso, sino que hay que tener un poco de fe y paciencia, sobre todo al principio. Por lo que el proyecto de Big Data tiene que tener soporte directo de las altas esferas de la compañía, y relacionarse mucho con el equipo de analistas que sí tienen como misión el análisis cuantitativo y un ROI al que remitirse. Así no habrá tanta presión de resultados desde el minuto 1. Por lo que da igual que el responsable se llame CDO (Chief Data Officer) o CAO (Chief Analytics Officer), la idea es que ambas disciplinas convivan y se apoyen.

TARGET: Una buena estrategia de datos debe tener sí o sí una meta en el tiempo. ES decir, saber con certeza qué área se va a optimizar y dónde focalizar esfuerzos. ¿En las decisiones de productos? ¿En la forma de contactar a los clientes? ¿En la distribución del presupuesto? Es importante para determinar qué datos se necesitan, de dónde sacarlos, cómo segmentarlos… No se puede simplemente «hacer analítica» sin un fin, sin una priorización.

Esto cambia con Big Data y su concepto de exploración, ya que a priori parece difícil el establecer prioridades tan focalizadas cuando no sabemos lo que nos vamos a encontrar. Sin embargo, mi experiencia es que no se puede lidiar con todo Big Data a la vez, menos incluso que cuando teníamos small data. Corremos entonces el peligro de tener lo que llamamos «la parálisis postanálisis» de angustia por tener tantos datos que no sabemos muy bien donde nos llevan y no somos capaces de ir más allá y se quedan en datos, no en conocimiento.

Por eso lo que hay que cambiar son las preguntas, no serán tan focalizadas como en el análisis pero sí creo que nos servirán como punto de partida: «¿Qué proceso de negocio necesita un apoyo de datos para crecer?» «Qué datos nos pueden ayudar a reducir nuestros costes?» «¿Cómo debemos crear los productos o servicios basados en datos y dónde les sacaríamos más partido?». Son preguntas que requieren de más iniciativa y exploración que antes, pero que nos centran lo suficiente como para saber qué estamos buscando y qué nos puede ayudar.

Introduciría en el modelo DELTA, tal y como propone Thomas Davenport en su nuevo libro «Big Data at Work» una T más (DELTTA) puesto que la Tecnología se ha convertido en una parte importante del proceso, del Big Data. Sin Tecnología no hay BIG DATA.

TECHNOLOGY: Se está convirtiendo en una fuente de disrupción. Es la palanca de innovación de una empresa y cada día se desarrollan nuevas herramientas, nuevos proyectos open-source (MapReduce, Hadoop, Pig, Hive..), incluso los grandes gigantes actuales como Amazon, Google, Facebook… están invirtiendo en tecnologías propias e incluso ponerlas al alcance de todos como una especie de proyectos de open-source.

ANALYSTS: No sé qué pasará en el futuro pero ahora mismo los analistas y científicos de datos tienen una parte importante en el establecimiento de la cultura de datos. Sea analizando o programando máquinas que analicen por ellos. Lo que es difícil es encontrar todo lo que se requiere para triunfar en Big Data en un solo perfil ya que se supone que el científico de datos debe saber programar, debe conocer las diferentes tecnologías, debe saber analizar, debe saber del negocio, debe dominar el arte de comunicar, debe saber matemáticas, debe conocer el análisis visual, debe estar al día de machine learning….

Por eso es complicado encontrar buenos científicos de datos. Por mi experiencia, el éxito en las organizaciones suele estar ligado a tener todo lo que he comentado antes pero en diferentes personas de forma que la combinación del trabajo de todas produzca los resultados deseados (perfil técnico, perfil visual-comunicador, perfil negocio, perfil matemático-analítico). Puede ser que alguna persona tenga dos perfiles a la vez pero los cuatro es harto complicado.

Modelo Delta Madurez

Realmente lo que defiende el modelo DELTA es poder desarrollar un plan estratégico de datos para alcanzar una madurez analítica que aporte a la empresa desde el principio. Si la empresa nunca ha basado las decisiones en datos, necesitará ir paso a paso creciendo en las diferentes áreas (cultura de datos en la empresa, tecnología, liderazgo, analítica y target del análisis) para garantizar llegar a buen puerto y que no vayamos dando palos de ciego.

¿En qué fase estás en cada uno de los factores?

 

25 Nov 2015 | Analista Web, Big Data

Las ideas no tienen importancia alguna. Las ideas son el uniforme vistoso que se les pone a los sentimientos y a los instintos. Una costumbre indica mucho más el carácter de un pueblo que una idea.

Vivimos en un tiempo en que estamos engañándonos con todo el auge de Big Data y las empresas haciendo alarde de su cultura orientada a datos. Como dice el director de research de Google Peter Norvig «No tenemos mejores algoritmos, simplemente tenemos más datos». Por eso creo que el salto diferencial en estos tiempos no está tanto en la tecnología como en los sistemas de integración y tratamiento de los datos, que es lo que realmente cambia la forma de hacer las cosas.

Es mucho más interesante y accionable decir «Vamos a analizar conjuntamente los datos de CRM y los de la experiencia de usuario para poder entender mejor la relación que el cliente tiene con nosotros» que «Vamos a hacer Big Data».

Al principio, la analítica trataba de gestionar la información tradicional y dar soporte a las decisiones internas. El Big Data es algo diferente ya que en lugar de hacer informes y presentaciones que permitan tomar decisiones a los sakeholders, los científicos de datos normalmente profundizan en diferentes tipos de datos por medio de algoritmos para poder optimizar servicios y productos, encontrar nuevas líneas de negocio, etc…

Un analista toma un histórico de datos, lo prepara y analiza, encuentra un modelo que le permite elaborar una o varias hipótesis y según los resultados obtenidos recomienda una acción o varias acciones al stakeholder. Los analistas trabajan en todas las fuentes posibles de datos para encontrar nuevos patrones de comportamiento, alertar sobre las anomalías y los cambios y ser capaces de actuar en consecuencia.

Sin embargo, en Big Data, los datos no es tanto un bloque de histórico sino que se asemeja más a un continuo flujo de información. Los científicos de datos trabajan con la tecnología, más que para encontrar la estabilidad y conformar una estrategia, para descubrir nuevos métodos de interacción con las máquinas y poder tratar todos los datos disponibles por otros medios. Aunque sigue siendo necesario practicar un análisis y actuar sobre los datos para entender qué hacer no se debe proceder de la misma forma. Básicamente porque no es posible 🙂

Se ha generado y se está generando tal cantidad ingente de datos que no hay tiempo suficiente para analizarlos, por lo que el objetivo es analizar los datos con la mínima intervención humana, para poder llegar a tener la agilidad suficiente como para ser capaces en el mínimo tiempo posible de encontrar vías de afrontar lo que nos vamos encontrando.

El Big Data nos puede ayudar mucho en la parte de tomar mejores decisiones, ya que el valor primario es añadir nuevas fuentes de datos para encontrar modelos descriptivos y predictivos. Es decir, si tenemos datos de lo que nos compran los usuarios, seguramente podemos añadir los datos del servicio al cliente, los datos de devolución de productos, los datos de lo que comentan los compradores en redes sociales, etc… Lo que quiero decir con esto es que la clave para tomar mejores decisiones es ir añadiendo contexto e información a los datos primarios. Si solamente tenemos una fuente de datos, nuestras hipótesis van a ser más básicas que si contamos con otros tipos de datos que nos ayudan a entender la situación y a predecir qué puede pasar si realizamos esta acción o esta otra.

Un ejemplo de la importancia de añadir más información a los datos primarios es el caso de Amadeus, la compañía de sistemas de viajes online. Sacó hace unos meses un servicio llamado «Featured Results». Tomaba en cuenta el ratio look-to-book, el número de búsquedas por reserva de vuelo, precios en las distintas aerolíneas, además de los registros de ventas Estamos hablando de varios cientos de millones de filas de datos. En base a todos estos datos, Amadeus presenta los 4 mejores itinerarios en que el usuario puede estar interesado y se los presenta de forma personalizada. La agencia en la que probó este nuevo servicio mejoró un 20% el ratio de reservas como resultado de búsquedas. Este servicio es solamente posible tratando la información con algoritmos que permitan en el momento de la búsqueda encontrar opciones que se ajusten a la petición del usuario. Tanta cantidad de datos solamente puede ser tratada por un científico de datos con la tecnología adecuada.

El Big Data nos da la oportunidad de crecer, de llegar a optimizar muchas decisiones puesto que nos permite conocer de manera más profunda el entorno del negocio. Lo que está sucediendo ahora es que se utiliza tanto los análisis realizados por especialistas como los automatizados como base, pero esto puede cambiar en los próximos años puesto que cada vez vamos a recoger más datos y los sensores están para quedarse. La diferencia estará en saber qué hacer con esos datos, no en recolectar datos de forma ambigua sin que lleguen a tener nunca un impacto en el negocio.

¿Y cómo lo hago? Lo primero, al igual que con la analítica es sentarnos para determinar la mejor estrategia en Big Data. Lo importante es tener claros nuestros objetivos. De ahí el comienzo de mi post de centrar las acciones y las preguntas que queremos contestar. ¿Qué es lo que necesita la empresa? En los negocios se busca tener datos para aportar tres tipos de valor: reducción de costes, tomar mejores decisiones y la optimización en productos, servicios y entornos. ¿Dónde entramos nosotros?

Los negocios que suelen adoptar mejores estrategias a la hora de pasar de análisis de los datos a Big Data empiezan como comentaba anteriormente, cuando se pretende aportar al análisis básico nuevas variables de sistemas no estructurados y de fuentes totalmente distintas a las transaccionales, para así tener hipótesis mucho más enriquecidas y que den lugar a la toma de decisiones más sólidas.

El objetivo sigue siendo el mismo: tomar decisiones, pero las herramientas son diferentes.

Ahora mismo se pueden utilizar tecnologías que analizan sentimientos de usuarios o llamadas al callcenter y transforman la información que antes no se podía procesar de manera eficiente en datos que sí pueden servir para identificar a los clientes descontentos, por ejemplo. O ser capaces de entender el uso de diversos canales y dispositivos que el cliente utiliza antes de comprar. Este análisis incluyen datos estructurados, semiestructurados y completamente desestructurados y eran complicados de gestionar en empresas que disponen de muchos potenciales clientes. Cada vez es más fácil ahondar en esta maraña de datos, con la tecnología adecuada y los perfiles adecuados.

Por lo que la diferencia está clara, el análisis tradicional se basa más en la optimización y el análisis de Big Data se basa más en el descubrimiento. Y la cultura del dato está presente en ambas puesto que es la base tanto de la producción como del descubrimiento. Ambos análisis parten de una pregunta relacionada con el negocio, pero los métodos de tratamiento de datos son diferentes y por supuesto el resultado de ambas son distintos.

El descubrimiento termina en una idea de un nuevo producto, servicio o de un factor que identifica mejor un nuevo camino. Sin embargo el análisis basado en la optimización es básicamente dar con mejores maneras de actuar, de cambiar las cosas. En el descubrimiento la intervención humana debe ser para dar con el algoritmo o modelo más sólido y en la optimización la intervención humana debe ser para unir las piezas del puzzle y dar con la mejor estrategia para afrontar un problema.

Y ahora mismo lo mejor que puede hacer una organización es hacer trabajar la optimización y el descubrimiento de manera conjunta para beneficiarse del conocimiento que de los datos tendrán ambas estructuras. Con el tiempo estos dos perfiles tomarán lo mejor uno del otro y el analista podrá usar la tecnología para optimizar y descubrir y el científico podrá usar el conocimiento del negocio para descubrir y optimizar. Ahora mismo están lejos de tener el mismo perfil pero a la vez están muy cerca en la manera de pensar y de llegar a accionar en base a los datos.

¿Qué ha pasado en Octubre y Noviembre?

Montamos un evento junto a Mercanza en el que hablé sobre la toma de decisiones en base a los datos.

Participé en el evento en Manager Business Forum en Madrid donde hablé de lo que supone mi profesión.

Hablé en Infoempleo sobre qué hace un experto en analítica web.

Estuve en el programa EL RESPETO hablando y debatiendo sobre los datos.

He participado en la Universidad Autónoma de Madrid en una clase sobre analítica digital.

Hemos abierto un nuevo máster de Analítica Web en KSchool Madrid para los alumnos que no llegaron a entrar en el grupo de octubre. ¡Aún quedan plazas pero empieza el viernes!

Gemma-Montevideo

 

 

 

  • 1
  • 2
  • Siguiente »

Copyright © 2021 · Política de Privacidad
WordPress · Genesis Framework