¿Dónde está Avinash cuando se le necesita?

Soy Gemma Muñoz (@sorprendida). Avinash Kaushik es mi ídolo. Y este es mi blog de analítica digital, mi trabajo y mi pasión.

  • Sobre Mí
  • Mis Libros
  • Contacto
  • Archivo

Categoría: Big Data

26 Ene 2021 | Big Data

Un Anillo para gobernarlos a todos. Un Anillo para encontrarlos, un Anillo para atraerlos a todos y atarlos en las tinieblas.

Para que el analista digital pueda realizar su trabajo en las mejores condiciones, necesita poder conectar los datos de las plataformas con las que trabaja con sus herramientas de análisis. Esta labor cada vez se hace más complicada, ya que a medida que van aumentando las fuentes de datos, establecer una conexión fiable es cada vez más difícil. Para poder hacer frente a esto, existen los data lakes, repositorios de almacenamiento en la nube en los que unir todas las fuentes de datos bajo un modelo de análisis. 

Pero, ¿cuánto tiempo se necesita para un proyecto de estas características? Y lo que es más importante, ¿cómo podemos abordarlo? Para ahondar en este proceso, hoy cuento con la colaboración de un gran profesional, David García, Head of Data de Laboratorios ISDIN.

Fases cómo construir un Data Lake

Fase 1: Punto de partida

En el instante en el que desde ISDIN deciden tomar la decisión de construir un data lake, lo hacen con el principal objetivo de unificar y consolidar los datos recopilados de las diferentes plataformas en un único repositorio. El momento era el idóneo ya que coincidió con la apertura de un nuevo mercado importante como es el de Estados Unidos. Vieron que, para evaluar el rendimiento real de sus campañas de publicidad en ese mercado, era fundamental aunar los conjuntos de datos a los que tenían acceso en un único repositorio y, además, poder tenerlos en propiedad para manejarlos sin depender de terceros. 

Esta decisión supuso un gran reto para la compañía, ya que en aquel momento el modelo de madurez analítico no estaba del todo consolidado, por lo que para poder llevarlo a cabo, fue necesaria una reorganización que afectó tanto al almacenamiento de los datos como al propio departamento.

Fase 2: Planteamiento

Con los objetivos del data lake alineados con el negocio, llegó el turno de plantear la línea de trabajo desde la que iniciar el proyecto. En este aspecto, se valoraron dos opciones:

  1. Construir un equipo especializado, lo que suponía contratar a profesionales que pudieran seguir con su trabajo a lo largo del tiempo.
  2. Contratar una agencia especializada que diera soporte en el inicio del proyecto.

Al final se optó por contar con El Arte de Medir para que le ayudáramos a establecer los primeros pasos del data lake, entre los que se encontraba la elección de la plataforma cloud más adecuada para la construcción del mismo. Para esta elección, se tuvieron en cuenta las grandes plataformas dentro del mercado: Google Cloud, Amazon Web Services y Microsoft Azure. Las tres comparten características y precios similares, por lo que al final se decidieron por aquella que mejor se adaptara a las necesidades de ISDIN en ese momento, Google Cloud. 

El último punto de esta fase fue determinar cuáles serían las métricas y KPIs del data lake. Para ello, lo ideal siempre es hablar con los diferentes stakeholders para conocer cómo ayudarles a dar respuesta a las dudas o problemas que surjan en el día a día. Si esto no es posible, como ocurrió en ISDIN, la elección de métricas dependerá de los objetivos del negocio que a medio y largo plazo puedan ayudar de una manera más directa. 

Fase 3: Construcción 

En esta fase entró en juego uno de los puntos claves del proyecto y, que sin duda, marcaron su rumbo: la construcción y explotación del dato dentro del data lake. Esta construcción se puede hacer de varias maneras: a través de terceros o desde la propia empresa (in house). En el caso de ISDIN, desde el comienzo del proyecto sabían que el data lake tenía que ser in house ya que, aunque el volumen de datos no era muy grande, contaban con fuentes de datos muy diversas (datos digitales, marketplaces, farmacias digitales), y gracias a este tipo de repositorio, tendrían una mayor flexibilidad en la explotación de los datos.

Sin lugar a dudas, contar con un data lake in house tiene muchas ventajas, como no depender de otros. Pero también tiene sus desventajas, como por ejemplo el difícil acceso a los datos en bruto de las plataformas de terceros. Esto se convirtió en uno de los puntos de fricción del desarrollo del proyecto, ya que cada plataforma tiene unas limitaciones con las que hay que saber lidiar. 

A esto hay que añadirle otro punto muy importante: el nivel de detalle de información que se desea almacenar dentro del data lake, conocido como granularidad. ¿Por qué? Pongamos un ejemplo: cuando se quiere analizar los datos de inversión publicitaria en una plataforma como Facebook o Google, estas herramientas ofrecen un nivel de profundidad de análisis que un data lake in house no tiene. Por eso es importante tener claro desde el principio hasta dónde van a llegar los análisis que se vayan a realizar, sobre todo en las primeras fases del proyecto. La parte positiva es que al ser un proyecto vivo y en continua transformación, a medida que evoluciona, también lo hacen las necesidades de la compañía, por lo que se puede ir profundizando es esta granularidad. 

Fase 4: Explotación

En lo que respecta a la explotación del data lake, aunque el verdadero potencial reside en propio repositorio, en ISDIN también le han sacado partido con diferentes elementos, como por ejemplo:

  • Visualizaciones automatizadas de consulta diaria como dashboards en Google Data Studio.
  • Creación de reportes y cuadros de mando ad-hoc para campañas y promociones puntuales. 

En definitiva, lo que empezó como un proyecto básico ha ido evolucionando en el tiempo y hoy día sigue manteniéndose a pleno rendimiento. Cuando se afronta un proyecto como la construcción de un data lake, se puede llegar a pensar que es un proceso largo y complejo, pero nada más lejos de la realidad. En el caso de ISDIN, al partir con un volumen de datos no muy grande, pudieron comenzar a construir una base sólida con la que el negocio fuera evolucionando. En otras palabras, partieron de un Mínimo Producto Viable con el que sacar rendimiento al repositorio casi desde el primer minuto. 

¿Te gustaría saber más acerca de lo que supuso la construcción del data lake para ISDIN? Te invito a que sigas la conversación en el episodio que le dedicamos en el podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

29 Abr 2020 | Big Data, Gemma

¿Por qué caemos Bruce? Para aprender a levantarnos

El sector inmobiliario, al igual que el resto de sectores, también evoluciona dentro de la transformación digital. Desde la crisis y la irrupción de la nueva era digital, este sector está trabajando para conectar con el consumidor digital. Para abordar esta nueva era de digitalización, cuento con la experiencia de Dania Hernández, Responsable Digital de la consultora inmobiliaria Gloval Advisory. 

El sector inmobiliario se ha caracterizado por ser un sector tradicional. Durante el boom (1996-2006) por ejemplo, no tuvo la necesidad de adaptarse a las tecnologías digitales porque no hacía falta ya que la demanda superaba a la oferta. Pero cuando llegó la crisis, el músculo financiero se empezó a debilitar. Fue en ese momento cuando nacieron empresas como Idealista o las plataformas Proptech (startups enfocadas a la tecnología en el sector inmobiliario), pero el resto de compañías todavía tardarían un poco más en afrontar su propia transformación digital, impulsada entre otras cosas, por el cambio de los hábitos de compra de los consumidores. 

El Big Data en el sector inmobiliario

En España, a diferencia de otros países, en el sector inmobiliario los datos no están democratizados, es decir, las empresas no suelen compartir su información. Esto hace que las compañías acumulen sus datos sin un fin concreto, pero son las que los aprovechan las que salen adelante. Como hemos dicho en muchas ocasiones en este blog, el dato es poder, información y conocimiento y con una buena estrategia, eso lo convierte un elemento diferenciador frente a la competencia.

Afortunadamente las empresas del sector se han dado cuenta de estos beneficios y están enfocando sus esfuerzos sobre todo en el cliente, ya que, en definitiva, la empresa más fuerte es la que se encuentra más cerca de él. Se pueden crear análisis de mercado muy potentes gracias a la tipología de datos que lanza este sector: la tasación de las casas, el precio de compra real, geolocalización, domótica, IoT, etc… Y gracias a las herramientas y profesionales adecuados, se pueden hacer grandes cosas, como modelos de predicción de cara a las ventas.

La importancia de la cultura del dato

Gloval apuesta por el área de analítica digital y sus habilidades. Pero como hemos comentado antes, no basta con almacenar sino que hay que integrar la cultura del dato en toda la organización. De ahí la importancia de la digitalización y el uso de herramientas de analítica enfocadas tanto al negocio como al cliente. 

Por otro lado, a la hora de trabajar con datos, es importante recordar que una de las partes más delicadas es el trabajo de recopilación y tratamiento de los mismos. Para hacer un buen trabajo, las compañías tienen que tener claro:

  • Dónde está el dato.
  • Cómo negociar el dato. 
  • Hacer un ejercicio inteligente con el dato. 

Analítica en el sector inmobiliario

 

Para ello, no sólo basta con crear un área de analítica digital, sino que hay que trabajar en las necesidades del cliente. El caso del sector inmobiliario es un poco particular, ya que su negocio va dirigido tanto a B2B (Business-to-Business) como B2C (Business-to-Consumer). Por eso saben que cuando el cliente se encuentra en el centro de la estrategia, cuántos más datos le facilites para tomar una decisión, mejor experiencia tendrá. 

Blockchain

El blockchain es una tecnología disruptiva que viene para cambiar las reglas del juego. En estos momentos no lo parece, pero al igual que con la banca digital y los cambios de regulación que se realizaron desde los gobiernos, con el blockchain también se podría dar el mismo caso. Se podría pensar que uno de los escollos por los que el avance del blockchain no está siendo tan rápido podría estar ligado a la desaparición de la figura del intermediario, pero en realidad tiene que seguir existiendo al igual que la parte notarial. 

Por otro lado, el desconocimiento de lo que el blockchain puede aportar aún es muy elevado. Por ejemplo, mucha gente no sabe que una de sus principales fortalezas es la seguridad. Por ello, es labor de los profesionales de la analítica la de informar tanto a empresas como a cliente final de todo lo que esta tecnología es capaz de hacer por ellos. 

Si quieres seguir la conversación que tengo con Dania, lo puedes hacer en el episodio del podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

25 Feb 2020 | Big Data

En los libros podemos refugiar nuestros sueños para que no se mueran de frío

El Big Data Analytics ya no es una promesa y sin duda esto está provocando cambios profundos en el ecosistema empresarial. O eso parece. Si analizamos cómo las empresas hacen uso de su Big Data, podríamos ver que existen dos tipos: el de las grandes compañías como Google, Facebook, Amazon, etc; y el del mundo real. Ante esto, ¿cómo pueden las empresas del mundo real sacar el máximo partido a sus datos? De aquí es donde parte la premisa del libro he escrito junto a Eduardo Sánchez, al cual hemos titulado “Big Data como activo de negocio”, de ediciones Anaya Multimedia.

A la hora de sacar provecho del Big Data, hay muchas empresas que invierten una gran cantidad de recursos únicamente en tecnología. Sin duda, es un paso muy importante y permite almacenar y tratar sus datos de forma sencilla y barata. Pero el problema es que si sólo nos centramos en la tecnología, el dato sigue siendo un pasivo. Por esto, la intención de este libro es ayudar al lector a recopilar una serie de mejores prácticas basadas en nuestra experiencia en El Arte de Medir, dentro de un marco donde indicarle hacia dónde tiene que dirigirse para conseguir sus objetivos. En otras palabras, poner un poco de orden en todo lo que conlleva el Big Data y ayudar a la gente a que sea capaz de aprovechar los datos de su compañía para sacar rendimiento de cara al negocio. 

Comienza la partida

A la hora de plantear este libro, una de las primeras dificultades a las que nos enfrentamos fue decidir el hilo conductor que podría unir la tecnología y el negocio con el analista, el data scientist, el ingeniero de datos, etc…, Y la mejor alegoría la encontramos en el ajedrez. Este juego de estrategia aúna el arte y el cálculo y además recuerda que el mundo está lleno de posibilidades infinitas. Lo mismo pasa con en el Big Data, donde hay que decidir cuales son las posibilidades que nos ayudan a conseguir los objetivos de negocio.

¿Y cómo empieza la partida? Se puede pensar que la grandeza del Big Data Analytics proviene de su capacidad de explicar y predecir lo que debemos hacer para evolucionar en el negocio. Y los aspectos más complejos tienen que ver con el lenguaje matemático que no muchas personas manejan en su día a día. Pero para que el dato pase de ser un pasivo a un activo de negocio, es necesario involucrar a todas las personas de la organización. Esto incluye a las que no hablen este idioma. ¿Cómo? Traduciendo todos los análisis al lenguaje del negocio. Está claro que para realizar una buena partida, es importante que las piezas del tablero, en nuestro caso las personas de negocio, entiendan la capa tecnológica, y sobre todo los tipos de almacenamiento existentes a nivel de estructural. Así es como personas y tecnología tienen que ir de la mano. 

Estrategia: Método MAMBO

El siguiente paso es hablar de la estrategia que se va a aplicar en toda la partida, y que es con la que trabajamos en El Arte de Medir: la metodología MAMBO. Esta metodología es la que, para nosotros, reúne todos los pasos para entender cómo nuestros datos nos pueden ayudar en la toma de decisiones de negocio. Pero, ¿en qué consiste cada uno de los pasos?

  • Meditar y entender el negocio: Es importante hacer un buen desembarco y conocer todo lo que rodea al negocio y entenderlo. Sin este paso, es imposible hacer del dato un activo del negocio. 
  • Adquirir los datos: Se tiene que realizar un mapeo de los sistemas de datos que tiene la compañía a su alcance para identificar los datos que hay que extraer que nos ayuden a responder las preguntas de negocio. 
  • Manejar los datos: ¿Cómo podemos transformar los datos en conocimiento? Validando la calidad del dato. Tras esta validación, el siguiente paso es empezar a entender la información para la realización de los análisis adecuados.
  • Buscar en los datos: Tenemos los datos, tenemos las preguntas claras, conocemos el negocio. Ahora toca ver qué es lo que ocurre, es decir, analizar. Existen diferentes tipos de análisis: de diagnóstico, descriptivos, predictivos, prescriptivos, etc…, pero también es importante conocer algunas técnicas que faciliten estos análisis. 
  • Ordenar y visualizar: La transmisión de los datos suele ser el más olvidado, pero es imprescindible. Por ello, dentro de este punto contamos con una metodología propia la cual ayuda a trasladar todo el conocimiento a un impacto real en el negocio: SEVEN. Si un análisis no cambia la forma de actuar, no ha cumplido su cometido. Y sobre todo con proyectos con muchos datos, por lo que es importante buscar la información que la gente de negocio necesita para hacer su trabajo diario. El análisis y su visualización es el producto del analista. Si no sabe cómo comunicar, el trabajo no sirve para nada.

Metodología Mambo

Jaque Mate: El futuro que nos viene

El libro finaliza con una vista puesta a las nuevas fuentes de datos y métodos que empiezan a surgir y que, sin duda, marcarán el futuro de la analítica digital:

  • Internet of Things es una parte fundamental del Big Data ya que las empresas que trabajan con grandes cantidades de datos, pueden manejarlos con las herramientas de IoT. Se pueden hacer grandes cosas, por lo que esta es sin duda la gran asignatura pendiente dentro del análisis. 
  • Blockchain Analytics aplicado como método de medición puede ser un gran avance, sobre todo en lo que respecta a la confianza en el dato. 
  • Streaming de datos, es decir, todos los entornos que permiten flujos constantes de datos. 

Sin lugar a dudas, gracias a los datos podemos entender mejor el por qué suceden las cosas. Además, por medio de las tecnologías podemos:

  • Construir modelos de datos que tomen más factores que influyan en el modelo de datos.
  • Producir pronósticos de mayor calidad.
  • Producir algoritmos infalibles para visualizaciones espectaculares. 

En definitiva, lo que buscamos con este libro es hacer ver qué se puede implementar una buena cultura de datos en la organización desde el principio hasta el final. Definitivamente, hay un horizonte amplio de posibilidades. 

¿Te gustaría saber más? Te invito a que te unas a la conversación en nuestro podcast:

Tarjeta-Avinash-spotify Podcast Apple Podcast Podcast Google Podcast

¿Qué ha pasado en el último mes?

  • El 8 de febrero tuve la suerte de compartir jornada con mujeres increíbles en «Womprende». Sin duda una experiencia increíble.

Womprende 2020

30 May 2017 | Big Data

Mejor una solución aproximada a un problema correcto que una solución correcta a un problema aproximado.

Cada día se habla más y más de la Ciencia de Datos o de Data Science, una disciplina muy interesante para las empresas, para que saquen provecho a la gran cantidad de información que almacenan en sus sistemas.

Es habitual que el analista disponga de cierto bagaje tecnológico porque necesita tener conocimiento de técnicas complejas pero no debe perder el foco de que con su trabajo, ha de solucionar un problema de negocio. El objetivo no es el dato, es solucionar un problema de la empresa. Y este es el tema principal que ha de tratarse cuando hablamos de Data Science, la vinculación que el científico o el analista de datos con el NEGOCIO.

Existen proyectos en los que a pesar de haber llegado a una solución se quedan guardados en el cajón porque no hay interés en los destinatarios, los responsables de su explotación. La no comprensión, el miedo o rechazo a los algoritmos… son barreras que frenan el desarrollo cuando en realidad, lo que permite es adquirir una ventaja competitiva frente al resto.

Entre las áreas de negocio y tecnología es habitual que no haya mucha comunicación porque hablan lenguajes diferentes. El científico de datos desempeña un rol de “traductor” e intermediario, disponen de un carácter didáctico. Se trata de profesiones con un perfil híbrido que suponen muchas veces un quebradero de cabeza porque no se sabe dónde ubicarlos.

Eliminar el binomio negocio vs tecnología, que vayan de la mano y hablen un mismo idioma, ayudaría en gran medida a que las dos grandes patas trabajen conjuntamente en armonía. Sin embargo, tal y como están planificadas las carreras en la universidad en España, no ayuda a lograr ese ideal. Por ejemplo, en las carreras técnicas como informática, matemáticas y estadística en ningún momento se enriquecen con enseñanzas sobre posibles aplicaciones técnicas al negocio. También es cierto que cada vez va habiendo más perfiles de tipo mixto: personas que estudiaron arte o arquitectura, se han reciclado al mundo técnico y son capaces de aportar una visión más innovadora.

En el perfil de analista de datos debe predominar la inquietud. Debe ser alguien que quiera explorar nuevos sectores o segmentos que le interese. Es un profesional que no le debe ser difícil salir de su zona de confort para enfrentarse a conocer otros mundos.

DataScience_01

El comienzo de todo proyecto debe partir por tener claro el problema de negocio que se quiere solucionar y cómo se quiere hacer. Es fundamental tener clara la perspectiva que se le quiera dar al problema ya que uno mismo puede tener varias.

Por ejemplo, si una empresa quiere atacar el problema del abandono de sus clientes, su preguntas pueden ser:

  • Quiero saber quién ha dejado de comprar
  • Quiero saber por qué ha dejado de comprar
  • Quiero saber quien va a dejar de comprar
  • Quiero saber cuáles son los incentivos que han llevado a algunos clientes a abandonar

DataScience_02

Centrar la idea es importante, y también lo es el hecho de tener claro cómo se va a poder accionar la solución. Una vez claro el resultado al que se quiere llegar, el proyecto continúa por identificar la información que me gustaría disponer y ver de la que se dispone, porque igual hay cosas que no se están midiendo y ese es el primer punto sobre el que actuar.

No hay que olvidar empaparse del contexto: hablar con la gente de negocio, percibir sus impresiones, conocer las opiniones de los profesionales expertos como por ejemplo los comerciales… para comprender la esencia de la situación y enriquecer los datos con información cualitativa.

Una vez superadas las fases anteriores, es importante optimizar recursos, tiempo y esfuerzo de tal forma que el proyecto no pase a ser un “gran proyecto de 3 meses” cuyo resultado final no sea el esperado. La metodología “agile” está a la orden del día y es habitual en el campo de la investigación: consiste en hacer una aproximación rápida al problema, por ejemplo dedicando un día laboral (8 horas) en caso de que ya se conozca la tecnología con la que se trabaja. El objetivo es obtener el mínimo producto viable para ir evolucionándolo. Es un cambio de filosofía: nunca va a ser el trabajo final, la solución va a evolucionar conforme los datos y el entorno cambien.

DataScience_03

En definitiva, se trata de crear un proyecto inicial e irlo desarrollando con interacciones cortas. Cambiar la idea de que un proyecto es algo que se empieza y termina. Disponer de un modelo inicial que arroja un resultado con el que se puede trabajar desde un primer día, sin olvidar mejorarlo constantemente en los días siguientes. La prioridad inicial no debe ser la exactitud sino mejorar lo que hay o llegar a un modelo que permita abrir una línea de exploración por muchos más canales.

En resumen: El proyecto debe partir de un conocimiento de la situación actual para medir lo que se tiene, es decir, disponer datos con los que comparar los resultados de un modelo “ultra-sencillo”. Si se compara y se ha mejorado, entonces el esfuerzo habrá merecido la pena 🙂

Si quieres saber más sobre este tema, no te pierdas mi conversación con Antonio Pita en ONDACRO de PRNoticias:

¿Qué ha pasado en el último mes?

Me han hecho una entrevista en Territori Mac

Estuve en Lima, Perú, hablando sobre analítica digital y data science:

gemma_peru

02 Dic 2015 | Big Data, Metodología

La ciencia es más que un simple conjunto de conocimientos: es una manera de pensar

Al hilo de lo que comentaba en mi anterior post, de la cercanía entre el analista tradicional y el científico de datos, hay que aprender nuevas metodologías que nos permitan adaptarnos a los nuevos tiempos.

Las empresas que están haciendo mejor analítica y Big Data no se quedan solamente en tomar mejores decisiones de forma interna… van más allá y crean nuevos productos y servicios basados en los datos. La clave es empezar a medir las capacidades y avanzar en aquellos puntos que nos permitan dar un salto diferencial con respecto a la competencia.

Una de las personas de las que aprendí en mis inicios en la analítica web, sobre todo de estrategia de análisis fue Thomas Davenport. Tuve la suerte de verle en 2007 presentando su libro Competing On Analytics y adopté enseguida su modelo DELTA.

Ahora la idea es que el modelo Data Enterprise Leadership Targets Analysts (DELTA) que se utilizaba en el análisis tradicional puede ser llevado al Big Data con alguna modificación, ya que es la base de todo proceso de tratamiento y análisis de datos:

DELTA ANALYTICS

DATA: El mayor esfuerzo en estos tiempos de Big Data reside en el trabajo previo al análisis; es decir: capturar, procesar y estructurar los datos de forma que queden listos para ser analizados.

ENTERPRISE: En la analítica tradicional, era importante llevar todo de forma transversal en la empresa: compartir los datos, la tecnología y los recursos dentro de la empresa para crear la cultura basada en datos y que toda la empresa estuviera involucrada. La base es la misma. Ninguna empresa que quiera hacer Big Data puede hacerlo sin tener una buena base de analítica tradicional sobre la que construir. Es decir, si no existe una cultura de datos en la compañía, hay que crearla desde abajo antes de ir a proyectos más ambiciosos.

LEADERSHIP: Como el Big Data se trata sobre todo de experimentar, de descubrir, es complicado generar valor rápidamente. No se asocia como la analítica tradicional a un ROI o una determinada optimización de un proceso, sino que hay que tener un poco de fe y paciencia, sobre todo al principio. Por lo que el proyecto de Big Data tiene que tener soporte directo de las altas esferas de la compañía, y relacionarse mucho con el equipo de analistas que sí tienen como misión el análisis cuantitativo y un ROI al que remitirse. Así no habrá tanta presión de resultados desde el minuto 1. Por lo que da igual que el responsable se llame CDO (Chief Data Officer) o CAO (Chief Analytics Officer), la idea es que ambas disciplinas convivan y se apoyen.

TARGET: Una buena estrategia de datos debe tener sí o sí una meta en el tiempo. ES decir, saber con certeza qué área se va a optimizar y dónde focalizar esfuerzos. ¿En las decisiones de productos? ¿En la forma de contactar a los clientes? ¿En la distribución del presupuesto? Es importante para determinar qué datos se necesitan, de dónde sacarlos, cómo segmentarlos… No se puede simplemente «hacer analítica» sin un fin, sin una priorización.

Esto cambia con Big Data y su concepto de exploración, ya que a priori parece difícil el establecer prioridades tan focalizadas cuando no sabemos lo que nos vamos a encontrar. Sin embargo, mi experiencia es que no se puede lidiar con todo Big Data a la vez, menos incluso que cuando teníamos small data. Corremos entonces el peligro de tener lo que llamamos «la parálisis postanálisis» de angustia por tener tantos datos que no sabemos muy bien donde nos llevan y no somos capaces de ir más allá y se quedan en datos, no en conocimiento.

Por eso lo que hay que cambiar son las preguntas, no serán tan focalizadas como en el análisis pero sí creo que nos servirán como punto de partida: «¿Qué proceso de negocio necesita un apoyo de datos para crecer?» «Qué datos nos pueden ayudar a reducir nuestros costes?» «¿Cómo debemos crear los productos o servicios basados en datos y dónde les sacaríamos más partido?». Son preguntas que requieren de más iniciativa y exploración que antes, pero que nos centran lo suficiente como para saber qué estamos buscando y qué nos puede ayudar.

Introduciría en el modelo DELTA, tal y como propone Thomas Davenport en su nuevo libro «Big Data at Work» una T más (DELTTA) puesto que la Tecnología se ha convertido en una parte importante del proceso, del Big Data. Sin Tecnología no hay BIG DATA.

TECHNOLOGY: Se está convirtiendo en una fuente de disrupción. Es la palanca de innovación de una empresa y cada día se desarrollan nuevas herramientas, nuevos proyectos open-source (MapReduce, Hadoop, Pig, Hive..), incluso los grandes gigantes actuales como Amazon, Google, Facebook… están invirtiendo en tecnologías propias e incluso ponerlas al alcance de todos como una especie de proyectos de open-source.

ANALYSTS: No sé qué pasará en el futuro pero ahora mismo los analistas y científicos de datos tienen una parte importante en el establecimiento de la cultura de datos. Sea analizando o programando máquinas que analicen por ellos. Lo que es difícil es encontrar todo lo que se requiere para triunfar en Big Data en un solo perfil ya que se supone que el científico de datos debe saber programar, debe conocer las diferentes tecnologías, debe saber analizar, debe saber del negocio, debe dominar el arte de comunicar, debe saber matemáticas, debe conocer el análisis visual, debe estar al día de machine learning….

Por eso es complicado encontrar buenos científicos de datos. Por mi experiencia, el éxito en las organizaciones suele estar ligado a tener todo lo que he comentado antes pero en diferentes personas de forma que la combinación del trabajo de todas produzca los resultados deseados (perfil técnico, perfil visual-comunicador, perfil negocio, perfil matemático-analítico). Puede ser que alguna persona tenga dos perfiles a la vez pero los cuatro es harto complicado.

Modelo Delta Madurez

Realmente lo que defiende el modelo DELTA es poder desarrollar un plan estratégico de datos para alcanzar una madurez analítica que aporte a la empresa desde el principio. Si la empresa nunca ha basado las decisiones en datos, necesitará ir paso a paso creciendo en las diferentes áreas (cultura de datos en la empresa, tecnología, liderazgo, analítica y target del análisis) para garantizar llegar a buen puerto y que no vayamos dando palos de ciego.

¿En qué fase estás en cada uno de los factores?

 

  • 1
  • 2
  • Siguiente »

Copyright © 2022 · Política de Privacidad
WordPress · Genesis Framework