El pasado 5 de Diciembre vivimos el primer encuentro de DataLab, un evento impulsado a través de CACE (Cámara Argentina de Comercio Electrónico), que tuvo lugar en Digital House, con el objetivo de promover y compartir conocimiento sobre Datos, Datos y más Datos.
Un tópico que ya forma parte de la diaria de muchas compañías y se presenta como un desafío necesario de implementar cuánto antes si queremos que nuestras compañías estén a la altura de la época.
Aquí compartimos los principales conceptos y temáticas que se hicieron presente durante la jornada y que recorren las problemáticas clave en relación al análisis, recopilación y estrategias de negocio a partir de la relevancia de datos.
La Magia de Los Datos: Transformación Digital, BigData, DataMining, IA, Machine Learning
Gustavo Guaragna fue el encargado de hacer la apertura e introducción de conceptos básicos que presentamos en este resumen, a fin de tener una visión general que nos permita introducirnos y ampliar nuestros conocimientos sobre administración, tendencia y manejo de datos. Además Gustavo realizó un recorrido histórico, donde presentó el concepto de tecnología como la encargada de impulsar los cambios al interior de las compañías.
Big Data & Analytics
El concepto de Big Data introduce una nueva forma de tratar y almacenar los datos. El tratamiento de datos a gran escala propone además la figura del “Científico de Datos” quien tendrá un perfil polifacético que combina tanto el conocimiento de programación como de estadista y comunicador.
Big Data se define a partir de las 4 “V´s”
- Volumen: tratamiento de un gran volumen de datos
- Variedad: se trata de la diversidad de formatos y tipos de datos.
- Velocidad: en relación a la necesidad de procesar datos de manera rápida y con capacidad de analizar registros de fragmentos de tiempo específicos.
- Veracidad: todo registro debe ser confiable. La toma de decisiones tiene que basarse en fuente de datos fiables.
Inteligencia Artificial
“Una computadora puede ser llamada inteligente si logra engañar a una persona haciéndole creer que es un humano” cita: Alan Mathison Turing
La inteligencia artificial o AI es la simulación de procesos de inteligencia humana por parte de máquinas, especialmente sistemas informáticos. Estos procesos incluyen el aprendizaje (la adquisición de información y reglas para el uso de la información) el razonamiento (usando las reglas para llegar a conclusiones aproximadas o definitivas) y la autocorrección.
Machine Learning
Se puede explicar como un tipo especial de IA, si entendemos que ésta tiene como propósito imitar la inteligencia humana y que a partir de ello surgen diferentes propuestas y estrategias para el aprendizaje y el procesamiento de datos.
Podríamos definir Machine Learning como un subconjunto de IA con una relación efectiva entre el coste de implementación y el uso de la información.
Machine Learning se trata de un conjunto de algoritmos que pueden aprender los datos y que podemos clasificar en 3 tipos según su capacidad de procesamiento:
- Aprendizaje supervisado
- Aprendizaje no supervisado
- Aprendizaje reforzado
Business Intelligence, ¿Cómo gobernar a los datos?
Para construir una cultura verdaderamente data driven, es necesario afrontar estratégicamente los desafíos y resistencias que ello implica. Una adecuada estrategia de data Data Governance no solo garantiza el correcto gobierno de la organización de uno de sus más preciados activos: la data; si no que también garantiza, a la inversa, que la organización sea gobernada por su data. Para ello debemos tener por un lado confianza en nuestra información, pero también un acceso rápido y sencillo para responder proactivamente aquellas preguntas que hacen al bottom line del negocio.
Data Governance
Se trata de una serie de procesos que una organización define y aplica para tratar sus datos como un activo y garantizar la calidad de los mismos.
Las organizaciones exitosas toman la data como el ADN de la organización. El desafío de toda organización es lograr confiabilidad de los datos.
Definición del tipo de información según la fuente de recopilación de datos:
- First Party Data: es tu información. Es la data que se recolecta de tu audiencia, website, CRM, Social Media y clientes que incluye información sobre el comportamiento, acciones e intereses. Es el “Rey”, la fuente más confiable.
- Second Party Data o datos de segunda fuente, son fuentes de datos externas que los relevantes que podemos tomar directamente de empresas similares y negociar con ellas en un intercambio de información y datos. Es decir, son los first party data de otras empresas que se pueden comprar.
- Third-party data se refiere a información de clientes que es adquirida de un tercero a un costo, se genera en otras plataformas y, a menudo, se agrega de muchos proveedores de datos, mientras que la fuente original es desconocida para el comprador de datos.
Internet Data Manager
Internet es uno de los repositorios más grande de datos digitales. Representa el 80% de los datos pero actualmente se analiza menos del 1%. Las razones son muchas, ya que para entender cómo Gobernar los datos de internet, tenemos que entender que en Internet se habla de gobernanza de internet y no gobierno, ya que no existe un control de datos centralizado.
Internet es un modelo descentralizado, abierto por diseño, compuesto de multistakeholder que da a lugar a un modelo de colaboración que funciona sobre la base del beneficio mutuo. Con múltiples actores en línea, y la apertura a la generación de datos que permite las redes sociales, Internet genera grandes volúmenes de datos por minuto, tal es así que por minuto por ejemplo se crean 452.000 tweets.
Con este escenario resulta difícil capturar información relevante en tiempo real para ello, debemos utilizar una tecnología de monitoreo de listening a fin de tomar continuamente de los sitios abiertos y públicos la información que nos interese para nuestros objetivos.
Las tecnologías y plataformas que realizan el listening permiten generar el proceso de captura de datos, cleansing de datos, clasificación y visualización. En simple, nos facilita procesar rápidamente grandes volúmenes de datos y obtener gracias a las graficas y funciones de gestión de datos el entendimiento de temas puntuales de negocios o investigación. Así, por ejemplo si necesitamos comparar la aceptación de un producto con otro, analizar la competencia, conocer la reputación de marca o comprender gustos y tendencias según las opiniones en redes sociales.
En síntesis, generamos una nueva base de datos que retroalimenta permanentemente la información vital que necesitamos para disminuir los riesgos en la toma de decisiones y estrategias de negocios.
Customer experience Data Manager Platform- Ecosistema de datos
Existen distintos tipos de tecnologías: Natural Languages Processing (NPL), Speech Recognition, Machine Learning, Natural Language Generation (NLG), Virtual Agents, para nombrar algunas.
Actualmente existen varias formas de Artificial Intelligence as a Services (AIaaS) que son mayormente implementadas por las empresas:
- Data Manager Platform
- Lead Generation Adquisition
- Marketing Automation
- Management de experiencia de clientes (Chat bot)
- Generación de contenido dinámico (emailing dinámico, landing pages dinámicas)
El desafío que tienen que enfrentar las empresas hoy es estar constantemente innovando para lograr mejores resultados basados en la combinación de: Data + Insights + Ejecución
Data Manager Platform (DMP)
Son plataformas que buscan entender cuál es el viaje del consumidor y cuáles son los puntos de contacto con el negocio a través de múltiples plataformas (website, CRM,, email marketing, Call Center etc)
El principal objetivo de la lectura de estos datos es crear mensajes más relevantes y personales en cada instancia de la experiencia del cliente con tu marca. Al mismo tiempo esta información es útil para crear perfiles de usuarios en nuestras Bases de Datos y así trabajar con clusters de audiencias. Al crear clusters customizados, creamos experiencias customizadas.
El desafío que tienen las empresas para capitalizar estas herramientas es definir la parte estratégica, es decir: diseñar la estrategia de comunicación, la estrategia de precios, de contacto, de envíos, por nombrar algunas.
La integración de la tecnología DMP permite organizar diferentes cluster de audiencias y conectar con la plataforma de publicidad programática y otras plataformas publicitarias sociales, para activar pautas publicitarias segmentadas, así también utilizarla como herramienta para la personalización del contenido en el sitio web.
El Lugar de los Datos en emBlue
Existen muchas plataformas que administran información y relevan datos para generar contenido personalizado.
En email marketing esto se traduce en la posibilidad de enviar contenido basado en los intereses del cliente, así es como un periódico enviará a los lectores interesados en finanzas: los principales titulares de la sección de economía y finanzas, un Retail enviará los últimos productos clickeados en el sitio web a sus contactos y ofertas relacionadas y una Universidad podrá acercar la información de cursos, carreras y fechas de inscripción a cada alumno según el área que le corresponda.
La transformación del negocio y el lugar de los datos: follow the brain
Evolución de las Plataformas:
Mail Transfer Agent (MTA): se trata de un software que envía mensajes de una computadora a otra.
Email Service Provider (ESP): son plataformas de envío de email marketing que proveen el estatus del email, tienen funcionalidades más avanzadas como: segmentación por contactos, grupos, categorias, diseño de templates, programación de campañas, A/B Testing, Triggers, opciones de customización de contenido dinámico, configuración de TAG´s y otras funcionalidades más avanzadas, evolucionado hacia soluciones más complejas.
Marketing Cloud: se basa en la automatización del email marketing. Es un conjunto de herramientas que permiten gestionar la interacción de la marca con sus clientes y prospectos en múltiples canales. Esta interacción es personalizada, ordenada y coordinada.
emBlue es una plataforma de Marketing Cloud que basa sus funcionalidades en 4 pilares:
- Multichannel: partimos del email pero sumamos canales para aumentar las conversaciones digitales.
- Automatización: tareas que se disparan de manera automática que facilitan el trabajo diario y aumentan la efectividad en la respuesta.
- Contenido único: crear contenido personalizado para cada contacto
- Clusters: micro segmentación de audiencias por intereses, categorías, perfiles, etc
Nuestros datos más relevantes y órdenes de magnitud
Se trata de aprovechar la data que recopilamos para encontrar insights que nos permitan disparar órdenes que generen un tipo de contenido único en relación al negocio y a partir de la experiencia del cliente.
Para maximizar las posibilidades tenemos que definir una estrategia previamente que nos permita entender con qué me quedo, qué información es relevante para entender mi estrategia y definir acciones de negocio.
Almacenamiento consciente de datos: la importancia del descarte
“El almacenamiento es barato, pero disponer de la información en tiempo real es caro a nivel de experiencia de usuario”
emBlue utiliza una metodología de almacenamiento que prevee 15 días de almacenamiento donde la información se congela. La clave de una buena administración de datos es saber descartar, cada negocio debe encontrar su estrategia y definir la metodología de almacenamiento.
Arquitectura de APPs: adiós al monolito
La tendencia es la fragmentación, las aplicaciones están tendiendo a la escalabilidad.
La Arquitectura de microservicios, conocido por las siglas MSA (del inglés MicroServices Architecture) consiste en construir una aplicación como un conjunto de pequeños servicios, los cuales se ejecutan en su propio proceso y se comunican con mecanismos ligeros (normalmente una API de recursos HTTP). Cada servicio se encarga de implementar una funcionalidad completa del negocio. Cada servicio es desplegado de forma independiente y puede estar programado en distintos lenguajes y usar diferentes tecnologías de almacenamiento de datos.
Análisis de datos para mejorar el engagement y audiencia digital. Caso Práctico: SAP – National Hockey League
Mirar el partido y animar no es suficiente para la mayoría de los fanáticos del hockey que quieren saber más allá de la acción jugada por jugada.
Con un almacén de casi un siglo de estadísticas compuestas con la capacidad de mostrar datos en tiempo real durante los juegos, la NHL® tenía lo que necesitaban para satisfacer el hambre de los fanáticos por más. La NHL recurrió a SAP para ayudarlos a ejecutar LIVE, analizando y presentando estadísticas de datos a los fanáticos de una manera atractiva, aprovechando la oportunidad de obtener información y llegando a su audiencia receptiva con mensajes específicos.
La NHL® sabe que los fanáticos del hockey usan cada vez más Internet, dispositivos móviles y redes sociales para interactuar con su deporte favorito. Al darse cuenta de que tenía que aprovechar mejor los canales digitales para atraer a los fanáticos, la liga consideraba que era una prioridad aumentar el uso de multimedia, expandir sus plataformas sociales, centrarse en las áreas móviles y revitalizar su presencia en la web. La NHL® sabía lo poderosas que pueden ser las plataformas adecuadas no solo para aumentar el interés de los fanáticos sino también para rastrear su comportamiento en línea. Armado con información del análisis de los perfiles individuales de los fanáticos, la liga sabía que podría comercializarlos de una manera mucho más relevante y oportuna.
Conoce cuáles fueron los resultados en el caso de estudio:
National Hockey League: Engaging Fans and Retaining Site Visitors 45% Longer by Partinering with SAP Hybris.