Gracias a la analítica de datos y a la automatización inteligente de los procesos, las empresas ofrecen productos y servicios hiper personalizados, lo que facilita la alimentación de modelos de IA que se activan en tiempo real o incluso de manera predictiva. id:79155
En el último año tanto las empresas como las personas han tenido que ser resilientes para adaptarse a la nueva normalidad.
La tecnología y, en concreto, el análisis de datos se han convertido en grandes aliados para encarar los retos empresariales, sociales y, también, culturales que la pandemia ha supuesto.
Tanto es así que, según la Guía mundial de gastos de Big Data y análisis de IDC, el gasto europeo en soluciones de Big Data y análisis de negocios (BDA) alcanzará este año los 50.000 millones de dólares, un 7% más con respecto a 2020. Además, se calcula que en 2025 habrá 25.000 millones de dispositivos conectados que compartirán información gracias a la inteligencia artificial, lo que supondrá un ingente incremento del volumen de datos a analizar a disposición.
A las puertas del 2022, SDG Group presenta por cuarto año consecutivo su informe sobre las principales tendencias que arrasarán en el mercado y que ponen el foco en los avances en la innovación y el desarrollo de nuevas tecnologías en el ámbito de Data y Analytics.
2022: ya están aquí las tendencias de Data Analytics
SDG Group da a conocer las nuevas tendencias de Data Analytics para el 2022 desglosando el ranking en Given Trends, las tendencias que ya están tomando el relevo; Trends on the Rise, es decir aquellas tendencias emergentes que tendrán un impacto significativo en el medio plazo y, por último, Slow-Shift Trend, el grupo de tendencias que se vislumbra en el horizonte y entrarán en el juego gradualmente.
GIVEN TRENDS
1.) Nacidos en la nube. La nueva generación del Data Warehouse: de Data Mesh & Data Fabric a Data Vault 2.0
Gracias a la nube, las empresas están adoptando arquitecturas de datos, modelados y estructuras cada vez más profundas, escalables y transformacionales. El cloud abre la puerta a la nueva generación del Data Warehouse habilitando el Data Mesh, Data Vault 2.0 y Data Fabric, tecnologías y prácticas pensadas y creadas de manera nativa en la nube.
Ejemplo de ello es el Data Mesh, un enfoque holístico para la gestión de los datos en el que converge una arquitectura controlada por dominios distribuidos, el tratamiento de los datos como un producto, el diseño de infraestructuras de datos de autoservicio y la gobernanza de ecosistemas. La “malla de datos” permite que los productos de datos se unan entre dominios permitiendo el intercambio de información sin depender de un almacenamiento.
Y el Data Fabric, una arquitectura que habilita el acceso y el intercambio de datos en un entorno distribuido, sin importar si están en la nube privada, pública, on-premise o multicloud. Esta capa de datos y procesos de conexión escalable automatiza la ingesta, la selección y la integración eludiendo los silos de datos. De este modo, el “tejido de datos” identifica y conecta continuamente datos de aplicaciones dispares descubriendo relaciones únicas y relevantes para el negocio. Esta información permite una toma de decisiones más eficaz, proporcionando valor a través de un acceso y comprensión rápidos con respecto a las prácticas tradicionales de gestión de datos.
Encontramos también el Data Vault 2.0, la evolución al siguiente nivel del Data Vault que se origina gracias al cloud, y el DataOps, un marco agile para la configuración y gestión colaborativa de tecnologías, procesos y datos. Todas estas tendencias actuales tienen un denominador común: se articulan sobre el inmenso potencial de la nube para intentar dar respuestas de calidad a las demandas continuas de innovación y flexibilidad de las organizaciones.
2.) DataOps sin límites: la IA toma el relevo, escalando la Hiperautomatización y el Metadata Lakehouse
DataOps es el marco tecnológico inspirado en el movimiento DevOps. Su objetivo es el de crear entregas predecibles y una gestión de cambio en los datos, modelos de datos y artefactos relacionados. ¿Cómo lo consigue? Aprovechando la tecnología para automatizar la entrega de datos con un nivel idóneo de seguridad, calidad y metadatos para mejorar el uso y el valor de los datos en un entorno dinámico. DataOps activa las palancas que exigen las empresas impulsadas por los datos: gobernanza, flexibilidad, escalabilidad, eficiencia y automatización.
Esta tendencia -que ya mencionamos el año pasado- está evolucionando ahora al siguiente nivel gracias a la inteligencia artificial y al Machine Learning creando entornos de hiperautomatización. Ahora las organizaciones identifican, examinan y automatizan rápidamente los procesos de gestión de los datos, lo que influye directamente en el Data Quality -permitiendo que las empresas sean más rápidas a la hora de perfilar y pulir sus datos-, en el Data Observability -proporcionando una mayor agilidad para, por ejemplo, monitorizar los data pipelines-, en el Data Catalog -facilitando una visión cada vez más estratégica en funcionalidades como el linaje y el inventario- y en los DevOps, ya que con la automatización inteligente se reducen las operaciones manuales y se incrementa la colaboración transversal entre equipos.
Además, dentro de DataOps y su “vertical” Data Governance by Design está cobrando importancia el Metadata LakeHouse. Esa plataforma de metadatos hace posible que el metadata se convierta en el gestor y cerebro de todo el entorno de gestión de los datos dentro de una empresa.
3.) Un Cambio de Paradigma: de un enfoque en el producto a uno donde el cliente está en el centro, con una visión Omnicanal
Para responder a las necesidades del cliente no nos queda que ponerle en el centro de la experiencia de compra. En este ámbito, la estrategia multicanal ha sido definitivamente desbancada por la omnicanalidad, habilitada principalmente por la hiperconectividad (cloud, 5G, IoT). Es decir, dejan de existir las barreras entre los canales digitales y físicos y también las campañas concebidas por plataforma. Ahora el foco ya no se pone en el producto y en los distintos “escaparates” donde venderlo, sino que se centra en el cliente para proporcionarle una experiencia de compra única y homogénea esté donde esté.
Al recopilar los datos de los distintos canales se extrae la información relevante sobre todo el viaje del consumidor. Con esta información es posible analizar el impacto de cada punto de contacto, a la vez que se optimizan los procesos y se mejora el servicio o el producto ofrecido según los feedbacks recibidos. Gracias a la analítica de datos y a la automatización inteligente de los procesos, las empresas ofrecen productos y servicios hiperpersonalizados. El uso de este enfoque facilita la alimentación de modelos de inteligencia artificial que se activan en tiempo real -o incluso de manera predictiva- reduciendo así los tiempos de latencia, el time-to-market y los costes asociados.
4.) D.A.T. A.: Datos como Activo Transformacional
El dato no tiene valor per se, sino que se postula a eje empresarial en la medida en que se convierte en un activo monetizable y diferenciador. El D.A.T.A. ha de entenderse aquí como el conjunto de datos, algoritmos, prácticas e información del que dispone una empresa. Las organizaciones que aprovechan la información que esos datos proporcionan y extraen valor de ellos, son aquellas que se diferencian de sus competidores.
El cálculo del valor de los datos y lo que engloban -desde los algoritmos, el cómo se trabaja con ellos, las prácticas, etc- incide directamente en la cotización y en el atractivo de las empresas. Ahora o nunca: ya están cambiando las reglas del mercado -véanse los ejemplos de las empresas que apuestan por el I+D o las mismas start-up- así que es el momento de poner el foco en la ventaja competitiva que suponen los datos entendiendo y aprovechando todo su poder transformacional.
TRENDS ON THE RISE
5.) Entornos de Confianza que pivotan sobre Cybersecurity Analytics, Blockchain y Privacy-Enhancing Computation
Las empresas están adoptando estrategias de ciberseguridad Zero Trust que proporcionan protección más allá del perímetro tradicional. Se trata de un enfoque proactivo de la ciberseguridad que se basa en la identidad y que utiliza las capacidades de recopilación y análisis de datos (Cybersecurity Analytics) para una detección más rápida de las amenazas, así como la automatización de las tareas de seguridad manuales.
El entorno ciberseguro se apoya también en tecnología Blockchain, una gran aliada de la ciberseguridad ya que garantiza el almacenaje de datos mediante su descentralización y la información cifrada. Esta tecnología aporta un gran valor especialmente en la protección de la identidad, la protección de los datos, la protección de las infraestructuras y trazabilidad del flujo de datos.
En este contexto aparece en escena también el Privacy-Enhancing Computation (PEC), un conjunto de tecnologías que protegen los datos mientras se procesan, comparten, transfieren y analizan. La adopción de PEC está aumentando, en particular para la prevención del fraude. Según Gartner “para el 2025, el 50% de las grandes organizaciones adoptará la tecnología para aumentar la privacidad del procesamiento de datos en entornos no confiables o en casos de uso de análisis de múltiples fuentes de datos”.
6.) Self-Service 2.0 y Auto ML: un choque de dos fuerzas
Las empresas están apostando por el Self-Service 2.0 y por el modelo de Auto Machine Learning para aumentar sus capacidades de extracción de insights. Esto ocurre porque estas tecnologías aceleran la adopción de soluciones dando acceso directo a los usuarios finales, democratizando el acceso a los datos y poniendo el foco en la generación de insights.
Por un lado, el Self Service 2.0 está integrando y aprovechando la capacidad analítica de los modelos impulsados por la IA. Por otro lado, el Auto ML está utilizando la parte visual y de reporting para presentar sus algoritmos avanzados. Estas evoluciones muestran cómo estas tecnologías están intentando facilitar un 360º en cada uno de los ámbitos, cubriendo los aspectos analíticos de los usuarios.
Otra muestra más de este “choque” es que estamos viviendo un momento de efervescencia en el que se detectan movimientos y adquisiciones por parte de empresas que incluyen Self-Service y Auto ML en su porfolio. Esto se debe a que las compañías están intentando incrementar sus capacidades, cerrar la brecha entre analíticas avanzadas y BI facilitando que los usuarios que no sean científicos de datos ganen en capacidades predictivas.
7.) La IA Responsable y Privada se convierte en un Imperativo
La disrupción que supone la Computación Cuántica unida a la IA nos lleva a tener una gran responsabilidad alrededor de la gestión ética de los datos. Tras el éxito de la privacidad (impulsado por la legislación del RGPD) ahora es el momento de regular su uso, garantizando su desarrollo ético y responsable, cuando esta tenga un impacto sobre la ciudadanía. Es importante que las empresas y las instituciones definan su estrategia de “IA for Good” con el objetivo de minimizar la deuda tecnológica y un compromiso de hacer buenos procesos de ingeniería, con algoritmos transparentes y justos.
En esta línea, surge el nuevo concepto de Private IA. En el ámbito de las administraciones públicas o entidades donde la compartición de datos es compleja, se están creando estrategias de IA que permiten obtener los insights utilizando encriptaciones y así exponer los datos lo mínimo posible.
8.) El próximo gran éxito: la IA Cuántica cobra impulso
Cada vez son más las empresas que están invirtiendo en Quantum IA porqué esperan que se convierta en la próxima revolución. En la actualidad estamos viviendo un paralelismo importante en la forma en la que se está desarrollando la computación cuántica y su convergencia con las técnicas de analítica avanzada; y es importante que hagamos un uso consciente y coherente de los beneficios que este nuevo paradigma ofrece.
Quantum AI aprovechará la superioridad de procesamiento del Quantum Computing para obtener resultados inalcanzables con tecnologías informáticas clásicas. Permitirá el procesamiento de grandes series de datos, la resolución más ágil de problemas complejos, así como una mejora de los modelos y la visión de negocio. Son muchos los beneficios que estas técnicas brindan tras el salto del ámbito científico al empresarial. Pocas son las compañías hoy día que no aprovechan las bondades de poder encapsular conocimiento anteriormente solo accionable por humanos dentro del marco de una toma de decisiones inteligente y ágil. Estamos a las puertas de una tendencia tecnológica que reconfigurará los mercados y las industrias en las próximas décadas.
SLOW SHIFT TRENDS
9.) Ecosistema Metaverso: el gran impulso a la Realidad Extendida
Metaverso no es solo una palabra de moda en el sector de la tecnología. El metaverso es un ecosistema que facilitará el aprovechamiento de la llamada EX, la realidad extendida. Bajo el paraguas de la EX encontramos todas las tecnologías inmersivas que fusionan el mundo real con el virtual: realidad aumentada, virtual y mixta.
El conjunto de productos y servicios que se está construyendo alrededor del Metaverso está alentando la innovación en los dispositivos y hardware -como gafas y lentillas- que facilitan la realidad extendida, que pasará a ser algo cada vez más accesible para empresas y usuarios finales. El auge del Metaverso influirá directamente en la innovación y la madurez de los dispositivos de EX: tendrán un menor coste y acelerarán todo el ciclo tecnológico. La previsión es que el ecosistema del Metaverso moverá alrededor de 800.000 millones de dólares en 2024 y 2,5 billones de dólares para 2030 (Bloomberg Intelligence). La realidad extendida es un conjunto de recursos tecnológicos que ofrecerá al usuario la posibilidad de sumergirse en experiencias interactivas a partir de la combinación entre la dimensión virtual y la física.
10.) IA Generativa: un salto adelante en la creación automatizada de nuevo contenido
La inteligencia artificial se suele aprovechar para entrenar algoritmos a partir de conclusiones, ¿pero sabemos si puede crear contenidos e innovar por sí sola? La respuesta es sí y está en la Generative AI, uno de los avances más prometedores del entorno de la IA en los próximos años. La Generative AI permite a los ordenadores reconocer de manera automática los patrones subyacentes relacionados con la información de entrada para, a continuación, utilizarlos para generar nuevos contenidos originales.
Dicho de otra manera, la IA Generativa es una forma de IA que aprende una representación digital de contenidos existentes, como datos de transacciones, textos, archivos de audio o imágenes, y la utiliza para generar nuevos artefactos, originales y realistas que conservan un parecido con los datos de entrenamiento. Esto permite que la IA generativa sea un motor de innovación rápida para las empresas en ámbitos, como, por ejemplo, de la creación de software, la producción de nuevos productos del sector farmacéutico, el análisis meteorológico y la detección de fraudes.