DataOps

DataOps nace a partir de la filosofía de DevOps pero aplicada a una nueva forma de construir componentes orientados a la manipulación de datos promoviendo la comunicación e integración de datos, equipos y sistemas que hasta el momento se manejaban de forma aislada. 

Aprovecha el cambio de proceso, la realineación de las organizaciones y la tecnología para facilitar las relaciones entre todos los usuarios que manejan los datos, ya sea, desarrolladores, ingenieros de datos, científicos de datos, analista o usuarios de negocio. Es una metodología de desarrollo de software totalmente enfocada a la analítica de datos para lograr automatizaciones, velocidad y precisión en el procesamiento de los datos, democratización en el acceso, integración y sobre todo asegurar su calidad.

En los últimos años en las empresas se ha visto la necesidad y la importancia de almacenar todo tipo de datos para garantizar que las decisiones que se toman se fundamenten en estos. ¿Pero basta simplemente con tener ese dato almacenado? ¿Consigo tener una disponibilidad inmediata del dato para su análisis? ¿Confío en los datos que estoy usando para el análisis en el que fundamento mis decisiones?

La realidad es que la obsesión de los últimos años por guardar información sin pensar en cómo poder explotarla de manera correcta hace que los ciclos tradicionales de pipelines de datos no puedan satisfacer la demanda que las organizaciones tienen a día de hoy. 

No nos sirve de nada que no pueda fiarme de los datos que pone un informe, o que los datos lleguen simplemente para corroborar que mi campaña de marketing no ha funcionando, cuando ya ha pasado un tiempo y no hay forma de remediarlo. 

DataOps lo que nos permite es, que los pipelines de datos sean mucho más rápidos, eficientes, confiables y mucho más flexibles. Como resultado tenemos procesos verdaderamente escalables y las empresas pueden aprovechar la revolución del dato para poder no solo avanzar sino avanzar mucho más rápido y de manera fiable.

Generación automática de texto

Escribir un texto, un ensayo o un documento de tipo técnico detallado sobre un determinado tema es muy complejo y depende del grado de conocimiento de la audiencia a la que va dirigido y del grado de expertise del escritor que tiene que redactarlo. 

Con el objetivo de facilitar o simplificar esta tarea se han desarrollado en los últimos años tecnologías de escritura automática basados en aprendizaje profundo (Deep Learning), que nos permiten generar de manera automática texto en base a un ejemplo de texto o un tipo de tema. 

Estos sistemas de escritura automática, como GPT-3, GPT-4, text.cortex, Copysmith o Flowrite, utilizan modelos que han sido entrenados normalmente con millones de textos que han sido etiquetados en diferentes dimensiones (tema, complejidad, longitud, etc) con el objetivo de generar texto de diferentes tipos a una entrada similar. Incluso existen versiones que permiten generar código fuente para programar, como Replit o Copilot. 

Este tipo de tecnología nos permitirá generar versiones preliminares de texto que podrán ser mejoradas mediante la intervención humana o que nos permitirá personalizar el contenido en base al lector aumentando o disminuyendo la complejidad del mismo. 

Estas versiones preliminares se podrán utilizar para la redacción de artículos periodísticos, resúmenes, evaluaciones de productos, reseñas automáticas en base a reseñas de voz o incluso trabajos de investigación básicos con el objetivo de obtener información específica sobre un tema con el objetivo de identificar líneas de investigación, redacción o trabajo en base a la información incluida por el sistema de generación. 

Aunque al igual que otros tipos de tecnologías de generación automática basada en IA entraña algunos problemas de tipo ético, ya que se podrían entregar como trabajos originales los resultados que generan este tipo de herramientas sin poder diferenciar si ha sido una máquina o un humano el que ha escrito estos documentos. 

Procesamiento de Lenguaje Natural

Imagínate una vida donde no tienes que leer o hacer análisis de información, solo preguntar y obtener respuestas correctas, precisas y autoexplicativas, haces «chas» y ya lo tienes. 

Nuestra vida cotidiana está rodeada de chatbots, motores de búsqueda, correos electrónicos, redes sociales, mensajes, tweets, mensajes de texto en teléfonos inteligentes, traducciones, páginas web, transcripciones y muchas más funciones cotidianas que todavía no son lo suficientemente precisas. 

El proceso de lenguaje natural es una tecnología core para los desarrollos de sistemas cognitivos y de toma decisiones en la empresa, conformados por chatbots y una herramienta para gestionar el conocimiento de las empresas dando pie a la utilización knowledge graphs, lo que permite aumentar la eficiencia dentro de la empresas en el análisis y toma de decisiones.

Aunque también puede ofrecer algunos retos o problemas a la hora de realizar un uso ético de esta tecnología debido a la falta de legislación sobre su utilización, ya que puede dar lugar a la creación de imágenes falsas o incluso a contenidos basados en el trabajo de otros artistas, diseñadores/as o ingenieros/as con el objetivo de evitar los posibles derechos de autor.

Edge Computing

En los últimos años hemos incrementado el número de dispositivos conectados que utilizamos a nivel industrial y personal fomentando la expansión del Internet of Things (IoT). 

Estos dispositivos normalmente ofrecen una capacidad de cómputo que no se utiliza y que podría ofrecernos la oportunidad de incluir algoritmos interactivos, habitualmente basados en Inteligencia Artificial, en el propio dispositivo (en el borde) mejorando sus capacidades en tres direcciones principalmente: 

  1. A nivel de seguridad debido a que muchos de estos dispositivos son de tipo personal (aspiradores inteligentes, cámaras, altavoces inteligentes, smartwatch, etc) que recogen información personal. Esto permite identificar al usuario en base a sus comportamientos, movimientos o rasgos físicos que podrían no ser enviada a un sistema de almacenamiento en el cloud, ya que podrían ser procesados en el propio dispositivo aumentan la privacidad al no enviar información de tipo personal. 
  2. A nivel de comunicaciones ya que al minimizar el número de información que es enviada al cloud u otros entornos de almacenamiento remotos, debido a que la mayor parte de la información recogida por el dispositivo será procesada en el propio dispositivo.
  3. El coste de las funcionalidades adicionales que ofrece el dispositivo, ya que al minimizar el número de información enviada y ejecutar los diferentes algoritmos en el propio dispositivo, se minimizaría el coste en el envío, procesamiento y almacenamiento de la información. Además, se disminuiría la latencia en las respuestas debido a que algunos de los procesos se ejecutarían en el propio dispositivo. 

Además, este tipo de modelo de computación en el borde (edge computing) aumentaría las posibilidades de personalización en el uso de estos dispositivos, haciendo que los algoritmos se adapten a los usuarios que los utilizan de manera específica mejorando la privacidad. 

Metaverso

Metaverso es, probablemente, uno de los términos más sobre utilizados en la actualidad, que todas las grandes empresas intentan hacer suyo y que en muchos ámbitos se malinterpreta como el enésimo mundo virtual con gráficos vitaminados.

Antes de hablar de metaverso deberíamos entender el contexto de por qué se busca este cambio y cuál es la necesidad que trata cubrir.

Por un lado, son muchas las voces que indican que el modelo actual de web y la interacción social que proporciona está exhausto, la web ha evolucionado para maximizar la interacción entre los usuarios. A día de hoy, millones de usuarios utilizan las redes para seguir a sus conocidos, opinar y relacionarse… pero esta interacción tiene unos límites, los que la interacción a través de vídeo o texto imponen.

Por otro lado, estamos en una situación en la que la vida digital tiene una importancia casi similar a la vida física para millones de personas, que cada vez demandan mayores capacidades de interacción.

El metaverso promete aportar soluciones a estas necesidades, experiencias más inmersivas, mayor cercanía en las relaciones digitales y nuevas formas de relación digital.

Tras todo el ruido negativo que ha habido durante el año 2022, podríamos pensar que este movimiento se quedaría en pausa, pero son muchas las empresas que apuestan por esta nueva realidad. Seguro que en este 2023 nos encontraremos con más de una sorpresa.

Cookie less

En el cambiante entorno del marketing digital se hace cada vez más necesario para las marcas la posibilidad de extraer información con el objetivo de dar una mejor experiencia al cliente.

Con la llegada de los últimos cambios en materia de privacidad y con la futura eliminación de las cookies de terceros, la industria tiene por delante un nuevo reto tecnológico: reinventar la forma en la que se conecta con los clientes. Como consumidores, los beneficios de Cookieless son evidentes: mayor control de la privacidad y evitar comportamientos que a priori podrían considerarse invasivos.

Con el objetivo de ayudar en esta transición, Google trabajó en una iniciativa llamada Privacy Sandbox. Privacy Sandbox ofrece a los anunciantes una forma de mostrar contenido dirigido sin comprometer la privacidad de los usuarios y ofreciendo en todo momento la posibilidad del bloqueo por su parte.

Cookieless también se apoya en tecnologías como ML e IA para crear modelos capaces de predecir y detectar tendencias con una información, en principio, mucho más limitada. En este sentido Google dispone de modelos preentrenados para este fin.

Los usuarios exigen tener mayor privacidad, transparencia y control sobre qué información es usada, y en este sentido la tecnología está evolucionando.

Generación de imágenes sintéticas a través de IA

¿Cómo dibujarías tus sueños o tus peores pesadillas? ¿Cómo conseguirías que estos se asemejan al conocimiento general de todos los seres humanos o de la mayoría de ellos? Esto es en parte posible mediante la utilización de algunas de las nuevas técnicas de Inteligencia Artificial para la generación de imágenes sintéticas. 

Los modelos de generación de imágenes sintéticas son un tipo de técnica que se ha popularizado en los últimos meses gracias a la aparición de sistemas basados en Deep Learning, como Stable Diffusion, DALL·E 2 o IMAGE, que nos permiten generar imágenes “pseudo realistas” a partir de descripciones textuales acerca de lo que queremos observar en la imagen. 

Para poder construir este tipo de tecnologías se utilizan modelos de Machine Learning basados en tres fases: 

  1. Una fase de codificación de texto (text encoder) donde se realiza una transformación de las palabras en valores numéricos. 
  2. Un generador de elementos pictóricos (imagen information creator) que identifica los elementos que deben ser incluidos en la imagen en base a la descripción textual. 
  3. Un decodificador de imágenes (imagen decoder) que transforma la información generada en la fase anterior en una imagen, es decir, que genera las imágenes resultantes en base a los elementos seleccionados por el generador.  

Este tipo de tecnología nos abre un abanico de posibilidades, ya que nos ofrece una manera sencilla de construir prototipos de logos, bancos de imágenes, versiones preliminares de mundos virtuales, entornos de simulación, campañas de marketing o anuncios de manera más sencilla que luego podrán ser mejorados por diseñadores/as e ingenieros/as mejorando el impacto y la experiencia de los usuarios.

eCommerce dentro de Whatsapp

WhatsApp es uno de los gigantes con la vista puesta en convertirse en una SuperApp. Si bien hasta donde lo conocemos, WhatsApp es principalmente una herramienta de comunicación, pero está buscando extender sus tentáculos con mayor o menor éxito hasta ahora.

En el ámbito corporate, ya son muchas las empresas que han incorporado WhatsApp como un canal diferencial y útil en la atención al cliente, permitiendo realizar sin salir de la aplicación algunas gestiones y contrataciones. Ha introducido los estados, como paso hacia el entretenimiento, redes sociales, etc…

Ha lanzado WhatsApp Payments en 2020, aunque no consiguió desbancar a los players ya posicionados como Bizum. Si bien WhatsApp Payments no ha triunfado como tal, el poder hacer pagos a través de WhatsApp ha potenciado las funciones de eCommerce dentro de la aplicación. Primero con el lanzamiento del botón de compra y después con los carritos de la compra, ha provocado la proliferación de bots e iniciativas de terceros para hacer un ecommerce basado en chat. 

Recientemente, WhatsApp ha dado un paso más, incorporando el servicio completo de compra dentro de la propia aplicación: acceder al catálogo, añadir los proyectos al carrito, completar datos personales, efectuar el pago… Es decir, integrar todo el eCommerce. La primera experiencia ha sido fruto de un acuerdo de Meta, dueña de WhatsApp, con el supermercado indio JioMart.

Todo este movimiento hacia convertirse en una plataforma comercial es muy importante, ya que de esto dependerá que pueda monetizar sus funciones, debido a que su plataforma permanece sin cargos y libre de publicidad. 

Pero no solo para WhatsApp es importante, también lo es para cualquier empresa relacionada de comercio electrónico, ya que en caso de consolidarse, las compañías tienen que estar preparadas no solo para manejar un canal adicional de venta, sino para reinterpretar sus canales digitales actuales. 

Este tipo de movimientos nos vuelve a confirmar que no hay fronteras entre sectores, las reglas del juego cambian constantemente, para todos. Y que esas grandes compañías digitales, siguen en su camino de colarse o arrasar cualquier sector. 

No hay duda de que hay que estar alerta.

5G

La tecnología 5G permite establecer flujos de comunicaciones a velocidades nunca vistas, ¿pero en qué nos puede afectar esta tecnología? Gracias a su alta velocidad y baja latencia, nos va a permitir conectarnos de forma masiva a las cosas que nos rodean, además de mejorar de forma significativa la productividad de las empresas. 

Por ejemplo, en sectores como industria, automoción o retail van a tener acceso a más información y de manera casi instantánea, lo que se traduce en una mayor efectividad con el impacto económico que eso conlleva. 

Pero no solo a nivel industrial, el uso de la información en tiempo real con el 5G puede tener aplicación en cualquier aspecto cotidiano, por ejemplo aplicar el reconocimiento facial en el deporte o incluso para ayudar a la policía, sin olvidarnos de otra de sus ventajas, gracias al menor consumo energético se reduce el gasto de los dispositivos, permitiendo una mayor durabilidad de la batería. 

Si nos vamos al mundo software, tiene un impacto directo en lo que se conoce como edge computing, que consiste en llevarse capacidades de cómputo, almacenamiento, etc. que tradicionalmente se encuentran en cloud o en un data center allá donde se encuentre el dispositivo que ofrece el servicio, por ejemplo, un móvil.

Esto es gracias a la nueva forma de explotación de la red que permite el 5G, mediante la cual se «apifica» el acceso a la red de comunicaciones subyacente, de forma que ya no solo las empresas telco van a poder hacer uso de la misma, sino clientes finales o empresas de otro ámbito, lo que fomentará nuevos modelos de negocio y nuevos casos de uso para los clientes.Se estima que para el año 2023 haya una cobertura geográfica en España del 3%, un número a priori muy bajo, pero que en cambio permite dar cobertura al 53% de la población.

Machine Learning Operations

Machine Learning Operations (MLOps) es una evolución de la metodología DevOps que busca incluir los procesos de Aprendizaje Automático (Machine Learning) y Ciencia de Datos (Data Scientist) en el proceso de desarrollo y operaciones de los modelos basados en aprendizaje con el objetivo de automatizar y gobernar la construcción y utilización de modelos. 

Este tipo de metodología o conjuntos de buenas prácticas ha dado lugar a diferentes tipos de tecnologías y frameworks que nos permiten automatizar la construcción de modelos de ML de manera sencilla, rápida y fiable ya que se aplican en el ciclo de vida del modelo de manera íntegra, desde su desarrollo, hasta su orquestación y puesta en producción. 

También se ocupa de la salud del modelo y diagnóstico, su gobierno y las métricas que utiliza el equipo de negocio para analizar la utilidad del modelo. 

Este tipo de prácticas se considera como la evolución natural de los proyectos de Machine Learning que suelen surgir de la investigación hasta aplicarse en la mayoría de negocios. Esto se traduce en la madurez de sus procesos de operaciones, creando conexiones con aquellas prácticas de DevOps y DataOps.

FinOps y Ahorro de costes

Solo el 20% de las adopciones cloud de las grandes compañías en los últimos años ha tenido éxito. Y de estos casos de éxito solo han ahorrado un 9% del coste en TI. 

Son muchas las empresas que se lanzaron a migrar sus cargas a la nube para reducir su CAPEX, pero no muchas tuvieron en cuenta el cambio cultural y de forma de trabajo necesario para realmente sacarle partido. Se estima que para el 80% restante de las empresas esta migración ha supuesto un aumento de costes en TI de entre el 20 y el 50%.

La situación hiperinflacionista actual y la posibilidad de un estado de recesión está haciendo que las empresas busquen más que nunca la rentabilidad a corto plazo. Entre las acciones para conseguirlo muchas se están volviendo a plantear cómo ahorrar costes operativos o cómo conseguir que sus iniciativas de ahorro no fracasen. 

Para invertir esta tendencia nace FinOps: un marco operativo y un cambio cultural que reúne la tecnología, las finanzas y los negocios para impulsar la responsabilidad financiera y acelerar la realización del valor comercial a través de la transformación de la nube. Este marco de trabajo unido a políticas de ahorro de costes pueden mejorar los procesos de adopción de la nube y suponer el impulso definitivo de nuevos proyectos cloud native.

Establecer un modelo de FinOps consta de varias etapas cíclicas: visibilizar, optimizar y operar. Suele ser práctica habitual comenzar por la visibilización del gasto, impulsando la responsabilidad financiera sobre los propios equipos de desarrollo así como definir un conjunto de KPIs y métricas de éxito.

Una vez transparentado el gasto hacia todas las unidades de negocio podemos empezar a optimizar los costes haciendo un análisis de nuestros patrones de consumo. Para ello, el cloud ofrece diferentes mecanismos. 

Unos más basados en los modelos de precios, donde ofrecen descuentos por uso continuado, compromisos a cambio de reducción de tarifas o servicios serverless, con un modelo 100% de pago por uso; y otros más orientados a la flexibilidad y gestión de recursos, como puede ser el uso de servicios completamente gestionados, el apagado automático de máquinas o la posibilidad de dimensionar la capacidad de los servidores y el almacenamiento según tu negocio lo vaya necesitando. 

Finalmente necesitamos operar y planificar a medio-largo plazo. Para ello hace falta integrar herramientas corporativas que nos permitan administrar y rastrear de manera efectiva el gasto en la nube. Gracias a ellas podemos, por un lado, automatizar la generación de recomendaciones de ahorro de costes. Y, por otro lado, establecer métodos de planificación de presupuestos y predicciones de consumo que nos evitarán sorpresas. 

En definitiva, establecer un marco de trabajo FinOps no solo te permitirá ahorrar de forma inmediata, sino que te permitirá controlar y gestionar los costes así como proyectar una estrategia de gasto a más largo plazo.

Dispositivos móviles plegables

Desde la aparición de los primeros smartphone, su evolución se ha visto marcada por dos pilares fundamentales: los avances técnicos y el interés de los usuarios para cubrir sus necesidades. Ambos pilares siempre han tenido que mantener un equilibrio para poder crear dispositivos superventas que todo el mundo quisiera tener.

Un buen ejemplo de este equilibrio podemos encontrarlo en las pantallas de nuestros dispositivos móviles. En un primer momento, el tamaño de la pantalla de nuestro smartphone se encontraba estrechamente vinculado a los avances técnicos de la época. 

Aunque los usuarios quisieran disfrutar de su contenido multimedia sin perder un par de dioptrías por el camino, el hardware de los mismos no era capaz de elevarse por encima de unas pocas pulgadas de pantalla. Gracias a las investigaciones de nuevos paneles las necesidades de los usuarios empezaron a verse cubiertas, pudiendo disfrutar de pantallas más grandes con mejor resolución. 

Sin embargo, en poco tiempo los usuarios empezaron a darse cuenta de que este ingente crecimiento de las pantallas empezaba a entrar en conflicto con la propia definición de lo que era un dispositivo móvil y es que, si no era capaz de llevar cómodamente mi dispositivo en el bolsillo, de «móvil» tenía poco.

Para volver a equilibrar ambos pilares, empresas como Samsung u Oppo han conseguido llegar a una solución que permite a los usuarios cubrir de nuevo todas sus necesidades. Los dispositivos plegables permiten hacer uso de un dispositivo con pantalla muy grande que a su vez puede ser doblado y guardado en un bolsillo. 

Durante todo este proceso de cambio los desarrolladores de movilidad (así como los diseñadores), hemos tenido que ir adaptando el desarrollo de nuestras aplicaciones a los diferentes tamaños de pantalla, haciendo que la misma se viese en cualquier dispositivo de forma similar o, por lo menos, de la forma más amigable posible.

Siguiendo este proceso de reinvención, algunos de los requisitos especiales de estos nuevos dispositivos con respecto a las aplicaciones son:

  • Posibilidad de adaptarse de forma inmediata al cambio del tamaño de pantalla: estos dispositivos pueden funcionar tanto de forma plegada como extendida,  pudiendo hacer uso de toda la pantalla o solo de una parte de la misma con un simple movimiento de mano. Las aplicaciones abiertas deben ser capaces de detectar este cambio de tamaño y adaptarse con la mayor rapidez posible.
  • Pliegue en pantalla: las pantallas deben ser capaces de plegarse en un punto para poder reducir su tamaño. Por lo general, esa zona siempre contará con una pequeña curvatura que reducirá la correcta visualización de la aplicación en ese punto. Las aplicaciones deberán ser capaces de evitar mostrar información relevante en estas zonas de pliegue.

Digital Trust

Solo cuatro de cada diez* directivos/as de grandes empresas reconocen haber mitigado por completo los riesgos en sus áreas más críticas de la compañía y el 70% han visto mejorar sus iniciativas de ciberseguridad.

*Según el informe de PWC «Digital Trust Survey 2023«, realizado a partir de la opinión de 3.522 directivos (CISOs, CIOs, CEOs, CFOs y miembros de la dirección) de 65 países (incluido España).

Entre los puntos a tener en cuenta de cara al futuro, los CISOs hablan de 5 competencias en el área de la ciberseguridad: identificar, detectar, proteger, responder y recuperar. Más aún, teniendo en cuenta que 2023 se presenta con nuevas normas que implicarán, entre otras cosas, el reporte en materia de ciberseguridad. Además, en relación con la confianza digital, cada vez es mayor la presión para garantizar la seguridad y la privacidad de los datos, lo que requiere de un gobierno eficiente de los datos.

Según podemos leer en la web de la AEPD «[…] Los tratamientos de datos personales deben estar respaldados por la implementación efectiva de los principios de protección de datos personales, tomando las medidas adecuadas y ofreciendo garantías suficientes».

En definitiva, cuando hablamos de confianza digital, estamos hablando de la relación que se genera entre usuarios, empresas, trabajadores y otros actores involucrados en los procesos digitales que nos rodean. Es fundamental para las empresas generar esta confianza. Los usuarios de forma natural y los gobiernos, mediante regulación, están poniendo el acento en asegurar que las empresas se involucren realmente para lograrlo. Según podemos leer en la web de Okta: «En el mundo actual, mantener la confidencialidad, la integridad y la disponibilidad de los sistemas de TI es una obligación empresarial fundamental, y la capacidad de una organización para lograr este imperativo se considera un reflejo de sus valores fundamentales». No se puede desligar lo que solemos entender por ciberseguridad del propio gobierno de los datos que se protegen.

Del data mess al Data Mesh

¿Qué ocurre cuando nuestro sistema de almacenamiento de la información se convierte en un cuello de botella? Tenemos que eliminar el cuello de botella. Para ello, en 2019 surgió el término Data Mesh (maya de datos) como un modelo de organización del dato donde la información se distribuye en dominios de conocimiento, cuya información se puede combinar para generar información analítica más compleja, pero donde cada dominio es responsable de gobernar y gestionar los diferentes procesos relacionados con su dominio de información. 

Es decir, todos los procesos de ingestión, transformación, almacenamiento, explotación, gobierno y monitorización se aplican de manera independiente sobre cada dominio.

Hasta ahora el control de los datos era responsabilidad del equipo de TI, que lo proporcionaba a Negocio cuando estos lo solicitaban. Por tanto, la recolección y transformación de los datos se centralizaba en equipos técnicos y no en el negocio. Esto propiciaba tener plataformas de datos basadas en data warehouse y/o Data Lake totalmente centralizadas y con un grupo de ingenieros/as de datos muy especializados, pero no enfocados en el negocio.

Contar con un modelo basado en Data Mesh se trata de cambiar ese enfoque y buscar la democratización del dominio de datos, empoderando a las áreas de negocio para tratar los datos de acuerdo a las necesidades reales que tienen. Data Mesh, para ello, se basa en cuatro pilares: 

  • Arquitectura de datos descentralizada orientada a dominio.
  • Datos disponibles como producto.
  • Infraestructura para hacer que los datos estén disponibles mediante autoservicio.
  • Gobernanza federada, ya que aunque los conjuntos de datos son independientes se tienen que poder interoperar entre sí.

Aplicaciones móviles declarativas

Imagina que llegas a un nuevo restaurante donde quieres cenar. Una vez allí, podrías ver que hay una mesa libre con el espacio suficiente para todos los comensales, que además no tiene ningún cartel de reservado y pedirle al camarero que os siente en esa mesa. 

Otra opción sería centrarte en la solución y pedir directamente una mesa al camarero, delegando en él todas las comprobaciones necesarias. Hasta el momento, el desarrollo de pantallas en aplicaciones móviles se centraba en la primera opción. Sin embargo, con la aparición de librerías como Compose y SwiftUI, el paradigma cambia a una programación declarativa, ajustándose más a la segunda opción de nuestro ejemplo.

Hasta ahora, cuando queríamos crear la interfaz de una aplicación (es decir, la pantalla que vemos en nuestro dispositivo), solo definíamos cómo debían verse sus componentes en ese momento inicial. 

Por ejemplo, al hacer la navegación a una pantalla de nuestra aplicación, indicábamos que debía estar compuesta por un título a tamaño 26, en negrita y un botón verde centrado en la pantalla. Cuando algún componente debía cambiar (por la interacción del usuario o por alguna otra causa), era necesario buscar dentro de la estructura el componente concreto y actualizar su estado. Tomando el ejemplo anterior, para actualizar el color del título al pulsar el botón, debíamos navegar entre la lista de componentes, llegar al título e indicarle que cambiase su color.

En la programación declarativa ofrecida por Swift UI y Compose cada componente sabe cómo debe crearse de acuerdo al estado de la pantalla. Según este paradigma no sería necesario que llegásemos al título ya creado para indicarle qué color debe tener en cada momento. El título ya sabe con qué color debe crearse tanto si se ha pulsado el botón como si no. Al pulsar el botón, el título escuchará este cambio de estado y volverá a crearse con esta nueva situación.

Definir interfaces de usuario de forma declarativa posee una importante ventaja frente a definirlas de manera imperativa (la forma tradicional). En este último caso, es necesario modificar los componentes ya existentes cuando se produce un evento. Esto puede aumentar la probabilidad de aparición de errores, puesto que cuantos más componentes haya en pantalla, más complicado será mantener de forma manual sus estados internos, consiguiendo que toda la pantalla quede en un estado general consistente.

En contraposición, con la programación declarativa no es necesario modificar los componentes existentes, sino indicarles desde el principio cómo deben crearse en función del estado general de la aplicación. Cada vez que se produce un cambio de estado, la interfaz se recompone de forma automática, haciendo que cada componente vuelva a crearse (solo en caso de ser necesario cambiar) para ajustarse a la definición de estados que se le dio al inicio. 

Con Compose y SwiftUI, cada componente es responsable de mantenerse de forma correcta en cada estado general, siendo nuestra única responsabilidad el cambiar dicho estado. ¡Una mesa para cenar, por favor!

SuperApps

Surgidas en China, donde actualmente ya tienen un uso intensivo, las SuperApps se van abriendo hueco en nuestro ecosistema móvil, aplicaciones como WeChat (el Whatsapp chino), Rappi en Sudamérica o Revolut en Europa. Son ejemplos de cómo este modelo ha ido triunfando, dando servicio a día de hoy a más de 1.000 millones de usuarios.

Para poder definir de manera más concreta qué tipo de plataformas entran dentro de la categoría de SuperApp, debemos identificar que la aplicación contenga los siguientes servicios: 

  • Algún tipo de servicio financiero, bien sea como medio de pago, o de transferencia monetaria.
  • Ha de permitir la solicitud o reserva de servicios de transporte. 
  • Ha de presentar algún tipo de red social, bien sea un chat, o cualquier otro medio de comunicación.
  • Ha de permitirte solicitar algún tipo de producto preferentemente de alimentación.

Estos puntos que definen qué son las SuperApps, hace que en los países occidentales, y más concretamente en Europa, dificulten la implantación de este tipo de aplicaciones que está siendo un poco más lenta. 

La problemática se presenta en forma de legislación europea sobre el tratamiento de los datos personales y las regulaciones dentro de los canales financieros, que hacen que añadir estas funcionalidades dentro de las aplicaciones sea algo más costoso y necesiten de exámenes más precisos para la publicación de estas plataformas.

No obstante, empresas como Uber, Glovo y otras ya han iniciado esta andadura, y vemos cómo se van añadiendo servicios a cada release del aplicativo que van sacando. Sin llegar a entrar completamente dentro del marco de SuperApps, aplicaciones que antes ofertaban únicamente servicios de comida a domicilio o transporte, ahora ya ofertan otros, como recogida de paquetes, asistencia en la compra a supermercados o farmacias, etc.

El futuro de estas plataformas se presenta prometedor, ya que esta tecnología no solo se queda en empresas únicas con nombre propio, sino que permite a pequeños actores unirse y generar pequeñas aplicaciones que den servicios en estas plataformas

La idea final, es que ya sea porque una gran empresa lo promueva, o sea la unión de pequeños comercios, como los que podemos encontrar en cualquier centro comercial, a partir de ahora iremos viendo cómo cada vez más este tipo de aplicaciones entran en nuestra vida diaria, y algo que inicialmente sonaba rimbombante lo interiorizaremos de manera natural.

Esto, además, no es algo que digamos solo nosotros, Gartner ya lo anunciaba desde el año pasado, y está incluido dentro de la curva de tecnologías que ha realizado para este próximo año.

Gobierno del Dato

Todos/as hemos escuchado la frase de que no hay que empezar la casa por el tejado y queda claro que tiene sentido. Si estuviéramos en disposición de construir la casa de nuestros sueños, no contrataríamos al jefe de obra que empezase construyendo primero la chimenea o que sin estar los cimientos nos llevase los cuadros y la tele a la casa. 

Sin embargo, el mundo del dato es un mundo curioso. No es ni una, ni dos, las veces que hemos visto y escuchado en eventos, charlas, conferencias, etc. a responsables de datos de muchas organizaciones contándonos cómo están implementando sus complejísimas arquitecturas de datos, sus chulísimos modelos de Machine Learning o cómo tratan de conseguir una ventaja competitiva a través de la IA. 

Cuando esto ocurre, siempre que bajan del atril les hacemos la misma pregunta: ¿Cómo estáis gobernando el dato en la organización para poder desplegar todo esto?

Y las respuestas suelen ser las mismas: «No, ahora mismo no tenemos presupuesto para gobierno del dato, vendrá en pasos posteriores», «Sí, estamos configurando políticas en nuestras plataformas para acceder al dato», «¿Gobierno del qué?».

Y cuando sucede esto, ¡nadie se echa las manos a la cabeza! Lo cual es un despropósito. El gobierno del dato ha de ser el primer paso en cualquier organización que quiere tomar sus decisiones basadas en datos, es ineludible. Y el gobierno del dato no va de generar políticas o definir roles (algo que a día de hoy se sigue pensando). Configurar los permisos en una plataforma, no es gobernar el dato. 

Consiste en cambiar la manera en la que trabaja una organización para maximizar el aprovechamiento de datos. Es un cambio cultural y en la forma de trabajo. Y, por supuesto, que se definirán políticas y roles, pero esto solo es un instrumento, no es el objetivo. 

Un buen gobierno del dato nos permitirá tener una cultura del dato, nos permitirá trabajar por las mismas causas con el máximo de datos disponibles para las personas adecuadas, con la calidad definida, siempre asegurando el cumplimiento normativo y la seguridad, y todo ello para garantizar que la toma de decisiones es correcta. Por todo ello, ahora más que nunca, el gobierno del dato es fundamental en las organizaciones.

Low-code

¿Seguro que ese desarrollo digital hay que construirlo ladrillo a ladrillo desde cero? ¿Seguro que no se puede levantar con módulos prefabricados y construir sobre ellos? Aunque por inercia todavía (y en ciertos proyectos por obligación) se sigue programando mucho desarrollo desde cero, según Gartner en 2024 el 65% de todas las aplicaciones tecnológicas mundiales se desarrollarán a través de plataformas no/low-code. 

Además los desarrollos tecnológicos apoyados en este tipo de herramientas pueden acelerar el producto hasta 10x. A veces no es necesario llegar con un transatlántico sino con una lancha motora.

Actualmente hay multitud de desarrollos que pueden llevarse a cabo gracias a Low-code, desde apps móviles, webs corporativas, aplicaciones internas, ecommerces o procesos de automatización. La madurez del ecosistema de plataformas ha eliminado las pocas dudas que podían quedar en términos de seguridad y rendimiento.

Aunque es cierto que estas plataformas facilitan y aceleran enormemente la creación de proyectos, también hay que explicar que su uso tiene una curva de aprendizaje, que según qué plataformas es más o menos elevada, y que sigue siendo muy recomendable el tener una buena fase de estrategia con el que localizar los objetivos del proyecto y afrontarlos de la manera más eficiente y usable.

Es crucial conocer estas plataformas para saber cuál es la que da mejor respuesta a las necesidades y poder exprimirlas al máximo. Este conocimiento también es necesario para localizar aquellas partes del proyecto donde el low-code no es nuestro aliado, y afrontarlas con desarrollo tradicional. La unión del low-code y el desarrollo tradicional permite aunar lo mejor de ambos mundos y poder abordar proyectos complejos de manera mucho más ágil y rápida.

Quantum Computing

La computación cuántica es la rama de la ciencia que se basa en el desarrollo de la tecnología informática a partir de la teoría cuántica. La informática tradicional codifica los datos utilizando ceros y unos (bits) mientras que la información cuántica se basa en el uso de qubits, una especial combinación de unos y ceros haciendo uso de la superposición y en entrelazamiento cuántico.

Países y empresas de todo el mudo se han dado cuenta del potencial de esta tecnología y de la ventaja competitiva que supone en términos de innovación. La computación cuántica creará un nuevo sector, que coexistirá con el ecosistema empresarial actual.

La computación cuántica ya ha demostrado ser de utilidad en campos como:

  • La búsqueda en bases de datos, donde gana en eficiencia a los algoritmos tradicionales.
  • La criptografía, habilitando nuevos cifrados para asegurar nuestras comunicaciones.
  • Simulaciones, por ejemplo, ya se usan para generar baterías mejores y más duraderas.
  • Machine Learning, ayudando a mejorar la efectividad de los modelos.
  • Farmacología, donde ayudará a crear mejores medicinas

Los avances alcanzados en los últimos años dentro de la computación cuántica nos hace ser optimistas con el impacto que tendrá en los próximos años siendo una disciplina que cambiará nuestras vidas a mejor.

ExplainableAI

¿Cómo sabemos si los resultados que ofrece una IA son correctos? ¿Es importante entender en que se basan estos resultados? 

En los últimos años nos hemos centrado en desarrollar montones de IAs para mejorar el funcionamiento o el rendimiento de nuestras aplicaciones sin tener en cuenta, en muchos casos, las consecuencias del uso de la IA sobre los usuarios a corto y a largo plazo como se ha demostrado en los últimos años. 

Esto ha supuesto la aparición de sesgos en los datos, comportamientos erróneos o incluso comportamientos discriminatorios a nivel de género, raza o sexo como se descubrió en la IA desarrollada por Amazon para la selección de personal. 

Con el objetivo de conocer este tipo de situaciones, muchos investigadores del área de la IA comenzaron a desarrollar las técnicas de explicabilidad de la Inteligencia Artificial (Explainable AI) que intentan ofrecer explicaciones comprensibles por cualquier usuario sobre los resultados que ofrecen este tipo de sistemas en base a los datos de entrada utilizados para la generación de los resultados tanto a nivel de las personas que los construyen como a nivel de las personas que los utilizan.

De manera que unos puedan entender si el funcionamiento está siendo correcto o puedan entender el resultado y tener certeza de qué información se está utilizando y cómo se está teniendo en cuenta para generar ese resultado. 

Este tipo de técnicas nos permiten entender mejor las decisiones que toman los sistemas basados en IA permitiendo a cualquier usuario conocer el porqué de sus respuestas y decisiones, observando que las IAs cumplen con una serie de criterios éticos y morales básicos. 

Desarrollo móvil nativo multiplataforma

Una de las decisiones más importantes a la que debemos enfrentarnos como usuarios/as al ingresar en el mundo de la tecnología móvil es decidir qué sistema operativo va a acompañarnos en nuestro día a día. 

Existen dos grandes empresas que ocupan la gran parte del mercado: Android e iOS. Cada una tiene sus características, su experiencia de usuario, sus aplicaciones y una lista de diferencias a las cuales no son capaces o no quieren llegar a un consenso. En el mundo del desarrollo estas diferencias, junto con otras más a bajo nivel, hacen que la construcción de una aplicación requiera de una implementación propia y bien diferenciada.

Aunque comúnmente no existe más remedio que abordar dichas implementaciones por separado (sirviéndonos de desarrolladores/as especializados/as en cada sistema), en los últimos años han comenzado a aparecer soluciones multiplataforma que pretenden unificar al máximo ambos desarrollos, creando soluciones que viven al margen del sistema en el que finalmente se ejecutará la aplicación. Pero, ¿cómo funciona esta solución mágica?

Esta idea de disponer de un solo código para unirlos a todos apareció con las tecnologías híbridas. Cuando abrimos una aplicación web desde el navegador de nuestro móvil, ya sea en Android o iOS, esta web se verá y funcionará de forma similar, ya que ambos navegadores utilizan la misma implementación. 

Siguiendo esta línea, las tecnologías híbridas eran capaces de crear un cascarón vacío nativo para cada sistema operativo, sobre el cual se mostraban las diferentes páginas web a modo de «pantallas» de nuestra aplicación. Esta solución, aunque cumplía en ciertas situaciones, se quedaba muy limitada cuando la aplicación adquiría cierta complejidad.

Siguiendo este precedente, surgieron las tecnologías multiplataforma, encargadas de unificar la implementación de toda o parte de la aplicación en un código común, el cual posteriormente sería convertido en código nativo propio para cada sistema operativo.

De esta forma, aunque los/as desarrolladores/as utilicen un lenguaje común, la aplicación final se encontrará casi perfectamente adaptada a su dispositivo.

Los frameworks como Flutter o KMM, cuya popularidad está creciendo, realizan un trabajo estoico para adaptar sus soluciones lo máximo posible a las aplicaciones desarrolladas de forma completamente nativa, intentando que el usuario final sea incapaz de distinguir una implementación de otra.

Web 3.0

La web es un ente vivo en constante evolución para adaptarse a las nuevas necesidades. Vivimos en la denominada web 2.0, la web social que permite la comunicación entre todos los usuarios. Este modelo de web ha propiciado la aparición de miles de creadores que, apoyándose en las grandes plataformas, han llenado la web de contenido. 

Las plataformas se han convertido en gigantes, los dueños de la web que poseen el contenido y lo gobiernan, mientras que los creadores ven cómo no tienen control sobre lo que producen.

La web3 promete un cambio en esta situación, eliminando la necesidad de las plataformas privadas a cambio de plataformas descentralizadas, gobernadas por los usuarios, que permitirían al creador una gestión total de su contenido y los mecanismos de monetización, mientras que los usuarios ganarán en privacidad, al reducir el número de grandes compañías utilizando sus datos.

Sin embargo no todo es perfecto en la web3, apoyándose en tecnologías como blockchain (y sus características de  inmutabilidad) hacen que el ‘borrado’ de información sea más complicado, lo que atacaría por ejemplo al ‘derecho al olvido’ y la falta de un gobierno o regulación sobre ella puede abrir la puerta a ciertas acciones cuestionables.

La desaparición de las contraseñas

La noticia surgió a mediados del 2022, Apple, Microsoft y Google acordaron ampliar el apoyo sobre el estándar FIDO de cara mejorar el acceso a los dispositivos. La alianza FIDO, constituida en 2012, siempre ha buscado la mejora en el ámbito de la autenticación, y en este sentido las contraseñas se han vuelto un problema.

Es por ello que, con esta ampliación del acuerdo entre los líderes del sector y dicha alianza, no tardaremos en ver cómo las contraseñas comienzan a desaparecer de nuestros accesos a productos digitales en 2023.

En este caso, lo que antes se veía como una utopía, y gracias al empuje de estas grandes tecnológicas, permitirá iniciar el proceso de reemplazo de los sistemas de password por accesos biométricos a la web y otros elementos digitales. 

En este caso, el acceso por huella digital o el reconocimiento facial, ya están extendidos en nuestros dispositivos móviles, lo que permite que la adopción de estos métodos de acceso ya estén interiorizados por los usuarios. Ahora solo queda ver cuánto tiempo tardará el proceso por el cuál se darán por jubiladas nuestras antiguas contraseñas.