El dato se ha convertido en el eje principal de las entidades financieras. Tanto la banca como las aseguradoras se enfrentan a un momento clave en cuanto a competitividad, y esta solo se alcanza con una innovación en la gestión de los volúmenes masivos de información.
Es por ello que elEconomista.es, en colaboración con PUE, Dell y Starburst organizaron una mesa redonda para hablar de un tema capital en el funcionamiento de las empresas: si es más conveniente centralizar o descentralizar los datos.
Para esta cuestión hubo variedad de opiniones al respecto, pero todos los ponentes coincidieron en que lo ideal es disponer de un lugar centralizado donde poder acceder a los datos de manera rápida y sencilla, pero que el uso de los mismos sea descentralizado y que siempre esté vinculado a las necesidades de las áreas de negocio de la compañía. Este argumento aportado por Nicolás Oriol, subdirector general de datos, analítica avanzada y robótica de Mutua Madrileña, puso de acuerdo al sector asegurador y bancario, aunque no fue la única visión al respecto del tratamiento y almacenamiento de datos.
Tomás Arteaga, director de data science and analytics de Deutsche Bank España, afirmó que llevan años trabajando "en la centralización de los datos en un Data Warehouse para que todas las divisiones puedan acceder de forma sencilla". También añadió que "descentralizar los datos lo vemos para pruebas de concepto, sandbox, etc.".
"Centralizar significa seguridad, protección, soberanía..., pero 10 años después, la realidad nos ha pasado por encima, y la velocidad con la que el negocio nos pide las cosas cambia", dijo César Tapias, sales director EMEA WER de Dell. Esto lo justificó por el tiempo que conlleva el proceso de centralización, lo que provocaría "llegar tarde al mercado", algo que para Tapias no es posible, porque eso conllevaría una mala toma de decisiones. Ahí, el representante de Dell dio un dato demoledor: las compañías solo utilizan el 28% de los datos para tomar decisiones. Esto, dijo Tapias, implicará en el futuro que los problemas "se multipliquen por el uso masivo de la inteligencia artificial (IA)" y advirtió que si las compañías no disponen de una solución "que les permita disponer de los datos desde cualquier lugar, de forma abierta y basada en estándares, se les verán las costuras".
En la necesidad de ser rápidos insistió Adrián Estala, field CTO de Starburst, que dijo que "las decisiones tienen que ser ahora, porque no tenemos el lujo de perder oportunidades. Antes podíamos tomarnos cinco años para cambiar la compañía, ahora solo tenemos cinco meses", aclaró.
Javier Marqués, head of data de Generali, explicó que desde la aseguradora italiana apuestan por la descentralización en el ámbito internacional, pero declaró que dentro de cada país optan por una centralización "para que no se repitan y se dupliquen actividades".
Este tipo de "modelo mixto" también lo destacó Asier Gochicoa, CDO de Kutxabank, donde "los datos deben salir del modelo bancario y que a partir de ahí puedan explorar otras vertientes". Sergio Rodríguez, el CTO de PUE, optó por hablar sobre que "la evolución entre centralización y descentralización ahora es una escala de grises. La tendencia es un modelo descentralizado que pueda unificar acciones", explicó.
El papel del sistema legacy
El legacy, un sistema informático desactualizado que ha quedado obsoleto por los avances tecnológicos, pero que aún sigue siendo utilizado, fue otra de las cuestiones que se trataron en la mesa redonda. Marqués tiene claro que el cambio a un sistema actualizado "conlleva mucho esfuerzo, y más cuanto más antiguo es, pero el legacy también tiene cosas buenas, no hay que demonizarlo". Según Marqués, este sistema heredado, al final, "también transmite cosas buenas, como una estabilidad y una solvencia muy fuerte, porque el dato es robusto y los tiempos de respuesta son buenos".
Fernando Lipúzcoa, CDO de ING en España y Portugal, destacó por su parte que los neobancos tienen "la capacidad de crear unos onboardings y una experiencia cliente brutal y en tiempo récord. En cambio, los bancos más tradicionales, aunque nos cueste más, hemos trabajado mucho en vitaminar el dato y darle un sentido por las exigencias del regulador, pero esa estrategia defensiva ha pasado a ser ofensiva dando valor al cliente".
IA generativa, con cautela
Por último, otro de los temas en auge dentro de la gestión de los datos es la aparición de la inteligencia artificial generativa y cómo esta va a afectar al proceso. Oriol explicó cómo para Mutua, "la Inteligencia Artificial Generativa está lista para ser utilizada a nivel empresarial y que trabajan ya en iniciativas que traerán mejoras en la experiencia de cliente y en los resultados de la compañía".
Gochicoa, en su caso, afirma que "aún se están encontrando problemas, porque la tecnología para algunos casos no siempre está lo suficientemente madura. Somos un sector cauteloso, y que tenemos que hacer mucha prueba-error hasta dar con la clave", finaliza. Arteaga, Marqués y Lipúzcoa coinciden con él, pero este último resaltó que "tarde o temprano, el tsunami lo tendremos que surfear".
Rodríguez apuntaló la mesa redonda destacando que "la IA cierra el círculo, y especializar a esta tecnología en base a los datos es clave y necesario", pero aclara que no hay que perder de vista la soberanía (a quién se comparten los datos) ni dónde se procesa la información.