Hace un año se presentó la primera edición del informe Perspectiva de los Directores de Riesgos en el Foro Económico Mundial. Este documento hacía un análisis pormenorizado sobre los factores que podrían aumentar "el nivel probable de volatilidadglobal" en todo el mundo y, como era de esperar, la Inteligencia Artificial fue el principal de ellos.
En esta nueva realidad, la constante evolución de la IA es algo que preocupa y ocupa por partes iguales a ciudadanos y empresas. Según la encuesta de perspectiva del ciudadano europeo sobre la privacidad, el 48% de los españoles se muestra pesimista sobre el futuro de su privacidad, situando a España como el país con la actitud más negativa del continente europeo -la media se sitúa en un 40%-. Pero el porcentaje aumenta al preguntar por cuestiones concretas: el 54% muestra su preocupación por el uso que la IA pueda hacer de sus datos personales y que ese uso indebido pueda derivar en discriminación. Y la misma incertidumbre se traslada a las empresas.
Y es que éstas se encuentran ante una encrucijada. La necesidad de implementar la Inteligencia Artificial en los puestos de trabajo está creciendo y, pronto, las empresas y trabajadores no tendrán muchas opciones a la hora de decidir si esta tecnología formará parte de su entorno laboral o no, ya que vendrá de forma estándar embebida en todos los paquetes de software. Ante este escenario, es imposible no preguntarse: ¿estamos condenados a que nuestra privacidad esté comprometida?
En Zoho, multinacional tecnológica especializada en el software empresarial, tienen claro el enfoque para brindar estabilidad y certeza ante este escenario en constante evolución. Como muchas otras empresas en su sector, Zoho ha optado por la integración de un asistente de IA generativa en su software para mejorar el trabajo que los clientes ya están haciendo. Las tareas impulsadas por IA, como sintetizar datos o agilizar una secuencia de tareas, contribuyen a mejorar la eficiencia de los empleados, ofreciendo múltiples ventajas como reducir el trabajo improductivo, identificar clientes potenciales o incluso delegar tareas de manera eficiente. Sin embargo, Vijay Sundaram, Chief Strategy Officer en Zoho, advierte que, para adoptar un enfoque mesurado, es necesario comprender hacia dónde se dirige la gobernanza y cómo sus posibles deficiencias pueden generar problemas de privacidad y seguridad.
Según explica Sundaram, la IA puede autoanalizarse a sí misma para detectar comportamientos extraños que indiquen un ciberataque y tomar medidas rápidas en caso de que sea necesario, aunque, a veces, estas acciones pueden generar más problemas que soluciones. Situaciones como datos corruptos, intentos de phishing o falta de unificación, pueden provocar que la IA de una empresa se convierta rápidamente en una carga o problema en sí misma.
Por ello, las empresas deben tratar a la IA como un miembro más del equipo que, si bien es confiable, aún puede tener fallos o áreas de mejora. De hecho, muchos de ellos están enterrados en lo profundo del código. En ese sentido, Sundaram destaca la necesidad de un mecanismo de seguridad humana integrado en el proceso, que pueda monitorizar las alertas y detectar cuáles son falsos positivos, cuáles son amenazas legítimas, y cuáles muestran un comportamiento extraño que puede ser indicativo de posibles amenazas futuras.
"Las empresas que utilizan la IA deben priorizar las consideraciones éticas y las prácticas responsables en materia de datos"
De igual manera, con la transformación de las industrias gracias a la IA, las consideraciones éticas y las prácticas responsables en materia de datos se vuelven primordiales. A este respecto, Sridhar Iyengar, Managing Director de Zoho Europa, es claro: "Las empresas que utilizan la IA deben priorizar las consideraciones éticas y las prácticas responsables en materia de datos".
Y es que este suele ser un punto de fricción. Los aspectos éticos y comerciales del uso de los datos suelen entrar en conflicto. Las empresas, incluidos los proveedores de tecnología, software y buscadores, utilizan los datos de los clientes de diversas formas. A veces de forma ética, pero en otras ocasiones, de forma comercial, lo que puede poner en peligro la confianza de los clientes. Iyengar hace hincapié en la necesidad de transparencia. "Las empresas deben mejorar la transparencia en relación con el uso de los datos como un paso deliberado para comportarse de forma ética, establecer la confianza y fortalecer las relaciones con los consumidores, no solo como una necesidad legislativa".
"Los datos de los clientes solo deberían usarse para mejorar el servicio que reciben o las soluciones que compran y usan"
Con esta premisa como máxima, Iyengar pone en valor la filosofía de la empresa en relación al tratamiento de los datos: "Zoho fue creado con la 'privacidad por diseño'. Creemos que las organizaciones no deberían vender los datos de los clientes. Ellos, no las empresas con las que tratan, son los dueños de sus datos. Los datos de los clientes solo deberían usarse para mejorar el servicio que reciben o las soluciones que compran y usan". En ese sentido, asegura que es vital que las empresas consideren cuidadosamente la posibilidad de revisar sus políticas de datos y la comunicación que las rodea, para construir y mantener mejores relaciones con sus clientes. Como explica, este compromiso va más allá del planteamiento teórico. "Cuando decimos que cuidamos los datos de los clientes, eso también está integrado en nuestras herramientas", añade. "Eso significa que todos los productos y herramientas que ofrecemos a los clientes tienen capacidades GDPR integradas, donde cada acción que el usuario inicia tiene el consentimiento incorporado".
El software de Zoho está preparado para proteger los datos confidenciales, a fin de que sean visibles o accesibles solo para las personas que están autorizadas a verlos. "De manera similar, tenemos una gran capacidad para categorizar qué es información personal y qué no lo es. Por lo tanto, todo eso se convierte en parte de la capacidad", concluye Iyengar.
En definitiva, Zoho destaca la importancia de adoptar procedimientos adecuados en materia de IA, garantizar el uso de algoritmos imparciales y cumplir con las normas de privacidad para equilibrar los beneficios de la IA sin descuidar la privacidad y la transparencia.