Ecoley

Los directivos recelan del uso de la inteligencia artificial

  • Las empresas toman medidas cuando detectan usos cuestionables en la IA
El uso ético de la inteligencia artificial (IA) resulta fundamental para la confianza de los consumidores. Istock

Los consumidores, empleados y la ciudadanía vigilan de cerca el avance de las empresas para aprovechar el potencial de la Inteligencia Artificial (IA) y se muestran dispuestos a premiar o castigar sus comportamientos. Los encuestados señalan que serían más fieles, comprarían más y defenderían la marca si perciben que sus interacciones mediante funciones de IA con las empresas son éticas. Para realizar el estudio, titulado Why addressing ethical questions in AI will benefit organizations, se ha consultado a 1.580 directivos de grandes empresas en diez países y a más de 4.400 consumidores en seis.

Entre las conclusiones del informe, destaca que las empresas que utilicen la IA de forma ética se verán recompensadas por una respuesta más favorable de los consumidores: El 62 por ciento de los consumidores confiaría más en una empresa que hace un uso ético de la IA para interactuar con ellos; el 61 por ciento compartiría las experiencias positivas con la compañía entre familiares y amigos; el 59 por ciento sería más fiel a la empresa; y el 55 por ciento compraría más productos, y daría mejores calificaciones y opiniones positivas en las redes sociales.

Por el contrario, si las interacciones de los consumidores con la IA suscitan inquietudes éticas, se pone en riesgo tanto la reputación como los resultados de negocio de la empresa: el 41 por ciento por ciento de los individuos señala que presentaría una reclamación, el 36 por ciento exigiría una explicación y el 34 por ciento dejaría de relacionarse con la empresa.

Actuaciones sin consentimiento

Directivos de nueve de cada diez empresas tienen constancia de casos de uso ético cuestionable de la IA en los dos o tres últimos años. Por ejemplo, sobre la recopilación de datos personales de pacientes sin consentimiento, en el sector sanitario, o la dependencia excesiva de decisiones tomadas de forma automatizada y sin comunicarlo al cliente, en banca y seguros. Entre los motivos que originan estas situaciones, los directivos apuntan la presión por implantar con urgencia la IA, la falta de consideración de la ética durante el desarrollo y diseño de los sistemas de IA, o la falta de recursos destinados a sistemas éticos de IA específicos (equipo, presupuesto, tecnología…).

Cerca de la mitad de los encuestados (47 por ciento) considera que en los últimos 2 dos o tres años se ha visto expuesto a dos o más casos de uso éticamente cuestionable de IA. La mayor parte (75 por ciento) quiere más transparencia cuando un servicio que utilice o contrate se apoye en IA y saber si la IA le trata de forma justa (73 por ciento). Más de las tres cuartas partes (76 por ciento) de los consumidores considera que debería haber más regulación sobre el uso de la IA por parte de las empresas.

El 51 por ciento de los directivos considera que es importante garantizar que los sistemas sean éticos y transparentes. Además, las empresas están tomando medidas cuando detectan uso s cuestionables de IA. Según el informe, un 41 por ciento de altos ejecutivos afirma haber abandonado o retirado una solución de IA cuando se han planteado inquietudes éticas.

Para hacer frente a la inquietud que esta tecnología suscita entre los consumidores y obtener los beneficios en términos de confianza que genera hacer un uso ético de ella, las empresas tienen que focalizarse en que todos sus sistemas o procesos viren a este cometido.

Recomendaciones de los especialistas de Capgemini

Los especialistas de Capgemini recomienda una aproximación triple para construir una estrategia de ética: 1) De cara a la alta dirección y a aquellas personas con responsabilidad en asuntos éticos: establecer fundamentos sólidos a través de una estrategia específica y un código de conducta de IA; desarrollar políticas que definan los límites de un uso aceptable de la IA de la compañía y su aplicación; crear estructuras de gobierno éticas y garantizar la asunción de responsabilidades; y construir equipos diversos que inculquen y aseguren la sensibilidad hacia el amplio espectro de cuestiones éticas.

2) De cara a los departamentos con relación directa con clientes y empleados (como recursos humanos, marketing y servicio al cliente): asegurar el uso ético de la IA; educar e informar a los usuarios para generar confianza en los sistemas de IA; capacitar a los usuarios dándoles más herramientas de control y reclamación; comunicar de forma proactiva, interna y externamente, casos cuestionables sobre la IA para construir confianza.

3) Para los responsables de tecnologías de la información, IA y analítica de datos y sus equipos: buscar la manera de que los sistemas de IA sean lo más transparentes y comprensibles posibles para ganar la confianza de los usuarios; hacer una gestión correcta de los datos y reducir los posibles sesgos en ellos; hacer seguimiento continuado de su rigor y precisión; y aprovechar las herramientas tecnológicas para incorporar los principios éticos en las soluciones o funciones de IA.

WhatsAppWhatsApp
FacebookFacebook
TwitterTwitter
Linkedinlinkedin
emailemail
imprimirprint
comentariosforum0