
Muchos lectores conocerán el dilema del tranvía. Propuesto por Philippa Foot en 1967, ha recobrado protagonismo al calor de los avances en vehículos autónomos. Su enunciado original propone un escenario donde el conductor debe optar entre atropellar a varias personas o realizar una acción alternativa con menor coste en vidas humanas (pero que le podría costar su propia vida).
Este caso se menciona con frecuencia en un debate - la Ética de la Inteligencia Artificial - que adquiere día a día mayor protagonismo y que plantea el marco ético exigible para este tipo de proyectos. En esta línea, el Parlamento Europeo ha elaborado un Código Ético de Conducta en Robótica e Inteligencia Artificial con los principios que - según su criterio - deberían inspirar los avances futuros en este campo.
Sin embargo, el debate público está viciado en cierta medida por el insuficiente entendimiento de los mecanismos de la IA. Así, en un reciente informe sobre el tema del Cap Gemini Research Institute, uno de los problemas éticos más citados por directivos de multinacionales es la "recopilación de datos personales sin conocimiento del usuario", un problema grave y recurrente - sin duda - pero en absoluto vinculado específicamente a la IA.
Asimismo, es frecuente leer opiniones críticas sobre los sesgos éticos de los programas de reconocimiento facial y prevención de la criminalidad (como el caso reciente del FBI). Sin embargo, habitualmente el algoritmo no tiene sesgos: los tienen los bancos de imágenes de los que se nutre y su forma de etiquetarlos. Y muchas veces se trata simplemente de la cantidad de imágenes disponibles, que puede provocar que la tasa de errores sea superior. Veamos un ejemplo: existe el convencimiento de que los algoritmos occidentales discriminan a las personas de razas no caucásicas, sin advertir que otros estudios apuntan que con los empleados en Asia sucede exactamente lo contrario. ¿Discriminación? No. Más bien infrarrepresentación en los datos de los que se nutre el programa.
Avancemos, no obstante. Si acotamos la IA como "las capacidades de sistemas basados en el autoaprendizaje como reconocimiento de imagen/video/voz, procesado de lenguaje natural, agentes conversacionales, vehículos autónomos y modelos analíticos avanzados" ¿podremos llegar a establecer ciertos principios éticos?
Si hablamos de principios generales -transparencia, auditabilidad o ausencia de sesgos- no sería difícil alcanzar un acuerdo. Pero si bajamos al detalle (y volviendo al dilema del tranvía) un estudio masivo del MIT denominado Moral Machine, en el que han participado más de 40 millones de personas durante 4 años, muestra cómo en función de rasgos como la edad, sexo o cultura, sus criterios éticos son muy diferentes, incluso contradictorios. ¿Como establecer una ética común si no podemos consensuarla?
Una respuesta es que en muchos casos queremos asignar la categoría de principios éticos a lo que simplemente son preferencias personales. Así, el Código del Parlamento Europeo recoge entre sus principios el "derecho a no ser cuidado por un robot". ¿Realmente ese debe ser un principio ético?
El catedrático de derechos humanos y colaborador de la ONU Philip Alston propone una interesante aproximación para abordar el problema: según su enfoque, los derechos de las personas no necesitan reescribirse, ni son precisas grandes declaraciones: ya están reflejadas en la legislación internacional. Se trata de asegurarse de que la aplicación práctica de la IA, y en especial la confianza ciega en sus resultados, respeten dichos derechos.
Las decisiones solo pueden ser tomadas tras un análisis exhaustivo de los datos
Veámoslo con una comparación: admitimos que las pruebas médicas no son infalibles, y por ello esperamos de nuestro médico que no preste confianza ciega a los resultados, sino que los interprete en base a su prudencia profesional. Lo mismo sucede con la IA: volviendo al caso del FBI, un 85 por ciento de acierto parece muy razonable. El verdadero problema es que, existiendo ese margen de error, se tomen decisiones en base a esos datos sin revisar ni interpretar. Y para eso es precisa la plena transparencia. ¿Alguien se imagina ser condenado solamente con una prueba de ADN con un 15 por ciento de error estadístico? Pero la culpa nunca será de la IA, sino de su aplicación práctica por las autoridades y organizaciones.
En Sania Data estamos totalmente comprometidos con el respeto a la ética en la aplicación de la IA. Por ello, para nosotros es un valor esencial que nuestros desarrollos sean plenamente transparentes para nuestros clientes, y seleccionamos modelos en los que sea posible trazar qué variables han contribuido a crear la respuesta del modelo. Si nuestros modelos sugieren realizar ofertas comerciales a un colectivo concreto, nuestro cliente siempre conocerá qué variables intervienen en dicha sugerencia o cómo se ha segmentado el grupo objetivo.