
En la innovación, como en otros ámbitos de la vida, las buenas intenciones no bastan. A veces, una tecnología diseñada con los mejores propósitos puede acabar teniendo consecuencias negativas.
Esto ha demostrado ser cierto en el mundo de la Inteligencia Artificial (IA), donde la esperanza es que algoritmos sofisticados puedan liberarnos del aburrimiento de tareas repetitivas que podemos hacer, pero no queremos, y ofrecer una solución a aquellas tareas que querríamos hacer, pero actualmente no podemos. La moral define lo que es "correcto" o "incorrecto", "bueno" o "malo".
En las últimas décadas, la psicología moral descubrió múltiples dimensiones que la gente utiliza para decidir qué está bien y qué está mal. Estas dimensiones, introducidas por el psicólogo social estadounidense Jonathan Haidt, son cuidado/daño, justicia/trampa, lealtad/traición, autoridad/subversión y santidad/degradación. Estas dimensiones son las intuiciones éticas innatas en las que se basa el razonamiento moral humano.
Pero Haidt y sus colegas descubrieron que los individuos a menudo aprobaban o desaprobaban escenarios éticos hipotéticos basándose en intuiciones inconscientes y automáticas. Por ejemplo, utilizar en secreto una bandera nacional para limpiar un cuarto de baño no causa ningún daño físico, pero una abrumadora mayoría lo consideraba incorrecto.
De forma similar, nuestros investigadores se preguntaron hasta qué punto los fundamentos morales ayudan a explicar la aceptación y la reticencia a la IA. Para responder a esta pregunta, realizaron un estudio de crowdsourcing en el que participaron más de 130 encuestados a los que se pidió que juzgaran las tecnologías de seguimiento de la productividad según las cinco dimensiones morales. Mediante análisis estadísticos, los investigadores llegaron a los tres criterios siguientes para juzgar si una tecnología de IA es moral:
1. Viabilidad - Una aplicación de IA es moral si puede construirse fácilmente a partir de tecnologías existentes de forma satisfactoria. Una aplicación de IA difícil de construir se consideraría inviable porque inevitablemente se quedaría corta y plagada de imprecisiones y sesgos, y se consideraría moralmente injusta. Por ejemplo, el seguimiento preciso de expresiones faciales es técnicamente fácil de hacer utilizando cámaras web y, por tanto, una aplicación viable de la IA.
En cambio, el seguimiento de las posturas corporales sigue siendo un problema difícil porque requiere complejos sensores portátiles que aún no se utilizan de forma generalizada. Por tanto, ese seguimiento se considera una IA no viable porque cualquier sistema clasificaría e interpretaría mal los datos.
2. No intrusiva - Una aplicación de IA también es moral si no interfiere en el trabajo y es "apta para el propósito". Una aplicación de IA que sea intrusiva se consideraría "desleal" con la forma de trabajar. Por ejemplo, el seguimiento de expresiones faciales en reuniones en línea es técnicamente fácil de hacer utilizando cámaras web, pero se considera IA intrusiva porque interrumpiría la reunión.
3. Responsabilidad - Por último, una aplicación de IA también es moral si no causa ningún daño ni vulnera ningún derecho individual. Una aplicación de IA que tenga un efecto negativo sobre las personas se consideraría irrespetuosa y, en ciertos casos, incluso perjudicial. Por ejemplo, el seguimiento de las expresiones faciales con cámaras en las oficinas es viable y no intrusivo, pero se consideraría perjudicial porque compromete innecesariamente la intimidad de las personas.
Estos tres criterios ofrecen una brújula moral para diseñar sistemas de IA. La cuestión es cómo aplicarlos. Para los dos primeros, ya tenemos una orientación clara. Cómo diseñar tecnologías "viables" y "no intrusivas" son preguntas a las que la industria tecnológica responde a diario. Sin embargo, el tercer criterio es mucho más complejo. La tecnología "responsable" es un concepto ético difícil de definir.
En el mejor de los casos, los desarrolladores de IA integran los conceptos éticos mediante listas de control: listas de elementos que garantizan que las cuestiones éticas se tienen en cuenta en el proceso de desarrollo. Sin embargo, estas listas son largas y cada punto trata conceptos complejos, como la equidad o la transparencia, que son difíciles de resumir en una sola frase.
Por ello, los desarrolladores repasan las listas de comprobación sin prestar la debida atención a la traducción de las consideraciones éticas en características de diseño. Si no se tienen en cuenta las consideraciones morales desde el principio, la IA podría aplicarse a ciegas y podría, por ejemplo, convertir un entorno laboral agradable en un lugar de trabajo donde la vigilancia se descontrole. Es mucho más difícil deshacer el daño a posteriori que evitarlo desde el principio.