Tecnología

Idean un sistema para ayudar a los robots a tomar decisiones éticas

Que asistentes virtuales, robots o incluso coches autónomos tomen no sólo la mejor decisión, sino también la más ética, es el objetivo del sistema ideado por un equipo multidisciplinar español, empeñado en dotar de valores morales a la inteligencia artificial.

Ethyka, como se llama el módulo de programación en Inteligencia Artificial desarrollado por la compañía Acuilae, asegura tener en cuenta diversos patrones éticos y morales y comportamientos humanos para permitir a los robots o sistemas autónomos a analizar dilemas complejos y actuar de la mejor forma posible.

Y ello tanto en conversaciones con humanos como ante diversas situaciones.

Por ejemplo, aseguran sus creadores, podría ayudar a evitar lo ocurrido con Tay, el robot conversacional creado por Microsoft para Twitter y que tuvo que ser retirado cuando comenzó a emitir comentarios racistas e inapropiados tras unas pocas horas de interacción con tuiteros.

"A priori, tú lo entrenas para ponerlo en funcionamiento, pero luego ellos van aprendiendo de lo que los demás utilizan. Entonces claro, si le pones a hablar con adolescentes, pues va a aprender de ellos", explica la consejera delegada de Acuilae, Cristina Sánchez.

Con su módulo implantado, Sánchez está convenida de que el asistente virtual reaccionaría como un humano más: cambiaría de conversación o, incluso, sancionaría el comentario.

"Se trata de que lo sancione, no aprenda de ello y lo bloquee", explica.

Ésa es la aplicación más obvia de Ethyka, pero puede haber más, como, por ejemplo, al incorporarlo a sistemas de reconocimiento de imágenes para detectar situaciones anómalas o comportamientos inapropiados y alertar de ellos.

"Imagínatelo incorporado en las cámaras que visualizan lo que ocurre en el metro. Alertaría a la policía si detecta una agresión, sin tener que esperar a que alguien que pase por allí lo vea, o a los servicios de emergencia si alguien se desplome en un adén, porque es capaz de detectar que no es un comportamiento normal", añade.

Sánchez ve aún una aplicación más y es ayudar a la toma decisiones teniendo en cuenta valores éticos, tanto en salud, como en justicia, educación, cuidado de mayores o, incluso, en conducción autónoma, donde los dilemas éticos pueden ser aún más complicados.

En el desarrollo de Ethyka ha participado un equipo multidisciplinar dirigido por Sánchez, quien ha trabajado durante 19 años como informática para Accenture, e integrado por especialistas en informática, tecnología y diseño, mercadotecnia y psicología, dado que lo que subyace tras este proyecto es el análisis y la investigación sobre el cerebro humano.

El programa incluye varias éticas, como la evolutiva, la cívica o la profesional, así como distintos dilemas con factores predeterminados en función del tema tratado.

La compañía ya ha pensado en un catálogo de productos: por un lado módulos creados y entrenados exprofeso para distintos ámbitos, como el transporte, la educación o la sanidad, aunque también ofrecerá un esqueleto del módulo (lo que se conoce como SDK) para que cualquier programador lo pueda incorporar en sus propios desarrollos.

Ethyka, según sus impulsores, puede implementarse en asistentes virtuales, unidades autónomas o simplemente en cualquier aplicación o servicio web.

Asimismo, ofrece servicios web en el que aquellas empresas interesadas, pero que no desean comprar el módulo, puedan resolver sus dudas.

Ahora el siguiente paso de Acuilae, constituida este verano y especializada en la implantación de las últimas tecnologías aplicadas a la inteligencia artificial, consistirá en acudir a rondas de inversión para hacer crecer el proyecto e incluir "todo lo que podamos abarcar".

comentarios6WhatsAppWhatsAppFacebookFacebookTwitterTwitterLinkedinlinkedin

Comentarios 6

En esta noticia no se pueden realizar más comentarios

Vacilón
A Favor
En Contra

A ver cuando se ponen para uno que haga éticos a los polí­ticos.

Puntuación 8
#1
Isaac Asimov
A Favor
En Contra

Ya establecí­ los tres principios de la robótica hace cincuenta años.

Comprad mis obras, son baratas e interesantes!

Puntuación 9
#2
Sorp
A Favor
En Contra

¿Que se han basado en los politicos para hacer esos valores eticos?. Al final los robots nos destruiran. Mirar que son burros los seres humanos, construir inteligencia artificial para que destruyan a los humanos.

Puntuación 4
#3
josep
A Favor
En Contra

Yo creo que la ética es diferentes si el robot es Catalán o Español, si es Americano o Ruso, si es musulmán o católico, empresario o trabajador, si es pobre o rico, si estoy con la mujer o con la amante. El robot tendrá la ética que a su programador le interese. Una opción es que el robot tenga cada una de esas éticas y quien lo compre que la active

Puntuación 3
#4
Asco
A Favor
En Contra

Espero que no lo programe ningíºn comunista perroflautero

Puntuación 2
#5
#4
A Favor
En Contra

#4 Josep, incluso no descartes la posibilidad de que dos catalanes tengan éticas distintas...

Puntuación 6
#6