
La convivencia cada vez mayor con robots y sistemas de inteligencia artificial plantea cuestiones que, mas allá del propio desarrollo tecnológico, entran en la filosofía, la ética y el derecho, y parece que es aquí y no en una posible amenaza para la raza humana donde están los "conflictos robóticos" del futuro.
La idea de que la inteligencia artificial pueda adelantar a la humana no tiene aplicación en términos absolutos sino que sólo tiene sentido dentro de determinados contextos, según expertos consultados por Efe, que añaden que ya hay robots y software autónomos que toman decisiones más allá de sus algoritmos preprogramados y pueden aprender y adaptarse a situaciones imprevisibles no anticipadas.
También pueden adelantarnos en velocidad de cálculo y complejidad de datos pero "la inteligencia humana no se dedica sólo a computar sino que está puesta en activo con el mundo y con otras personas, es social", apunta Fernando Broncano, catedrático de Lógica y Filosofía de la Ciencia de la Universidad Carlos III de Madrid (UC3M).
"Les falta versatilidad y sentido común -a las máquinas-, y quedan lejos de lo que sería una inteligencia artificial general, dotada de singularidad", añade Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas.
"Una máquina no llegará a tener conciencia de lo que está haciendo, podrá jugar al ajedrez pero no sabrá que está jugando ni tendrá el sentimiento de que está compitiendo con el hombre para derrotarle", amplía López de Mántaras: "hay motivaciones e intenciones que dudo mucho que vayan a tener".
La imagen del cine
La ciencia ficción influye en nuestra imagen de los robots y personas como Stephen Hawking "plantean un escenario apocalíptico" respecto a la inteligencia artificial, pero para Mántaras se está hablando de "periodos futuros irracionales", sin entender el "estado del arte" en este campo e incluso infravalorando la complejidad del cerebro.
"La 'amenaza real' está en el campo de la ética", dice este experto, quien subraya que "la gran cuestión, más que el grado de inteligencia, es el grado de autonomía que se le conceda a una máquina".
Este es el punto central a la hora de replantear la nueva legislación y las responsabilidades, y "aquí hay que hablar de niveles que nos llevan a problemas morales y jurídicos muy importantes", señala por su parte Broncano, quien coincide con Mántaras en que a nivel moral la responsabilidad es de los humanos.
Teresa Rodríguez de las Heras, profesora titular de Derecho Mercantil en la UC3M, indica que "la diversidad de enfoques y la pluralidad de intereses impiden un tratamiento único y global de los avances de la robótica".
"Esto conlleva un retraso en la intervención normativa, necesario en cualquier caso para evitar una respuesta inadecuada que obstaculice el desarrollo tecnológico o distorsione la competencia en el mercado", concluye.