Tecnología

La Inteligencia Artificial no convence a grandes expertos: "Podría acabar con la raza humana"

  • Para muchos, la cuestión está en cómo desarrollar esa tecnología de forma responsable
Foto: iStock

Cada vez son más las voces que critican los usos que se le pueden dar a la Inteligencia Artificial (IA), sin duda uno de los grandes avances tecnológicos de los últimos tiempos y que cada vez está más presente en cada uno de los sectores de producción.

Posiblemente, el primero de todos en advertir lo que nos podía venir encima fue Stephen Hawking. El físico, astrofísico, cosmólogo y divulgador científico británico, entre otras facetas, dejó escrita una predicción acerca de la Inteligencia Artificial.

"Podemos enfrentarnos a una explosión de inteligencia que, en última instancia, resulte en máquinas cuya inteligencia supere a la nuestra en más de lo que la nuestra supera a la de los caracoles", escribió. En una entrevista en 2014 con la BBC aseguró que "el desarrollo de una completa IA podría traducirse en el fin de la raza humana", advirtiendo que los esfuerzos por crear máquinas inteligentes representan una amenaza para la humanidad.

Martin Rees, astrónomo británico, llegó a revelar que "la Inteligencia Artificial necesita directrices para una innovación responsable". En este sentido, el profesor de la Universidad de Cambridge, señaló en un artículo en el London Evening Standard que "no sabemos dónde se encuentra el límite entre lo que puede suceder realmente y lo que seguirá siendo parte de la ciencia ficción. Pero algunos de los que tienen fuertes credenciales piensan que el campo de la Inteligencia Artificial necesita directrices para una innovación responsable".

El economista jefe de Microsoft, Michael Schwarz, también puso el foco en los "actores" y en su forma de utilizar esta herramienta que, en estos momentos, es un embrión. "Tenemos que preocuparnos mucho por la seguridad de esta tecnología, al igual que con cualquier otra tecnología", indicó durante el Foro Económico Mundial. 

"Una vez que vemos un daño real, tenemos que hacernos la pregunta simple: '¿Podemos regular eso de una manera en la que las cosas buenas que evitará esta regulación sean menos importantes?'", dijo Schwarz. "Estoy bastante seguro de que los malos actores utilizarán la IA, y sí, causará un daño real". En esta línea, Schwarz destaca que los coches también pueden ser peligrosos. "Espero que la IA nunca, jamás, se vuelva tan letal como un motor de combustión interna".

Otra voz más que autorizada para hablar de esta herramienta es la de Geoffrey Hinton, considerado por muchos como el padrino de la IA. Este ingeniero, extrabajador de Google, continúa la senda de Schwarz y ha alertado sobre los peligros de esta tecnología. El especialista cree que estas herramientas se pueden emplear para hacer cosas grandiosas, pero que "es difícil averiguar cómo se puede evitar que los malos actores las usen para cosas malas".

Uno de los mayores peligros para Hinton es la generación de contenido falso, ya sea en fotos, vídeos o incluso artículos. "Ya no seremos capaces de saber qué es verdad", confiesa. 

Otros nombres, como el de Elon Musk o Steve Wozniak (cofundador de Apple), unidos a más de 1.100 empresarios, inversores, investigadores y analistas de todo el mundo, firmaron una carta con el objetivo de pausar el desarrollo de la IA. "No significa una pausa en el desarrollo de la IA en general, simplemente es un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes", rezaba parte del escrito.

España también alerta

Investigadores españoles también hicieron especial hincapié de los riesgos de esta herramienta tecnológica. "Es una tecnología que ya se nos ha ido de las manos, y es algo de lo que venimos tiempo avisando", alerta Helena Matute, catedrática de Psicología Experimental en la Universidad de Deusto, que añade que "o se regula muy bien o hay que frenarlo". "Ya ha habido tecnologías que han tenido moratorias, como la energía nuclear. Cuando algo es peligroso, hay que parar", recuerda en una entrevista en El Confidencial

Para Juan Antonio Fernández Madrigal, catedrático de ingeniería de sistemas y automática en la Universidad de Málaga, "hay que hacer ver a la mayor cantidad de gente posible, sobre todo quienes tienen algún poder legislador, de los problemas que puede producir ya por la velocidad a la que está cambiando todo".

WhatsAppTwitterTwitterLinkedinBeloudBeloud