Tecnología

El motivo por el que el padrino de la IA haya dejado Google: quería alertar libremente de los peligros

  • Su énfasis recae en la necesidad de crear medidas de control a la vez que se avanza en IA
  • No ha criticado a Google, pero ha preferido salir de la empresa para hablar libremente
BBVA// Geoffrey Hinton en los PREMIO FRONTERAS DEL CONOCIMIENTO Tecnologías de la Información y la Comunicación IX Edición

Geoffrey Hinston, conocido como "el padrino de la Inteligencia Artificial" recientemente acaba de dejar su puesto en Google para poder alertar e informar a la sociedad de los potenciales peligros de esta tecnología y de sus usos, sin afectar ni dañar la reputación de la compañía.

Ha sido a través de una entrevista con el New York Times, en la que Hinton ha hablado abiertamente sobre sus temores con la dirección y el rápido desarrollo de la Inteligencia Artificial debido a la falta de control que las empresas e individuos están teniendo con esta tecnología.

"La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas... unos pocos lo creyeron", afirma. "Pero la mayoría de la gente pensaba que estaba muy lejos de la realidad. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso" explicó.

Hinston llevaba más de una década en Google trabajando en materias relacionadas con la IA, aunque su apodo de "padrino" de esta tecnología viene debido a que desde 1972 lleva desarrollando y trabajando en proyectos de red neuronal.

Como te contamos hace unas semanas, expertos, desarrolladores y empresarios tecnológicos se unieron para recoger firmas con el objetivo de frenar el desarrollo de la IA hasta que se creasen una serie de parámetros y leyes que establecieran unos mínimos de control sobre qué es capaz de hacer esta tecnología.

En su momento dicha carta que contaba con la firma de Elon Musk, Steve Wozniak (cofundador de Apple) o Jaan Tallinn (cofundador de Skype), sin embargo, no fue firmada por Hinston, ya que como ha explicado "en ningún momento quise dañar la reputación de Google", y por ello ahora ha decidido abandonar la empresa.

"Me consuelo con la excusa normal: si yo no lo hubiera hecho, alguien más lo habría hecho". Para él, los peligros que tienen estas herramientas es que sean capaces de crear contenidos que una persona no pueda identificar si son reales o no, además del impacto que pueda tener en el mercado laboral debido a la absorción de puestos de trabajo.

Hinton, no cree que haya que señalar a empresas como Google o Microsoft por el desarrollo de esta tecnología, sino que recalca que es necesario que a la vez que se avanza en esta materia paralelamente se haga lo mismo con métodos de control para evitar que la IA se utilice para fines maliciosos o que incluso está actúe de forma indebida autónomamente.

WhatsAppTwitterTwitterLinkedinBeloudBeloud