Tecnología

Piénsalo dos veces: introducir datos personales en ChatGPT implica "perder el control sobre ellos"

Si hablamos de Inteligencia Artificial (IA) es bastante probable que tu mente piense directamente en ChatGPT, ya que este chatbot es el más famoso y utilizado en el mundo hasta el momento. Pero eso no quita que no sea peligroso, y en este caso no hablamos de las capacidades y herramientas que ofrece para llevar a cabo ciberataques, sino que el propio uso normal, sin ninguna mala intención puede poner tu privacidad en jaque.

En este sentido, los expertos de la compañía de ciberseguridad Secure&IT han advertido sobre las posibles consecuencias de introducir información y datos personales en las interacciones con este tipo de asistentes, que pueden registrar dichos datos para continuar entrenando la IA y, por tanto, perder el control de sobre la información personal.

Así, tal y como ha explicado la consultora legal TIC de Secure&IT, Natalia Patiño, en un comunicado, para poder utilizar correctamente ChatGPT se ha de tener en cuenta que se trata de una herramienta que "facilita o complementa" la labor humana, pero que, sin embargo, "no la sustituye".

Esto se debe principalmente a que ChatGPT funciona utilizando una técnica de aprendizaje a la que se refieren como "aprendizaje por transferencia". Esto consiste en un entrenamiento basado en un conjunto de datos a gran escala que, a su vez, utiliza los resultados para continuar entrenando al modelo de aprendizaje.

De esta forma, a la hora de interactuar con el 'chatbot', el usuario introduce una petición y, tras ello, el modelo ajusta su respuesta en función de lo solicitado por el usuario y los datos que haya aportado. Gracias a este sistema, el asistente es capaz de generar respuestas cada vez más precisas y que se asemejan a cómo respondería un humano.

Esto quiere decir que a cada consulta y conversación, la IA es capaz de aprender y usar este conocimiento en otra conversación con un usuario totalmente distinto. Como subrayan los expertos las herramientas de IA utilizan "todos los datos que los usuarios introducen" y, además, dichos datos quedan registrados y pueden ser reutilizados. Por ello, es recomendable pensar en qué información se está compartiendo con el 'chatbot', y si dichos datos son personales.

Siempre que se pueda los usuarios deben evitar introducir datos directamente identificables, así como los datos que "de forma indirecta puedan llevar a la identificación". "Es muy importante no incluir este tipo de información en las consultas, sobre todo, teniendo en cuenta que actualmente los chats basados en IA son, en general, muy opacos", ha matizado Patiño.

WhatsAppFacebookTwitterLinkedinBeloudBluesky