
La dificultad que han encontrado muchos usuarios para probar el robot conversacional ChatGPT es, en realidad, una buena noticia. Los servidores aguantaron estoicamente durante la primera semana en pruebas, en el que estuvo accesible al público. En esos días, ya se registró más de un millón de perfiles.
A partir de ahí, la plataforma desarrollada por OpenAI y por la que Microsoft ha anunciado que va a pagar 9.200 millones de euros ha tenido sus altibajos, con interrupciones en el acceso por ese colapso, algo natural ante tal demanda... Decimos que es una buena noticia porque este robot, capaz de responder a preguntas de todo tipo por escrito y con un nivel de razonamiento más que destacable, ha logrado que una tecnología tan compleja como la inteligencia artificial se haya popularizado completamente. Antes de que llegara el ChatGPT, los asistentes personales como Alexa, Siri o Google Assistant ya habían mostrado en buena medida de lo que podían ser capaces estos algoritmos.
Pero la inteligencia artificial lleva muchos años entre nosotros. "ChatGPT es la estrella de este 2023 y permite dimensionar la magnitud de las ventajas y el paradigma de los retos que nos depara la inteligencia artificial. Mediante una interfaz muy sencilla, imita la inteligencia humana, y apunta a ser clave en la manera de relacionarnos con nuestro entorno. Mediante esta tecnología se empuja la frontera de la tecnología de supercomputación de inteligencia artificial en la nube de forma masiva", explica la directora de innovación de CapGemini, que acaba de presentar un informe sobre las próximas tendencias tecnológicas. Pilar Rodríguez nos recuerda que las principales ventajas que encuentran las empresas en la inteligencia artificial son la toma de decisiones basada en las experiencias pasadas, el impulso de la eficiencia en las operaciones, el ahorro de tiempo y la mejora y rentabilidad en la automatización de procesos.
Pero no a cualquier precio. Muchas compañías implementan sistemas de chatbots -aun en un nivel de desarrollo muy precario- para atender a sus clientes. Incluso en situaciones de emergencia, estas firmas han declinado esa responsabilidad en unos chatbots sin apoyo de personal especializado. También en esos casos, son incapaces de aportar soluciones y remiten una y otra vez en modo bucle a un formalismo absurdo... Las empresas deben aprovechar el potencial que ya ofrece la inteligencia artificial, pero sin renunciar a su esencia de servicio a la comunidad y de cuidar a los clientes. Al fenómeno del ChatGPT dedicamos el tema de portada de este número. Y es curioso que el mismo robot conversacional de OpenAI tenga que advertirnos una y otra vez que todas sus aportaciones deben de ser revisadas por los seres humanos. Esto nos recuerda algo importante: la necesidad de avanzar hacia un humanismo digital, de seguir poniendo en el centro los intereses y valores que nos son propios. Resulta paradójico que el propio robot nos lo tenga que recordar, no vaya a ser que se nos olvide.
Un profesor de un MBA le hizo un examen y sacó un notable, más que muchos de sus alumnos
Si le preguntamos al robot conversacional ChatGPT cómo iniciaría un artículo sobre él mismo, nos suelta esta respuesta: "ChatGPT, un modelo de procesamiento de lenguaje de última generación desarrollado por OpenAI, está revolucionando la forma en que interactuamos con las máquinas. Con sus capacidades avanzadas de comprensión del lenguaje natural, ChatGPT puede entender y responder a una amplia gama de preguntas humanas, desde cuestiones simples hasta conversaciones complejas". Incluso nos sugiere, ojo, sin que se lo pidamos, un titular para el reportaje: "ChatGPT: El futuro de la tecnología de procesamiento del lenguaje".
Así se las gasta el robot por el que Microsoft ha anunciado que desembolsará en los próximos años 9.200 millones de euros. La herramienta de inteligencia artificial (IA) está accesible en modo de pruebas para cualquier lector que quiera experimentar con ella a través en este enlace https://chat.openai.com. Y recomendamos hacerlo para comprender el nivel de desarrollo que ha alcanzado esta tecnología. Es más, admitimos que seguramente les resulte mucho más esclarecedor que leer este reportaje…
Y es que el dichoso robot ya ha sido capaz de sacar notable en un examen de la escuela de negocios Wharton, de la Universidad de Pensilvania. A un profesor de MBA de este campus le dio por hacer la prueba y se llevó una sorpresa al comprobar que había obtenido un notable, una nota superior a la que consiguen muchos de sus alumnos.
Hazme los deberes
Si le preguntamos a ChatGPT si puede ayudar a los estudiantes a hacer sus deberes, él mismo nos responde nada más teclear la cuestión: "Puedo ayudar a los estudiantes con diversas tareas relacionadas con el lenguaje, como escribir ensayos, investigar temas y responder preguntas sobre una amplia gama de temas. Sin embargo, los estudiantes siempre deben verificar la información proporcionada por mí, ya que es posible que no tenga la información más actualizada y no puedo reemplazar la guía de un maestro o las habilidades de pensamiento crítico que los estudiantes desarrollan al hacer su propio trabajo". Así demuestra su razonamiento lógico. Vemos que tiene la cabeza bastante bien amueblada.
Cuando nos registramos en ChatGPT, se nos advierte de que ocasionalmente puede generar información incorrecta y producir instrucciones dañinas o contenido sesgado y de que no está del todo actualizado, que solo maneja información hasta 2021. El modelo se encuentra en pruebas y sus responsables agradecen que enviemos comentarios para mejorarlo.
Como cualquier sistema de inteligencia artificial con el que hemos interactuado hasta ahora -Google Assistant, Alexa, Siri, etc.- va aprendiendo a medida que va generando más respuestas. De ahí que nos sugieran en ChatGPT que no incluyamos información personal en las preguntas para evitar disgustos innecesarios en el futuro. Entre sus virtudes, destaca que es capaz de contextualizar y de entender nuevas preguntas sobre un tema anterior. Por todo ello, muchos ya ven en ChatGPT la herramienta que podría enterrar a los buscadores como Google.
¿Quién es mejor, Madrid o Barça?
También ha sido entrenado para declinar proposiciones deshonestas, incluso se mantiene totalmente imparcial si le preguntamos por quién es mejor, si el Real Madrid o el Barcelona: "Es difícil decir qué equipo es mejor, ya que ambos equipos tienen una gran historia y han logrado un éxito significativo en competiciones nacionales e internacionales. Ambos tienen una gran base de seguidores y las opiniones sobre qué equipo es mejor pueden variar ampliamente. En última instancia, es una cuestión de preferencia personal". Y si le preguntamos qué país cree que ganará el próximo Mundial, también echa balones fuera con elegancia: "Lo siento, no puedo predecir el resultado de eventos futuros".
Nos explica Jorge Cuevas, Tech Lead de Wehumans, que "la inteligencia artificial que emplea ChatGPT es generativa, o sea, capaz de crear algo nuevo a partir de datos existentes, y de carácter generalista: puede hacer los deberes de un niño de 13 años, componer un poema o escribir código informático, traducir textos en muchos idiomas, etc. La IA que genera las respuestas se ha entrenado con 300.000 millones de palabras extraídas de internet, más de 570 gigas de datos". Añade que también está dotada de "una serie de filtros éticos para prevenir respuestas sesgadas o contenidos tóxicos, aunque esto último es muy mejorable".
Su versión en pruebas está disponible para cualquier usuario en https://chat.openai.com
Esto es algo que reconoce hasta el propio robot cuando le preguntamos por ello: "A pesar de sus muchas aplicaciones potenciales, también existen algunas limitaciones para ChatGPT. Una limitación es que el modelo es tan bueno como los datos con los que se entrena. Si esos datos están sesgados o incompletos, los resultados del modelo también estarán sesgados o incompletos. Además, la capacidad del modelo para comprender y responder a las entradas del lenguaje natural sigue siendo limitada y es posible que no pueda comprender o responder a ciertos tipos de entradas".
Algoritmos en cuestión
Añade el Tech Lead de Wehumans que "es un hecho constatado que los algoritmos que generan la IA están en tela de juicio en este sentido". "Considerando un entorno en donde la IA se utiliza cada vez más para la toma de decisiones importantes, esta realidad puede agravar las desigualdades existentes y los resultados son potencialmente peligrosos: sexismo, racismo, edadismo…", añade. Y admite que los sesgos en los algoritmos son reales y que los esfuerzos éticos en su eliminación no parecen suficientes para erradicarlos. "Pero en el caso de ChatGPT esto tiene una razón de ser. Esta herramienta fue entrenada con un gran conjunto de datos, que incluye textos de varias fuentes como noticias, libros, artículos, sitios web, entre otros, por lo que controlar todo lo que se dice en esos medios es difícil y extremadamente caro. Se tendría que revisar texto por texto la existencia de este tipo de juicios o sesgos", añade Jorge Cuevas.
El boom que ha vivido esta tecnología es incuestionable. En la primera semana de pruebas, tuvo más de un millón de usuarios registrados. Los expertos consultados admiten que queda un largo trabajo por delante para afinar el funcionamiento de la máquina, pero que el "potencial es real y existe". Así lo manifiesta el portavoz de Wehumans y aún más contundente es José Antonio Suárez, director general de Exceltic: "Pienso que se está subestimando todo el potencial que tiene esta herramienta. A día de hoy, cuenta con muchas limitaciones a nivel de interpretación del sentido y la intención del texto introducido, y también con la autenticidad y veracidad del texto generado, junto con todos los modelos de subscripción que puedan surgir de esta herramienta destinados para el ámbito corporativo o privado. Queda un largo camino y aún es buen momento para entender la herramienta y aprovechar al máximo sus posibles casos de uso". Añade que, como toda tecnología disruptiva, trae consigo un impacto tanto positivo como negativo, pero eso dependerá siempre del uso que se le dé y de la capacidad que tengamos todos de adaptarnos a esta nueva aplicación.
Respuestas demasiado frías
"La herramienta por sí misma necesita a día de hoy de seres humanos para formular correctamente las consultas, para interpretar y validar la veracidad del texto generado, y para implantar las recomendaciones empleadas", explica el director general de Exceltic. Y pone como ejemplo que, si ofrece recetas de cocina a un perfil de paciente, tiene que haber un especialista en nutrición que supervise esas recomendaciones. Sobre la frialdad de sus respuestas, que parecen sacadas del político mejor entrenado para no dar titulares, José Antonio Suárez no ve remedio: "Al ser una herramienta tecnológica no tiene sentimientos, por lo que tratar de humanizar esta herramienta es un error desde mi punto de vista".
La herramienta puede amenaza a los buscadores tradicionales como Google
Desde Wehumans nos explican que precisamente esa es su misión: "Convertir lo que el ChatGPT no puede realizar en realidad, tratando de conectar con el lado más humano de la tecnología digital. Nuestros humanos digitales están dotados de capacidad de aprendizaje, movimiento y simulación de sentimientos a través del uso de inteligencia artificial. Así, los humanos digitales pueden mejorar la disposición de las personas a compartir información confidencial, aumentar la sensación de comodidad en situaciones en las que alguien podría tener que admitir algo negativo y también reducir los temores de los clientes ante el juicio externo, por mencionar algunas cualidades".
Y lo que está por venir
Lo que en estos momentos nos parece tan sofisticado puede quedarse en pañales a tenor de las futuras versiones en las que ya trabajan en OpenAI. Se habla de que la siguiente versión, ChatGPT4, puede ser hasta 500 veces más potente y que, entre otras posibilidades, admitiría que el sistema fuera entrenado con documentos particulares. "Si eso es así, el chat tendrá un contexto de trabajo que le permitirá resolver mejor las preguntas y cuestiones específicas que se le planteen. Otra posible derivación del producto se cree que puede ser la combinación de modelos de lenguaje natural sumados a modelos de generación de vídeos o imágenes", destaca Jorge Cuevas.
Marcar unas reglas del juego
Ante este panorama, también los expertos coinciden en ir poniendo puertas al campo y llaman la atención sobre la necesidad de fijar unas reglas de juego. "Desde el punto de vista regulatorio, es importante establecer límites. Por ejemplo, la inclusión de textos de advertencia que especifique que las recomendaciones deben ser validadas por un especialista, y citar fuentes válidas que sirvan de referencia", explica el director general de Exceltic. La Ley de Inteligencia Artificial que acaban de aprobar las instituciones comunitarias va en esa dirección. Así lo corroboran desde Wehumans: "Sin duda. La regulación de los usos de IA es absolutamente necesaria. Europa lo ha hecho con el fin de abordar adecuadamente los beneficios y riesgos de esta tecnología con un alto nivel de protección del interés público, la seguridad y los derechos y libertades fundamentales". Así que vuelve a repetirse el tópico de que Estados Unidos crea, China copia y Europa regula. En este caso, el enfoque utilizado por los reguladores del viejo continente se basa en cuatro niveles de riesgo, por lo que se aplicarán distintas obligaciones y restricciones según el nivel de riesgo derivado del uso de la IA.
Recuperar terreno frente a Google
Microsoft quiere utilizar la inteligencia artificial que OpenAI ha demostrado con ChatGPT para dar nueva vida -o más bien nuevos poderes- a su buscador Bing y a su navegador Edge. Su CEO, Satya Nadella, ha anunciado que ya trabajan en un chatbot basado en esa tecnología y desarrollado también por OpenAI. El robot responderá a todas nuestras preguntas directamente desde esas aplicaciones. Con esta estrategia, se propone aprovechar el tirón que está provocando entre los usuarios ChatGPT para recuperar terreno frente a Google en ese campo. Pero Alphabet tampoco se ha quedado cruzada de brazos y ya ha anunciado que "en las próximas semanas" encontraremos en su buscador la herramienta Bard, su propio chatbot que también responderá a todas nuestras cuestiones. Promete, además, que estará actualizado con toda la información disponible en Internet.
"En conclusión, ChatGPT es un poderoso modelo de procesamiento de lenguaje que tiene el potencial de revolucionar la forma en que interactuamos con las máquinas. Su capacidad para comprender y responder a las entradas de lenguaje natural y generar texto similar al humano se puede aplicar en una amplia gama de industrias, desde el servicio al cliente hasta la creación de contenido. Sin embargo, es importante tener en cuenta que ChatGPT es una herramienta y sus resultados deben verificarse y usarse con pensamiento crítico". Este último entrecomillado lo firma ChatGPT. Si no ha respondido a sus expectativas el artículo que modestamente hemos intentado elaborar con la experiencia y sentido crítico que dan los 25 años de trayectoria profesional de quien esto firma, puede probar a pedirle directamente a ChatGPT un artículo de 1.800 palabras sobre el tema.
ChatGPT supone algo revolucionario también para el mundo de los derechos de autor. Como indica Ignacio González Gugel, socio fundador y abogado del despacho dPG Legal, "la inteligencia artificial puede generar contenidos absolutamente originales". Admite que hablamos de un 'software' que no tiene personalidad jurídica y, por lo tanto, "no es una persona a la que podamos reclamar". "Al utilizar ChatGPT, se podría generar contenido a partir de material protegido por derechos de autor, patentes, etc. En este planteamiento, es el usuario quien debe asegurarse de tener el permiso necesario para utilizar el modelo y cumplir con las licencias correspondientes", explica este letrado. Reconoce que el uso de la inteligencia artificial (IA) requiere precaución y cuidado en su implementación. "Si se produce alguna vulneración de derechos, las personas afectadas tienen el derecho de reclamar y la ley se aplicará independientemente de la existencia de una herramienta como ChatGPT o cualquier otra tecnología". Para González Gugel, no es necesario cambiar la ley actual para regular el uso de herramientas como ChatGPT u otras tecnologías de IA. "La legislación existente ya regula los derechos de autor y la propiedad intelectual, y estas regulaciones se aplican también a los contenidos generados por la IA", añade. Señala este jurista que los contenidos originales creados por una herramienta de IA como ésta "tienen un valor y están protegidos por la legislación". "El titular de los derechos sería el creador de la herramienta, pero el usuario que da los comandos iniciales también tendría responsabilidades. Deben establecerse procedimientos claros para asegurar que el uso de estas herramientas sea ético", concluye.
El robot conversacional ChatGPT también se postula como un lugar proclive a las actuaciones delictivas en la red. Así nos lo explica Eusebio Nieva, director técnico de Check Point Software para España y Portugal: "Si bien en sí ChatGPT no es una herramienta maliciosa, su naturaleza de ofrecer asistencia a los usuarios independientemente de sus premisas es lo que ha hecho que algunos ciberdelincuentes hayan comenzado a buscar cómo explotarla para su beneficio".
Oportunidad para los cibercacos
Añade este experto en ciberseguridad que el robot es tan inteligente que, cuando detecta una mala intención, la rechaza. Sin embargo, se ha comprobado que, reorientando la pregunta, es posible saltarse esa primera barrera. Advierte que, aunque por el momento las herramientas todavía son bastante básicas, "es sólo cuestión de tiempo que los ciberdelincuentes más sofisticados mejoren la forma en que utilizan las soluciones basadas en inteligencia artificial". Le preguntamos qué tipo de actuaciones maliciosas están detectando y nos explica que en las últimas semanas han descubierto pruebas de cómo los ciberdelincuentes de todo el mundo -incluyendo países que cuentan con restricciones para el acceso a OpenAI como Rusia- continúan aumentando el uso de herramientas como ChatGPT. "Gracias a ellas, resulta más sencillo generar correos electrónicos y códigos maliciosos, aunque también se pueden usar para pulir códigos previamente creados. Tanto es así, que ahora cualquier persona con recursos mínimos y cero conocimientos en código podría llegar a explotarlo", advierte.
Para Nieva, ChatGPT tiene el potencial de acelerar el proceso puesto que les ofrece un buen punto de partida. Y detalla tres casos que ya han registrado desde Check Point Research. Así, el 29 de diciembre pasado, se creó un hilo en el que se enseñaba a usar ChatGPT con fines maliciosos a otros atacantes menos capacitados técnicamente. Poco antes, el 21 de diciembre, detectaron la creación de una herramienta de cifrado multicapa que revela que "ciberdelincuentes que tienen poca o ninguna habilidad de desarrollo podrían aprovecharla para desarrollar herramientas maliciosas y convertirse en atacantes con capacidades técnicas". "Ya se ha dado el caso de que un ciberdelincuente pueda crear un mercado de 'scripts' en la Dark Web utilizando ChatGPT. El papel principal del mercado en la economía clandestina ilícita es proporcionar una plataforma para el comercio automatizado de bienes ilegales o robados como cuentas o tarjetas de pago robadas, 'malware', o incluso drogas y municiones, con todos los pagos en criptomonedas", precisa Nieva.
Hablamos de un 'software' que no tiene personalidad jurídica y, por lo tanto, "no es una persona a la que podamos reclamar"
Le preguntamos qué podemos hacer para evitar cualquier tipo de ataque a través de ChatGPT: "La llegada de OpenAI al repertorio de herramientas de los ciberdelincuentes implica principalmente un crecimiento en el número de ataques, así como una mayor sofisticación en los mismos. No obstante, por el momento no se ha detectado ningún caso que apunte a la creación de nuevo 'malware', por lo que una mayor concienciación y aplicación de los métodos de ciberseguridad actuales continúa siendo el objetivo a perseguir".
El director técnico de Check Point Software para España y Portugal también considera recomendable que protejamos nuestros sistemas y 'software' para evitar cualquier tipo de ataque, ya que las consecuencias de este tipo de amenazas afectan tanto a nivel económico como en otros aspectos como la pérdida de la confianza de los clientes. "La mejor estrategia es aquella que está basada en la prevención", concluye.
ChatGPT supone algo revolucionario también para el mundo de los derechos de autor. Como indica Ignacio González Gugel, socio fundador y abogado del despacho dPG Legal, "la inteligencia artificial puede generar contenidos absolutamente originales". Admite que hablamos de un 'software' que no tiene personalidad jurídica y, por lo tanto, "no es una persona a la que podamos reclamar". "Al utilizar ChatGPT, se podría generar contenido a partir de material protegido por derechos de autor, patentes, etc. En este planteamiento, es el usuario quien debe asegurarse de tener el permiso necesario para utilizar el modelo y cumplir con las licencias correspondientes", explica este letrado. Reconoce que el uso de la inteligencia artificial (IA) requiere precaución y cuidado en su implementación. "Si se produce alguna vulneración de derechos, las personas afectadas tienen el derecho de reclamar y la ley se aplicará independientemente de la existencia de una herramienta como ChatGPT o cualquier otra tecnología". Para González Gugel, no es necesario cambiar la ley actual para regular el uso de herramientas como ChatGPT u otras tecnologías de IA. "La legislación existente ya regula los derechos de autor y la propiedad intelectual, y estas regulaciones se aplican también a los contenidos generados por la IA", añade. Señala este jurista que los contenidos originales creados por una herramienta de IA como ésta "tienen un valor y están protegidos por la legislación". "El titular de los derechos sería el creador de la herramienta, pero el usuario que da los comandos iniciales también tendría responsabilidades. Deben establecerse procedimientos claros para asegurar que el uso de estas herramientas sea ético", concluye.