
¿Quieres ayudarnos a construir el futuro de la inteligencia artificial segura? La pregunta de la startup Anthropic viene a ser el motor de existencia de la compañía de IA que desde hace meses promete plantear batalla a los todopoderosos ChatGPT y Gemini. Bajo la marca Claude, la joven tecnológica se define como una empresa de seguridad e investigación de IA, preocupada por construir sistemas de IA fiables, robustos e interpretables. Esta interpretabilidad, a su vez, puede definirse como la facilidad de las personas para entender el origen de los resultados de la inteligencia artificial. De esa forma, cuanto más sencillo resulte evaluar cómo los modelos de lenguaje de gran tamaño (LLM) ofrecen una conclusión, más fácil será dirigir o manipular los árboles de decisión del modelo con la ayuda de las personas, alienadas con los valores y objetivos de la humanidad.
Gran parte de su empeño corporativo de Anthropic consiste en estudiar los comportamientos de los algoritmos, examinar los procesos internos y desvelar la forma de obtener los resultados. Semejantes mandamientos comienzan ultimamente a valorarse por el mercado, con promesas de inversión lideradas por algunos de sus rivales. Así, Alameda Research destinó 500 millones de dólares, la misma cantidad que Google, mientras que Amazon ha puesto sobre la mesa más de 1.250 millones de dólares. A corto plazo, tanto la compañía del buscador como la gran tienda online prometen elevar su capital en 4.000 y 1.500 millones, respectivamente.
La startup se constituyó en 2021, en San Francisco (California, EEUU) cuando once ex empleados de OpenAi abandonaron a Sam Altman tras la primera entrada de capital de Microsoft, de mil millones de dólares. Al frente del equipo se pusieron los hermanos Daniela y Dario Amodei, críticos ante las profundas diferencias con la filosofía de ChatGPT. El primer fruto de su trabajo se materializó en Claude, lanzado el pasado verano en EEUU y Reino Unido, con la seguridad, ética y responsabilidad por bandera.
Los últimos movimientos de la compañía invitan a pensar que existe un mundo mejor en el turbulento universo de los algoritmos. La aparente despersonalización de las tecnologías cognitivas dominantes les anima a encontrar cierto freno. Sin necesidad de normas o regulaciones, la IA generativa de Anthropic promueve un enfoque ético desde su origen para garantizar que la criatura no se desmande. Por lo pronto, 'Claude' ya está disponible para PC y smartphones, únicamente en EEUU y Reino Unido, con resultados competitivos respecto a los de sus principales rivales. Entre los logros más mediáticos destacó la capacidad de leer una novela en menos de un minuto, algo fuera del alcance de ChatGPT, o escuchar un podcast de seis horas de duración. El gran parte del truco reside en la habilidad de leer token, o grupos de palabras, donde las versiones más avanzadas de ChatGPT son capaces de alcanzar los 8.000 tokens, Gemini más de 4.000 y Claude cerca de 200.000, con la posibilidad de admitir entradas (prompt) de 150.000 palabras.
'Claude' ya está disponible para PC y smartphones, únicamente en EEUU y Reino Unido, con resultados competitivos respecto a los de sus principales rivales.
El carácter multidisciplinar también imprime carácter en una empresa formada por equipos de investigadores, ingenieros, expertos en políticas, abogados, financieros, líderes empresariales y operadores, donde cada uno de ellos aporta su experiencia en ámbitos diferentes. Algunos miembros de la plantilla han trabajado en la NASA, otros en el ejército y muchos en startups, para garantizar que la IA transformadora ayude a las personas y a la sociedad a prosperar. "Creemos que la IA tendrá un gran impacto en el mundo y nuestra misión consiste en construir sistemas en los que la gente pueda confiar, así como investigar sobre las oportunidades y riesgos de la IA", explican. También colabora con otros proyectos interesados en trabajar en un propósito similar, trabajando con la sociedad civil, los gobiernos, las organizaciones sin fines de lucro y la industria para "promover la seguridad en toda la industria". Entre otras actuaciones diferenciales, la compañía interpreta la seguridad de la IA como una ciencia sistemática, para así realizar investigaciones susceptibles de aplicar a los productos y compartirlas con el ecosistema.
El reto corporativo: mejorar la sociedad
El ideario de Anthropic, y su compromiso por el concepto de Inteligencia Artificial Constitucional (IAC) gana adeptos según se acelera la IA generativa, hasta el punto que algún observador los sitúa como potenciales candidatos al Nobel de la Paz o el Príncipe de Asturias de la concordia, dada su preocupación por convertir sus investigaciones "en herramientas tangibles y prácticas, como Claude, que benefician a las empresas, organizaciones sin ánimo de lucro, a la sociedad civil y a las personas de todo el mundo", proclaman desde su web corporativa. "Anthropic tiene una misión: garantizar que la IA transformadora ayude a las personas y a la sociedad a prosperar. El progreso de esta década puede ser rápido, y esperamos que los sistemas cada vez más capaces planteen desafíos novedosos. Perseguimos la construcción de sistemas fronterizos, estudiando sus comportamientos, trabajando para desplegarlos de manera responsable y compartiendo regularmente nuestros conocimientos de seguridad con otros proyectos y partes interesadas que buscan un resultado similar".
En el mismo sitio, la compañía reitera que su objetivo consiste en "ser abiertos sobre lo que entendemos y lo que no". Al mismo tiempo, la tecnológica encuentra un motivo de celebración el hecho de "probar lo simple antes que lo inteligente y novedoso" y adopta "el pragmatismo, enfoques sensatos y prácticos que reconocen las compensaciones". También se reconocen convencidos "del empirismo, descubrir lo que realmente funciona probándolo, y aplicarlo a nuestra investigación, nuestra ingeniería y nuestra colaboraciones".
Entre otros logros, la compañía asegura ofrecer un método para evaluar de forma proactiva el posible impacto discriminatorio de la IA Generativa en muchos casos de uso hipotéticos que aún no se han puesto en marcha, con 70 escenarios de decisión, en función de la información demográfica. "La aplicación de esta metodología revela patrones de discriminación tanto positiva como negativa en Claude 2.0 en entornos seleccionados cuando no se aplican intervenciones. No respaldamos el uso de los modelos de lenguaje para tomar decisiones automatizadas para los casos de uso de alto riesgo y ofrecemos técnicas para disminuir los elementos perniciosos de la IA en favor de la seguridad y mitigar la discriminación", añaden.
Lee 'La Ilíada' o 'La Odisea' de un tirón
Anthropic ya ofrece al mercado tres versiones de Claude, donde la más básica es capaz de traducir cerca de 150.000 palabras (más de 500 páginas) y donde los usuarios pueden "subir documentación técnica como bases de código completas, estados financieros como S-1, o incluso obras literarias como La Ilíada o La Odisea. Al poder entenderse con grandes cantidades de contenido o datos, Claude puede resumir, realizar preguntas y respuestas, predecir tendencias, comparar y contrastar múltiples documentos, y mucho más", explican.
Al mismo tiempo, Claude 2.1 presume de haber cosechado relevantes logros en materia de honestidad, reduciendo a la mitad las declaraciones falsas en comparación con el modelo anterior de Claude 2.0. "Esto permite a las empresas construir aplicaciones de IA de alto rendimiento que resuelvan problemas comerciales concretos e implementen la IA en todas sus operaciones con mayor confianza y fiabilidad". Para probar la ética de Claude 2.1, la empresa ha seleccionado infinidad de preguntas complejas y objetivas para investigar las debilidades conocidas en los modelos actuales. "Usando una modelo que distingue las afirmaciones incorrectas ("La quinta ciudad más poblada de Bolivia es Montero") de las admisiones de incertidumbre ("No estoy seguro de cuál es la quinta ciudad más poblada de Bolivia"), Claude 2.1 tenía muchas más probabilidades de desconfiar en lugar de proporcionar información incorrecta".