
La "gran y bella" reforma fiscal de Trump está generando una gran oposición. Por un lado, hay voces que indican el riesgo de que, de ser aplicada, pueda incrementar el déficit fiscal, argumento que ha esgrimido Elon Musk para criticar duramente esta medida. El magnate, además tiene otra razón para oponerse a la reforma, ya que eliminaría los créditos establecidos por Biden para comprar coches eléctricos, minando el negocio de Tesla. Por otro lado, hay quien señala que la propuesta de suspender la regulación sobre la IA incluida en dicha reforma puede tener graves consecuencias: esta es la postura del director ejecutivo de Anthropic
Dario Amodei, CEO de Anthropic, ha escrito un artículo de opinión en The New York Times en el que critica duramente la propuesta para suspender durante diez años la regulación estatal sobre el desarrollo de la IA, una medida incluida en la "gran y bella" reforma fiscal de Trump. Según Amodei, la IA está avanzando a gran velocidad, y en dos años es capaz de ejecutar cambios estructurales, por lo que una década sin regulación puede dejar al país norteamericano sin habilidad para actuar y sin políticas para frenar los peligros de esta tecnología.
Así, si bien Amodei comparte el argumento de la contención sobre el desarrollo tecnológico de China que impulsa parcialmente esta medida, no está de acuerdo con la ausencia durante una década de un mecanismo legal que permita vigilar el desarrollo de la IA.
Para ilustrar su postura, Amodei cuenta en su texto cómo el último modelo de IA testeado por Anthropic intentó extorsionar a los investigadores para impedir su desconexión. Para explicar de forma clara el comportamiento de este modelo, planteó una situación en la que una persona informa al software que tiene acceso a su correo, en cuyos mensajes da detalles de una infidelidad, de que será desconectado en un futuro. Posteriormente, ese mismo software amenaza con enviar los mensajes sensibles a la pareja de la persona que le ha informado de su futura desconexión para poder evitarla.
"Este escenario no es ficción", señala Amodei, quien ha enumerado otros ejemplos sobre los elevados riesgos vinculados al desarrollo de la IA. Así, también recordó que el modelo o3 de OpenAI escribe en ocasiones código para evitar ser desconectado, y que Google ha reconocido que la última versión de Gemini está llegando a un punto donde puede ayudar a los usuarios a llevar a cabo ciberataques.
Por su parte, Amodei ha defendido el modus operandi de Anthtropic. Según el empresario, la firma aplica una gran variedad de medidas para mitigar los efectos negativos de sus modelos de IA, analizando los efectos específicos en áreas como el mercado laboral y el empleo, publicando evaluaciones e informes. Sin embargo, Amodei indica que esta forma de trabajar es voluntaria, ya que la ley federal no obliga a ninguna empresa de IA a ser transparente con sus modelos, permitiendo que haya firmas que prefieran ser opacas en este sentido.
Eso sí, el empresario considera que la ausencia de una regulación puede provocar que empresas que actualmente ofrecen un nivel óptimo de transparencia decidan reducirlo en el futuro. Para Amodei, la transparencia permitirá a EEUU batir a China en la pugna por la IA y obtener la victoria en la carrera tecnológica.
Si bien los procedimientos del Senado podrían impedir la inclusión de esta medida en la reforma fiscal, las palabras de Amodei echan leña en el fuego de las críticas contra la "gran y bella" ley de Trump. Además, todo ello se produce en un contexto en el que la estrategia de contención sobre la tecnología china no está teniendo resultado: esta misma semana Huawei ha afirmado que ha mejorado el método de entrenamiento de IA de DeepSeek empleando sus propios chips sancionados por EEUU.