
Parafraseando la cinematográfica canción de Reg Presley "Love is all around", la inteligencia artificial (IA) está por todas partes y nos afecta a todos, incluidos a los supervisores de los mercados financieros. La ESMA, como autoridad europea de los mercados de valores, en su declaración pública de mayo "On the use of Artificial Intelligence in the provision of retail investment services" anima a los supervisores de los mercados de valores a preparar sus sistemas ante la penetración creciente del uso de herramientas IA.
Las agencias públicas de supervisión se ocupan de velar por la transparencia, la correcta formación de precios, y la protección de los inversores. Deben asegurar la veracidad de la información que llega al mercado sobre emisores, transacciones, y publicidad de servicios financieros; garantizar que los inversores pueden acceder a la misma información (level playing field); así como detectar y perseguir conductas de explotación de información confidencial; y evitar situaciones de abuso o manipulación de mercado. Por un lado, los supervisores encuentran hoy en la capacidad de la AI para reconocer patrones y detectar anomalías un útil aliado para cumplir sus funciones, pero al mismo tiempo enfrentan nuevos desafíos.
La información corporativa que afecta al mercado es amplia (informes trimestrales, lanzamiento de productos, mandatos relevantes, planes de adquisición, fusión o de enajenación de activos, pérdidas o ganancias materiales, etc.) y las compañías cotizadas están obligadas a realizar sus declaraciones al mercado mediante sistemas electrónicos de divulgación. La vigilancia del mercado se centra en monitorizar el impacto de estos eventos corporativos en los mercados. Si se producen movimientos anormales de precios o volúmenes de negociación extraordinarios, la supervisión proporciona evidencia preliminar sobre prácticas ilegales, en su caso, para que pueda iniciarse una investigación en profundidad.
Las conductas de insider trading (uso ilegal de información material no disponible en el mercado) son un delito económico difícil de detectar en tiempo real por la naturaleza compleja, no lineal y no estacionaria del mercado de valores. La identificación de operaciones sospechosas se basa en la clasificación de las transacciones (por tamaño, precio de ejecución, fecha, etc.). Las autoridades investigan las operaciones sospechosas obteniendo pruebas de diversas fuentes, incluidas transacciones, pistas de inversores, testigos, informes de los medios, informantes y consultas informales. El uso de herramientas IA puede resultar muy útil mediante el análisis de series temporales y de datos procedentes de redes sociales, y la reconstrucción de patrones de transacciones financieras sospechosas. Los algoritmos IA permiten detectar y predecir conductas de insider trading de manera proactiva, a partir de grandes fuentes heterogéneas de datos estructurados y no estructurados.
En el ámbito de los delitos de manipulación de mercado, el despliegue de herramientas de inteligencia artificial también tiene su repercusión. Hace tiempo que los programas algorítmicos desplazaron a los operadores humanos como epicentro de los mercados financieros. Con el advenimiento de las herramientas IA, los robots tradicionales basados en reglas preestablecidos han quedado obsoletos. Hoy se instruye a los algoritmos basados en IA en descubrir la mejor estrategia para maximizar la rentabilidad en la negociación. Para ello, reconocen patrones de mercado, aprenden de decisiones anteriores, evalúan dinámicamente nueva información y optimizan soluciones adaptadas a los nuevos datos. Las complejas estrategias de negociación diseñadas responden casi instantáneamente ante cambios en las condiciones del mercado.
Conforme aprenden, los algoritmos IA asignan mayor ponderación a los factores positivamente correlacionados con el retorno y, al igual que los humanos, llegan a "reconocer" el impacto del volumen de negociación en los precios. Como resultado, pueden crear estrategias de compras y ventas simultáneas para crear una apariencia falsa de actividad, engañando a otros participantes del mercado sobre el verdadero nivel de oferta y demanda, o sobre el precio de un activo e influir en sus decisiones. En definitiva, un robot puede aprender a ejecutar estrategias de wash trading (un ejemplo clásico de conducta de manipulación). Dada la capacidad para aprender sin instrucciones explícitas del desarrollador, es difícil para los humanos concluir cómo los algoritmos adoptan las decisiones, incluso si son potencialmente ilegales.
En el trading basado en decisiones autónomas (distinto al trading automatizado basado en reglas), la cuestión es en qué medida el desarrollador del programa es responsable de la posible manipulación del mercado. Una cuestión problemática ya que esta figura legal se refiere a una conducta diseñada para engañar o defraudar a los inversores, lo que implica intención. En el caso de un modelo de IA, puede no haber intervención humana, siendo la decisión exclusivamente atribuible al algoritmo. Además, considerando la capacidad superior de la IA para reconocer patrones, no sólo es concebible que aprendan formas de manipulación clásicas, pero también que sean capaces de inventar otras no evidentes ni reconocibles para los humanos. En la era IA, los conceptos jurídicos establecidos para enfrentar conductas indebidas, asignando responsabilidad a comportamiento de abuso de mercado, están bajo tensión. La AI plantea notables desafíos para la eficacia del marco jurídico y la supervisión.