A medida que la Inteligencia Artificial (IA) redefine la identidad del cliente, existe una lucha entre la IA predictiva, la IA generativa y los estafadores que se aprovechan de ambas. ¿Quién controlará el futuro de la identidad del cliente? En este artículo, Mickey Boodaei, CEO y cofundador de Transmit Security, explora cómo la IA está revolucionando la verificación de identidad, la detección de fraude y la autenticación, creando simultáneamente oportunidades y nuevas amenazas.
Mickey Boodaei, emprendedor en serie y reconocido experto en el campo de la ciberseguridad con más de 30 años de experiencia, es el director ejecutivo y cofundador de Transmit Security. Esta empresa líder ofrece soluciones para la prevención del fraude y la protección de la identidad de los clientes para grandes empresas. Boodaei también ha fundado y dirigido otras empresas de ciberseguridad de éxito, como Imperva y Trusteer.
Informes recientes indican una creciente preocupación entre las instituciones financieras con respecto a las ciberamenazas impulsadas por la IA. Una encuesta realizada por Accenture a principios de este año reveló que el 80% de los ejecutivos de ciberseguridad en el sector financiero sienten que no pueden seguir el ritmo de los ciberdelincuentes impulsados por la IA, a pesar de importantes inversiones en infraestructura de ciberseguridad. Además, las empresas han experimentado pérdidas financieras sustanciales debido a estafas deepfake, lo que pone de relieve la creciente sofisticación del fraude basado en IA.
"En mis 30 años en ciberseguridad, nunca he visto una tecnología que pueda brindar a los estafadores y ciberdelincuentes una ventaja tan enorme sobre las empresas como lo hace la IA generativa"
A medida que mejoran las herramientas de IA generativa, los ataques de phishing se vuelven hiperpersonalizados y casi indistinguibles de las comunicaciones legítimas, gracias a la capacidad de la IA para analizar e imitar el comportamiento individual. Los bots de inteligencia artificial pueden extraer información personal de perfiles de redes sociales para crear mensajes de phishing personalizados que parecen provenir de amigos o colegas. Los ciberdelincuentes están comenzando a implementar IA para llevar a cabo campañas de phishing automatizadas a gran escala que se adaptan en tiempo real en función de las respuestas de los usuarios, lo que aumenta sus tasas de éxito.
Además de eso, las tecnologías deepfake se están volviendo tan avanzadas y accesibles que los estafadores las utilizan habitualmente para hacerse pasar por otras personas, lo que genera un aumento de los delitos relacionados con la identidad. Los ciberdelincuentes realizan videollamadas en vivo utilizando avatares generados por inteligencia artificial que imitan a personas reales, engañando a las víctimas para que divulguen información confidencial o autoricen transacciones. Por ejemplo, un senador estadounidense fue blanco de una suplantación de identidad generada por IA en una sofisticada operación de deepfake. Los estafadores están empezando a clonar voces para eludir los sistemas de autenticación de voz, lo que dificulta distinguir entre comunicaciones legítimas y fraudulentas.
La única forma que tienen las empresas de luchar contra los ataques basados en IA es mediante la adopción masiva de herramientas de prevención de fraude y ciberseguridad basadas en IA. Sin embargo, cuando se trata de tecnologías de protección, entra en juego un tipo diferente de IA: la IA predictiva.
La IA predictiva desempeña un papel fundamental en la protección de los sistemas contra posibles amenazas. A diferencia de la IA generativa, que crea contenido, la IA predictiva analiza grandes conjuntos de datos para identificar patrones y anomalías indicativos de actividades maliciosas. Al aprender de los datos históricos, puede pronosticar fraudes potenciales y permitir defensas proactivas.
Por ejemplo, empresas como Transmit Security están utilizando IA predictiva para:
Para mantenerse a la vanguardia en la guerra de identidad de la IA, las empresas deben reconocer que la mejor defensa contra los ataques impulsados por la IA generativa es la propia IA, específicamente, las tecnologías avanzadas de IA predictiva que ya se utilizan en la prevención del fraude y la verificación de identidad. Estos modelos de IA pueden detectar intentos de deepfake, señalar identidades sintéticas y analizar patrones de comportamiento para diferenciar usuarios legítimos de impostores generados por IA. Sin embargo, para ser verdaderamente efectivas, estas tecnologías deben ir más allá de los equipos de prevención de fraude. Las empresas deben adoptar una protección de identidad basada en IA tanto en las aplicaciones orientadas al cliente como en los sistemas de fuerza laboral, garantizando que tanto los usuarios externos como los empleados internos estén protegidos contra el fraude, la suplantación y la apropiación de cuentas mediante IA. Al incorporar estas medidas de seguridad impulsadas por la IA en los flujos de autenticación, los procesos de onboarding y la gestión de acceso, las empresas pueden defenderse proactivamente contra la próxima generación de amenazas de la IA antes de que lleguen a los sistemas críticos.
Estos y otros desafíos relacionados con la IA se debatirán el 26 de marzo en el II AI & Cyber Security Forum organizado por ISMS Forum en el que participará Mickey Boodaei para abordar las ideas propuestas.
Producido por EcoBrands