Vicepresidenta de ISACA Barcelona, y CEO y fundadora de OptimumTIC

Llevamos años escuchando con preocupación problemas como la brecha en el sector STEM, la falta de talento femenino en posiciones tech, incluso las altas tasas de abandono de las estudiantes en carreras científico-técnicas. La conclusión evidente es que sigue suponiendo un mayúsculo desafío para la mujer hacerse un hueco en estos sectores. Sin embargo, también vivimos en una época en la que diariamente se producen hitos y avances en materia de equidad de género en las empresas. Por eso, yo me pregunto: ¿cómo es posible que la mujer siga estando un 87% subrepresentada en el campo de la ciberseguridad?

Opinión

Uno de los aspectos más destacados del AI Act es su enfoque basado en el riesgo para la regulación de los sistemas de IA. Clasificar estos sistemas en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo, proporciona un marco claro y adaptable que puede evolucionar con los avances tecnológicos. Este enfoque permite que la regulación sea proporcionada y específica, evitando el tipo de normativa única que a menudo resulta ineficaz y sobrecargada. Por ejemplo, los sistemas de IA clasificados como de «riesgo inaceptable» están prohibidos. Esta categoría incluye aplicaciones que se consideran peligrosas para los derechos y libertades fundamentales, como ciertas formas de vigilancia masiva y manipulación subliminal. Prohibir estas aplicaciones no solo protege a los ciudadanos de posibles abusos, sino que también establece un precedente ético sobre los límites de la tecnología.

Últimos artículos de Opinión