Opinión

IA ética: nuestra responsabilidad en la Era Digital

Representación de Inteligencia Artificial. iStock

Vivimos una era de rápida evolución en el ámbito de la Inteligencia Artificial (IA), impulsada por la innovación. Pese a su expansión en los últimos años, el grado de regulación no avanza con la misma rapidez, dando lugar a ambigüedades legales y desafíos para cualquier organización en términos de cumplimiento normativo.

Sin una regulación adecuada, los sistemas corren el riesgo de ser inexactos y sesgados. Además, esto permite que las personas detrás de esta tecnología puedan eludir la responsabilidad de los posibles problemas derivados de su actividad. A menudo la supervisión de la IA se deja en manos de las empresas que crean estos sistemas, quienes, guiados por sus intereses económicos, tienen menos incentivos para invertir en medidas de seguridad y garantizar la calidad y la imparcialidad de sus datos.

Ante este panorama, diversas organizaciones y países se esfuerzan por construir una normativa más robusta. Así, el Gobierno de España y la Comisión Europea han anunciado oficialmente que España será el primer país que implemente el Reglamento de Inteligencia Artificial de la Unión Europea (UE), que se prevé que entre en vigor en enero de 2024. No obstante, habrá una moratoria de dos años para el resto de los países europeos, lo que en el ámbito comunitario podría dejar lagunas que suponen una amenaza para los derechos fundamentales de las personas expuestas a la IA.

Un ejemplo de uso de la IA son los procesos de selección de personal, donde habría que asegurar que la selección del candidato no se vea condicionada por prejuicios de género y raza. Nueva York ya cuenta con una Ley que estipula que los programas informáticos de contratación basados en IA deben superar una auditoría externa para demostrar que están limpios de sesgos racistas o sexistas.

Dentro de este contexto social, las organizaciones tienen el deber y la responsabilidad de actuar como instrumentos de control. Deben trabajar en la creación de un órgano de gobierno especializado en esta tecnología, que garantice el cumplimiento de los principios de la IA responsable. Por ello, una compañía que utilice esta tecnología de manera consciente debe contar con un comité de expertos que contribuya a definir los pasos que se han de seguir en un proyecto que involucre IA, garantizando la responsabilidad en todo su ciclo de vida.

Es fundamental la creación de políticas y metodologías de trabajo específicas que permitan analizar y prevenir los potenciales riesgos y/o consecuencias perjudiciales. La IA responsable debe ser robusta tanto desde el punto de vista técnico como social, ya que estos sistemas, aunque estén diseñados con buenas intenciones, pueden provocar daños accidentales.

Por ello, los sistemas de IA responsables deben integrar la autonomía y el juicio humano en su proceso de toma de decisiones. Las organizaciones deben asegurar un mínimo de intervención humana en las decisiones automatizadas de los sistemas de IA, garantizando así elecciones éticas, no discriminatorias y respetuosas de los derechos y libertades de las personas cuya información se procesa.

En los avances legislativos realizados hasta el momento, la transparencia se erige como el principio central de la IA responsable. Para que un sistema sea transparente debe disponer de trazabilidad, es decir, las decisiones automatizadas deben quedar registradas con la finalidad de poder identificar los motivos de un posible error, y así poder prevenirlos. Del mismo modo, todas las decisiones que tome una tecnología responsable deben ser comprensibles para los seres humanos, y, además, esta información debe ser compartida por parte de las instituciones con todas las personas que interactúen con dichos sistemas.

En esta era de transformación impulsada por la IA, donde las organizaciones buscan avanzar mediante la innovación, es necesario que tomemos medidas concretas. Debemos establecer un sólido marco ético y desempeñar un papel activo no solo en la implementación de principios internos, sino también en la concientización pública sobre los riesgos de esta tecnología. Solo con una IA ética y regulada podremos garantizar un futuro digital que beneficie a todos y respete nuestros derechos fundamentales.

WhatsAppTwitterTwitterLinkedinBeloudBeloud