Las fake news y la difusión de opiniones que faltan a la verdad es uno de los problemas que acechan a las democracias de hoy. Así, gigantes tecnológicos como Facebook o Twitter se han comprometido a combatir la desinformación y las falsedades. Y como ejemplo están el cierre de la cuenta de Twitter de Donald Trump por justificar el asalto al Capitolo o la de Vox por incitación al odio en las últimas elecciones catalanas. Adobe, Arm, BBC, Intel, Microsoft y Truepi son los últimos gigantes tecnológicos y de la información en comenzar una lucha seria contra la desinformación y fraude del contenido online.
Estas compañías firmaron la semana pasada un acuerdo para formar la 'Coalición para la Procedencia y la Autenticidad del Contenido' (C2PA), un proyecto de la Fundación de Desarrollo Conjunto que tiene como objetivo desarrollar especificaciones de procedencia de contenido que permitan a los editores, creadores y consumidores rastrear el origen y la evolución de un medio, incluidas imágenes, videos, audio y documentos. "Estas especificaciones técnicas incluirán la definición de qué información está asociada con cada tipo de activo, cómo se presenta y almacena esa información y cómo se puede identificar la evidencia de manipulación", explica la compañía fundada por Bill Gates en comunicado.
La formación de la C2PA tiene como punto de partida la Iniciativa de Autenticidad de Contenido (CAI), creada por Adobe. Y el Proyecto Origen, de Microsoft y BBC, que está construyendo un sistema para proporcionar la procedencia y el historial de los medios digitales, brindando a los creadores una herramienta para reclamar la autoría y capacitando a los consumidores para evaluar si lo que ven es confiable. Con la creación de C2PA, el nuevo ente pretende promover la unificación de los estándares técnicos. "El diseño de estándares y tecnologías que puedan certificar la fuente y procedencia del contenido online es un importante paso adelante para abordar las crecientes preocupaciones con la manipulación y fabricación de noticias e información", explica Microsoft.
Eric Horvitz, miembro técnico y director científico de Microsoft, expone a través de un comunicado de la compañía que fue en el Foro Económico Mundial de Davos de 2019 cuando comenzó la idea de crear un sistema de lucha contra la desinformación. Sucedió en una reunión con una agencia de noticias en la que se revisaron varios vídeos realizados con la tecnología deepfake y se llegó a la conclusión de cómo la inteligencia artificial se puede aprovechar para generar representaciones persuasivas y realistas de líderes políticos diciendo cosas que no habían dicho.