Tecnología

"Una ola de bulos va a llegar a WhatsApp en Instagram": Meta cambia su sistema anti-desinformación

¿Qué sucede cuando un gigante tecnológico decide dejar en manos de sus usuarios la lucha contra la desinformación? Meta está a punto de probarlo. Hasta ahora, las informaciones sospechosas de difundir bulos en Instagram, Facebook, WhatsApp o Threads, las redes sociales y servicios de la compañía de Mark Zuckerberg, eran revisados por entidades internacionales auspiciadas por la International Fact-Checking Network (IFCN) que "identifican, revisan y califican la información errónea que se divulga" en plataformas.

Desde ahora, no será así (de momento, en Estados Unidos) donde ahora serán los usuarios quienes puedan añadir notas para dar contexto a publicaciones sospechosas. Un sistema idéntico al de X, la antigua Twitter, y que no ha dejado de generar problemas.

¿Pero a qué responde todo esto? Zuckerberg anunció el cambio en un vídeo de apariencia improvisada donde aludía a dar poder a los usuarios, pero varias voces han señalado ya presiones y han visto el movimiento como una pleitesía hacia la futura organización de Donald Trump.

El sistema actual estaba en vigor desde 2016, cuando Meta fue criticada por la difusión de desinformación en sus plataformas durante la campaña electoral estadounidense.

Cómo funcionará el nuevo sistema y por qué muchos lo ven lleno de riesgos

La polarización, los bulos virales y la manipulación informativa se han convertido en una constante en las redes sociales. Ahora, al optar por un sistema "colaborativo" similar al que emplea X, Meta se expone a un futuro incierto.

En el vídeo publicado por Mark Zuckerberg, el CEO de Meta justificó la medida como un esfuerzo por defender la libertad de expresión, criticando a los verificadores de datos por ser "demasiado politizados". Sin embargo, para expertos como Angie Drobnic Holan, directora de la International Fact-Checking Network (IFCN), esta decisión representa un duro golpe para los usuarios: "El programa reducía la viralidad de contenidos engañosos y teorías conspirativas. Ahora, la desinformación será mucho más difícil de evitar".

Bajo el anterior programa, Meta colaboraba con verificadores certificados por el IFCN, quienes evaluaban la precisión de contenidos virales y alertaban a los usuarios sobre posibles falsedades. Aunque la decisión final sobre la retirada o limitación de publicaciones recaía en Meta, este proceso funcionaba como un "freno" a la desinformación, según Holan.

¿Por qué Meta da este giro?

Analistas señalan que el cambio podría estar relacionado con la reciente elección de Donald Trump como presidente de los Estados Unidos y la llegada de figuras próximas a él a puestos clave en Meta. Desde el nombramiento de Joel Kaplan, un destacado lobista republicano, hasta la incorporación de Dana White (directo de la UFC) al consejo de administración, la dirección parece buscar una sintonía política que podría beneficiar al expresidente.

Trump, por su parte, ha elogiado el cambio, sugiriendo que responde a sus amenazas previas contra la compañía. Este contexto político alimenta la sospecha de que la eliminación del programa de verificación responde más a intereses estratégicos que a un compromiso con la libertad de expresión.

Las consecuencias que muchos prevén: más odio y desinformación online

Organizaciones como el Centro para Contrarrestar el Odio Digital (CCDH) y la Unión de Científicos Preocupados han advertido sobre el impacto potencial de esta decisión. "Meta está abriendo la puerta a una proliferación descontrolada de contenidos dañinos, que ya sabemos que tienen consecuencias reales en la vida offline", afirma Imran Ahmed, CEO del CCDH.

Entre los mayores temores está el aumento de la desinformación sobre temas cruciales como el cambio climático, la salud pública o los derechos de las comunidades marginadas. Nicole Sugerman, de la organización Kairos, señala al portal The Verge que esta medida podría facilitar ataques contra comunidades vulnerables, como las personas trans, inmigrantes o racializadas.

Inspirados en Musk: el modelo "Community Notes"

Meta no es la primera empresa en delegar en los usuarios la tarea de moderar contenido. Twitter, ahora X, implementó su sistema de "Community Notes" bajo la dirección de Elon Musk. Sin embargo, este modelo ha sido criticado por su ineficacia y por permitir un aumento significativo del discurso de odio tras los recortes en los equipos de moderación.

El paralelismo con Meta es evidente. Al adoptar un enfoque similar, la compañía de Zuckerberg podría enfrentar problemas similares, incluyendo una mayor polarización y un debilitamiento de la confianza en sus plataformas.

En un ecosistema digital donde la verdad parece cada vez más relativa, el abandono de la verificación de hechos por parte de Meta plantea una pregunta en el aire: ¿pueden las redes sociales eludir su responsabilidad en la propagación de desinformación? Este movimiento, aunque justificado en nombre de la libertad de expresión, parece más un intento de satisfacer intereses políticos que una verdadera mejora para los usuarios.

Las consecuencias están por verse, pero los expertos coinciden en que podrían ser devastadoras, no solo para la calidad del debate en internet, sino también para la cohesión social y la seguridad en el mundo real.

WhatsAppFacebookFacebookTwitterTwitterLinkedinLinkedinBeloudBeloudBluesky