Respuesta de la EFF al Anuncio de Meta sobre la Revisión de sus Procesos de Moderación de Contenido

María MR

Recientes movimientos por parte de Meta han despertado un intenso debate sobre la libertad de expresión en las plataformas digitales, especialmente en lo que respecta a la moderación de contenido. La Electronic Frontier Foundation (EFF) ha aplaudido la decisión de la compañía de reconocer los fallos que han surgido debido a la automatización y los sistemas de respuesta rápida implementados en su proceso de moderación. Sin embargo, también han emergido serias preocupaciones acerca de las restricciones que han llevado a una censura contundente del contenido LGBTQ+, lo que genera escepticismo sobre la equidad de los cambios propuestos, que parecen enfocarse más en la política estadounidense que en otros tipos de contenido.

La EFF sostiene que la censura no debe ser la respuesta a la desinformación y enfatiza la necesidad de que las plataformas sociales introduzcan herramientas que no impliquen censura para abordar los discursos problemáticos. Como una de las alternativas, se han propuesto las notas comunitarias, que permiten una verificación de hechos colaborativa y podrían resultar en una respuesta más efectiva. Sin embargo, la organización también ha subrayado la relevancia de contar con verificadores de hechos profesionales, cuya experiencia es esencial, sobre todo en contextos internacionales donde han sido cruciales para desmentir afirmaciones serias, como la negación del genocidio.

A pesar de las posibles modificaciones en el enfoque de Meta para la verificación de hechos, la EFF espera que la compañía incluya estos procesos como herramientas válidas en su arsenal de moderación. La tarea de moderar contenido es excepcionalmente compleja, y Meta debe evaluar sus prácticas considerando otros temas frecuentemente censurados, incluyendo el discurso LGBTQ+, las opiniones disidentes y el trabajo sexual.

Un aspecto adicional de este debate es la reciente decisión de Meta de trasladar su equipo de moderación de contenido a Texas, con el objetivo de reducir las inquietudes sobre un posible sesgo de sus empleados. Sin embargo, muchos críticos opinan que este movimiento es más político que práctico, argumentando que cambiar de ubicación no elimina el sesgo, sino que simplemente lo reubica.

La moderación de contenido a gran escala, ya sea realizada por personas o algoritmos, resulta ser un desafío considerable. Meta ha enfrentado críticas por la sobre moderación de ciertos contenidos en el pasado, lo que ha llevado a la supresión de discursos políticos significativos. A pesar de esto, las normas anteriores también han proporcionado cierta protección contra discursos de odio y desinformación peligrosa que, aunque no sean ilegales en Estados Unidos, pueden representar un riesgo significativo. La EFF celebra los intentos de Meta por corregir sus problemas de sobrecensura, pero mantiene una vigilancia activa sobre la implementación de estas medidas, ansiosa de que no se conviertan simplemente en un gesto político, especialmente ante la posibilidad de una transición en la administración estadounidense.