El enorme reglamento secreto de Facebook para el discurso policial revela inconsistencias, brechas y sesgos
El enorme reglamento secreto de Facebook para el discurso policial revela inconsistencias, brechas y sesgos

El enorme reglamento secreto de Facebook para el discurso policial revela inconsistencias, brechas y sesgos

Facebook está tratando de abordar la desinformación y el odio que su plataforma ha habilitado con un documento masivo, bizantino y secreto de reglas repletas de hojas de cálculo y diapositivas de Power Point que se actualiza regularmente para sus moderadores de contenido global.

Según el exitoso informe del New York Times, las reglas muestran que la red social es «un árbitro del discurso global mucho más poderoso que lo que la propia compañía ha reconocido o reconocido públicamente». The Times descubrió una variedad de brechas, sesgos y errores absolutos, incluidos los casos en los que Facebook permitió que el extremismo se extendiera en algunos condados y censurara el discurso general en otros.

Los detalles del libro de reglas se revelaron el jueves por la noche gracias a un empleado de Facebook que filtró más de 1,400 páginas del libro de reglas de vigilancia del discurso al Times porque «temía que la compañía ejerciera demasiado poder, con poca supervisión, y cometiendo demasiados errores».

La compañía del CEO Mark Zuckerberg está tratando de monitorear miles de millones de publicaciones por día en más de 100 idiomas mientras analiza los matices sutiles y el contexto complicado del idioma, las imágenes e incluso los emojis. El grupo de empleados de Facebook que se reúne cada martes para actualizar las reglas, de acuerdo con el Times, están tratando de reducir los problemas altamente complejos a reglas estrictas de sí o no.

La compañía Menlo Park, California, luego subcontrata la moderación de contenido a otras compañías que tienden a contratar trabajadores no calificados, según el informe del periódico. Los más de 7,500 moderadores «tienen meros segundos para recordar innumerables reglas y aplicarlas a los cientos de publicaciones que aparecen en sus pantallas cada día. ¿Cuándo está una referencia a» jihad «, por ejemplo, prohibida? ¿Cuándo es una» risa que llora «? Emoji una señal de advertencia? »

Algunos moderadores expresaron su frustración ante el Times y lamentaron que las publicaciones dejadas pudieran conducir a la violencia. «Sientes que mataste a alguien al no actuar», dijo uno, hablando de forma anónima porque había firmado un acuerdo de confidencialidad. Los moderadores también revelaron que se enfrentan a la presión de revisar mil piezas de contenido por día, con solo ocho a 10 segundos para juzgar cada publicación.

El sondeo del Times publicó una amplia gama de diapositivas del libro de reglas, que van desde el entendimiento fácil hasta el rasguño de la cabeza, y detallaron numerosos casos en los que las reglas de discurso de Facebook simplemente fallaron. Sus directrices para los Balcanes parecen «peligrosamente desactualizadas», dijo al periódico un experto en esa región. Un erudito legal en la India encontró «errores preocupantes» en las pautas de Facebook que pertenecen a su país.

FACEBOOK GAVE TECH COMPANIES ‘INTRUSIVE’ ACCESO A MENSAJES PRIVADOS Y DATOS PERSONALES

En los Estados Unidos, Facebook ha prohibido a los chicos orgullosos, un grupo de extrema derecha que ha sido acusado de fomentar la violencia en el mundo real. También bloqueó un anuncio sobre la caravana de migrantes centroamericanos emitida por el equipo político del presidente Trump.

«No es nuestro lugar corregir el discurso de la gente, pero sí queremos hacer cumplir los estándares de nuestra comunidad en nuestra plataforma», dijo al diario Sara Su, una ingeniera sénior de News Feed. «Cuando estés en nuestra comunidad, queremos asegurarnos de que estamos equilibrando la libertad de expresión y la seguridad».

Monika Bickert, jefa de administración de políticas globales de Facebook, dijo que el objetivo principal era evitar daños y que, en gran medida, la compañía había tenido éxito. Pero la perfección, dijo, no es posible.

«Tenemos miles de millones de publicaciones todos los días, estamos identificando cada vez más violaciones potenciales utilizando nuestros sistemas técnicos», dijo Bickert al periódico. «En esa escala, incluso si tiene una precisión del 99 por ciento, va a tener muchos errores».

El documento con más consecuencias políticas y potencialmente divisivas de Facebook podría ser una hoja de cálculo de Excel que según los informes del Times enumera a todos los grupos e individuos que la empresa ha calificado como una «figura del odio». Se les dice a los moderadores que eliminen cualquier publicación que elogie, apoye o represente a cualquiera de las personas en esa lista.

Anton Shekhovtsov, experto en grupos de extrema derecha, dijo a la publicación que estaba «confundido acerca de la metodología». La compañía prohíbe una gran variedad de grupos estadounidenses y británicos, agregó, pero relativamente pocos en países donde la extrema derecha puede ser más Violentos, particularmente Rusia o Ucrania.

Aún así, hay inconsistencia en la forma en que Facebook aplica las reglas. En Alemania, donde el discurso en general es más analizado, se dice que Facebook bloquea docenas de grupos de extrema derecha. En la cercana Austria, solo bloquea uno.

Para una compañía tecnológica, dibujar estas líneas es «extremadamente problemático», dijo al Times Jonas Kaiser, un experto de la Universidad de Harvard sobre extremismo en línea. “Pone a las redes sociales en condiciones de hacer juicios.

¿CUÁN SEGURA ES TU APLICACIÓN DE MENSAJERÍA?

Con respecto a cómo Facebook identifica el discurso del odio, el Times informa:

Las pautas para identificar el discurso del odio, un problema que ha afectado a Facebook, se extienden a 200 páginas llenas de jergas y girando la cabeza. Los moderadores deben clasificar una publicación en uno de tres «niveles» de gravedad. Deben tener en cuenta listas como las seis “comparaciones deshumanizantes designadas”, entre ellas la comparación de judíos con ratas.

En junio, se informó que los correos electrónicos internos mostraban que a los moderadores se les había dicho que permitieran a los usuarios elogiar a los talibanes, lo que normalmente está prohibido, si mencionaban la decisión del grupo de entrar en un alto el fuego. En un correo electrónico separado obtenido por el periódico, se les dijo a los moderadores que buscaran y eliminaran los rumores que acusaban erróneamente a un soldado israelí de matar a un médico palestino.

La investigación del Times concluye diciendo que un gran obstáculo para acabar con el discurso inflamatorio es el propio Facebook, que se basa en un algoritmo para impulsar su crecimiento que promueve notoriamente «el contenido más provocativo, a veces del tipo que la compañía dice que quiere suprimir». »

«Mucho de esto sería mucho más fácil si hubiera terceros autorizados que tuvieran la respuesta», dijo al Times Brian Fishman, un experto en contraterrorismo que trabaja con Facebook.

Fishman explicó: «Una de las razones por las que es difícil hablar es porque hay una falta de acuerdo social sobre dónde debería estar este tipo de autoridad».

 

 

http://www.foxnews.com

 

 

Entradas Relacionadas

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.