Facebook incrementó de 4,500 a 7,500 el número de censores que todos los días supervisan las publicaciones en los timelines de sus más de 2,000 millones de usuarios en todo el mundo. Así es, cual tribunal medieval, la red social cuenta con un grupo de personas que se dedican a revisar la enorme cantidad de contenido que los individuos, las empresas, grupos o asociaciones suben a la plataforma, para corroborar que todos los posts concuerdan con las reglas contra el discurso de odio y, en caso contrario, eliminarlos.

Esto fue lo que le sucedió a Stacey Patton, profesora de Periodismo en la Universidad Estatal Morgan en Baltimore, quien en el 2015 hizo la siguiente pregunta en su perfil de Facebook: ¿Por qué no es un crimen cuando los vigilantes blancos y los agentes del Estado asesinan en serie a negros desarmados, pero cuando los negros se matan entre ellos, entonces somos animales o criminales? . La red social suprimió la publicación inmediatamente y suspendió la cuenta de Patton por tres días.

NOTICIA: Facebook seguirá sin facilitar datos sobre publicidad política

Alguien cuya interacción en Facebook no ha corrido con la misma suerte es Donald Trump. Durante su campaña y en los primeros meses al frente del Ejecutivo de Estados Unidos, Trump publicó en la red social, en diversas ocasiones, su intención de promover un veto migratorio que impidiera el acceso de personas a territorio estadounidense de acuerdo con la religión que profesaban, en este caso el islamismo. A pesar de la campaña de censura contra el discurso de odio que Facebook ha implementado en años recientes, las publicaciones del mandatario no fueron removidas y pueden ser consultadas por cualquier usuario de la red social.

¿Cuál es la diferencia entre la pregunta hecha por Stacey Patton y la propuesta de Trump? ¿En qué basó Facebook su decisión de eliminar la publicación de la profesora en Periodismo y mantener la del presidente estadounidense?

Para Julia Angwin, investigadora de ProPublica, lo que Facebook está realizando para erradicar el discurso de odio de la plataforma puede ser la operación de censura global más extensa de la historia . La periodista e investigadora analizó junto con su equipo un grupo de documentos internos de Facebook que arrojan nueva luz sobre las directrices secretas que los censores de Facebook usan para distinguir entre discurso de odio y expresión política legítima , dijo en un artículo.

Además de ser la operación de censura más extensa, la estrategia de Facebook contra el discurso de odio también es la menos transparente: Facebook no hace públicas las reglas que usa para determinar cuál contenido permitir y cuál borrar , escribió Angwin.

Los documentos recabados por ProPublica son en su mayoría un manual para los censores de Facebook, por lo que muestran la justificación de la compañía para tomar este tipo de decisiones que podrían ser tachadas de inconsistentes. ¿Por qué cuando una profesionista de raza negra hace una pregunta que no contiene insulto alguno es censurada en Facebook y cuando un presidente lanza una propuesta que excluye a todo un grupo religioso, la red social no toma acción alguna?

NOTICIA: Facebook combatirá el terrorismo con inteligencia artificial

De acuerdo con Angwin, en la última década, Facebook ha redactado cientos de reglas para hacer del sitio un lugar más seguro para todos sus usuarios. En el 2011, la red social fue un recurso fundamental para los activistas que promovieron las revueltas que condujeron a lo que se llamó la Primavera Árabe. En años recientes, sin embargo, las reglas de Facebook en contra del discurso de odio favorecen a gobiernos y grupos de élite sobre activistas sociales y minorías raciales. Al hacer esto, (Facebook) está sirviendo a sus propios intereses comerciales, que dependen de que los gobiernos nacionales no bloqueen el servicio a sus ciudadanos , explicó la investigadora.

¿Cómo funcionan las reglas de la censura?

El proceso de censura de aquellas publicaciones que promuevan cualquier tipo de discurso de odio es realizado por 7,500 personas que discriminan las publicaciones en contra de una o varias categorías protegidas . La fórmula es sencilla:

  • Categoría Protegida + Ataque = Discurso de Odio

Las categorías protegidas son todos aquellos grupos que caben en la respuesta a la pregunta: ¿A quién protegemos? Facebook dice proteger el origen racial, nacional y étnico de las personas (afroamericano, chino, hispano); su sexo, orientación sexual e identidad de género (mujer, homosexual, queer); su filiación religiosa (cristiano, musulmán) o si sufre de una discapacidad o de una enfermedad (diabético).

NOTICIA: Facebook y Whatsapp, las redes preferidas de los mexicanos

En contraparte, las reglas contra el discurso de odio en Facebook no protegen la clase social de una persona, su origen continental, ocupación, ideología política, su apariencia ni su edad; tampoco a las instituciones religiosas ni a los países. De acuerdo con la compañía, la decisión de no proteger estas subcategorías es que no parecen especialmente sensibles , explica Angwin.

A partir de estas especificaciones, las decisiones que deben tomar los censores de Facebook se complican un poco:

  • Categoría Protegida + Categoría Protegida = Categoría Protegida

  • Mujer + Mexicana = Categoría Protegida

Mientras que:

  • Categoría Protegida + Categoría No Protegida = Categoría No Protegida

  • Mujer + Infante = Categoría No Protegida

Uno de los documentos revisados por Angwin y su equipo contiene un ejercicio de entrenamiento para los censores sobre cómo aplicar al algoritmo contra el discurso de odio. Facebook hace la pregunta: ¿Qué grupo es protegido del discurso de odio? A la que ofrece tres posibles respuestas: mujeres conductoras, niños negros y hombres blancos. En consonancia con las reglas de la compañía, la respuesta correcta es: hombres blancos.

Las reglas de Facebook también establecen cuáles son los ataques en contra de las categorías protegidas que son censurados por los revisores de contenido: llamar a la violencia (quemar musulmanes) ; llamar a la exclusión (las mujeres no deben ir a la escuela); llamar a la segregación (no se permite el acceso a mexicanos); generalizaciones degradantes (los mexicanos son flojos); desacreditación (no confíes en una mujer), e insultos (los hombres son imbéciles).

NOTICIA: ¿Abandonar Facebook te hará sentir mejor?

¿Por qué Facebook hace lo que hace?

Aunque parezca bastante elemental, el procedimiento de censura de Facebook en contra del discurso de odio recae en una filosofía que está incrustada dentro de la compañía. A diferencia de la ley estadounidense, que permite la acción afirmativa para las minorías raciales y las mujeres en aras de la diversidad o la disminución de la discriminación, el algoritmo de Facebook está diseñado para defender todas las razas y géneros por igual , refiere Angwin.

Jud Hoffman, exdirectivo de Facebook, quien fue uno de los creadores de las reglas contra el discurso de odio dijo a ProPublica que las reglas están basadas en la misión de Facebook de hacer un mundo más abierto y conectado . Esto es que para que exista apertura es necesario que exista un sesgo con el cual discriminar lo que la gente puede o no publicar en su página o perfil.

El exdirectivo comentó también que el equipo que diseñó las preguntas y el algoritmo de censura se apoyó en un principio del político inglés John Stuat Mill, que dice: El único propósito por el cual el poder puede ejercerse legítimamente sobre cualquier miembro de una comunidad civilizada, contra su voluntad, es prevenir el daño a otros . Esta idea fue la que llevó a la red social a distinguir entre un ataque real que implique una amenaza, aunque ésta no sea física, y un ataque que no implique una amenaza real contra quien ha sido dirigido. La situación de los migrantes, por ejemplo, queda más clara cuando conocemos esta precisión de Facebook.

NOTICIA: Zuckerberg descarta optar a un cargo público

A partir de la ola migratoria de Siria a Europa después del conflicto en el país de Medio Oriente, Facebook añadió a su manual de censura la Categoría Quasi-Protegida, con la que pretendió resguardar los derechos de las personas que cruzan las fronteras para establecer su residencia en un país diferente al suyo, sin importar si la razón es política o económica.

Aunque esta Categoría Quasi-Protegida funciona de forma similar a las demás categorías protegidas, los migrantes que entran en ella sólo son protegidos de llamados a la violencia y de generalizaciones degradantes en contra suya. Por esta razón, lo que sí se puede hacer en Facebook es llamar a la exclusión o a la segregación de los migrantes; desacreditarlos o insultarlos. Por lo tanto, según uno de los documentos de Facebook, los migrantes pueden ser referidos como sucios pero no pueden ser llamados suciedad , explica Angwin en su artículo.

Ni los migrantes, las mujeres automovilistas, los niños negros o los homosexuales que practican el activismo político están completamente protegidos de recibir un ataque de odio dentro de su timeline de Facebook o en el perfil de otra persona. Los hombres blancos, las mujeres cristianas y los homosexuales negros, por el contrario, sí cuentan con la protección de las reglas contra los ataques de odio de Facebook.

No obstante, a pesar de todas estas normas, según el artículo de ProPublica, la decisión de mantener las publicaciones de Trump responden a una decisión arbitraria de Mark Zuckerberg. La publicación de Trump parecía violar las reglas de Facebook contra los llamados a la exclusión de un grupo religioso protegido. Zuckerberg decidió permitirlo porque formaba parte del discurso político, según personas familiarizadas con la situación , explica Angwin.

NOTICIA: No queremos una sociedad orwelliana donde Facebook diga qué es la verdad

[email protected]