La celebración de una audiencia en el Congreso de Estados Unidos sobre la propagación del nacionalismo blanco en redes sociales ilustra el problema que enfrenta Silicon Valley, luego de que usuarios anónimos publicaran en YouTube duros ataques con temática de raza y religión.

La audiencia, celebrada el pasado martes por el Comité Judicial de la Cámara de Representantes, se transmitió en vivo en el sitio de videos propiedad de Google. En tiempo real, el chat mostró publicaciones antisemitas de varios usuarios que intentaban argumentar que el nacionalismo blanco no es una forma de racismo.

“Estos judíos quieren destruir a todas las naciones blancas”, escribió el usuario Celtic Pride.

“Antiodio es una palabra clave para antiblanco”, escribió otro, llamado Fight White Genocide.

Al presentarse ante el comité, Alexandria Walden, la abogada especialista en libertad de expresión y los derechos humanos en Google, destacó que el gigante de la tecnología ha invertido en personas y tecnología para eliminar el contenido que incita y/o propaga el odio violento.

“Sabemos que las mismas plataformas que han habilitado estos beneficios sociales pueden ser objeto de abuso”, dijo.

Sin embargo, cuando la abogada se encontraba exponiendo el tema, YouTube cortó la transmisión de los mensajes: “Comentarios desactivados en la transmisión en vivo”, debido a la cantidad de comentarios de odio que estaba generando la transmisión, confirmó la propia compañía.

Fueron legisladores demócratas quienes convocaron la audiencia con la clara intención de explorar la propagación del discurso de odio y el auge de los movimientos de supremacía blanca en Estados Unidos, que el presidente del panel, Jerry Nadler, describió como una “crisis urgente en nuestro país”.

El nacionalismo blanco ha potenciado y motivado muchos de los ataques que mayor alcance mortal que han ocurrido en el mundo durante los últimos años, incluidos la manifestación neonazi en Charlottesville, Virginia, en el 2017, el ataque a una sinagoga de Pittsburgh el año pasado, y el tiroteo en dos mezquitas en Nueva Zelanda el mes pasado.

Odio vitriólico

En muchos casos, dijo Nadler, las redes sociales sirvieron como “conductos para difundir mensajes de odio vitriólico a todos los hogares”, y agregó que “el Congreso en los últimos años tampoco ha tomado en serio la amenaza”.

Durante la audiencia, defensores de derechos civiles instaron a los legisladores a que, en respuesta, consideren y adopten nuevas regulaciones en contra de gigantes de las redes sociales, siguiendo los pasos de otros países que han responsabilizado a Facebook, Google y otras empresas por el contenido perjudicial publicado en sus plataformas.

“En lugar de esconderse debajo de las capillas, ahora se organizan en pantallas de computadora”, expresó sobre el ascenso de los supremacistas blancos Kristen Clarke, presidenta del Comité de Abogados por la Igualdad de Derechos.

Quienes mostraron críticas a los demócratas por haber organizado la audiencia fueron los testigos invitados a declarar por parte de los republicanos. Candace Owens, una prominente aliada conservadora y pública de Trump, abrió la audiencia señalando que se trataba de un evento de alarma, que forma parte de la estrategia electoral con miras a las elecciones presidenciales del 2020.

“Ellos culpan a Facebook, culpan a Google, culpan a Twitter, realmente (los demócratas) culpan al nacimiento de las redes sociales”, comentó.

La audiencia del martes se produce pocas semanas después del ataque a dos mezquitas en Christchurch, Nueva Zelanda, que fue emitido a través de las redes.

La masacre se transmitió en Facebook, mientras que los usuarios de un foro web anónimo, llamado 8chan, idearon formas de retransmitirlo a las principales plataformas tecnológicas de una manera que sorteara las llaves de control.

Facebook y Google prometieron que van a reforzar sus áreas de control de contenido polémico, y para ello invertirán en herramientas de inteligencia artificial que puedan detectar y eliminar publicaciones y videos problemáticos antes de que se vuelvan virales.

“El odio puede tomar muchas formas más allá del terrorismo, y ninguna de ellas está permitida en nuestra plataforma”, dijo Neil Potts, director de Políticas Públicas de Facebook.

Mítines virtuales

La Liga Antidifamación, que también compareció el martes en el Congreso, estimó que los supremacistas blancos habían sido responsables de las tres cuartas partes de todos los asesinatos extremistas domésticos ocurridos en el 2019.

“Estas plataformas son como mítines de supremacistas digitales las 24 horas del día”, dijo Eileen Hershenov, vicepresidente sénior de Política de la organización.

En realidad, desde hace años las redes sociales como Facebook, Google y YouTube se han visto envueltas en controversias sobre los contenidos nacionalistas y racistas que exponen. Inicialmente las compañías decían que tenían que respetar la libertad de expresión y que no podían ser editores de contenidos, hasta que sus usuarios se quejaron por la cantidad de mensajes odiosos en sus pantallas.

En el 2017, tras la mortífera marcha de supremacistas blancos en Charlottesville, Virginia, las empresas tecnológicas empezaron a excluir a grupos o individuos extremistas que propaguen puntos de vista extremistas o que apoyen la violencia.

En marzo, Facebook amplió la prohibición para abarcar a los nacionalistas blancos, además de los supremacistas, una distinción que grupos de derechos humanos hace tiempo denunciaban como falsa.

A pesar de la prohibición, al menos para la noche del lunes, todavía existían cuentas con nombres como Aryan Pride (“orgullo ario”).

En esa página de Facebook se lee: “Si usted no es de raza blanca, váyase a otra página porque yo no soy amigo suyo”.