En tiempos recientes hemos escuchado en forma repetida el término algoritmo. Sea porque son los culpables de facto de cualquier desperfecto que experimentamos en el flujo de nuestras redes sociales, portales de noticias o hasta cuándo una búsqueda en Google arroja resultados inesperados.

Un algoritmo es un proceso computacional que sigue ciertas reglas, realiza ciertos cálculos y busca resolver problemas específicos. Los algoritmos son diseñados por humanos de acuerdo a sus valores e ideología, e inevitablemente llevan en su “subconsciente” (por llamarlo de alguna manera), los mismos prejuicios y tendencias (advertidos o inadvertidos) de sus creadores. Por ello son revisados, auditados y ajustados con frecuencia.

Aunque el cine de Hollywood nos ha vendido la idea de máquinas sentientes capaces de tomar control de sus procesos para cultivar ideas secretas de dominación, lo cierto es que el aprendizaje de las máquinas, la inteligencia artificial y la forma en que pueden “ajustar” sus propios algoritmos, están muy lejos de construir Terminators o desatar una guerra nuclear para acabar con la humanidad.

Y no lo necesitan. Hay algoritmos programados en las búsquedas en Google, en el tráfico a portales de noticias y los feeds de nuestros muros de Facebook, Instagram y Twitter; hay en las sugerencias publicitarias y recomendaciones de YouTube, en las películas o series que nos propone Netflix y en la música que ofrece en Spotify. 

En realidad, los algoritmos ya dominan al mundo.

Los algoritmos se utilizan para calcular, priorizar, clasificar, asociar y filtrar la información, tanto en la producción como en la distribución y publicación de las noticias. 

En el primer caso, periodistas pueden valerse de ellos para procesar grandes cantidades de datos en búsqueda de discrepancias o coincidencias estadísticas poco aparentes a simple vista. Una estrategia muy útil en el análisis de noticias financieras y económicas. 

En el segundo, los medios se valen de ellos para determinar flujos más eficientes en sus páginas y portales noticiosos. Para decidir qué noticias van en qué parte del portal, cuánto tiempo permanecen, qué tipo de noticias se leen más, cuáles generan más interacción con los usuarios ocasionales, y cuáles tráfico de suscriptores.

Los algoritmos resumen textos pero no son capaces de analizarlos. Son espléndidos verificando la veracidad detrás de cifras oficiales. Están diseñados para, en apariencia, anticipar nuestros deseos conscientes e inconscientes. Son usados para probar la efectividad de encabezados y detectar cuáles reciben más clicks y cómo deben redactarse para recibir más clicks. Así como para sugerir contenidos a partir de otros contenidos que hemos consumido.

Hasta hace unos años eran muy torpes, hoy en día, basta teclear algo en el buscador de una página web, para que después se nos sugiera, proponga e invada con ofertas similares en muchas otras. 

Muchos usuarios de Facebook, por ejemplo, veían anuncios de casas, empleos o créditos específicos para su género, edad y raza. Parámetros prohibidos de acuerdo a la legislación estadounidense que limita la discriminación en publicidad. De hecho, la compañía anunció hoy martes que dejaría esa práctica en algún momento de este año. 

Facebook no llegó a esa conclusión por la bondad en los corazones de sus directivos; tuvo detrás el poder persuasivo de varias crisis consecutivas, empezando por el escándalo de Cambridge Analytica (que ya abordé en este espacio). La red social ha estado bajo la mira de la Casa Blanca y su tuiter-in-chief, y en este caso específico, tuvo que llegar a acuerdos legales en juicios donde fue demandada por su uso discriminatorio de la publicidad.

Cuando hablamos de los algoritmos que seleccionan lo que veremos en Facebook o Google, estamos hablando de algunos de los más influyentes y poderosos del mundo. Investigaciones recientes muestran que el 45% de los adultos estadounidenses reciben sus noticias en Facebook. Más de la mitad las recibe de Google, y a nivel global la oferta noticiosa del buscador supone la fuente noticiosa del 25% de las personas. 

Pero no sólo eso. Facebook y Google generan el 70% del tráfico que va a los sitios noticiosos, decidiendo de alguna manera quiénes reciben visitas y quiénes no. Esto de acuerdo a Digital Media, el nuevo libro del investigador Nicholas Diakopoulos disponible a partir de junio, pero al que tuve acceso como parte de su curso sobre los impactos de la automatización y la inteligencia artificial en el periodismo. 

Esto significa que el algoritmo que decide en Facebook qué noticia aparecerá frente a nuestros ojos para que le demos click, es el responsable de a qué medio iremos, qué noticia o análisis veremos y qué versión de “la verdad” se convertirá en nuestra agenda mental de lo que “está pasando en el mundo”.

Hay suficientes elementos para elevar el pulso de cualquier amante de las teorías de conspiración, pero no todos los algoritmos son iguales o se usan igual. Organizaciones periodísticas se valen de ellos para verificar los datos esgrimidos por funcionarios y empresarios, o para identificar fake news. Otras los utilizan como herramientas de investigación y difusión de noticias verdaderas, resultados electorales al instante o para realizar “curaciones” mixtas de sus propios flujos noticiosos.

Quizá el aspecto más relevante que debemos de conocer sobre los algoritmos es su existencia. Dejar de asumir que esa noticia que nos salta desde la pantalla de la computadora o smartphone es “la verdad”, y encontrar nuestras propias fuentes confiables.

Twitter @rgarciamainou

 

RicardoGarcía Mainou

Escritor

Las horas perdidas

Estudió Ciencias de la Comunicación con especialidad en Radio y Televisión Educativa en la Universidad de las Américas Puebla.

Ha escrito, editado, traducido y diseñado para diversas publicaciones literarias, periodísticas y especializadas: locales y nacionales (Libros de México, Revuelta, De viaje, Cinéfila, La masacre de Cholula, etc.).