Lectura 11:00 min
Sesgos en IA’s vulneran derechos sexuales de las mujeres
Miles de personas han sido víctimas de vulneración de su información personal, particularmente de su imagen o intimidad, vía las inteligencias artificiales. Es necesario implementar regulaciones específicas según la función de cada algoritmo, señala especialista.

IA's y derechos de las Mujeres / Foto EE: Artículo 19 / Cortesía
“Ya no puedo más”, fueron las palabras de Alana Flores, de 24 años, luego de un sinfín de mensajes que la sexualizaban o la insultaban por medio de sus redes sociales. El motivo, una fotografía hecha por inteligencia artificial en la que se superpuso su rostro en un contenido de corte sexual. La presión fue tanta que por un tiempo decidió cerrar sus canales en redes sociales a pesar de que mucho de su trabajo se vincula con estas plataformas, por ejemplo, cargando contenido de sus entrenamientos como boxeadora.
El caso de Alana Flores no es aislado, miles de personas han sido víctimas de este tipo de actos vía la inteligencia artificial, que si bien ha ayudado a democratizar el conocimiento y acortar procesos, carga en sí misma sesgos humanos, entre ellos los sesgos de género que todavía son un reto palpable en la sociedad en la que vivimos.
De acuerdo con datos del Módulo sobre Ciberacoso (MOCIBA) del INEGI, los tipos de violencia digital más frecuentes en mujeres hasta 2022 fueron insinuaciones sexuales (34.8%), recibir contenido sexual (33.6%), y amenazar con publicar información personal, fotos o videos (7%). En 2015, el 58.1% de las mujeres usuarias entre 12 y 29 años habían experimentado violencia digital, aumentando a 60% en 2021. Además de que se reportó el incremento en publicación y venta de contenido sexual sin consentimiento 3.1% a 4.3% entre 2021 y 2022.
La lucha por eliminar el contenido de internet
Elizabeth Avendaño, abogada del programa Internet Feminista de la Colectiva Luchadoras, relata en entrevista que el daño de la violencia digital impacta a las víctimas de una manera compleja, quienes en la mayoría de los casos no buscan una resolución penal o un juicio contra sus agresores, sino que el contenido que las lastima psicológica y moralmente se elimine de la web.
"Quiero que esto pare, quiero que baje su contenido, quiero denunciar la cuenta, quiero que desaparezca el video, las fotos. Ya no quiero que esté público, no quiero que lo sigan compartiendo, ayúdenme a que ya no se comparta”, recuerda Avendaño sobre las solicitudes más comunes de las personas que llegan a pedir ayuda a Luchadoras.

IA's y derechos de las Mujeres.
La colectiva pone a disposición una línea de apoyo especializada que, a diferencia de otras iniciativas, ha optado por un enfoque personalizado y no público. Esta línea, atendida por psicólogas expertas en derechos digitales, se enfoca en el acompañamiento directo debido a las consecuencias en la vida de las víctimas.
“La violencia digital tiene muchas implicaciones en los cuerpos de quienes la viven. Las redes sociales las pensamos como una extensión de la sociedad en la que vivimos donde habitan cuerpos digitales que también son violentados y que tienen los mismos sesgos que muchas veces tenemos en la sociedad en el mundo físico”, explica Elizabeth.
Este enfoque directo ha presentado desafíos, pero la organización ha logrado forjar alianzas importantes con plataformas como Meta (que incluye WhatsApp, Instagram y Facebook) para facilitar la eliminación de contenido. Sin embargo, la situación se complica con plataformas como X, antes Twitter, con la que han perdido la vinculación tras cambios en su administración.
Telegram, por su parte con su matriz rusa y políticas distintas, representa un reto aún mayor, ya que, dice, "ninguna organización, al menos en México, hemos logrado poder dar seguimiento a las violencias que existen en esta plataforma". En el caso de TikTok, que aunque en sus reglas de operación la red social especifica que “no difunde contenido explícito”, también ha sido un foco importante de violencia digital, confirma la abogada de Internet Feminista.
¿Cómo afecta la IA en la educación sexual?
La violencia digital no se queda en acciones directas o estrictamente ofensivas, hay otro tipo de violencias con las que la IA y los modelos de programación en distintas plataformas de contenidos pueden atentar contra los derechos de las mujeres, incluso por omisión.
Una de ellas muy importante es que las plataformas digitales a menudo censuran cuerpos feminizados y temas relacionados con la salud de las mujeres. Esto se debe a sesgos algorítmicos, ya que, “aunque los algoritmos no son personas, son creados por individuos con sus propias creencias y valores”, señala Avendaño.
Esta censura lleva a la eliminación de algunos contenidos como el cáncer de mama, la menstruación, salud reproductiva y métodos anticonceptivos, conceptos fundamentales para la vida y supervivencia de las mujeres.
“Un tema que ha sido totalmente sesgado, todavía en la televisión, es el tema de la menstruación. Incluso los comerciales de toallas sanitarias utilizaban un líquido azul. Es un tema complejo que sí tiene que ver con la censura. El mismo algoritmo ha sido creado para identificar que los cuerpos feminizados: los senos, la vulva están mal, no pueden ser públicos. No puedes impartir educación sexual de esa manera”, explica la entrevistada.
La censura, otro criterio en disputa
En este contexto, la organización Artículo 19 ha detectado en su informe “Remoción de contenidos: desigualdad y exclusión del espacio cívico digital”, que el 88% de los participantes afirmaron haber sido censurados por el contenido de sus perfiles y cuentas en redes sociales, los cuales estaban directamente vinculados a la reivindicación de sus identidades, sus derechos humanos o su activismo político.
Además de que las redes sociales con más casos de remoción de contenidos para la población consultada fueron, en orden de reincidencias, Facebook, Twitter, YouTube y TikTok. Las imágenes fueron el tipo de contenido más eliminado con un 32.5%, seguidas por el texto o expresiones escritas en 31.25% de los casos y, por último, los videos con un 16.25 por ciento. También el 61% de los encuestados afirmó que, tras la eliminación de sus publicaciones, la plataforma no les dio ninguna razón por la cual su contenido fue censurado.
“Hay que contemplar que los sistemas de inteligencia artificial son construidos por alguien, y ese alguien que los construye introyecta sus sesgos, es muy difícil pensar que una inteligencia artificial va a ser objetiva. Tenemos los sesgos desde dónde se crean, ¿qué información se está recolectando? ¿Cómo se está gestionando? ¿Cómo se está analizando? ¿Cuáles son los criterios que se utilizan para tomar decisiones dentro de estos sistemas de Inteligencia Artificial?”, cuestiona en entrevista María José Icaza Banet, investigadora del Programa de Derechos Digitales de Artículo 19.
En este sentido la eliminación arbitraria de contenido a menudo carece de una justificación clara o de una indicación de la normativa violada, y los procesos de apelación de estas decisiones de IA son frecuentemente complejos, difíciles y lentos, lo que dificulta aún más la libertad de expresión. “Sobre todo yo pienso en las mujeres indígenas, que además de ser una población vulnerable, se les vuelve a vulnerar en estos contextos”, agrega Icaza Banet.

IA's y derechos de las Mujeres
Los sistemas automatizados de moderación de contenido a menudo presentan sesgos de lenguaje e idioma. Por ejemplo, plataformas como Facebook o Meta eliminan en mayor medida publicaciones en lenguas originarias porque sus sistemas carecen de supervisión humana y contexto, y por ende, no entienden los idiomas.
“Los sistemas de Inteligencia Artificial funcionan con grandísimas bases de datos, muchas veces estas bases de datos se interconectan, tanto en gobierno como en sector privado. También es común que compartan la información con otros sistemas de inteligencia. Entonces, nuestros datos personales, nuestro comportamiento en internet, que es una radiografía de quiénes somos como personas, están siendo utilizados sin nuestro consentimiento informado” destaca la investigadora de Artículo 19.
En algunas jurisdicciones, por ejemplo la Unión Europea, esto se ha prohibido, la información de los usuarios de Meta no puede utilizarse para entrenar el Meta AI. Sin embargo, en México y en América Latina esto sigue sucediendo. “Nuestros datos siguen estando a merced de estas grandes empresas para entrenar sistemas que ni sabemos qué información utilizan, ni para qué la utilizan, ni cómo la manejan, ni cómo la cuidan”, destaca Artículo 19.
Urge regulación de IA con perspectiva de derechos
Aunque es una herramienta con gran potencial, la IA puede convertirse en un grave riesgo para los derechos humanos si se implementa sin transparencia, ni regulación adecuada, advierten las expertas. La opacidad en su funcionamiento y su uso sin los controles necesarios pueden derivar en serios problemas, incluyendo la vigilancia masiva y selectiva, así como la discriminación.
Como ejemplo de estos riesgos, María José Icaza Banet menciona el caso de "Torres de Plataformas en Ciudad Juárez, Chihuahua", que ilustra "cómo estos sistemas se pueden utilizar de manera arbitraria, ilegal para monitorear grupos en vulnerabilidad, como en este caso son las personas migrantes". Otro punto de preocupación es el uso de la IA y sistemas biométricos para "la identificación de personas que están protestando", lo que plantea serios desafíos a la libertad de reunión y expresión.
En entrevista con Grecia Macías, maestra por la Universidad de Stanford en Derechos Humanos y Tecnología, la especialista enfatiza que un enfoque generalizado para la regulación de la IA es ineficaz debido a la naturaleza diversa de los sistemas.
“Hay que desmenuzar las obligaciones y derechos que debemos considerar dependiendo de cada variante de inteligencia artificial, tomando en cuenta que hay nodos en común que siempre van a ser temas como privacidad de datos, protección de datos personales, libertad de expresión, derechos humanos y competencia económica”, explica.

IA's y derechos de las Mujeres
En el contexto actual, México está viviendo una transformación en su regulación de telecomunicaciones, y aunque si bien no entra en materia de la regulación de IA, hay conceptos que comienzan a entrelazarse. Uno importante es la necesidad de "obligaciones de transparencia" en la moderación de contenidos cuando se utilizan sistemas automatizados ya que existe la preocupación por estos sesgos algorítmicos.
“Hay una regulación importante que creo que es una buena base donde empezar, que es la Digital Services Act de la Unión Europea, que impone ciertas obligaciones de transparencia y sobre los impactos que generan en los derechos humanos y demás. Creo que eso es una de las cosas más valiosas” menciona Grecia Macías.
Sin embargo otros temas también entrecruzan dicha reforma de ley como el padrón de usuarios de telefonía móvil o la CURP biométrica, ya que ambos alimentarían bases de datos centralizadas del gobierno, las cuales a su vez podrían ser usadas para crear sistemas predictivos.
La maestra en Tecnología por Stanford argumenta que el punto clave es la “importancia de centrar los derechos humanos y la protección del usuario en cualquier marco regulatorio”, en lugar de equilibrarlos por igual con los intereses económicos o pensar que la regulación desincentivará la innovación no será el caso, “porque no es ni la primera ni la última vez que vamos a regular una nueva invención tecnológica y tenemos bases con que hacerlo sin destruir la industria tecnológica o la innovación”.
En el reporte "Difusión de contenido íntimo sin consentimiento: una mirada crítica", la organización Luchadoras propone una regulación integral que trasciende el enfoque punitivista, sus recomendaciones incluyen la reforma del derecho penal para asegurar tipos penales claros y precisos, evitando la ambigüedad y la revictimización de las víctimas, y utilizando términos amplios como "tecnologías digitales" para una mayor durabilidad legal.
Además de las vías penales, se proponen alternativas no punitivas como demandas por daño moral o derechos de autor, así como la justicia restaurativa, el acompañamiento integral a las víctimas, la educación sexual digital, campañas de sensibilización y la exigencia de responsabilidad a las plataformas digitales.
* Este artículo se llevó a cabo con la mentoría periodística de la Fundación Thomson Reuters