Buscar
Opinión

Lectura 9:00 min

IA para la transformación Social: Del paradigma productivo al horizonte del bien común

Jorge Alberto Hidalgo Toledo | Columna invitada

Durante los últimos años, la conversación pública sobre inteligencia artificial ha sido colonizada por una narrativa predominantemente instrumental: productividad, eficiencia, automatización, reducción de costos, aceleración de procesos. La IA ha sido presentada como el motor de una nueva revolución industrial, capaz de optimizar cadenas de suministro, automatizar tareas administrativas o maximizar retornos financieros.

Lo inquietante no es que esa narrativa sea falsa. Lo inquietante es que sea insuficiente. Una tecnología que aprende, clasifica, predice, traduce, decide y recomienda no puede comprenderse únicamente desde el léxico de la rentabilidad. Pensarla sólo como palanca de competitividad equivale a amputarle su dimensión civilizatoria. Reducir la inteligencia artificial al paradigma productivo es como usar una catedral para guardar herramientas: puede hacerse, pero revela una pobreza de imaginación histórica.

Ahí radica uno de los grandes equívocos de nuestro tiempo. No estamos sólo frente a una nueva infraestructura técnica; estamos ante una nueva gramática de organización del mundo. La IA redistribuye visibilidades, jerarquiza urgencias, redefine el valor del conocimiento, reconfigura la intermediación institucional y altera la manera en que una sociedad decide qué merece atención, inversión y cuidado. En otras palabras: no sólo acelera procesos; reorganiza prioridades.

Por eso la pregunta decisiva no es si la inteligencia artificial aumentará la productividad de las empresas o la eficiencia del Estado. La pregunta de fondo es otra, más incómoda y más radical: ¿qué idea de persona, de comunidad y de futuro se codifica en los sistemas que estamos construyendo? Allí se juega todo. Porque cada algoritmo trae consigo una antropología implícita. Cada arquitectura de datos supone una forma de entender la dignidad. Cada sistema de automatización revela, en el fondo, qué dolores colectivos consideramos tolerables y cuáles merecen atención prioritaria.

La máquina y la intemperie

El debate internacional ya comenzó a desplazarse, aunque todavía de manera desigual, hacia esta conciencia ampliada. La Unión Internacional de Telecomunicaciones (UIT), a través de su iniciativa AI for Good, documentó 160 casos de uso provenientes de 32 países en su reporte 2025, centrados en ámbitos como salud, resiliencia climática, educación e inclusión digital. En la edición 2025 de sus Impact Awards se seleccionaron 12 finalistas entre 320 postulaciones, agrupadas en categorías como AI for People, AI for Planet y AI for Prosperity. No es un dato menor: el lenguaje de la innovación comienza a migrar del rendimiento al impacto social verificable.

Por su parte, la Conferencia de las Naciones Unidas sobre Comercio y Desarrollo (UNCTAD) ha advertido con claridad que el desarrollo de la IA se concentra en pocos países y pocas empresas, y que las brechas en infraestructura digital amenazan con profundizar desigualdades dentro y entre naciones. Su informe de 2025 insiste en que el progreso tecnológico, por sí solo, no garantiza desarrollo humano inclusivo y que la cooperación internacional debe colocar a la humanidad, y no únicamente a la tecnología, en el centro del marco global de inteligencia artificial.

El Banco Mundial, por su parte, ha propuesto una lectura especialmente reveladora: la adopción significativa de IA en países de ingresos bajos y medios depende de fortalecer las “4Cs”: conectividad, capacidad de cómputo, contexto, esto es, datos, modelos y aplicaciones situadas y competencias digitales. Sin estas bases, la IA no se convierte en herramienta de desarrollo, sino en una nueva capa de dependencia estructural.

Dicho de otro modo: la inteligencia artificial no aterriza en el vacío. Cae sobre territorios heridos, instituciones frágiles, economías desiguales y culturas políticas muchas veces incapaces de sostener, supervisar o democratizar sus beneficios. Allí aparece la verdadera disputa: no entre humanos y máquinas, sino entre modelos de sociedad. Entre una IA orientada a profundizar privilegios y una IA pensada para ampliar capacidades sociales.

Amartya Sen recordaba que el desarrollo no puede medirse únicamente por la acumulación de riqueza, sino por la expansión de libertades sustantivas. Trasladado al presente, esto implica que una política de inteligencia artificial no debería evaluarse sólo por el número de startups, patentes o licencias adquiridas, sino por su capacidad para ampliar las libertades reales de las personas: aprender, sanar, participar, habitar con seguridad, acceder a justicia, cuidar el entorno, vivir con dignidad. Una IA que incrementa el PIB pero no reduce la exclusión quizá sea sofisticada, pero todavía no es civilizatoria.

Paulo Freire, por su parte, enseñó que toda técnica educativa o institucional que no emancipa puede terminar domesticando. La advertencia resulta plenamente vigente. Si la alfabetización en inteligencia artificial se limita a enseñar a usar prompts, automatizar tareas y optimizar flujos, pero no forma juicio crítico, conciencia ética ni sensibilidad ante la desigualdad, entonces no estamos educando ciudadanos del futuro: estamos adiestrando operadores de una nueva obediencia maquínica.

Donde el código toca el rostro

En América Latina esta discusión adquiere un dramatismo particular. La región acelera su adopción de IA, pero lo hace sobre un suelo frágil. CEPAL reporta que América Latina y el Caribe concentran 14% de las visitas globales a soluciones de IA y se ubican en el tercer lugar mundial en descargas de aplicaciones de IA generativa; sin embargo, reciben apenas 1.12% de la inversión global en IA, pese a representar 6.6% del PIB mundial. Además, la gobernanza regional sigue mostrando un problema persistente: abundan estrategias nacionales sin presupuesto, ejecución ni evaluación.

Ese desfase es decisivo. Adoptamos herramientas, pero no necesariamente construimos soberanía. Consumimos inteligencia artificial, pero todavía no articulamos con suficiente fuerza ecosistemas propios de investigación, cómputo, regulación e innovación social. Brasil y México concentran 68% de los investigadores en IA de la región, y junto con Chile, Argentina y Colombia reúnen 90% de las publicaciones. La producción científica existe, pero sigue concentrada y desigual.

México aparece en esta cartografía con una doble condición: es uno de los países con capacidades relativamente avanzadas en investigación, desarrollo y adopción en la región, pero también forma parte del conjunto de naciones donde las estrategias de gobernanza corren el riesgo de quedarse en declaratoria si no se acompañan de implementación, financiamiento y evaluación pública.

Por eso, en nuestro contexto, la IA no puede pensarse como lujo tecnológico ni como moda corporativa. Debe ser concebida como herramienta de supervivencia estructural. En países atravesados por violencia, desigualdad, corrupción, estrés hídrico, rezago educativo y crisis de salud pública, la inteligencia artificial puede servir para anticipar riesgos, focalizar recursos, detectar patrones invisibles para la burocracia tradicional, construir sistemas de alerta temprana, auditar flujos opacos y ampliar capacidades institucionales. Pero sólo lo hará si se la orienta deliberadamente al bien común.

Aquí conviene recuperar a Martha Nussbaum quien nos recuerda: una sociedad justa no es aquella que sólo distribuye recursos, sino la que crea condiciones para que las personas puedan desplegar capacidades humanas centrales. La IA, bajo esta lógica, tendría que ser medida por su capacidad para expandir oportunidades concretas de florecimiento humano y no únicamente por su contribución a la eficiencia sistémica. Una IA que ayuda a detectar fugas de agua en comunidades vulnerables, que acompaña a víctimas de violencia con supervisión humana, que mejora la asignación de medicinas o fortalece la transparencia gubernamental, vale más socialmente que mil automatizaciones diseñadas sólo para aumentar dividendos.

No obstante, también sería ingenuo romantizar la tecnología. Toda inteligencia artificial opera dentro de economías políticas concretas. Langdon Winner mostró hace décadas que los artefactos tienen política: no son neutrales, encarnan arreglos de poder. En la era algorítmica esto se intensifica. Los sesgos no sólo habitan en los datos, sino en las prioridades de diseño, en los incentivos de mercado, en la geografía de los centros de cómputo, en la lengua dominante de los modelos, en la dependencia de infraestructura extranjera, en la opacidad de los sistemas propietarios. La pregunta por la IA social no es entonces sólo técnica ni regulatoria; es profundamente geopolítica, económica y moral.

Hablar de “AI for Good” exige, por tanto, una conversión del imaginario. Implica pasar de la fascinación por la herramienta a la responsabilidad por sus consecuencias. Supone abandonar la lógica extractiva que mira a las comunidades sólo como fuentes de datos y reconocerlas como interlocutores epistémicos, sujetos de co-diseño y portadores de inteligencia situada. Una política pública de inteligencia artificial con vocación social no se decreta desde un escritorio ni se importa como paquete cerrado: se construye escuchando territorios, dolores, vulnerabilidades y saberes locales.

Ahí emerge la gran tarea de nuestro tiempo: alfabetizar no sólo en uso, sino en sentido. Formar no sólo programadores, sino mediadores éticos. Desarrollar no sólo infraestructura, sino criterio civilizatorio. La transformación más urgente no es la de las máquinas, sino la del horizonte desde el cual decidimos para qué las queremos.

La historia tecnológica demuestra que ninguna herramienta es buena o mala en sí misma; su valor depende de la orientación ética que la guía. La inteligencia artificial representa una de las infraestructuras cognitivas más poderosas jamás creadas.

Si la reducimos a eficiencia empresarial, empobreceremos su sentido histórico. Si la orientamos al bien común, puede convertirse en una palanca de transformación estructural. La pregunta ya no es si debemos adoptar la IA. La pregunta es si estamos dispuestos a asumir la responsabilidad ética de dirigirla hacia el bien social. El verdadero cambio de mindset no es tecnológico. Es profundamente humano.

Doctor en Comunicación Aplicada por la Universidad Anáhuac; miembro del Sistema Nacional de Investigadores Nivel 1. Expresidente de la Asociación Mexicana de Investigadores de la Comunicación, AMIC y del Consejo Nacional para la Enseñanza e Investigación de las Ciencias de la Comunicación, CONEICC. Investigador en temas de Cultura digital e Inteligencia Artificial. Actualmente es Coordinador General del Human & Nonhuman Communication Lab de la Facultad de Comunicación en la Universidad Anáhuac México.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas