Buscar
Opinión

Lectura 10:00 min

La ilusión del mundo plano: IA, distancia al conocimiento y la emergencia de las élites cognitivas

main image

Jorge Alberto Hidalgo Toledo | Columna invitada

Jorge Alberto Hidalgo Toledo

Durante las primeras décadas del siglo XXI, la metáfora de The World Is Flat, propuesta por Thomas Friedman en su célebre texto, se convirtió en uno de los relatos más seductores de la globalización. La promesa era clara: la digitalización, la conectividad y la apertura de los mercados habían “aplanado” el mundo, permitiendo que individuos de distintas geografías compitieran en condiciones relativamente equitativas. Las llamadas “aplanadoras”: outsourcing, offshoring, cadenas globales de valor, plataformas digitales, parecían erosionar las jerarquías tradicionales del poder económico y cognitivo.

Sin embargo, incluso el propio Friedman matizó su entusiasmo: el mundo no era completamente plano; persistían fricciones, desigualdades y asimetrías. Hoy, en la era de la inteligencia artificial, esa advertencia se vuelve central. La narrativa de la democratización, ahora reeditada bajo la promesa de la IA generativa, corre el riesgo de repetir la misma ilusión: confundir acceso con capacidad, disponibilidad con agencia, herramienta con conocimiento.

Lo que alguna vez se presentó como un proceso de nivelación global, hoy revela su carácter profundamente estratificante. La historia reciente de la comunicación digital permite observar cómo cada nueva tecnología, lejos de disolver las diferencias, ha operado como una prótesis que amplifica desigualdades preexistentes. La promesa de acceso universal a la información, consolidada en el tránsito de buscadores a redes sociodigitales y ahora a sistemas de inteligencia artificial, no ha derivado en una democratización sustantiva del conocimiento, sino en una reconfiguración de sus jerarquías.

En este nuevo orden, la distinción fundamental ya no reside en quién puede acceder a la información, sino en quién puede hacer algo significativo con ella. Como se ha documentado en diversos estudios contemporáneos, el rendimiento diferencial en el uso de la inteligencia artificial no depende de la herramienta en sí misma, sino de las estructuras cognitivas, epistémicas y culturales del usuario. La IA no sustituye el conocimiento: lo presupone, lo exige, lo intensifica.

Esta constatación nos obliga a desplazar la mirada hacia una categoría analítica más compleja: la distancia al conocimiento. No se trata de una distancia geográfica ni tecnológica, sino de una distancia hermenéutica. Una distancia que separa a quienes operan la herramienta de quienes la comprenden; a quienes ejecutan comandos de quienes producen sentido; a quienes consumen respuestas de quienes formulan preguntas relevantes.

El uso y dominio de la IA no es simplemente un sistema técnico, sino una forma de “producir, sostener y transformar la realidad”. Bajo esta perspectiva, la distancia al conocimiento no es un déficit individual, sino una condición estructural que emerge de la relación entre sujetos, tecnologías y contextos socioculturales.

Podemos distinguir, por tanto, tres niveles de esta distancia: el instrumental, el cognitivo y el epistemológico. El primero corresponde al dominio técnico de la herramienta; el segundo, a la capacidad de evaluar y contextualizar sus resultados; el tercero, a la facultad de integrar la Inteligencia Artificial en marcos complejos de pensamiento y acción. La mayoría de los usuarios habita el primer nivel; unos pocos transitan entre los tres. Es ahí donde se configura la nueva geografía del poder.

La inteligencia artificial, en este sentido, no opera como una aplanadora, sino como un dispositivo de intensificación. Su lógica no es igualadora, sino exponencial. Amplifica las diferencias en lugar de reducirlas. Y lo hace en un terreno particularmente sensible: el del conocimiento.

Esta dinámica remite a una antigua distinción en la teoría del conocimiento: la diferencia entre saber explícito y saber tácito. Mientras la IA se alimenta de grandes volúmenes de información codificada, el conocimiento humano más valioso (aquel que orienta la acción en contextos inciertos) se construye en la experiencia, en la práctica, en la intuición situada. Como advertía Michael Polanyi en su clásico libro, The tacit dimension: “sabemos más de lo que podemos decir”. Ese excedente irreductible, hecho de juicio, sensibilidad y contexto, constituye el núcleo de la expertise.

La IA puede mapear el territorio, pero no habitarlo. Puede sugerir rutas, pero no decidir cuál es la adecuada en función de fines éticos, sociales o estratégicos. Puede optimizar procesos, pero no otorgar sentido a las acciones. En otras palabras, puede ampliar la inteligencia operativa, pero no sustituir la inteligencia reflexiva.

Este desfase entre mapa y territorio se vuelve particularmente crítico en contextos de hiperabundancia informativa. La ilusión de que “todo está disponible” oculta una verdad más compleja: la sobreabundancia de información no reduce la incertidumbre; la desplaza. La dificultad ya no reside en encontrar datos, sino en discernir su relevancia, su validez y su pertinencia.

En este escenario, la inteligencia artificial puede convertirse tanto en una herramienta de emancipación como en un dispositivo de dependencia. Todo depende de la posición que el sujeto ocupa frente a ella. Quien la integra en procesos de pensamiento complejo amplifica su capacidad de acción. Quien la utiliza de manera superficial se vuelve dependiente de sus outputs.

Esta ambivalencia se expresa con claridad en el fenómeno de la subutilización. A pesar del enorme potencial de la IA, la mayoría de los usuarios la emplea para tareas básicas de acuerdo al más reciente estudio de la empresa Anthropic “Labor market impacts of AI: A new measure and early evidence”: redacción, resumen, búsqueda de información. Pocas veces se exploran sus capacidades para el análisis complejo, la simulación de escenarios, la generación de modelos o la toma de decisiones estratégicas.

Las razones de esta subutilización son múltiples. Por un lado, existe un déficit de alfabetización técnica: muchos usuarios desconocen cómo interactuar de manera avanzada con estos sistemas. Por otro, hay una limitación cognitiva: la dificultad para formular preguntas complejas y evaluar críticamente las respuestas. Pero quizá el factor más relevante sea de orden imaginativo: la incapacidad para concebir usos alternativos, innovadores, transformadores.

Aquí emerge una paradoja central de la cultura digital contemporánea: disponemos de herramientas cada vez más poderosas, pero nuestra capacidad para utilizarlas plenamente no crece al mismo ritmo. La tecnología avanza exponencialmente; la cultura, en muchos casos, lo hace de manera incremental.

Este desfase no es menor. Tiene implicaciones directas en la configuración del mercado laboral, en la distribución del valor y en la estructura misma de la sociedad. La narrativa de que la IA democratizaría el acceso a capacidades avanzadas comienza a desmoronarse frente a la evidencia de que dichas capacidades siguen estando mediadas por el conocimiento previo.

En el ámbito laboral, esta dinámica se traduce en una reconfiguración del valor tal como lo señala el estudio publicado por Harvard Business School: “The GenAI Wall Effect: Examining the Limits to Horizontal Expertise Transfer Between Occupational Insiders and Outsiders”. Lejos de sustituir al experto, la inteligencia artificial tiende a potenciarlo. Aquellos que poseen conocimiento profundo, experiencia y criterio son capaces de integrar la IA en sus procesos de trabajo, incrementando su productividad y su capacidad de innovación. En cambio, quienes carecen de estas bases tienden a utilizarla de manera instrumental, sin generar valor diferencial.

Esto da lugar a una nueva estratificación del trabajo: una élite cognitiva altamente productiva y creativa; una clase media funcional que opera herramientas sin comprender plenamente su lógica; y una base amplia de usuarios que quedan rezagados en su capacidad de integración tecnológica.

Esta estructura no es ajena a las dinámicas históricas del capitalismo, pero adquiere una dimensión inédita en el contexto de la inteligencia artificial. La desigualdad ya no se define únicamente por el acceso a recursos materiales o tecnológicos, sino por la capacidad de producir conocimiento significativo.

En América Latina, esta situación se ve agravada por factores estructurales: desigualdades educativas, brechas de infraestructura, dependencia tecnológica. Los medios y las tecnologías no son meros instrumentos, sino redes cruciales en la definición y distribución del conocimiento cultural. La forma en que se accede, se usa y se apropia la tecnología está profundamente mediada por el contexto social.

Esto implica que la inteligencia artificial, lejos de cerrar brechas, puede amplificarlas. No sólo entre individuos, sino entre regiones, países y culturas. Se configura así una nueva geopolítica del conocimiento, en la que ciertas zonas del mundo no sólo consumen tecnología, sino que quedan excluidas de su producción y transformación.

En este contexto, la emergencia de las élites cognitivas no es una anomalía, sino una consecuencia lógica del sistema. Estas élites no se definen únicamente por su acceso a recursos, sino por su capacidad de integrar conocimiento profundo con herramientas avanzadas. Son sujetos capaces de habitar la complejidad, de articular múltiples niveles de análisis, de operar en entornos de incertidumbre.

Sin embargo, su consolidación plantea interrogantes éticos de gran calado. ¿Qué implica una sociedad en la que el conocimiento se concentra en una minoría? ¿Qué tipo de ciudadanía se configura cuando la mayoría de los individuos opera en niveles superficiales de comprensión? ¿Cómo garantizar la dignidad del conocimiento en un entorno de creciente automatización?

Estas preguntas nos remiten a la necesidad de repensar la alfabetización en la era de la inteligencia artificial. No basta con enseñar a usar herramientas; es necesario formar sujetos capaces de comprenderlas, cuestionarlas y transformarlas. Esto implica una alfabetización múltiple: técnica, crítica, ética, creativa.

En palabras del sociólogo francés, Pierre Bourdieu, el capital cultural no se distribuye de manera homogénea; se acumula, se reproduce y se legitima en estructuras sociales específicas. La inteligencia artificial, en este sentido, puede convertirse en un nuevo mecanismo de acumulación de capital simbólico, reforzando las posiciones de quienes ya poseen ventajas estructurales.

Frente a ello, la educación se convierte en un campo estratégico. No como un espacio de transmisión de contenidos, sino como un laboratorio de pensamiento. Un espacio donde se cultive la capacidad de preguntar, de interpretar, de imaginar. Donde la tecnología no sea un fin en sí misma, sino un medio para expandir la comprensión del mundo.

La ilusión de la horizontalidad, en última instancia, es una ilusión sobre la naturaleza misma del conocimiento. Supone que éste puede distribuirse de manera uniforme, que basta con abrir el acceso para generar igualdad. Pero el conocimiento no es un objeto que se transfiere; es un proceso que se construye. Requiere tiempo, esfuerzo, práctica, reflexión.

La inteligencia artificial no elimina esta condición; la hace más visible. En un mundo donde la información es abundante, la verdadera escasez es la capacidad de comprenderla. Y es en esa escasez donde se configuran las nuevas formas de poder.

La pregunta, entonces, no es si la IA democratizará el conocimiento, sino qué tipo de sujetos seremos capaces de formar en su entorno. Si seremos operadores de herramientas o arquitectos de sentido. Si habitaremos la superficie de la información o profundizaremos en sus estructuras.

Porque, al final, el riesgo no es que las máquinas piensen por nosotros, sino que dejemos de pensar con ellas. Y en ese gesto, aparentemente menor, se juega la posibilidad de una existencia verdaderamente humana en la era de la inteligencia artificial.

Jorge Alberto Hidalgo Toledo

Doctor en Comunicación Aplicada por la Universidad Anáhuac; miembro del Sistema Nacional de Investigadores Nivel 1. Expresidente de la Asociación Mexicana de Investigadores de la Comunicación, AMIC y del Consejo Nacional para la Enseñanza e Investigación de las Ciencias de la Comunicación, CONEICC. Investigador en temas de Cultura digital e Inteligencia Artificial. Actualmente es Coordinador General del Human & Nonhuman Communication Lab de la Facultad de Comunicación en la Universidad Anáhuac México.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí
tracking reference image

Últimas noticias

Noticias Recomendadas

Suscríbete