Buscar
Opinión

Lectura 11:00 min

Cuando pensar se vuelve optativo: IA, simulación académica y la batalla por el aprendizaje

main image

Jorge Alberto Hidalgo Toledo | Columna invitada

Jorge Alberto Hidalgo Toledo

Hay escenas que no hacen ruido, pero anuncian una época. Una de ellas ocurre hoy, con inquietante naturalidad, en miles de salones de clase universitarios: un estudiante recibe una consigna, abre su computadora, no acude primero a sus notas, no revisa con paciencia una bibliografía, no ensaya una hipótesis inicial ni se enfrenta al temblor de la página en blanco. Lo que hace, antes que cualquier otra cosa, es formularle una instrucción a un sistema de inteligencia artificial. Y en segundos obtiene aquello que el ecosistema educativo tradicional había esperado de él al término de un proceso: una respuesta, un argumento, una estructura, una síntesis, un ensayo, un problema resuelto, una explicación suficientemente clara como para ser entregada, evaluada y, en no pocas ocasiones, celebrada.

Lo verdaderamente decisivo de esa escena no radica en la novedad del dispositivo, sino en la mutación antropológica que aloja. No estamos ante una simple sustitución instrumental, como quien cambia el lápiz por el teclado o la biblioteca por el buscador. Estamos frente a una alteración en la economía interior del aprendizaje. El aula, que durante siglos fue el espacio donde la inteligencia se ejercitaba mediante la demora, la dificultad, la lectura paciente y la lucha con las ideas, empieza a convertirse en un entorno donde el conocimiento se solicita a demanda, se entrega en formato optimizado y se consume con la rapidez con la que antes se consumían respuestas prefabricadas. La diferencia es que ahora esas respuestas no parecen externas, sino íntimamente personalizadas; no parecen ajenas, sino diseñadas para el sujeto; no parecen copia, sino producción propia asistida.

El informe de Anthropic sobre el uso universitario de Claude (Anthropic Education Report: How university students use Claude) documenta con claridad este desplazamiento. A partir de aproximadamente un millón de conversaciones anonimizadas asociadas a cuentas de educación superior, filtradas luego a 574,740 interacciones académicamente relevantes, la empresa encontró que 39.3% de las conversaciones se concentraban en crear y mejorar contenido educativo; 33.5% en explicaciones técnicas o resolución de tareas; y 11% en análisis y visualización de datos. No se trata, pues, de un uso periférico o excepcional: la inteligencia artificial ya ha sido absorbida por el núcleo del trabajo académico cotidiano.

Lo inquietante no es que exista una tecnología capaz de colaborar con el pensamiento. Lo inquietante es que la cultura escolar contemporánea parezca haber encontrado en ella el socio perfecto para radicalizar una lógica que ya venía incubándose desde hace décadas: la del rendimiento sin espesor, la de la evidencia sin experiencia, la del producto sin travesía. La IA no inventó la obsesión por la eficiencia ni la ansiedad por entregar. No creó la pedagogía del cumplimiento ni la tiranía del output. Pero las volvió impecables. Allí donde el sistema educativo ya había comenzado a privilegiar el resultado visible sobre la formación invisible, la inteligencia artificial introdujo una forma casi sin fricción de tercerización cognitiva.

El aula y su doble algorítmico

En ese sentido, la gran crisis que hoy enfrentamos no puede nombrarse únicamente con el vocabulario administrativo del plagio. Esa palabra resulta ya demasiado estrecha para describir lo que está ocurriendo. Lo que se perfila es una crisis de autenticidad epistemológica. El aula empieza a parecerse a un teatro de representación donde los textos son sólidos, las respuestas son fluidas, las argumentaciones son ordenadas y, sin embargo, nada garantiza que detrás de ellas haya ocurrido un verdadero proceso de apropiación del saber. Lo entregado parece conocimiento; lo evaluado parece aprendizaje; lo acreditado parece dominio. Pero el espesor de la comprensión puede haber sido sustituido por una coreografía bien ejecutada de prompts, iteraciones y edición mínima.

En ello reside una de las paradojas más feroces de nuestro tiempo: el desempeño puede mejorar al mismo tiempo que se debilita la autonomía intelectual. Un estudiante puede redactar mejor y pensar menos. Puede estructurar con mayor solvencia una exposición y, al mismo tiempo, depender cada vez más de una inteligencia externa para jerarquizar ideas, formular objeciones o sostener una tesis. Puede parecer más competente mientras se vuelve más frágil. Esta paradoja no es una especulación moralista; se asoma ya en los propios hallazgos de Anthropic, que advierten tanto la centralidad de tareas de orden superior delegadas a la IA como la imposibilidad de inferir, a partir de esos datos, una mejora automática del aprendizaje profundo.

Todavía más perturbador resulta el hallazgo vinculado con la taxonomía de Bloom. El reporte identifica una distribución invertida: Claude fue usado sobre todo para tareas asociadas con “crear” y “analizar”, mientras que funciones como “comprender”, “aplicar” o “recordar” aparecen comparativamente menos representadas. Dicho de otro modo: los niveles superiores del trabajo cognitivo, aquellos que la pedagogía universitaria había considerado durante mucho tiempo como la culminación de un proceso formativo, comienzan a ser justamente los más fácilmente delegables. La pirámide se invierte, y con ello el aprendizaje corre el riesgo de volverse un edificio sin cimientos: sofisticado en la fachada, precario en la estructura.

No deja de ser revelador que esta inversión ocurra en una época que ha confundido de manera sistemática la aceleración con la inteligencia. Hemos construido culturas institucionales que premian el cierre rápido, la respuesta eficaz, la productividad demostrable, la claridad inmediata y la documentación impecable. En ese entorno, el estudiante no está traicionando necesariamente a la universidad cuando delega: está obedeciendo, en forma radicalizada, la lógica misma que ésta le ha enseñado a venerar. Si lo que se evalúa es el ensayo terminado, el reporte bien estructurado, la respuesta correcta o el proyecto visualmente impecable, la delegación se vuelve racional. No por virtuosa, sino por coherente con el sistema.

Aquí conviene introducir una distinción de fondo. La inteligencia artificial puede funcionar como prótesis o como amputación. Puede ampliar la capacidad interpretativa del sujeto o atrofiarla. Puede operar como interlocutor crítico o como sustituto silencioso. Todo depende de la mediación pedagógica y del horizonte antropológico que ordene su uso. Bernard Stiegler señaló en su texto: Taking care of youth and the generations que buena parte de las tecnologías contemporáneas se insertan en una economía de captura de la atención que favorece el cortocircuito temporal, debilita la atención larga y erosiona las retenciones de memoria cultural necesarias para el desarrollo social. Su advertencia no era un rechazo tecnófobo, sino una invitación a disputar el sentido de la técnica y a librar una verdadera batalla por la inteligencia.

Desde ahí, la pregunta educativa decisiva deja de ser si debemos permitir o prohibir la IA. Esa discusión ya llega tarde. La técnica ya entró al aula, ya se sentó en el pupitre, ya escribe, ya corrige, ya responde, ya aconseja, ya sintetiza, ya programa. El problema real consiste en decidir si queremos que esa presencia reorganice el aprendizaje en clave de obediencia algorítmica o en clave de expansión crítica de la conciencia. Hannah Arendt, al pensar la educación, recordaba que el educador comparece como representante de un mundo del que debe hacerse responsable frente a los recién llegados; educar no consiste en abandonar al nuevo a sus propios dispositivos, sino en introducirlo en un mundo común que debe ser cuidado y renovado. En el horizonte actual, esa responsabilidad implica algo más exigente: no entregar a las nuevas generaciones a la comodidad de inteligencias que les ahorren el trabajo de comprender.

Contra la pedagogía del encargo

La cuestión, por tanto, no es tecnológica en primer término, sino civilizatoria. Cada vez que un estudiante utiliza la inteligencia artificial como proveedor de cierre, como resolutor automático, como autor fantasma o como blindaje retórico contra la incertidumbre, se hace visible una determinada idea de ser humano. Un sujeto que ya no necesita demorarse para pensar; un sujeto que empieza a vivir el conocimiento como trámite y no como transformación; un sujeto que delega no sólo tareas, sino la incomodidad misma de hacerse cargo de una idea. La mayor amenaza no está en la eventual trampa, sino en la formación de una subjetividad incapaz de sostener la intemperie del pensamiento propio.

La universidad, si desea seguir siendo universidad y no apenas certificadora de competencias externalizadas, tendrá que recuperar aquello que la lógica de la automatización vuelve incómodo: la oralidad, la argumentación en vivo, la defensa situada, la formulación de preguntas, la trazabilidad del proceso, el contraste entre versiones, la conciencia de las decisiones intelectuales, el pensamiento que se equivoca, corrige y madura. Allí donde la IA entrega cierre, la pedagogía deberá volver a abrir. Allí donde la máquina optimiza, la educación tendrá que complejizar. Allí donde el sistema premia la pulcritud, el aula deberá volver a honrar el esfuerzo interpretativo.

Esto exige un rediseño curricular de gran profundidad. No bastará con agregar lineamientos de uso responsable o casillas de transparencia para declarar qué porcentaje del texto fue asistido por IA. Hará falta replantear qué entendemos por competencia en una época en la que redactar, sintetizar, traducir, esquematizar y hasta programar pueden ser parcialmente automatizados. Lo decisivo será evaluar no sólo lo que se produce, sino desde dónde se produce; no sólo el resultado, sino la trayectoria; no sólo la respuesta, sino la forma de habitar la pregunta. La trazabilidad del razonamiento, la capacidad de discutir con una salida algorítmica, de identificar sesgos, de resistir soluciones fáciles, de introducir experiencia situada y juicio prudencial, tendrán que convertirse en parte central del nuevo diseño formativo.

Aquí la reflexión planteada por Gert Biesta en The beautiful risk of Education resulta especialmente fértil. Frente a las políticas educativas obsesionadas con la medición, la previsibilidad y la seguridad, Biesta insiste en que la educación auténtica entraña siempre riesgo, precisamente porque no trabaja con objetos moldeables sino con sujetos de acción y responsabilidad. Allí donde todo se vuelve perfectamente predecible, cuantificable y controlable, la educación pierde su densidad ética y su carácter verdaderamente formativo. La IA, usada como garante de resultados correctos y de superficies impecables, amenaza con cancelar ese riesgo constitutivo; por eso la tarea no consiste en volver más segura la educación, sino en salvar el espacio donde todavía puede ocurrir lo imprevisible de pensar por cuenta propia.

De ahí que la alfabetización que hoy necesitamos no sea sólo digital. Tampoco basta con que sea mediática, informacional o computacional. Lo que se vuelve urgente es una alfabetización ético-cognitiva, capaz de enseñar a convivir con inteligencias no humanas sin abdicar de la propia. Una alfabetización que ayude a distinguir entre apoyo y sustitución, entre coautoría y simulación, entre exploración y descarga, entre diálogo y ventriloquia. Una alfabetización que enseñe a usar la IA como adversario epistemológico, no como secretario servicial; como contrapunto, no como sustituto; como fricción, no como anestesia.

La cuestión adquiere todavía una dimensión más amplia cuando se observa que esta apropiación de la IA se distribuye de forma desigual entre disciplinas. Anthropic encontró, por ejemplo, una sobrerrepresentación clara de conversaciones vinculadas con Ciencias de la Computación en relación con su peso en la matrícula universitaria estadounidense. Eso sugiere que la IA no sólo reconfigura individuos: también altera de manera diferenciada las culturas disciplinares, los ritmos de adopción, las formas de capital cognitivo y las expectativas profesionales de cada campo. El problema no es sólo cómo aprende cada estudiante, sino qué idea de inteligencia termina sedimentándose en cada profesión.

En el fondo, lo que está en juego es la dignidad del acto de aprender. No la dignidad como consigna abstracta, sino como estructura de relación con el mundo. Aprender con dignidad implica no ser expropiado del proceso por la fascinación del resultado. Implica no reducir la educación a administración de evidencias de desempeño. Implica no aceptar que el pensamiento profundo sea un lujo innecesario en una época de respuestas instantáneas. Implica, en suma, defender que hay tareas cuya importancia no reside en el texto final que producen, sino en el tipo de sujeto que van formando mientras ocurren.

Porque si algo nos revela este momento histórico es que la pregunta decisiva ya no es si las máquinas pueden pensar. La pregunta verdaderamente urgente es otra: si nosotros seguiremos queriendo hacerlo.

Jorge Alberto Hidalgo Toledo

Doctor en Comunicación Aplicada por la Universidad Anáhuac; miembro del Sistema Nacional de Investigadores Nivel 1. Expresidente de la Asociación Mexicana de Investigadores de la Comunicación, AMIC y del Consejo Nacional para la Enseñanza e Investigación de las Ciencias de la Comunicación, CONEICC. Investigador en temas de Cultura digital e Inteligencia Artificial. Actualmente es Coordinador General del Human & Nonhuman Communication Lab de la Facultad de Comunicación en la Universidad Anáhuac México.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí
tracking reference image

Últimas noticias

Noticias Recomendadas

Suscríbete