Lectura 10:00 min
Inteligencia artificial, ciencia y educación ante el desafío de acelerar sin deshumanizar
Jorge Alberto Hidalgo Toledo | Columna invitada
Hubo un momento, no tan lejano, en el que la inteligencia artificial parecía destinada, casi exclusivamente, a hacer más rápido lo que ya hacíamos: producir contenido, automatizar tareas, optimizar procesos, incrementar la eficiencia del trabajo cognitivo. El ciclo de innovación que marcó 2025 estuvo dominado por esta lógica: la IA como acelerador de la productividad, como copiloto creativo, como asistente omnipresente capaz de escribir, resumir, programar, diseñar y responder con una solvencia técnica inédita. La promesa era clara: más velocidad, menos fricción, mayor rendimiento.
Pero incluso ese “momento productivista” (aparentemente banal, cotidiano, casi doméstico) tuvo desde el inicio un espesor económico y antropológico difícil de ignorar. En noviembre de 2025, Anthropic publicó el estudio, Estimating AI productivity gains from Claude conversations, sobre conversaciones reales en Claude donde estimó que la IA podía reducir tiempos de tareas en torno a 80% (en la mediana) y, extrapolando, incrementar el crecimiento anual de productividad laboral de Estados Unidos hasta 1.8% durante una década, aproximadamente el doble del ritmo reciente. Esta cifra, en el lenguaje del capitalismo tardío, no es un dato: es un reordenamiento de expectativas. Es el tipo de número que se transforma, casi sin mediaciones, en presión organizacional; en mandato empresarial; en “norma” para el desempeño humano.
Lo paradójico es que la misma métrica que promete liberación puede incubar erosión. El propio estudio advierte límites: la productividad no equivale automáticamente a calidad, y los beneficios pueden distribuirse de manera desigual. En el terreno laboral, esa desigualdad se vuelve brecha digital; en el terreno formativo, se vuelve brecha cognitiva: quien aprende a dialogar críticamente con la IA se expande; quien la usa como atajo se adelgaza.
Mientras tanto, en el mundo del software (ese lugar donde la modernidad concentra su fetiche por “lo escalable”) la cultura empezó a experimentar algo cercano a la inversión ontológica: no sólo usamos herramientas para escribir código; el código empieza a ser escrito por herramientas. Dario Amodei, CEO de Anthropic, llegó a afirmar públicamente que pronto podríamos estar en un escenario donde la IA escriba 90% del código en un horizonte de meses, y casi todo el código en un año. A la vez, reportes periodísticos de Financial Times, han descrito que “la mayor parte” del código interno en ciertas organizaciones ya es generado con asistencia de IA, con los consiguientes dilemas: dependencia, pérdida de comprensión humana del sistema, y fragilidad ante fallos. El progreso se acelera; el entendimiento no siempre lo acompaña.
En el ecosistema de los creadores de contenido, ese otro gran motor simbólico del presente, la reconfiguración ha sido igualmente intensa: se multiplican flujos de guionización, edición, traducción, síntesis, planeación de campañas, prototipado de piezas, y una dependencia creciente de IA para tareas creativas que antes eran artesanales. UNESCO lo ha planteado en su informe Report of the Independent Expert Group on Artificial Intelligence and Culture, con un matiz revelador: la urgencia no es sólo “adoptar”, sino evaluar el impacto cultural de la IA para mitigar riesgos a la diversidad lingüística y la libertad artística. Dicho de otro modo: producir más no significa producir mundo; y producir mundo exige pluralidad, memoria y fricción.
Del rendimiento al laboratorio: la IA como infraestructura epistémica
El año 2026 marca un giro que, leído con atención, no es meramente estratégico: es epistemológico. No un abandono de la productividad, sino un desplazamiento del foco: de la eficiencia operativa hacia la episteme; del contenido hacia la ciencia y la salud; del “chat externo” hacia el entorno nativo de investigación.
El anuncio de Prism por OpenAI es ejemplo vivo de esa transición: una plataforma LaTeX-nativa, en la nube, orientada a escritura y colaboración científica, con el modelo integrado dentro del documento, con acceso al contexto completo (texto, ecuaciones, referencias y estructura) y con funciones explícitas de búsqueda e incorporación de literatura (por ejemplo, desde arXiv). Este detalle técnico es, en realidad, un detalle cultural: la IA deja de ser una ventana paralela de conversación y se vuelve parte del taller donde se fabrica el conocimiento. Ya no está “fuera” opinando; está “dentro” interviniendo.
Que la industria reposicione la narrativa de I+D hacia ciencia y salud tiene razones obvias: mercados de alto valor, validación dura, legitimidad pública, pero también una razón menos visible: ahí la IA encuentra su límite y, precisamente por eso, su máxima exigencia. En ciencia y salud, la aceleración sin trazabilidad no es innovación: es riesgo.
En esa misma dirección se inscribe el trabajo de Google DeepMind con modelos para genómica. AlphaGenome, presentado como un modelo capaz de analizar secuencias largas (hasta un millón de “letras” de ADN) y predecir múltiples propiedades funcionales relacionadas con regulación genética, expresión y otros mecanismos, busca ayudar a estimar cómo variaciones pueden impactar la biología y, eventualmente, el entendimiento de enfermedades. La idea es poderosa: reducir la oscuridad de la región no codificante del genoma, donde ocurren muchos de los efectos más difíciles de interpretar. Pero el núcleo del asunto no es sólo “predicción”; es la relación entre predicción y explicación. ¿Qué significa entender una mutación si el modelo acierta, pero no esclarece? ¿Qué tipo de confianza requiere la clínica cuando el razonamiento es estadístico y no narrativo?
La OCDE, en su informe sobre inteligencia artificial en ciencia, coloca el punto de manera incisiva: el potencial más valioso de la IA podría estar en elevar la productividad de la investigación científica, pero ello exige condiciones de gobernanza, metodologías, y prácticas que permitan acelerar sin degradar integridad, reproducibilidad y sentido. Es un recordatorio esencial: la ciencia no es fábrica de resultados; es disciplina del método.
Y aquí emerge el problema y que en América Latina se vuelve aún más agudo: la adopción cotidiana convive con una cautela discursiva que termina operando como silencio institucional. Se usa IA, pero se oculta; se acelera, pero no se declara; se apoya el proceso, pero se mantiene el imaginario de que reconocerlo erosiona la legitimidad. El costo de ese ocultamiento es devastador: impide construir estándares, debilita la formación metodológica y entrega la práctica a la improvisación privada.
El contraste internacional es fuerte. En educación superior, por ejemplo, el Student Generative AI Survey 2025 de HEPI/Kortext reportó que 92% de estudiantes ya usa IA “en alguna forma” (subiendo desde 66% en 2024), y 88% la ha usado para evaluaciones; además, 18% reconoció incluir texto generado por IA directamente en trabajos. El dato no es moral; es estructural: la IA ya está adentro. El sistema educativo puede decidir si la incorpora con criterio o si la persigue como fantasma.
En paralelo, el AI Index 2025 de la Universidad de Stanford muestra la aceleración de adopción en organizaciones (78% reportó usar IA en 2024, frente a 55% el año anterior), y en su sección educativa evidencia un fenómeno que se repite: deseo de integrar IA, pero falta de preparación y marcos éticos. La época, por tanto, tiene un pulso esquizoide: entusiasmo de uso, pobreza de gobernanza.
La industria, con su pragmatismo, lo traduce en “plataformas”; la academia, con su prudencia, lo traduce en “debates”. Pero en 2026 el debate ya no es suficiente si no se convierte en arquitectura.
La dignidad como última variable: acelerar sin empobrecer
En ciencia y en educación, acelerar no debe equivaler a reaccionar. Aquí conviene enunciarlo con crudeza: la máquina puede procesar más información; no puede cargar con la responsabilidad moral del conocimiento. Puede sugerir caminos; no puede asumir consecuencias. Puede optimizar, pero no puede prometer justicia.
En la historia de la modernidad, la aceleración siempre tuvo un costo en experiencia: Hartmut Rosa describe cómo la aceleración social reconfigura nuestra relación con el mundo y produce un tipo de “alienación” temporal, una vida donde todo ocurre, pero poco “resuena”. La IA, en su versión más banal, puede convertirse en motor de esa no-resonancia: todo fluye, todo se entrega, todo se produce… y, sin embargo, algo esencial se pierde: el tiempo lento del juicio, la demora ética, la contemplación del dato, la lectura cuidadosa del contexto, la duda que salva.
Por eso, el giro hacia ciencia y salud exige una ética del compás. No porque debamos romantizar la lentitud, sino porque debemos defender aquello que la velocidad puede destruir: la inteligibilidad humana de los procesos y la responsabilidad por las decisiones. En el terreno biomédico, esto se vuelve urgente: si un modelo propone una hipótesis de diana terapéutica o sugiere el impacto de una mutación, la pregunta no es sólo si “acierta”, sino cómo se valida, cómo se explica, cómo se audita, y quién responde cuando la recomendación se vuelve intervención.
A nivel editorial, el punto se vuelve aún más claro. El Committee on Publication Ethics (COPE) ha sido explícito: una herramienta de IA no puede ser autora, porque no puede asumir responsabilidad por el contenido; la autoría implica imputabilidad. Y esa frase (que muchos leen como tecnicismo) es en realidad un principio antropológico: el conocimiento no se firma sólo por vanidad, sino porque la firma es promesa de rendición de cuentas.
De ahí que la pregunta central no sea “si la IA acelera”, sino bajo qué pacto humano aceptamos esa aceleración. En 2025, el pacto implícito fue: “entrega más”. En 2026, el pacto que necesitamos es otro: “explica mejor”.
Lo anterior obliga a México y América Latina a una decisión histórica. La democratización de herramientas avanzadas abre oportunidades reales para investigación y formación, pero el riesgo de dependencia tecnológica y de subordinación epistemológica también crece. Si un laboratorio latinoamericano sólo consume plataformas sin desarrollar capacidad crítica, sin trazabilidad, sin auditoría, sin metodologías explícitas, entonces la aceleración será un espejismo: produciremos más artículos, quizá, pero no necesariamente más comprensión situada de nuestros problemas.
Por eso, más que recomendaciones sueltas, se necesita una ruta de institucionalización:
- Declaración transparente del uso de IA: no como confesión, sino como estándar.
- Trazabilidad metodológica: documentar intervención de IA (prompts, versiones, datasets usados, criterios de verificación).
- Evaluación centrada en procesos: valorar razonamiento, decisión, validación y límites asumidos, no sólo el “resultado pulido”.
- Alfabetización científica con IA: enseñar a trabajar con IA como aliada epistemológica, sin convertirla en atajo cognitivo.
- Políticas editoriales claras: alineadas con integridad, autoría responsable y declaración de uso.
- Gobernanza humana permanente: el juicio humano no se terceriza; se fortalece.
Prism, AlphaGenome, los índices de productividad y las métricas educativas no son simples noticias tecnológicas: son señales de una mutación civilizatoria en la producción del conocimiento. Se está consolidando una nueva economía del saber donde el capital no será sólo información, sino capacidad de gobernar lo que produce información.
Y aquí la pregunta decisiva, quizá la única que merece ser repetida, no es cuánta ciencia podemos acelerar, sino qué tipo de humanidad queremos preservar mientras la aceleramos.
El futuro no se predice. Se construye. Y hoy, más que nunca, se construye pensando con otros humanos y no humanos, pero decidiendo como humanos.