Lectura 6:00 min
La IA no "googlea"... así es como piensa
Nelly Acosta Vázquez | IA: Integrados y Apocalípticos
Una de las las preguntas que más se repite cuando hablamos de Inteligencia Artificial es de dónde saca la información: ¿de Google? ¿Wikipedia? ¿Blogs y sitios? ¿De libros digitales?
La respuesta corta es: sí... pero no como imaginas.
Cuando la IA estaba en fase de aprendizaje, por ahí del 2023 y 2024, se alimentó de todo el contenido digital que había hasta entonces: artículos periodísticos (sí, hasta los que tienen montones de errores), libros digitalizados, sitios web públicos, documentos, artículos científicos, millones de blogs y foros públicos como Wikipedia o Reddit.
Pero también, aprendió de la interacción humana. De ahí que en sus primeros años, la IA pareciera un reclutador de usuarios: gratis, accesible, al por mayor... Todos los que empezamos a usarla en esos años, educamos a la Inteligencia Artificial en mayor o menor medida.
¿Significa que una Inteligencia Artificial es una enorme biblioteca y que cada vez que le pedimos algo, sólo va a buscarlo?
Para entenderlo, "entrevisté" a las tres IA que más utilizo y estas fueron sus respuestas. Porque si algo queda claro, es que cada lenguaje o modelo de Inteligencia Artificial opera diferente (y por ello, puede ofrecer resultados distintos).
ChatGPT (de OpenAI)
Para ChatGPT la mejor forma de entender cómo funciona es ésta: "no soy un robot investigando en internet. Es "alguien" que ya leyó millones de textos y fuentes, y responde desde lo que aprendió, aunque no siempre pueda decirte exactamente de dónde lo sacó".
Con ello, confirma que no es un buscador: "No abro pestañas. No reviso páginas en tiempo real. No "elijo fuentes" como lo haría un reportero o investigador".
Entonces, ¿qué hace? ChatGPT asegura que en su fase de entrenamiento se alimentó, como todos, de grandes volúmenes de contenidos digitales. Pero no memorizó esa información: aprendió patrones, es decir, cómo se explica un concepto, cómo se estructura una idea, qué palabras suelen aparecer juntas, cómo suena una buena respuesta. "Yo no recuerdo fuentes. Recuerdo formas de decir las cosas".
Así, cuando recibe una pregunta o petición, la transforma en una especie de mapa matemático. Y su modelo de Procesamiento de Lenguaje Natural activa miles de conexiones internas para construir una respuesta coherente. "No busco información. Reconstruyo conocimiento, palabra por palabra, en cuestión de segundos".
El punto incómodo es que esta IA, al menos por ahora, no está verificando fuentes en tiempo real, así que no sabe de forma inmediata si algo es verdad o no. "Puedo equivocarme. Mezclar ideas. Sonar completamente segura… y no estar en lo correcto. No por mentir, sino porque mi lógica no es la verdad, sino la probabilidad".
Te puede interesar
Gemini (de Google)
Para Gemini, su IA no es un buscador avanzado: es un sintetizador de información. "Imagina que tienes una biblioteca infinita en la cabeza (entrenamiento), pero además, llevas un smartphone en la mano con Google abierto (Search Live). Cuando le preguntas algo, consulta sus libros, verifica en internet si algo ha cambiado, y si se lo permites, echa un vistazo a tus propios archivos para darte una respuesta a medida".
Al igual que otras IA, no va de fuente en fuente buscando información ni almacena datos: convierte la información en vectores numéricos, para que cuando le pidas algo, busque el "concepto" matemático más cercano en su memoria.
Lo que la hace diferente es que está conectado a su buscador Google, lo que le permite actuar como un organismo que vive en dos mundos: su memoria interna (lo que ya aprendió) y su visión en tiempo real (lo que rastrea en su buscador en ese preciso segundo en el que le preguntas algo). "Pero sólo si tres fuentes importantes dicen lo mismo, le doy más peso a esa información que a un post de un desconocido".
Asegura que Gemini no rastrea "palabras clave", como en el pasado; hoy utiliza un proceso llamado Fan-out Querying: desmenuza tu petición, busca por "intención" (análisis y fuentes comparativas) y desde 2026, utiliza tu propia información: "con tu permiso, me meto a buscar en tu Google Drive y Gmail, así como en Google Maps y YouTube para darte algo más personalizado. Y si es necesario, rastreo en la Dark Web para temas de ciberseguridad".
Por cierto, si quieres evitar que Gemini le eche ojo a tu Drive y demás información, abre tu Gmail y ve a Configuración, y en la pestaña General busca Funciones Inteligentes y desactívalo.
Claude (de Anthropic)
Para Claude, prácticamente todas las IA, hasta ahora, se han entrenado de manera similar, pero jamás operarán igual. Y para entender esto, hace la analogía de dos periodistas especializados en investigar y buscar información. "No habrá uno que busque mejor que otro. La diferencia estará en cómo se entrena cada periodista: qué filtra, qué prioriza, cómo corrige errores... Los dos sabrán lo mismo, pero no lo razonarán igual".
Claude se entrenó muy similar a ChatGPT, aunque asegura que su diferenciador no está en dónde toma la información, sino en cómo la procesa y prioriza. Su entrenamiento, llamado RLHF (Reinforcement Learning from Human Feedback), combina una metodología propia llamada Constitutional AI, que en lugar de solo usar evaluadores humanos para corregir respuestas, se entrenó con principios éticos para que se "autocorrigiera".
En la práctica, "esto significa que es más probable que Claude te diga "no estoy seguro" o "mi información puede estar desactualizada", que inventar datos con confianza. Ningún modelo de IA es infalible".
¿Qué podemos aprender de todo esto?
Ya no se trata de que una IA sea mejor que otra, si no cómo se ha entrenado: todas tienen una fecha de corte (hasta donde están actualizadas), no pueden verificar por ti todo lo que te dicen, y sí, todas cargan con ideología y sesgos de quienes las desarrollaron (estas estos tres casos, en Estados Unidos). Y sobre todo, que no hay forma de que entienda qué buscas o qué quieres realmente, a menos que se lo expliques, de ahí la frustración de muchos usando IA.
Para mí, estas son grandes noticias: Porque, al menos por ahora, el criterio humano sigue siendo el verdadero filtro.
La gran pregunta es: ¿podremos convertirnos en usuarios que perfeccionen el arte de cuestionar mejor una Inteligencia Artificial?
---
Por cierto, ¿ya escucharon el Blog en donde platicamos de la IA en la vida cotidiana? Acá los espero: