Ventana de Token
Una Ventana de Token (o Ventana de Contexto) es el límite de la cantidad de texto (medida en tokens) que un modelo de IA puede procesar en una sola interacción. Determina cuánto contenido de tu sitio web una IA puede "leer" y "recordar" a la vez para generar una respuesta.
Por qué importa el tamaño del contenido para la visibilidad de la IA
Si tus páginas web están saturadas de código excesivo, texto redundante o contenido no estructurado, pueden exceder la ventana de tokens de la IA, haciendo que "olvide" el inicio de la página o ignore detalles críticos por completo. GPT-4 tiene una ventana grande (128k tokens ≈ 96.000 palabras), pero los modelos más pequeños y rápidos usados para búsquedas en tiempo real podrían leer solo 8k tokens (≈ 6.000 palabras). La información crítica debe estar en la cima, claramente estructurada y concisa. Por eso el esquema JSON-LD es crucial: presenta hechos en formato ultracompacto que encaja cómodamente en cualquier ventana de token, asegurando que los modelos de IA siempre puedan acceder a tus datos clave.
Lectura humana vs. procesamiento de ventanas de token
Impacto en el mundo real
Página de producto de 15.000 palabras con precios ocultos al final
Un modelo de IA pequeño alcanza un límite de 8k tokens a mitad de camino
La IA nunca ve el precio, no puede citar el producto
Esquema JSON-LD en <head> con todos los hechos clave</head>
La IA lee datos completos de producto en 200 tokens
Visibilidad perfecta, citas consistentes de la IA