Alucinación de IA
En el contexto de la IA, una alucinación es una respuesta segura generada por un Gran Modelo de Lenguaje que no se alinea con sus datos de entrenamiento ni con hechos reales. Ocurre cuando el modelo "inventa" información para cubrir lagunas en el conocimiento, a menudo porque faltaban o eran poco claros datos fuente autoritativos y estructurados.
Por qué las alucinaciones son un riesgo de marca
Las alucinaciones de la IA suponen riesgos serios para las empresas. Un LLM puede inventar un código de descuento falso para tu tienda, citar erróneamente tu política de devoluciones, atribuir una característica de un competidor a tu producto o citar un precio desactualizado. Estas falsificaciones dañan la confianza del cliente y pueden generar responsabilidad legal. La causa raíz suele ser la falta o los datos mal estructurados: cuando una IA no encuentra información clara y autorizada, rellena los huecos con conjeturas probabilísticas. La defensa principal son datos estructurados mediante JSON-LD y Knowledge Graphs. Al declarar explícitamente los hechos en formatos legibles por máquinas, se proporciona a los modelos de IA información clara y verificable para citar en lugar de forzarles a alucinar respuestas.
Respuesta real de la IA vs. alucinación
Impacto en el mundo real
El usuario pregunta a un chatbot por el producto descatalogado
IA alucina: "Producto X disponible, 49,99 $"
El cliente ordena, descubre la verdad, exige reembolso
El esquema del producto incluye "disponibilidad": "Descontinuado"
La IA indica correctamente: "Producto X descontinuado"
El cliente obtiene información precisa y explora alternativas