La IA en SEO sigue luchando contra molinos de viento

Vivimos en la era de la inteligencia artificial, donde cada nuevo modelo es presentado como la solución definitiva para cualquier problema. En SEO, nos han vendido la idea de que las IAs pueden generar contenido perfecto, optimizado para buscadores y listo para posicionar en el top 1 de Google sin intervención humana. Pero, si miramos los datos, la realidad es otra: la IA sigue siendo ese becario entusiasta que cree que repetir palabras clave es sinónimo de buen contenido.

Antes de hablar de IA, vale la pena recordar que el sentido crítico es una de las herramientas más poderosas en SEO. Como lo menciono en este artículo sobre el sentido crítico, no basta con seguir tendencias o aplicar fórmulas automáticas: entender el panorama, cuestionar datos y saber interpretar las señales del mercado es clave para obtener resultados reales. Esto es algo que la IA aún no domina, y si los humanos pierden esa capacidad de análisis, podrían caer en los mismos errores.

El test Humanity’s Last Exam nos pone los pies en la tierra. Mientras que un humano con experiencia logra responder correctamente un 92% de las preguntas, el mejor modelo de IA, OpenAI deep research, apenas llega al 26.6%. O sea, si la IA fuera un estudiante, su madre ya la habría castigado sin videojuegos por las malas calificaciones.

La IA se cree el caballero andante del SEO, convencida de que puede desafiar los algoritmos de Google como si fueran molinos de viento que puede vencer con trucos baratos. Pero, al igual que Don Quijote, está atrapada en un mundo de ilusiones, confundiendo lo que realmente funciona con lo que cree que debería funcionar.

Si la IA aún no puede responder con certeza preguntas de alto nivel, ¿por qué habría de ser confiable para generar contenido con verdadero impacto en SEO?

El gran examen de la IA y por qué sigue muy atrás del humano

El análisis de los resultados de Humanity’s Last Exam y GAIA nos ofrece una visión clara sobre el estado actual del desarrollo de modelos de inteligencia artificial en tareas de razonamiento avanzado y recuperación de información. Aquí hay algunos puntos clave:

1. Humanity’s Last Exam: rendimiento de IA en preguntas de nivel experto

Este test evalúa modelos en más de 100 disciplinas con preguntas de opción múltiple y respuestas cortas. Los resultados muestran un avance significativo con el modelo OpenAI deep research, que obtiene un 26.6% de precisión, muy por encima de otros modelos.

Observaciones clave:

  • Diferencia radical en desempeño: Mientras que modelos como GPT-4o (3.3%), Grok-2 (3.8%) y Claude 3.5 Sonnet (4.3%) muestran un rendimiento bajo, OpenAI deep research logra casi triplicar la precisión del siguiente mejor modelo, OpenAI o3-mini (high) (13.0%).
  • Mejoras en ciertas áreas: La mayor diferencia con modelos previos se observa en química, humanidades, ciencias sociales y matemáticas. Esto sugiere que este modelo tiene mejor capacidad de razonamiento en disciplinas complejas, posiblemente gracias a su capacidad de buscar información especializada.
  • Uso de herramientas externas: La gran mejora en precisión del modelo de OpenAI deep research se debe a su uso de herramientas de navegación web y Python, permitiendo que encuentre respuestas en fuentes en tiempo real.

Fuente: Humanity’s Last Exam

2. GAIA: evaluación en preguntas del mundo real

GAIA es un benchmark que prueba modelos en preguntas de distintos niveles de dificultad y que requieren habilidades avanzadas como razonamiento, comprensión multimodal, uso de herramientas y navegación web.

Resultados destacados:

  • Nuevo estado del arte (SOTA): OpenAI deep research supera al modelo anterior con un desempeño de 72.57% en promedio (cons\@64), comparado con 63.64% del modelo anterior.
  • Mejoras en niveles altos: La diferencia más notoria ocurre en el nivel 3 (el más difícil), donde el nuevo modelo logra un 58.03%, superando ampliamente el 42.31% del SOTA anterior.
  • Capacidad de razonamiento aumentada: La mejora en preguntas complejas sugiere que el modelo tiene mejor capacidad de resolver problemas fuera de patrones preentrenados.

Fuente: GAIA Benchmark

Por qué la IA no entiende el SEO como un humano

El SEO no es solo insertar palabras clave y generar contenido en masa. Google se ha vuelto mucho más inteligente, premiando contenido que realmente responda la intención de búsqueda. Y aquí está el problema: la IA puede generar texto, pero no entiende realmente qué busca el usuario.

La IA:

  • No puede inferir intenciones profundas de búsqueda como lo hace un SEO experimentado.
  • Genera contenido “correcto” pero carente de personalidad y engagement.
  • No sabe cuándo usar storytelling para retener al lector.
  • Todavía se confunde con el contexto en temáticas especializadas.

Como buen caballero errante del siglo XXI, la IA se lanza contra el contenido SEO con la esperanza de derrotar las SERPs con su pluma automatizada, pero sigue sin darse cuenta de que Google ya no cae en estrategias obsoletas y vacías de valor.

La brecha entre la IA y el contenido SEO de calidad

Los resultados de GAIA confirman esta brecha. En preguntas de alto nivel, la mejor IA alcanza un 58.03%, mientras que los humanos siguen dominando con más de 92% de aciertos.

Cuando hablamos de SEO, la IA puede generar ideas y automatizar tareas básicas, pero:

  • No logra diferenciar entre contenido valioso y relleno.
  • No optimiza pensando en la intención de búsqueda real.
  • No adapta la redacción al tono adecuado para cada audiencia.
  • No sabe interpretar señales como el CTR o el tiempo de permanencia.

La IA sigue lejos de reemplazar la estrategia SEO basada en análisis, creatividad y comprensión profunda del usuario.

IA para SEO si, pero con supervisión humana

No, la IA no es la solución mágica para el SEO. Pero sí es una herramienta poderosa cuando se usa con criterio. Puede ayudar a generar ideas, automatizar ciertas tareas y mejorar la eficiencia. Sin embargo, todavía necesita de un estratega SEO humano para asegurar que el contenido realmente funcione.

Así que, por ahora, si alguien te dice que la IA puede hacer SEO mejor que un humano, muéstrale estos números y pregúntale: ¿le confiarías tu estrategia a un “caballero errante” que apenas saca 26% en un examen? La respuesta es clara: la IA puede ayudar, pero el SEO de verdad sigue siendo un juego de humanos.