Alrededor del 11 de septiembre de 2025, un pánico silencioso recorrió la comunidad SEO. Profesionales de todo el mundo abrieron sus herramientas de seguimiento y Google Search Console (GSC) para encontrarse con un escenario alarmante: una caída drástica en las impresiones y en las posiciones. Las gráficas de visibilidad, que antes eran un motivo de orgullo, ahora parecían precipitarse al vacío.
La causa no fue una penalización algorítmica ni un error técnico. Fue el desenlace de un cambio que Google venía gestando durante meses: la eliminación definitiva del parámetro de URL &num=100. Aunque este ajuste se sintió como un shock, en realidad fue la culminación de un proceso progresivo, ya que la fiabilidad de este parámetro venía degradándose desde finales de 2023. Su desaparición total, aunque discreta, ha provocado una onda expansiva que está redibujando el panorama del monitoreo y la estrategia SEO.

Este artículo reúne los 4 aprendizajes más relevantes que han surgido tras este cambio y muestra cómo un ajuste técnico está obligando a toda una industria a replantear sus métricas, sus herramientas y sus enfoques.
Google declara la guerra a los scrapers (y a la ia)
Google no ha emitido un comunicado oficial, pero la hipótesis más extendida es que esta medida busca limitar el scraping masivo de sus páginas de resultados (SERPs). Esta práctica no solo es común entre herramientas de SEO, sino también entre modelos de Inteligencia Artificial que entrenan con estos datos.
El especialista en SEO Ryan Jones lo resumió en X:
“The AI tools scraping Google are going to be the end of all SEO rank checkers and SERP scrapers – as they’re going so crazy Google has no choice but to fight back.”
Además, Google ha comenzado a forzar la activación de JavaScript en sus SERPs, una barrera técnica adicional que complica la extracción automatizada. Puede verse como una estrategia defensiva frente al scraping masivo o simplemente como la eliminación de una función explotada principalmente por bots. En cualquier caso, el resultado es el mismo: más difícil y más costoso acceder a esos datos.
Las herramientas de SEO están rotas (y se reinventan a la fuerza)
Para los proveedores de herramientas, el impacto ha sido inmediato. Obtener los 100 primeros resultados, que antes requería una sola consulta, ahora exige diez (una por cada página). Esto multiplica procesos y costos de infraestructura.

Las respuestas en el sector han sido diversas:
- Limitación de datos: AccuRanker anunció que ya no rastreará el Top 100 y que limitará su servicio por defecto al Top 20.
- Deceleración de datos: Semrush comunicó que el Top 10 no se verá afectado, aunque la frecuencia de actualización podría reducirse a cada dos días.
- Absorción parcial de costos: Monitorank adaptó su infraestructura, trasladando parte del gasto a sus clientes con un aumento del 20% y limitando el rastreo al Top 50.
Este escenario obliga a redefinir el valor que cada herramienta puede ofrecer en un mercado donde recolectar datos se ha vuelto mucho más costoso.
Prepárate porque el monitoreo SEO se volverá más caro
El aumento de costos no es nuevo. Desde finales de 2023, muchas herramientas ya habían tenido que migrar a navegadores headless para simular el comportamiento de un usuario, lo que multiplicó sus gastos hasta por siete en comparación con la época en que el parámetro “&num=100” era funcional.
La eliminación definitiva de ese recurso intensifica la tendencia. El ajuste del 20% en las tarifas de Monitorank es solo un indicador temprano de lo que probablemente se extenderá al resto del mercado: precios más altos para los usuarios que quieran seguir accediendo a datos de posiciones profundas.
¿Realmente importa el top 100? el cambio obligado de estrategia
Este cambio ha abierto un debate estratégico. Tim Soulo, de Ahrefs, lo planteó con una pregunta directa en LinkedIn:
“Do you need keyword ranking data below Top20? Because it’s likely going away…”
La limitación ya no es filosófica sino práctica: las posiciones 21–100 se vuelven cada vez menos accesibles por costo y complejidad. En la práctica, la estrategia tendrá que enfocarse en las primeras páginas, donde se concentra la mayoría del tráfico y el valor de negocio.
Consecuencias y soluciones
Con el fin del parámetro “&num=100”, Google no abre una nueva opción, simplemente cierra la puerta y obliga al ecosistema SEO a adaptarse. Para los profesionales, la clave está en no interpretar la caída de impresiones en GSC como pérdida de tráfico: lo que desapareció eran impresiones generadas por herramientas, no visitas humanas. Los clics se mantienen estables y el CTR sube por efecto mecánico. La adaptación aquí es de interpretación: entender el origen de las métricas y evitar alarmas injustificadas.
Para los desarrolladores de herramientas, el reto es más complejo. Lo que antes costaba una consulta ahora cuesta diez, con impacto directo en infraestructura y precios. Las reacciones ya muestran un patrón: AccuRanker limita el rastreo al Top 20, Monitorank aumenta tarifas un 20% y reduce al Top 50, Semrush asegura estabilidad en el Top 10 y seoClarity afirma que sus usuarios no han notado el golpe. No hay una solución universal, solo ajustes: menos profundidad, más costo y un énfasis renovado en la fiabilidad de los primeros resultados.
El resultado es un cambio estructural que no depende de la voluntad del sector, sino de una decisión deliberada de Google para frenar el scraping masivo, tanto de herramientas como de modelos de IA. Adaptarse implica recalibrar expectativas, asumir costos mayores y aceptar que el Top 100, como referencia histórica del SEO, se vuelve insostenible.


