La supresión del parámetro ‘num=100’ por parte de Google provocó caídas dramáticas en métricas clave del SEO, aunque expertos sugieren que los datos ahora reflejan una realidad más precisa y menos distorsionada.
La comunidad de profesionales de la optimización para motores de búsqueda (SEO) se encuentra en medio de un reajuste masivo y, para muchos, doloroso. El epicentro de esta conmoción es la decisión de Google de eliminar el parámetro num=100 de sus resultados de búsqueda, un cambio técnico que ha tenido un impacto sorprendentemente amplio y negativo en las métricas de rendimiento. Si bien las cifras iniciales parecen catastróficas, el consenso en el sector es que, paradójicamente, esta «pérdida» de datos podría estar inaugurando una era de mayor precisión en la medición del rendimiento orgánico. Así lo señala un informe de la web Search Engine Land (SEL).
El elemento más novedoso y llamativo de este suceso radica en la magnitud del cambio que se observa en la consola de búsqueda de Google (GSC). Un análisis reciente de 319 propiedades web, realizado por un experto en la materia, ha revelado una caída generalizada en las métricas. El dato más impactante -de acuerdo al informe de SEL- señala que el 87,7% de los sitios web experimentaron una disminución en sus impresiones dentro de la GSC.
Pero el efecto no se limitó a la simple visualización. El informe de SEL también detalla que el 77,6% de los sitios perdió la visibilidad de términos de clasificación únicos, lo que se traduce en una reducción significativa del recuento de palabras clave por las que rankeaban. Las palabras clave más afectadas fueron, en particular, las de cola corta (más genéricas) y cola media.
Este fenómeno de caída masiva y generalizada ha encendido las alarmas, pues para la gran mayoría de los propietarios y gestores de sitios web, ver un declive de esta magnitud en las estadísticas suele ser indicativo de una penalización algorítmica o un fallo técnico grave. Sin embargo, la explicación se encuentra en una corrección, o más bien, una «limpieza» de datos históricos que el gigante tecnológico ha implementado.
La distorsión causada por los rastreadores
Para entender la causa subyacente de este reajuste, es fundamental comprender la función del parámetro num=100. Históricamente, este comando permitía a los usuarios solicitar a Google mostrar 100 resultados por página de búsqueda en lugar de los 10 o 20 predeterminados. Esta funcionalidad era aprovechada sistemáticamente por rank trackers y herramientas de scraping (rastreadores automatizados) utilizadas por las agencias de SEO y los equipos internos para monitorear las clasificaciones.
Cada vez que una de estas herramientas solicitaba una página de resultados con el parámetro num=100 para rastrear las posiciones de sus clientes o competidores, generaba una impresión adicional en la GSC para cada uno de los 100 resultados listados. El problema era que estas impresiones no provenían de usuarios reales buscando información, sino de bots automatizados. Durante años, este tráfico artificial infló los datos de impresiones en miles, sino millones, de sitios web.
De acuerdo con SEL, al eliminar el num=100, Google cortó el conducto por el cual se generaban estas impresiones fantasmas. El resultado natural es que las métricas de rendimiento ahora muestran solo el tráfico y las impresiones provenientes de usuarios orgánicos reales.
Tyler Gargula, director de SEO técnico en LOCOMOTIVE Agency, fue uno de los primeros en compartir este análisis y sugirió que, si bien las métricas se ven debilitadas, en realidad son más veraces.«La eliminación del parámetro &num=100 está remodelando la forma en que se mide el rendimiento», afirma Gargula en su análisis. «Es posible que parte de la data en Google Search Console no fuese real, debido a que los rastreadores y scrapers que usaban la función de 100 resultados por página estaban causando una afluencia de impresiones, por lo que ahora la data es más precisa», agrega.
Un cambio hacia la precisión posicional
Otro aspecto revelador del análisis de SEL es lo ocurrido con las posiciones de clasificación. Se ha notado que, si bien menos consultas aparecen ahora en las páginas 3 en adelante, hay un número mayor de ellas que se ubican en el top 3 y en la página 1 de los resultados. Esto sugiere que las clasificaciones reflejan ahora las posiciones reales de los sitios, sin la distorsión que generaba el tráfico de rastreo.
Para los profesionales del SEO, la lección es clara: es momento de reajustar los puntos de referencia. Las caídas observadas no deben interpretarse necesariamente como un declive en el rendimiento del sitio, sino como la normalización de las métricas. El foco debe pasar de la cantidad absoluta de impresiones a la calidad y la tasa de clics real que se obtiene de las impresiones genuinas. Plataformas de medición ya han reconocido la interrupción y están trabajando en ajustes para que sus reportes reflejen esta nueva realidad. Aunque Google no ha confirmado si el cambio es permanente, la amplitud del impacto sugiere que estamos ante una nueva era en la medición del rendimiento SEO.
*En la creación de este texto se usaron herramientas de inteligencia artificial.





