Cómo explicarle a tu jefe el contenido duplicado

Hay un momento incómodo en SEO que casi siempre llega tarde: cuando alguien descubre que el sitio viene cargando “herencia editorial” de hace meses y esa herencia es copy paste sin pudor. No hablo de “inspiración”. Hablo de texto calcado.

Lo primero que hago, incluso antes de abrir Search Console, es bajar el drama a tierra. Porque el miedo típico es cinematográfico: “Google nos va a desaparecer”. Y sí, puede pasar que un sitio pierda visibilidad. Pero casi nunca pasa como la gente se lo imagina. Pasa como Google suele hacer estas cosas: sin espectáculo, sin notificación, sin violines. Simplemente te filtra y te deja hablando solo.  

El mito de la penalización de contenido duplicado

Google lleva años repitiendo lo mismo, con una paciencia que yo no tengo: en la mayoría de los casos, el contenido duplicado “se filtra”. No es una bomba nuclear automática. 

Esto importa porque, cuando tú le dices a un jefe “hay penalización”, normalmente entiende “sanción”. Algo visible, algo con culpables. Y en la práctica, lo que suele ocurrir es más aburrido y más dañino a largo plazo: Google decide qué versión mostrar y cuál ignorar.  

Ese matiz cambia toda la conversación. No estás defendiendo una teoría mística. Estás describiendo un comportamiento estándar del sistema: hay duplicados, Google selecciona, el resto se queda de adorno.  

Ahora, el problema no es la duplicación como concepto. El problema es la escala y el patrón. Un par de páginas duplicadas por error es una cosa. Un bloque sostenido de contenido copiado “como estrategia” es otra muy distinta, aunque nadie lo admita en voz alta.  

Y por eso la palabra clave no debería ser “penalización”. Debería ser “elegibilidad”. Si tu sitio se está comportando como un contenedor de cosas que ya existen, ¿por qué Google tendría prisa en considerarlo?  

Cuando el copy paste deja de ser accidente y se vuelve señal

Hay un punto en el que el copy paste deja de ser un problema editorial y se convierte en una señal operativa. No porque Google tenga moral, sino porque tiene políticas.

En sus spam policies lo dicen sin rodeos: si un sitio viola políticas, puede “rank lower” o directamente “not appear”. Y además aclaran algo clave: esto puede pasar por sistemas automáticos y, cuando hace falta, por revisión humana con “manual action”.  

Aquí es donde la conversación se pone adulta. Porque ya no es “me copiaron” o “alguien del equipo lo hizo”. Es “¿qué patrón estamos dejando que Google vea cuando nos rastrea?”.

Y ese patrón no es solo el texto. Es la intención que se infiere del conjunto. Google, especialmente desde los últimos ciclos fuertes contra contenido “unoriginal” y “made for search engines”, está explícitamente enfocado en reducir lo que considera contenido de poco valor o producido para rankear, no para servir.  

Lo interesante es que, cuando el contenido es duplicado dentro del propio dominio, Google asume muchas veces que no fue “malicia”. Y su consejo suele ir por control, canonicals, sitemaps, orden. Pero cuando el duplicado es claramente copiado de otros dominios, ya no es un tema de arquitectura: es un tema de credibilidad.  

Por eso, cuando alguien pregunta “¿lo peor que me puede pasar?”, mi respuesta real no es dramática. Es cínica: lo peor es que Google te trate como ruido.

El peor escenario real no es el castigo, es la invisibilidad

La fantasía del castigo tiene algo reconfortante: al menos te enteras. La realidad suele ser más cruel: no hay alerta, no hay sirena. Solo un sitio que deja de ganar.

Google lo explica de forma fría: el contenido que viola políticas puede bajar o desaparecer de resultados. Y lo que no aporta, simplemente no tiene prioridad.  

Si tu sitio trae notas copiadas de hace seis meses, ese contenido puede convertirse en lastre en dos sentidos: porque no compite (al ser duplicado, se filtra) y porque enturbia la percepción de calidad del conjunto. En 2024 Google habló abiertamente de reducir contenido “unoriginal” y de aplicar acciones más “targeted” bajo sus spam policies.  

Y cuando digo “lastre”, no me refiero a un karma esotérico. Me refiero a economía de rastreo y economía de confianza. Google tiene recursos finitos para decidir qué indexa rápido, qué reindexa, qué prueba, qué promueve.  

Si el sitio manda señales contradictorias, la consecuencia natural es la lentitud. No la “penalización”. Lentitud para consolidar, lentitud para escalar, lentitud para que una página nueva reciba el beneficio de la duda.

Esto también explica por qué a veces “arreglas todo” y no ves cambios inmediatos. Google puede recrawl en días o semanas, sí. Pero que el sistema reajuste su lectura del sitio puede tomar “meses”. Lo dicen así, literalmente, al hablar de recuperaciones tras spam updates: el aprendizaje y la reevaluación ocurren con el tiempo.  

El reloj de Google es rápido, la confianza no

Aquí es donde conviene dejarlo claro para cualquiera que mande en una empresa: una cosa es “rastrear” y otra cosa es “volver a considerar”.

Google, en documentación, te dice que puedes pedir reindexación, que el crawling puede tardar de días a semanas, y que pedirlo no garantiza inclusión, ni rapidez, ni nada. Prioriza contenido “high quality, useful”.  

Eso es el reloj técnico. El reloj mecánico.

El reloj estratégico es otro. En su propia documentación sobre spam updates, Google menciona que si un sitio se vio afectado, hacer cambios puede ayudar cuando los sistemas automáticos “aprenden over a period of months” que el sitio cumple políticas. Meses. No “mañana”.  

Entonces, cuando alguien me pide “un doc para justificarlo”, no necesito inventar tiempos mágicos. Solo necesito explicar esta diferencia: la máquina puede volver a pasar rápido por tu URL, pero la confianza se reconstruye con evidencia repetida.

Y si existiera una acción manual (no siempre la hay), ahí sí hay un protocolo formal: arreglas, y luego presentas una “reconsideration request” para que revisen después de corregir lo que se señaló. Eso también está documentado.  

La moraleja no es romántica: si el sitio tiene contenido copiado, no se “compensa” con publicar más. Se corrige. Porque publicar sobre un suelo contaminado solo te da más superficie contaminada.

Cómo se justifica esto ante un jefe

Si yo tuviera que ponerlo en lenguaje de negocio, lo diría así: contenido copiado no es un “problema ético”. Es un riesgo operativo de visibilidad.

No porque Google castigue por deporte, sino porque su sistema está diseñado para no premiar lo que no es original y para actuar cuando detecta prácticas que busca frenar. Ellos mismos explican su objetivo: menos contenido “unoriginal”, menos resultados “made for search engines”, más contenido útil.  

Y lo más importante: no necesitas prometer una fecha exacta de recuperación. Puedes respaldarte en lo que Google sí afirma: los recrawls pueden tardar días a semanas, las mejoras por cumplimiento pueden tardar meses, y las violaciones pueden llevar a pérdida de rankings o desaparición.  

Eso, para un jefe, se traduce en costo de oportunidad. Si no limpias, cada mes que pasa estás acumulando “tiempo muerto” en el canal orgánico.

También se traduce en orden de operaciones. Primero eliminas la causa (copias), luego ayudas a que Google reprocese (reindexación, sitemaps), y después mides la recuperación con paciencia. Esto no es poesía: es cómo funciona el sistema según su propia documentación.  

Y si alguien en la mesa quiere “lo peor”, se lo dices con calma: lo peor es que Google decida que tu dominio no merece prioridad. No es un castigo cinematográfico, es un bostezo algorítmico.

No lo digo yo:

Google Search Central Blog: “Duplicate content due to scrapers”.  

Google Search Central Blog: “New ways we’re tackling spammy, low-quality content on Search” (March 2024).  

Google Search Central: “Spam policies for Google web search”.  

Google Search Central: “Google Search spam updates and your site”.  

Google Search Central: “Ask Google to recrawl your URLs”.  

Search Console Help: “URL Inspection tool”.  

Search Console Help: “Reconsideration requests”.