La culpa puede que no sea siempre de Penguin, el último cambio de algoritmo de Google

10 Replies

Estrategias de Marketing Online Popularidad Web Posicionamiento Natural (SEO)

La culpa puede que no sea siempre de Penguin, el último cambio de algoritmo de Google

Basado en un caso real.

Resulta curioso como algunos “profesionales” se ocultan en el hecho de que Google actualice su algoritmo para defenderse de un trabajo mal acabado. Aunque parezca mentira, el caso que os voy a contar es real, desgraciadamente para el cliente. Este website estaba situado en primeras posiciones para muchísimas palabras clave, aunque el proyecto era un poco antiguo, mantenía la efectividad en cuanto a objetivos se refería.

Habíamos conseguido reducir el coste en Google Adwords en un 70%, dejando alguna campaña para mantener la visibilidad en esta zona de resultados.

El cliente hizo un cambio de página web. La verdad es que el nuevo website era gráficamente superior al antiguo pero esta empresa no tuvo en cuenta algunos factores que tenían que haber controlado en la migración ya que tuvieron 2 despistes importantes:

 

Uso incorrecto del archivo robots.txt.

Estaban bloqueando todas las páginas del website impidiendo la indexación por parte de Google del nuevo website. Sitemap:

User-agent:*

Disallow: /

Estaba perdiendo la indexación de todas las páginas, aunque creo que se actuó a tiempo para evitar daños.

 

Migración de contenidos sin traspasar popularidad y valor de páginas antiguas.

No se realizaron redirecciones 301 de las páginas antiguas a las nuevas páginas. Esto derivaba un problema de traspaso de valor así como de visitas ya que el usuario cuando hacia clic en un resultado de Google dirigía a una página con error 404 sin contenido.

 

Una vez solucionados estos “percances”, comenzó a indexar el website, pudiendo comprobar como, progresivamente, se iban perdiendo posiciones… hasta que llegó Penguin, con una caída brutal de posiciones y comenzó el debate.

La otra empresa afirmaba que la caída de posiciones era debido a Penguin, el último cambio de Google en su algoritmo, y a una mala estrategia de popularidad web (enlaces entrantes) que Google había penalizado.

Nosotros afirmábamos que la estrategia de enlaces era correcta. En vistas que no nos poníamos de acuerdo, procedimos a una auditoría SEO encontrando las siguientes incidencias en el nuevo proyecto.

Revisión en Webmasters Tools de Google

Después de revisar las herramientas de Google, encontré esto, que ya me hizo sospechar:

– Metadescription duplicadas: 295

– Metadescription cortas: 45

– Etiquetas de título duplicadas: 58

 

Revisión SEO Onpage

Encontramos algunas incidencias, unas más graves que otras, pero lo suficiente como para que Penguin sacara su látigo.

No se controla el traspaso de Link Juice (todas las páginas, enlazadas con todas… casi) ya que algunas páginas tienen más de 140 enlaces internos en cada página.

Contenido duplicado interno. Más del 70% del contenido era prácticamente igual.

Uso incorrecto del contenido de texto en la etiqueta title. El nombre de la empresa al inicio hace daño en el title.

Uso incorrecto de etiqueta H1 (la más importante después del title) ya que contenían texto irrelevante o incluido en imágenes, sin relevancia semántica.

Uso incorrecto de etiquetas H2, H3, H4, H5 y H6 ya que contenían palabras sin relevancia semántica

– No utilizaba ningún tipo de orden en las etiquetas Hx.

No se controla la densidad de palabras clave en el contenido. En todas las páginas, la palabra más utilizada en cada página era la misma en todas las páginas del site. Bajo mi punto de vista es un error semántico.

Contenido oculto. Sin comentarios.

Enlaces internos sin optimizar, del tipo “más información”.
Aparte de esto, me tomé la molestia de revisar los enlaces de este cliente. Este cliente tiene unos 1.784 enlaces que proceden de unos 350 dominios diferentes. La verdad es que no son muchos, así que comencé a analizarlos uno por uno.

Una buena estrategia de enlaces pasa por la diversificación de los mismos, ya sea de diferentes dominios, diferentes palabras clave, enlaces dirigidos a URL diferentes, tipos de enlaces, etc… De esta forma se consigue una forma más natural de conseguir popularidad.

Tipos de sites: Se han añadido enlaces desde  noticias y notas de prensa, blogs generalistas y blogs temáticos, foros, páginas personales, páginas corporativas, agregadores, marcadores sociales, directorios generalistas, directorios temáticos y perfiles sociales.

Tipos de enlaces: Se han realizado todo tipo de enlaces, incluso con la etiqueta nofollow para diversificar. Estos enlaces, aunque no son válidos para SEO, permiten mantener una estrategia amplia de tipología de enlaces. De la misma forma se han realizado algunos enlaces desde imágenes, que tampoco son 100% válidos para el SEO, pero permiten la naturalidad.

Sites con diferente Page Rank: Se ha diversificado en la consecuención de enlaces con Page Rank 0, 1, 2, 3, 4 y 5, donde la mayoría de ellos son con Page Rank 1, 2 y 3.

Anchor text diferentes con URL diferentes: Se han utilizado hasta 15 anchortext relevantes diferentes, dirigidos a la home y a las páginas internas, así como se han utilizando anchortext sin ningún tipo de relevancia como “clic aquí”, “más info” o directamente el dominio.

Variedad en la zona del código de las páginas: Se ha incluido tanto al inicio de página, como rodeado de texto y/o imágenes en la mitad de la página como al final de la página, en función del sites y del anchortext utilizado.

Variedad de extensión de dominios: Se han incluido enlaces en dominios con extensiones variadas como .es, .net, .cat, .com, .org, .biz, .info, .eu, .ar, .mx, .us

Variedad de países: España (95%), México, argentina y Colombia

 

No se que opináis vosotros, pero yo creo que aquí el contenido duplicado, el descontrol del linkjuice y el uso incorrecto de etiquetas a sido el detonante de la caída de posiciones. Todavía no han realizado los cambios recomendados, así que no puedo ofreceros más información sobre este tema, pero en cuanto sepa algo, prometo compartirlo con vosotros.

¿Habeis tenido algún caso similar?

¿TE HA GUSTADO? ¡Compártelo, por favor!

10 comments

  1. Pingback: Bitacoras.com

  2. Pingback: mktfan.com

  3. Pingback: Comunicado Prensa: La culpa puede que no sea siempre de Penguin, el último cambio de algoritmo de Google | Marketing en Internet | Notas de Prensa en Internet | Publica tu Nota de Prensa

  4. Daniel

    Buen artículo, nos gustaría saber como acaba, sigue informandonos!!!
    Yo creo que los errores 404, el no redireccionar y los contenidos duplicados pueden haber causado mucho daño a esta página.
    Por mi experiencia el SEO onPage aún que lo obvies no penaliza de tal manera.

    Saludos!!!

  5. agencia de publicidad

    Genial, gracias por la información, yo estaba culpando 100% a los cambios de Googlebot, el tema está en saber adecuarse a los tiempos y revisar una y otra vez el trabajo que realizamos para de esa manera ir perfeccionándonos y adquierir más experiencia!!! Saludos me sirvió de mucho!!!

  6. MGI

    tener un página totalmente optimizada par el SEO es muy difícil, pero¿ se podría obtener buenos resultados con una estrategia links builders? Si alguien sabe la respuesta que me diga por favor, soy muy nueva en esto.

  7. Barcelona Hostels

    Hola,

    Me parece un interesante análisis onpage sobre la página en concreto. Sin duda lo más fácil es echarle la culpa a google, y aunque en este caso la tiene, evidentemente porque la página acumulaba varios criterios que al gigante no le gustan, no era por penguin, sinó por la propia página.

    Optimizar un sitio es realmente complicado, ya que cuando estiras de un sitio, se te arruga de otro, es como hacer la cama :D.

    En definitiva, y como se comenta en el artículo, las claves son:

    – Contenido original y con densidad correcta.

    – Títulos, metas, hX optimizados

    – Y links, muchos links, muchísimos links ( todos buenos )

    – Ah, y paciencia, que no veas como cuesta!

    Un saludo,

    Alex.

  8. Jose silvano zavala torres

    Excelente el analisis de SEO On Page que le han echo al sitio.

    Yo el 24 de abril fui brutalmente golpeado por el Pinguino, desde entonces mi blog no lo pude levantar, así que decidí venderlo, ahora trabajo en otros 2 proyectos. Revisare cuidadosamente todos los puntos que expone en este articulo, para ver si puedo evitar los algoritmos de Google.

  9. hechizos caseros

    Excelente tú análisis ON Page, no nos queda más que trabajar sobre nuestra web, en la optimización, en los contenidos, y esperar que los cambios en los algoritmos de google no nos afecten demasiado.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Uso de cookies

Esta web utiliza cookies propias y de terceros, para mejorar tu experiencia y recopilar información estadística sobre tu navegación. Si continúas navegando, consideramos que aceptas su uso. Para más información, consulta nuestra “Política de cookies”

ACEPTAR
Aviso de cookies