Las etiquetas de t??tulo duplicadas y los errores en las metadescripciones

  • julio 26, 2010
En este ejercicio vamos a analizar y marcar las pautas para optimizar un sitio Web din??mico que contiene numerosos errores y que, pese a que tiene much??simas entradas en el directorio de Google, la mayor??a de ellas contienen elementos duplicados por lo que dificultan el rastreo, la indexaci??n y el posicionamiento correcto por los robots de Google.
Antes de comenzar recordar que tenemos que tener una cuenta que podemos obtener enhttps://www.google.com/webmasters/tools
Nos situamos en el men?? de la izquierda y nos vamos a: Panel> Diagn??stico > An??lisis del contenido y nos encontramos con la siguiente imagen:
Es evidente que tenemos que realizar un gran trabajo de optimizaci??n. Debemos de ocultar a los robots todos los errores para lo cual tenemos dos opciones: podemos dar la orden de no indexaci??n desde robots.txt por medio de nexos en com??n entre las p??ginas o bien hacer desaparecer la p??gina para que el robot obtenga un error 401 not found y la elimine del contenido aunque en este ??ltimo caso recuerda que la eliminamos por completo del servidor.
Trat??ndose de eliminaci??n masiva de p??ginas optamos por la primera soluci??n que nos lleva a editar nuestro archivo robots.txt y establecer unas ordenes precisas que nos ayuden a cribar estos enlaces.
Nos centraremos en las etiquetas de t??tulo duplicadas que seg??n nos muestra la imagen anterior contienen 1003 p??ginas con problemas de duplicidad en sus t??tulos por lo que recabamos m??s informaci??n pinchandopara analizar en que v??nculos tenemos el problema.
En nuestro caso el problema ha sido debido a la categorizaci??n de una Web din??mica. Todas las categor??as y subcategor??as se multiplican num??ricamente quedando URL???s del tipo:
  • /servicios-trabajo-c-108_38_78_105_109.html
  • /contratos-c-148_174_108_135_71.html
  • /contratos-c-148_151_244_71.html
  • /contratos-c-148_151_108_134_71.html
La soluci??n en este caso pasa por encontrar un nexo en com??n como es -c-. Como estas p??ginas no aportan un valor a??adido al resto de la Web ya que tenemos indexados todos los productos integrados en estas categor??as optamos por ocultar a los robots todos estos v??nculos y lo podemos solucionar dando las siguientes ordenes  en robots.txt del tipo: 
Disallow: /*contratos-
Disallow: /*servicios-trabajo-
Disallow: /*-c-
Con esta soluci??n tambi??n conseguiremos eliminar los errores en las metaetiquetas duplicadas ya que, al igual que en el caso anterior, la duplicidad en la categorizaci??n del sitio era evidente.
En cuanto a los errores de metadescripciones cortas es cuesti??n de ingenio e imaginaci??n ampliarlas un poco. Con 40 caracteres nos la est?? considerando corta as?? que ser??a interesante llegar a un m??nimo de 80 ?? 100.
La pr??xima vez que los robots visiten el sitio, que suele ser a diario, ya no indexaran estas p??ginas pero no quiere decir que desaparezcan inmediatamente de los listados. Ese es el problema. Hasta que no est??n seguros que esa reestructuraci??n es definitiva y valoren nuestros cambios los ??ndices de los buscadores no procederan a eliminar las p??ginas de su sitio con lo cual pueden pasar semanas e incluso meses hasta que podemos notar cambios.
Recuerda que, como aconsejamos siempre, una buena planificaci??n, estructuraci??n y arquitectura del sitio hubiera evitado estos errores desde el principio.

No Comments Found

Deja un comentario