En efecto, Blogger tiene sus puntos débiles, de cara al SEO.
Especialmente ahora, que ha vuelto a modificar en forma reciente el contenido de robots.txt (que Blogger administra, por cierto; si no contamos con hosting propio - como es mi caso-)
Ya que antes, bloqueaba todo el contenido que podía filtrarse con las etiquetas o labels.
De esta manera, las entradas de los post, la index y las categorías pueden ser interpretadas como contenido duplicado.
Asimismo, los meta description y los meta keywords, son idénticos a todos los post. Esto lo revela las Herramientas para Webmasters de Google.
Por ello, si tenés un blog en Blogger; seguramente te resultará muy útil establecer la siguiente inclusión:
Sólo hay que ir a edición HTML y, entre los tags <head> pegar los siguiente
<link expr:href=’data:blog.url’ rel=’canonical’/>
o, de otra manera
<link ’URLde-tu-blog’ rel=’canonical’/>
Visto en | Indra Budiman
Referencia | Duplicate content due scrapers