indexacion

Viernes, 22 d marzo d 2019.

SEO OnPage: Cómo gestionar correctamente las paginaciones de tu negocio

Ayer Google nos dio una noticia que desde la comunidad hemos criticado todos. Anunciaron que no usan las etiquetas rel=prev/next para nada. Y lo peor que también sabemos: que hace mucho que no las usan (si es que las llegaron a usar)

https://twitter.com/googlewmc/status/1108726443251519489

¿Por qué este anuncio nos toca las narices?

Lo primero explicar a quien no lo entienda a que se debe tanto revuelo: no es por no usar estas etiquetas si no porque esa estos etiquetados se impulsaron justo desde Google y nos las hemos comido por su culpa haciendo perder a clientes tiempo y dinero en implementarla. Todo para darnos cuenta de que como mínimo era opcional. Y todo esto sin hablar de que rel=”nex/prev” formó parte de su solución fallida para indexar el scroll infinito de las páginas.

A mí, personalmente, me preocupa también la poca seriedad para justificar todo esto y anunciarlo: a "los usuarios les gustan las soluciones one-page"… ¡Vaya forma más gratuita de confundir a la gente! No, señores clasificados e ecommerce, no podéis meter todo el catálogo en una sola página diga lo que diga esta cuenta de Twitter.

Pero este cambio ¿Nos afecta realmente?

Lo cierto es que para la mayoría de los SEOs que nos tomamos en serio la indexación y autoridad interna (los que nos centramos en el SEO On Page) esta noticia solo cambia una cosa: bajamos mucho la prioridad de implementar estas etiquetas pero no cambiamos nada de las arquitecturas porque ya fueron hechas sin tenerlas en cuenta.
Porque lo peor de este dramático anuncio, es que ya en el fondo YA LO SABÍAMOS…

Y para que se entienda todo esto y explicar por qué no supone ningún drama os voy a explicar cómo tratamos muchos (y en especial en IKAUE) desde hace tiempo las paginaciones en proyectos grandes.

¿Para qué quiere un SEO URLs de paginaciones?

La respuesta corta sería: ¡Para nada! Quítalas, bórralas o desindéxalas. No las queremos no, no ayudan.
Para una respuesta más correcta debemos por un lado explicar por qué no nos sirven y añadir también por qué sin embargo son necesarias.

¿Por qué las URLs de paginaciones no ayudan a tu SEO?

Pues sencillamente porque no son contenido único. Pensad en cualquiera de las categorías de vuestros sites que os veis obligados a paginar. Estas URLs de páginas a partir de la 1 (que es la de la propia categoría), ¿qué os aportan?

- A nivel de contenido son bastante pobres, sus artículos son referencias a fichas completas y su posible título y entradilla la mayor parte de las veces son los mismos que los de la página 1. Vamos, que como página entrarían en la categoría de thin content (que sabemos que no vamos a posicionar).

- Para empeorar la situación, encima son contenido duplicado: Páginas 1, 2, 3, 4, etc. A parte de los propios ítems del listado y de coletillas tipo “| pagina 3” no tienen más diferencias. Google los canonicalizará, en el mejor de los casos sobre la página 1 y en el peor sobre otra …

- A nivel de crawl Budget, Google va a perder el tiempo rastreando todas estas páginas, si tenemos un site grande con mucho contenido hablamos de más de 100 páginas por categoría que Google debe visitar y revisitar suponiéndole una pérdida de tiempo enorme.

- Y para terminar de fastidiarlo todo a nivel de autoridad cada uno de los links a páginas va robando autoridad, page Rank o link juice (Como quieras llamarlo)

En definitiva estas páginas no solo es que no nos interesen por negocio sino que en conjunto pueden hacer mucho daño al posicionamiento del resto de páginas de tu site.

Así que basándonos en esto la conclusión que sacaríamos es que… NO QUEREMOS QUE GOOGLE LAS VEA.

¿Por qué, sin embargo, son más que necesarias?

Por porque los buscadores siguen usando como vía principal tanto de crawling (para descubrir contenidos y revisitarlos) como como señal de traspaso de autoridad los enlaces. Esto supone que si en nuestra estructura de dominio no ofrecemos un recorrido claro de acceso a los buscadores para que saltando de enlace en enlace alcancen un contenido es muy probable que este no posicione o incluso que ni si quieras se indexe o rastree.
Cuando nuestro negocio tiene como base un catálogo (de productos, de recursos, de marcas, de lo que sea) es vital que Google alcance sus ítems para que los posicione. Y aunque esto puede no ser cierto siempre, pues hay muchos negocios que no cuidan su catálogo hasta llegar al punto de que muchas veces resulta más conveniente esconder la parte del mismo más deficiente que mostrársela a los buscadores, vamos a suponer que al menos para una gran parte del catálogo esto es cierto.

En la mayor parte de las estructuras y CMSs actuales, la indexación y acceso a toda la colección de ítems del catálogo se resuelve mediante paginaciones. Esto no significa que esta sea la única e indiscutible forma de solucionarlo, pero si que es la más común y extendida. Gracias a las paginaciones usuarios y buscadores pueden llegar a alcanzar antes o después un link hacia todos los productos disponibles en el catálogo. Incluso cuando encontramos sistemas que nos ofrecen llegar a la página 700 muchas veces esta es la única vía para alcanzar mediante enlaces el contenido que ahí encontramos.

Y este pequeño pero importante detalle es el motivo por el cual, a pesar de que las URLs de paginaciones no nos aportan nada en SEO debemos ofrecérselas al buscador.

Un repaso a las distintas soluciones a estos problemas que encontrarás por ahí…

Antes de seguir con cual es para nosotros la vía por la que solucionar estos escenarios voy a comentar algunas de las soluciones que se discuten reiterativamente en distintos blogs y redes sociales. Intentaré ser lo más breve posible al comentarlas pero es importante dedicarles un tiempo para evitar confusiones.

Usar rel=”next/prev” asumiendo que eso acumula las urls de paginación en un único ente mágico sobre la página 1

Esto es lo que llevábamos tiempo viendo que no pasaba en absoluto (a pesar de usarlo las urls seguían canonicalizándose y llevándose la autoridad) y ahora Google ha pasado a desmentir directamente. Bien, como Google ya lo ha dicho claro, no explico más. Esto no sucede, un rel=”prev/nex” no es malo. Son señales accesibles y pueden ayudar a varios sistemas. Además son URLs que los buscadores no seguirán igual que un link, pero al tener formato de URL acabarán entrando a ver que hay (sin por ello pasar autoridad).
Así que podemos hacerlo, pero no esperéis resultados con esta acción a nivel de SEO.

Usar un canonical hacia la primera página en todas las paginaciones

Con esto lo que hacemos es declarle a Google que todas las paginaciones son una copia de la primera página. Esto ya de base no es cierto, la página 2 no es igual que la 1, puede que alguien piense que le interesa que Google piense esto pero ni va a hacernos caso (porque el canonical es una señal débil que ignora a la mínima y cuando vea que el contenido total no es igual lo ignorara) ni nos convendría que lo hiciese (porque entonces a la larga ignoraría todos los items que le vamos poniendo además de que seguiría rastreando todas las paginaciones perdiendo gran parte del crawl Budget total por culpa de esto.).

En definitiva el efecto que vamos a conseguir con un canonical no lo podemos controlar. Google hará lo que le de la gana y haga lo que haga no solo lo desconoceremos sino que no solucionará los problemas que las paginaciones nos producen.

Usar un noIndex o un noindex/follow para evitar problemas de duplicados pero seguir los enlaces.

Esta parecería que es la solución mágica. Solucionamos el problema de duplicados y thin content al decirle que no indexe los contenidos pero nuestros ítems siguen indexándose.

Pero en la práctica cuando analizamos esta opción tampoco acaba de ser bueno. Por un lado si nos hiciese caso no arreglaríamos el problema de crawl Budget al pedirle que nos rastree todas las paginaciones que tenemos en el site. Por otro al ser una página noindex la que ofrece los enlaces es dudoso que traspase a estos ítems la autoridad que deseamos darles.

Pero es que para colmo, cuando analizamos el comportamiento de crawling de este tipo de páginas (noindex con o sin follow) descubrimos que a la larga empiezan a rastrearse menos que las páginas normales del site. En alguna ocasión Google nos ha hablado de este efecto y su explicación es que si total no tiene nada que ir a indexar a esas páginas es normal que se las mire menos. A la larga lo que vemos es que estas páginas apenas se rastrean, no dejan de rastrearse del todo pero si que terminan con un rastreo mínimo…

En conclusión si usamos este sistema al principio arreglamos los duplicados pero no arreglamos el problema del crawl Budget (pues al seguir enlaces sigue todas las páginas de paginación) y a la larga conseguimos que el crawl Budget vaya algo menos pero a costa de empezar a tener problemas para indexar los ítems que ofrecemos en las paginaciones (pues como no pasa por ahí no ve sus enlaces).

Nuestra recomendación es la de evitar la fórmula de noindex/follow porque este follow no se cumple como esperábamos y termina siendo mucho más efectivo usar otras fórmulas.

Sumar los 2 anteriores: Noindex/follow + canonical esperando también que haga magia

Lo que está claro es que si el canonical no era una buena idea y el noindex/follow tampoco lo era las dos a la vez no van a mejorar la situación. Es algo muy extendido y aconsejado. Incluso veréis a mucha gente que os dice: “a mi me ha ido bien”.

Según mi experiencia lo que pasa en estos casos en realidad es que el canonical es una señal muy muy débil y Google ante conflictos la ignora. En este caso le estamos diciendo: no me indexes, pero soy igual que otra página que si debes indexar. ¿Qué? Es que si la araña fuese una persona nos enviaría un mail con tres letras muy claras: “WTF!!!”.

En los casos en los que he visto cierta mejora aplicando esta técnica lo que me he encontrado ha sido exactamente lo mismo que al aplicar un noindex/folow. Mismas ventajas y mismos problemas a lo que sumamos algunos canonicals vilmente ignorados por Google.

Eliminar los enlaces (u ofuscarlos)

Controversias a parte a día de hoy hay que dejar claro que no poner un enlace u ofuscarlo (hablamos de ofuscarlo bien) en la práctica no suponen ninguna diferencia. Llega el bot de Google no ve una etiqueta de enlace que seguir y por lo tanto no sigue nada.

La diferencia real está en hasta que punto te la quieres jugar. A nosotros nos gusta ser limpios y usar la ofuscación solo como último recurso: cuando es necesario si o si eliminar un enlace pero por motivos ajenos al SEO (que hay muchos y variados y la mayoría totalmente válidos) no puede eliminarse.

Así que la fórmula que proponemos es siempre eliminar el enlace y solo cuando esta acción es rechazada hablar de otras opciones. Pero esto es más por un tema de moral, creemos que a nuestros clientes les debemos ser lo más profesionales posibles y que una técnica que algún día podría ser penalizable no puede ser el punto de partida. Dicho esto también es cierto que muchos SEOs se lanzan a la ofuscación de forma masiva y no ven ningún efecto negativo en ello (al menos a día de hoy).

También es cierto que podemos colar técnicas de usabilidad reales como solución ofuscada para las paginaciones. El ejemplo más claro sería el scroll infinito no tratado de ninguna forma. De esta forma no estás haciendo nada malo: has implementado una medida para que el usuario pueda paginar que por desgracia el pobre robot aun no es capaz de seguir. ¿Estás haciendo black hat con eso? Pues la verdad es que no y nadie puede acusarte de ello.

Olvidando el método que escojamos, con esta técnica lo que hacemos es eliminar del rastreo las paginaciones. Google no las ve (o mejor aún, ni siquiera existen) por lo que ya no hay problemas de crawl Budget ni de autoridad. Lo que si nos va a pasar si abusamos de esto es que los productos no se rastrearán (si Google no puede ver los enlaces de la página 5 no los podrá seguir) así que podemos jugar con esto siempre y cuando encontremos vías para la indexación de productos pero nunca va a ser esta la solución al problema por si sola.

Si nada funciona, ¿Qué es lo que debo hacer?

Pues sencillamente, haz SEO. Tienes las herramientas suficientes como para decidir cuando provocas unos problemas u otros y cuando obtienes el beneficio de la indexación y el traspaso de autoridad a páginas de ítem del catálogo. Juega con esas herramientas hasta conseguir un escenario que no será el ideal pero que garantice que ninguno de los problemas que puedes provocar sea grave.

Nuestro sistema, que hemos llevado a cabo en muchos grandes sites con un resultado óptimo

Lo primero es olvidarte de la solución simple y única. Ya hemos visto que no funciona, así que vamos a jugar al link sculping: vamos a diseñar cómo debe ser el acceso de las arañas de Google a todas las páginas de nuestro site y cuando me permite perdidas de crawl Budget y cuando necesito autoridad en puntos claros.

La premisa sigue siendo: A Google no le gustan las URLs de paginación pero las vamos a necesitar. Y la clave es saber cuándo dárselas y cuando no. No en qué sites dárselas y en cuales no, si no dentro de un mismo site qué sitios son los idóneos para que las arañas se pierdan por las paginaciones y en cuales no se lo vamos a permitir.
Estudia cada caso por separado, no hay fórmulas únicas.

Cada site tiene sus propios problemas de autoridad interna y de indexación, audita el tuyo y saca una idea clara de qué está suponiendo un problema y por donde pasa la araña. Screaming, análisis de logs, análisis de la arquitectura de enlaces, de puntos de gran entrada de enlaces externos… todo eso que ya miras para hacer auditorías SEO va a ayudarte a saber donde actuar.

Nuestra solución al final siempre será la misma y pasará en cada nivel de profundidad de la web por una de estas situaciones:

1. En este punto no necesitamos enlazar a item:

Hay otras zonas de la web que también van a enlazar a todos los ítems de este listado y además con una semántica más acertada o a lo mejor incluso con mayor autoridad. No necesitamos esta paginación así que proponemos eliminarla.

Esto es arriesgado, que Google no necesite ver estas paginaciones no significa que los usuarios no lo usen. Así que cualquier decisión de este tipo debería venir siempre acompañada por un análisis del uso de la paginación. Esto con Google Analytics y un poco de control sobre las expresiones regulares es fácil de probar.

Analizamos del total del tráfico que llega a la página 1 del listado, que porcentaje decide acceder a la 2, a la 3, etc. Encontraremos en muchísimos casos que el porcentaje de gente que no usa la paginación es enorme y además como muchas veces los que sí que la usan son usuarios de baja calidad (no convierten). Con estos datos podemos definir perfectamente el impacto que tendría eliminar la paginación en cifras de negocio para validar si eliminar esta paginación es una decisión arriesgada o no.

Pero, ¿y si resulta que la gente si que usa la paginación? Como decía antes una de las opciones sería no eliminarla para ellos: ofuscar esta paginación o trasnformarla en una paginación javascript con técnicas parecidas al scroll infinito o con botones “siguiente” que solo hacen llamadas por javascript y no con enlace.
Otra opción que nos gusta proponer en algunos puntos es testear cambiar la paginación por un bloque que de forma elegante venga a decirle al usuario que si quiere más contenidos debería filtrar los resultados. Una especie de menú bajo el listao que invita al usuario a usar otras categorías del site. Lo sorprendente de estos tests es que en la mayoría de los casos no solo no aumentan el rebote ni disminuyen el número de páginas vistas sino que suelen subir la conversión al invitar al usuario a navegar por lo que realmente anda buscando.

2. En este punto necesitamos paginar, pero no ofrecer toda la paginación posible.

También se dará el caso de zonas donde tenemos que paginar si o sí para que Google encuentre todos los productos posibles, pero tampoco necesitamos llegar a toda la paginación posible.

Esta también es una de las posibles soluciones rápidas cuando vemos por ejemplo que los usuarios si usan la paginación pero apenas ninguno pasa de la página X. Muy pocos usuarios están tan interesados como para ver más de 5 páginas de productos tuyos y eso Analytics nos lo va a desvelar.

También es algo que puede pasarnos en negocios con una altísima publicación. Ya no hablamos de catalogos que más o menos son estables sino de marketplaces donde los productos aparecen y despararecen o sistemas de noticias o con publicaciones de usuario que en un solo dia igual se publican 50 o 200 items nuevos. En esos casos ayudar a Google a descubrir las novedades es vital para que sea consciente de nuestro nuevo contenido así que pasamos por el aro y le dejamos paginar para que lo descubra.

En estos casos lo primero es limitar esta paginación. A partir de cierto punto debemos volver al punto 1 y hacer desaparecer la paginación ofreciendo al usuario otras soluciones (seguir paginando con javascript, elegir categorías más profundas, etc.). Esto no siempre es fácil de programar (sobretodo en CMSs ya creados) pero puede hacerse.

Luego es recomendable volver a auditar esta necesidad de paginar cada cierto tiempo ara ver si sigue siendo la misma que cuando lo decidimos: igual ahora necesitamos más paginas que hace unos meses o todo lo contrario, ya no hacen falta tantas.

Cuando tengáis este problema también os tengo que aconsejar que no lo limitéis todo a las paginaciones, es posible que lo que os haga falta es algún tipo de taxonomía que permita acceder a listados más cortos donde no haga falta paginar tanto en lugar de paginar (recordad que una página de taxonomía o subcategoría es mucho más eficiente para SEO porque si puede optar por posicionar ciertas keywords aunque sea en el long tail).

3- Dejar la paginación con un acceso libre.

Y por último tendremos esos puntos críticos donde o dejamos a las arañas pasar o no verán los productos nunca. Ahí deberíamos abrir la paginación. A vuestro criterio dejo el cómo: si con next/prev, si con noindex/nofollow, pero hay que dejar a las arañas pasar.

Yo soy más amigo de abrir la puerta del todo: si quiero que la araña pase la invito a pasar y no le pongo ninguna traba. Estoy perdiendo crawl Budget y autoridad, ¡si! No puedo olvidarme de que eso está sucediendo pero a fin de cuentas es que justo es eso lo que busco en estos casos.

¿Cuándo hago cada tipo de paginación?

Pues aquí es donde tus dotes como SEO entran en juego y todo dato que mires será poco para poder definir correctamente…

Dibuja tu árbol de navegación, pasa un rastreador para saber cuantos niveles de distancia (level en screaming frog) hay de cada punto a la home. Descargate en la medida de lo posible todo tu catálogo sabiendo a que categorías de varios niveles pertenece cada ítem. Así sabrás que necesidades reales tienes de indexarlos.
A partir de ahí diseña (en una tabla mismo) qué hacer con cada nivel de profundidad en tus categorizaciones:
- ¿Que haremos con la home del catálogo?
- ¿Y en las categorías de primer nivel?
- ¿Y en las de segundo?
- ¿Y en las de tercero?
- ¿Y en las de taxonomía?
- ¿Y en los filtros por provincia y población?
- ¿y en los autores?

Cada posible listado paginado debe tener su definición: vamos a cargarnos su paginación o no. Y de hacerlo eso que provocará en los productos.

Una solución típica que sirva como ejemplo (pero no para aplicar a lo bestia)

Os voy a poner como ejemplo cómo acaban siendo las cosas cuando juegas con las paginaciones de esta forma.
Por lo general empiezas con la propia home del catálogo viendo que ahí se pagina todo el catálogo hasta el infinito (si tenemos 50.000 items, ofrecemos 500 páginas). Eso vemos que no nos aporta porque esos ítems van también a ser indexados desde las categorías. Así que decidimos dejar de indexar la paginación de la home. ¡Fuera enlaces!

Seguimos con las categorías de primer nivel y si el site es grande nos pasará lo mismo y las eliminaremos también.

Y así seguiremos bajando hasta que realmente empecemos a tener problemas para indexar los productos y decidamos que algunas páginas si que vamos a indexar, más que nada por las novedades.

Y terminaremos en los nodos finales, las categorías de último nivel o categorías + localizaciones de último nivel donde tendremos que dejar la paginación abierta para que se pueda rastrear todo el catálogo.

Lo que conseguimos con una estrategia de este tipo será que las arañas se entretengan sobretodo con los primeros niveles de categorización (y sus productos/items estrella). Esas páginas acabarán nutridas de una altísima autoridad interna con lo que podrán pasársela a las categorías de niveles inferiores para que las trabajen. Es más, dado que las arañas ya no se entretienen con las paginaciones podremos permitirnos el lujo de poner más enlaces a categorías o incluso en un menú saltar 2 niveles de profundidad de categorías de golpe. Todo son ventajas.

Las categorías de menor nivel quedarán un poco relegadas y las páginas de ítem/producto serán el último escalón… no tiene porque ser un problema pero no suena bien, así que seguramente a partir de esa definición hagamos también una estrategia de link sculping para acercar los contenidos que más nos interesan que por culpa de estas acciones hemo alejado.

¿Veis por donde van los tiros?

Bien, pues no hagáis esto. Hacedlo vuestro, llegad si queréis a esta misma conclusión vosotros solos en cada proyecto porque al llegar ahí tomaréis alguna decisiones distintas por el camino. No siempre limitaréis las paginaciones en el mismo punto ni usareis los mismos recursos para hacerlo posible, hay mil detalles a definir por el camino pero solo si el análisis lo habéis hecho vosotros mismos percibiréis esos detalles.

¡Vaya parrafa! ¡Y cuanto trabajo! Si yo solo quería un truco…

Es que el SEO no va de trucos… Al menos no el que acaba siendo realmente rentable. Pero bueno si me pedís normas que más o menos vayan a funcionar y os habéis aburrido leyendo intendad al menos probar esto:

En un site grande no permitáis a Google acceder a paginaciones por debajo del nivel 4 de rastreo. Esos 4 niveles son vuestro core y no lo queréis ensuciar. Diseñar muy bien esos 4 niveles y solo a partir de ahí abrid el grifo de los enlaces inútiles. Solo con eso ya mejoraréis mucho vuestro rastreo y autoridad internas.

Ahora, despues de probar esto y ver que funciona, volved atrás y diseñarlo bien, porque seguro que se puede hacer mejor que con un simple truco...

[...]

¿Te interesa? Sigue leyendo...

Comenta este artículo

Temas Relacionados: seo

Autor:

Jueves, 18 d enero d 2018.

Cómo sacar partido a los Informes de Cobertura de Google Search Console

Todo SEO que se precie debería estar actualmente deseoso de disponer de cada vez más y más proyectos migrados al nuevo Google Search Console. ¿No es tu caso? Pues debería serlo... En SEO siempre hemos ido muy faltos de datos claros sobre como nos trata el buscador y estos nuevos añadidos si bien tampoco es que nos resuelvan la vida completamente vienen a suponer una gran cantidad de insights accionables con los que sacar un claro provecho a nuestros proyectos.

El nuevo Search Console, por un motivo que creo que nadie entiende, se está habilitando muy poco a poco en las cuentas. No es nisiquiera que un usuario tenga acceso y otros no, es que proyecto a proyecto y bloque datos a bloque de datos poco a poco se nos va a ir sumando información a este informe. Actualmente si manejas un buen conjunto de proyectos lo normal es que al menos 2 o 3 ya te ofrezcan sus informes de rendimiento y cobertura. Esto se encargan de notificártelo por email pero si quieres probar a ver si se te ha escapado alguno puedes entrar en el nuevo search console con la siguiente URL: https://search.google.com/search-console/index

informe-cobertura-search-console-como-acceder

Dentro de esta nueva interfaz podremos ir al famoso informe de Cobertura: el que para muchos es la gran revolución de información de rastreo e indexación. En él se nos dan suficientes datos para diagnosticar y luego accionar problemas y optimizaciones de indexación en un proyecto. Básicamente se nos está hablando de cómo esta tratando Google las distintas URLS que va encontrando de nuestro dominio al rastrear. Eso, si trabajas en sites medianos o grandes es sencillamente brutal. Vamos a ver como sacarle partido...

[...]

¿Te interesa? Sigue leyendo...

10 Comentarios, leelos

Temas Relacionados: seo

Autor:

Lunes, 16 d octubre d 2017.

12 cosas que deberías saber sobre los sitemaps.xml

Hoy nos toca el tercer post especializado en sistemas de indexación SEO. Ya hemos abordado las posibilidades de los archivos Robot.txt y la gestión de las etiquetas o cabeceras del meta-robots para controlar la indexación. Ahora nos toca trabajar con otro de los archivos más famosos del SEO: los archivos sitemaps.xml. Como en anteriores ocasiones vamos desgranar todo el contenido en distintos puntos, en este caso hablaremos sobre 12 cosas que es importante que sepas sobre estos archivos. Algunas serán sabidas, otras espero que te sorprendan y por supuesto algunas serán validas para unos proyectos u otros.

[...]

¿Te interesa? Sigue leyendo...

8 Comentarios, leelos

Temas Relacionados: seo

Autor:

Jueves, 21 d septiembre d 2017.

10 cosas que deberías saber sobre las etiquetas meta-robots, noindex, nofollow e indexación

Y después del post sobre todos esos detalles del Robots.txt que mucha gente desconoce tocaba hablar un poco sobre el recurso hermano de este: la etiqueta meta-robots. Otro básico del SEO del que todo el mundo sabe cosas pero que como siempre tiene tal cantidad de pecularidades que es fácil que a muchos se nos escapen algunas. Seguramente incluso en este post me falte algún detalle por comentar, pero aún así creo que hay temas que la mayoría de SEOs desconocen o como míminimo conocieron hace tiempo pero ya no lo aplican.

El SEO es lo que tiene, hay tantos detalles y surgen tantas cosas cada año que terminamos por borrar de nuestra cabeza las cosas que menos usamos. Por ese mismo motivo tenia ya este post medio escrito en borradores del blog, para poder acudir a estos detalles dentro de un tiempo y usarlos como referencia. Lo dicho, espero que os guste lo que viene a continuación...

[...]

¿Te interesa? Sigue leyendo...

7 Comentarios, leelos

Temas Relacionados: seo

Autor:

Viernes, 15 d septiembre d 2017.

10+1 cosas que deberías saber sobre los archivos robots.txt e indexación SEO

Hace tiempo que no comentamos muchas cosas de SEO por aquí. Así que para que no se diga hoy he sacado de borradores una serie de apuntes sobre uno de los básicos del SEO del que la mayoría de gente desconoce detalles muy importantes: El archivo robots.txt, uno de los básicos de la indexación SEO. Robots.txt es un archivo destinado a indicar a los buscadores que URLs tiene derecho a visitar y de cuales debería abstenerse. El funcionamiento es simple: antes de visitar una URL del site un robot debería mirar en este archivo para determinar si tiene que ir ahi a recoger información o si por el contrario el dueño del site prefiere que no entre. En definitiva son solo indicaciones que cualquier robot puede saltarse si quiere, pero a las que el robot de google hace bastante caso (que tampoco al 100%).

El archivo robots.txt es uno de esos temas técnicos del que todo SEO debe saber lo suficiente como para manipularlo con éxito. Por ello el mismo Google en su soporte nos indica como podemos crear el nuestro: Información sobre los archivos Robots.txt.

Se nos da información muy directa y fácil de asimilar. La redacción de estos archivos es muy sencilla aunque cualquier fallo, por mínimo que sea, podría provocar que las arañas no entrasen en las páginas que nosotros deseamos. En el mejor de los casos eso provocará que sigan visitando URLs en las que no querríamos que perdiesen el tiempo en el peor será todo lo contrario: no indexarán contenidos que en realidad si que queremos que aparezcan en el buscador. Es el tipíco aspecto importante que de fácil que es la gente no se toma lo suficientemente en serio, y ahí esta el problema: la documentación de Google está bien aunque no cubre todas las pecularidades sobre como se va a interpretar dicho archivo y si nos quedamos solo ahí podemos cometer errores que lamentaremos en el futuro.

Así pues, os dejo 10 conceptos sobre estos archivos que hay que tener en cuenta y asimilar. Desde lo más básico hasta consejos que solo en webs complejas o con mucho detalle de optimización del crawl budget podremos aplicar.

[...]

¿Te interesa? Sigue leyendo...

8 Comentarios, leelos

Temas Relacionados: seo

Autor:

Lunes, 27 d marzo d 2017.

Crear un dashboard de análisis de Logs SEO con Google Big Query y Google Data Studio

La semana pasada fuimos otra vez al Clinic SEO del eShow de Barcelona. En este caso nos llevamos una metodología que sabíamos que iba a gustar a muchos SEOs. Explicamos los pasos necesarios que hay que dar para poder disponer de Dashboards accionables sobre la información de los logs de nuestro servidor: Es decir, cómo fabricar un Analytics del rastreo que hace Google de nuestras webs y asi poder optimizar mejor la indexación de nuestros proyectos.

logs

El proceso aunque no se libra de la carga técnica de empezar a lidiar con nuevas herramietnas (sobretodo si nunca antes habías necesitado usar bigquery) lo tenemos ya lo suficientemente depurado como para poder presentarlo como pasos a seguir sin demasiadas complicaciones en la mayor parte de los casos.

Espero que con esta charla hayamos abierto una nueva puerta a mucha gente que no podía acceder hasta ahora al mundo del análisis de logs que tantas sorpresas (buenas y malas) te da en el mundo del seo.

No hay ni que decir que cualquier comentario, duda o crítica serán muy bien recibidos.

[...]

¿Te interesa? Sigue leyendo...

3 Comentarios, leelos

Temas Relacionados: analitica web seo tutoriales

Autor:

Lunes, 22 d agosto d 2016.

El nuevo SEO, Google y la medición de la calidad

Siempre digo que el SEO es un mundo de modas. Tenemos de todo, a los influencers dejando claro de qué hay que hablar en cada momento, a una masa de SEOs que valora lo que le gusta y lo que no le gusta y en definitiva una serie de tendencias que cada año se imponen sobre distintas opiniones. A veces sigues la ola rápido, otras tardas más en asumir por donde van los tiros y lo cierto es que en ocasiones estas modas tienen sentido y otras son solo eso, "modas". Diferenciar lo que importa de lo que solo es tendencia -ya que no todo lo "de moda" importa siempre demasiado- se termina volviendo es todo un arte...

Cada año, cual canción del verano, ciertos temas se imponen y se asumen como ciertos. Cada año el mismo ciclo. ¿Pero que pasa este año? ¿No hay novedades? En una mirada superficial así parecería: Muchos sistemas de refritos con otro nombre, y mucho detalle suelto pero que no cambia la esencia del SEO. No hay grandes tips ni nada que nos obligue a revisar nuestras webs a todos.

Eso podría parecer, ¡pero vaya que si hay cambios! Lo que pasa es que quizás sean más transcendentales y difíciles de describir de lo que solemos estar acostumbrados. Y de eso va este post, del gran cambio que poco a poco está tomando forma y que cada día es más patente: Si nos fijamos bien, los distintos "temas de moda" confluyen para hablarnos en realidad de un único gran cambio:

Google ya no quiere contenido, quiere calidad

No es algo de lo que se hable siempre directamente, pero si que hay un trasfondo en cada pequeña novedad que nos lleva siempre por el camino de la calidad. Ya no del contenido, sino la calidad por la calidad en todo lo que influye en nuestro posicionamiento. Así que hoy hablaremos de calidad y SEO a sabiendas de que la Calidad es un aspecto muy subjetivo, que debe ser interpretado por maquinas que de por sí no entienden nada que no exista en su base programación y bases de datos...

quality

[...]

¿Te interesa? Sigue leyendo...

25 Comentarios, leelos

Temas Relacionados: seo

Autor:

Martes, 28 d julio d 2015.

Indexación SEO: Tablas de Referencia de todos los recursos de indexación que usa Google

Hace mucho que no hablamos de SEO en este blog y eso no puede ser.

Vamos a retomar el tema con una guía en forma de tablas referencia que unifica en dos simples imágenes todos los recursos que tenemos disponibles al hacer SEO para conseguir Indexar o manipular la indexación que hace Google de nuestros sites.

referencias-indexacion-ikhuerta

Recordar para los más despistados que llamamos indexación al proceso por le cual las arañas (bots, las llaman algunos) recorren nuestra web y terminan por meter nuestros contenidos en el el índice del buscador. Solemos decir que la inedxación es la Base del SEO pues sin indexación no hay posibilidad de que Google sepa nada de nosotros y por lo tanto no hay ningún SEO que hacer.

Estas tablas de referencia en la indexación deberían servir para validar como se comporta google a la hora de indexarnos dependiendo de por qué sistema esté accediendo a nuestro site: links, redirecciones, iframes, javascript, etc. Todo cuenta, pero no afecta de igual forma...

[...]

¿Te interesa? Sigue leyendo...

2 Comentarios, leelos

Temas Relacionados: seo

Autor:

Jueves, 24 d octubre d 2013.

Metodología de configuración avanzada de Google Analytics: La matriz de implemetación de Google Analytics

Llevo ya unos años haciendo implementaciones orientadas a negocio de Google Analytics. Ya sabéis, Google Analytics por defecto es fácil de instalar: un corta y pega y listos, pero cuando empezamos a orientarlo hacia nuestro verdadero negocio empezamos a necesitar nuevos datos, que sean mucho más cercanos a nuestra realidad empresarial que los datos técnicos y genéricos que se nos muestran en los informes por defecto de Analytics. Necesitamos nutrir la herramienta de datos extra: lanzar eventos, ecommerce, manipular URLs, etc. Y todo persiguiendo un objetivo simple: Que Google Analytics nos sirva como herramienta para medir nuestro negocio y no solo nuestra web.

En un principio todo suena bien, es un servicio fácil de explicar y con grandes ventajas para cualquier empresa o negocio. Pero es cuando te pones manos a la obra y empiezas a impartirlo cuando te das cuenta de que necesitas seguir una metodología clara para llevar a buen puerto este tipo de proyectos. No se trata simplemente de hacer un par de añadidos de código, un par de segmentos y un par de informes personalizados. Eso lo sabe hacer todo el mundo. El problema está en que si quieres realmente sacar partido a un negocio, tienes que ir de la mano de aquellos que conocen dicho negocio mucho mejor que tu y conseguir transformar sus inquietudes en respuestas y la actividad de los usuarios en información comprensible y dentro de sus esquemas de seguimiento de los resultados.

En este post, quería compartir mi experiencia en este sentido y dejar clara la metodología que llevo ya usando un par de años con buenos resultados y yo diría que clientes satisfechos. Se trata solo de un mapa y alguna técnica, donde ubicar todo el trabajo a realizar. Ni que decir que esta no es "LA forma" de hacer las cosas sino "una forma" como cualquier otra: la que yo uso.

fases-analytics-avanzado

[...]

¿Te interesa? Sigue leyendo...

4 Comentarios, leelos

Temas Relacionados: analitica web tutoriales

Autor:

Miércoles, 21 d diciembre d 2011.

SEO OnPage: Indicando los Autores del contenido

Hay tres grandes motivos por los que en SEO actual tiene mucho sentido preocuparse porque Google sepa quienes son los autores del contenido de nuestras páginas.

1. No ser penalizado erroneamente por Google Panda. Es decir, si nos preocupamos por conseguir que Google entienda quien ha escrito el contenido, habrá mucho menos riesgo de que al copiarnos un tercero Google asigne mal la autoría del Documento y se lo queden ellos penalizándonos a nosotros.

2. Conseguir el Rich Snippet de Autor (el resultado en google con la foto y nombre del autor) y así acaparar un mayor número de clicks (¡viva el CTR!)

3. Promocionar a nuestros redactores, haciéndolos más conocidos socialmente de forma que su autoría forme parte de nuestra marca. Las personas, por fin se están volviendo esenciales en Internet.

Dado que tiene mucho sentido conseguir que Google sepa asignar bien la autoría de los contenidos, seguidamente indicaré que pasos hay que dar para poder mejorar esta muchísimo...

[...]

¿Te interesa? Sigue leyendo...

6 Comentarios, leelos

Temas Relacionados: maquetacion seo tutoriales

Autor:

Esto son experimentos, no preguntes ;) prueba metadescription Prueba title