Vivimos un momento extraño en el mundo del SEO. Hace un año o poco más yo no paraba de repetir a la gente que "el SEO ha vuelvo a ser divertido", principalmente porque volvía a suponer un reto y nos obligaba a volver a probar y reaprender las cosas. Divertirnos nos divertimos. Pocos entramos en esto del SEO si no disfrutamos investigando las tripas de Google. Pero la verdad es que, a día de hoy, no lo tengo tan claro como hace solo unos meses. Cuando los cambios en rankings empiezan a no tener una explicación del todo clara y se suceden muy rápidamente acabas con la sensación de que te están cambiando las normas del juego al que llevabas jugando ya muchos años y es cuando empiezas a replantearte todo lo que sabías. Hoy, los golpes a nuestra visibilidad van sucediéndose para bien o para mal al ritmo de los "core updates" que va lanzando el maldito buscador. Han conseguido despistarnos, para que negarlo, y aunque sabemos que será por poco tiempo también tenemos claro que muchos cambios son más drásticos y profundos de a lo que Google nos tenía acostumbrados ¿Estamos en un punto de inflexión en el que vamos a dejar de entender el SEO?
Soy un exagerado, si, las bases del SEO siguen ahí. Aportar calidad técnica, autoridad u orientar bien contenidos de un site nos beneficia con un ROI a la larga del que ningún otro canal de tráfico puede presumir. Esto no ha cambiado y el SEO hoy es si cabe aún más necesario de lo que ya era para los negocios. No, este no es un post sobre la muerte del SEO, es un post sobre la muerte del buscador de Google, al menos de ese buscador donde buscábamos keywords, o más que muerte, su transformación en algo más útil para la gran masa de usuarios que lo usa, es decir, más útil para todos.
Hoy nos toca el tercer post especializado en sistemas de indexación SEO. Ya hemos abordado las posibilidades de los archivos Robot.txt y la gestión de las etiquetas o cabeceras del meta-robots para controlar la indexación. Ahora nos toca trabajar con otro de los archivos más famosos del SEO: los archivos sitemaps.xml. Como en anteriores ocasiones vamos desgranar todo el contenido en distintos puntos, en este caso hablaremos sobre 12 cosas que es importante que sepas sobre estos archivos. Algunas serán sabidas, otras espero que te sorprendan y por supuesto algunas serán validas para unos proyectos u otros.
Y después del post sobre todos esos detalles del Robots.txt que mucha gente desconoce tocaba hablar un poco sobre el recurso hermano de este: la etiqueta meta-robots. Otro básico del SEO del que todo el mundo sabe cosas pero que como siempre tiene tal cantidad de pecularidades que es fácil que a muchos se nos escapen algunas. Seguramente incluso en este post me falte algún detalle por comentar, pero aún así creo que hay temas que la mayoría de SEOs desconocen o como míminimo conocieron hace tiempo pero ya no lo aplican.
El SEO es lo que tiene, hay tantos detalles y surgen tantas cosas cada año que terminamos por borrar de nuestra cabeza las cosas que menos usamos. Por ese mismo motivo tenia ya este post medio escrito en borradores del blog, para poder acudir a estos detalles dentro de un tiempo y usarlos como referencia. Lo dicho, espero que os guste lo que viene a continuación...
Hace tiempo que no comentamos muchas cosas de SEO por aquí. Así que para que no se diga hoy he sacado de borradores una serie de apuntes sobre uno de los básicos del SEO del que la mayoría de gente desconoce detalles muy importantes: El archivo robots.txt, uno de los básicos de la indexación SEO. Robots.txt es un archivo destinado a indicar a los buscadores que URLs tiene derecho a visitar y de cuales debería abstenerse. El funcionamiento es simple: antes de visitar una URL del site un robot debería mirar en este archivo para determinar si tiene que ir ahi a recoger información o si por el contrario el dueño del site prefiere que no entre. En definitiva son solo indicaciones que cualquier robot puede saltarse si quiere, pero a las que el robot de google hace bastante caso (que tampoco al 100%).
El archivo robots.txt es uno de esos temas técnicos del que todo SEO debe saber lo suficiente como para manipularlo con éxito. Por ello el mismo Google en su soporte nos indica como podemos crear el nuestro: Información sobre los archivos Robots.txt.
Se nos da información muy directa y fácil de asimilar. La redacción de estos archivos es muy sencilla aunque cualquier fallo, por mínimo que sea, podría provocar que las arañas no entrasen en las páginas que nosotros deseamos. En el mejor de los casos eso provocará que sigan visitando URLs en las que no querríamos que perdiesen el tiempo en el peor será todo lo contrario: no indexarán contenidos que en realidad si que queremos que aparezcan en el buscador. Es el tipíco aspecto importante que de fácil que es la gente no se toma lo suficientemente en serio, y ahí esta el problema: la documentación de Google está bien aunque no cubre todas las pecularidades sobre como se va a interpretar dicho archivo y si nos quedamos solo ahí podemos cometer errores que lamentaremos en el futuro.
Así pues, os dejo 10 conceptos sobre estos archivos que hay que tener en cuenta y asimilar. Desde lo más básico hasta consejos que solo en webs complejas o con mucho detalle de optimización del crawl budget podremos aplicar.
Este fin de semana se celebró la séptima edición del Congreso Web Zaragoza (que se dice pronto!). El año pasado me lo perdí por enfermedad (no podía ni hablar) y la verdad es que tenía muchas ganas de desquitarme y poder dar la charla que por una vez y sin que sirva de precedente llevaba más que trabajada desde hace meses.
Puedo decir que nos lo pasamos todos realmente bien, charlas interesantes (dentro de que al ser evento genérico tocaba muchos muchos palos distintos) y un trato excelente por parte de la organización. Aunque sin duda si algo queda para el recuerdo será la entrada de Sico de Andrés como Rafaela Carrà...
En esta ocasión di dos charlas. Una más técnica el viernes por la mañana en el clinic seo sobre analisis de logs con Big Query y Data Studio y otra en el auditorio sobre "SEO Escalable", una charla de creación de estrategias de crecimiento y evolución de un site. La charla creo que tuvo muy buena acogida o al menos fue el feedback que me llegó. Y siendo sincero, para que negarlo, realmente reconforta cuando crees firmemente en un mensaje, te esfuerzas en comunicarlo y luego ves como le llega a la gente. Y así fue, tal cual.
La semana pasada fuimos otra vez al Clinic SEO del eShow de Barcelona. En este caso nos llevamos una metodología que sabíamos que iba a gustar a muchos SEOs. Explicamos los pasos necesarios que hay que dar para poder disponer de Dashboards accionables sobre la información de los logs de nuestro servidor: Es decir, cómo fabricar un Analytics del rastreo que hace Google de nuestras webs y asi poder optimizar mejor la indexación de nuestros proyectos.
El proceso aunque no se libra de la carga técnica de empezar a lidiar con nuevas herramietnas (sobretodo si nunca antes habías necesitado usar bigquery) lo tenemos ya lo suficientemente depurado como para poder presentarlo como pasos a seguir sin demasiadas complicaciones en la mayor parte de los casos.
Espero que con esta charla hayamos abierto una nueva puerta a mucha gente que no podía acceder hasta ahora al mundo del análisis de logs que tantas sorpresas (buenas y malas) te da en el mundo del seo.
Hay tres grandes motivos por los que en SEO actual tiene mucho sentido preocuparse porque Google sepa quienes son los autores del contenido de nuestras páginas.
1. No ser penalizado erroneamente por Google Panda. Es decir, si nos preocupamos por conseguir que Google entienda quien ha escrito el contenido, habrá mucho menos riesgo de que al copiarnos un tercero Google asigne mal la autoría del Documento y se lo queden ellos penalizándonos a nosotros.
2. Conseguir el Rich Snippet de Autor (el resultado en google con la foto y nombre del autor) y así acaparar un mayor número de clicks (¡viva el CTR!)
3. Promocionar a nuestros redactores, haciéndolos más conocidos socialmente de forma que su autoría forme parte de nuestra marca. Las personas, por fin se están volviendo esenciales en Internet.
Dado que tiene mucho sentido conseguir que Google sepa asignar bien la autoría de los contenidos, seguidamente indicaré que pasos hay que dar para poder mejorar esta muchísimo...
Sinceramente, no creo que esto sea nuevo. ¿Como no va a leer estas etiquetas que llevan ya un tiempo existiendo? Otra cosa es el caso que les hiciese que sin duda ahora será mayor. Ya que entramos en el mundo de las etiquetas en la cabcera de una página creo que lo suyo, es conocer todas las importantes y no quedarse solo en el next y prev... Por eso, quería compartir esta lista de las que considero yo las más importantes:
SEO significa "Search Engine Optimization" o Optimización para motores de búsqueda. Pero esta definición no solo es ambigua sino que abarca tal cantidad de actividades que es necesario clasificarlas. Entre las clasficaciones de acciones y actividades SEO más usadas están la diferenciación entre SEO on Page y Off Page.
El SEO On Page, que podemos ver también expresado como SEO onPage SEO On-page, SEO onSite o SEO on-site (para gustos colores) es el conjunto de acciones que realizamos dentro de nuestra propia página para optimizarla para los buscadores. Quedano así como SEO Off Page todas las acciones que no hacemos en nuestra propia página, es decir, en el resto de páginas de internet. Cada vez que cambiamos un título, un texto o una maqueta; cada vez que creamos una nueva sección o un nuevo producto en nuestra web hacemos SEO On Page. Cada vez que creamos links en otras páginas, ponemos un tweet o comentamos blogs y foros hacemos SEO Off Page.
Así pués, podemos decir que el SEO On Page es la optimización pura, ya que no jugamos con la fuerza de nuestro site, su relación con otras páginas ni su tiempo de vida... simplemente manipulamos nuestra página para potenciar en los buscadores aquello de cuanto "poseemos" que más nos interesa.
Y llegó algo que a nadie va a gustar pero que nos lo merecemos y con creces. Google está empezando a dejar de mostrar como título del resultado de búsqueda el contenido de la etiqueta "title" de la página. Ahora, el mismo decide cual es el título optimo para un resultado...
Si te gusta lo que lees y crees que podría ser aplicable a tu negocio debes saber que ofrezco mis servicios como Consultor Independiente en Marketing Online, especialmente focalizado en SEO y Analítica Web
Si quieres que hablemos sobre tu proyecto, tan solo házmelo saber y me pondré en contacto contigo lo antes posible