Do not speak Spanish? Read this post in English.

Lunes, 22 d agosto d 2016.

El nuevo SEO, Google y la medición de la calidad

Siempre digo que el SEO es un mundo de modas. Tenemos de todo, a los influencers dejando claro de qué hay que hablar en cada momento, a una masa de SEOs que valora lo que le gusta y lo que no le gusta y en definitiva una serie de tendencias que cada año se imponen sobre distintas opiniones. A veces sigues la ola rápido, otras tardas más en asumir por donde van los tiros y lo cierto es que en ocasiones estas modas tienen sentido y otras son solo eso, "modas". Diferenciar lo que importa de lo que solo es tendencia -ya que no todo lo "de moda" importa siempre demasiado- se termina volviendo es todo un arte...

Cada año, cual canción del verano, ciertos temas se imponen y se asumen como ciertos. Cada año el mismo ciclo. ¿Pero que pasa este año? ¿No hay novedades? En una mirada superficial así parecería: Muchos sistemas de refritos con otro nombre, y mucho detalle suelto pero que no cambia la esencia del SEO. No hay grandes tips ni nada que nos obligue a revisar nuestras webs a todos.

Eso podría parecer, ¡pero vaya que si hay cambios! Lo que pasa es que quizás sean más transcendentales y difíciles de describir de lo que solemos estar acostumbrados. Y de eso va este post, del gran cambio que poco a poco está tomando forma y que cada día es más patente: Si nos fijamos bien, los distintos "temas de moda" confluyen para hablarnos en realidad de un único gran cambio:

Google ya no quiere contenido, quiere calidad

No es algo de lo que se hable siempre directamente, pero si que hay un trasfondo en cada pequeña novedad que nos lleva siempre por el camino de la calidad. Ya no del contenido, sino la calidad por la calidad en todo lo que influye en nuestro posicionamiento. Así que hoy hablaremos de calidad y SEO a sabiendas de que la Calidad es un aspecto muy subjetivo, que debe ser interpretado por maquinas que de por sí no entienden nada que no exista en su base programación y bases de datos...

quality

Un poco de introducción...

Llevamos algo más de un añito intentando subir el nivel y terminar de entender cómo es ahora la optimización perfecta. Cada uno avanza en su línea de experiencia y poco a poco algunos conceptos van asentándose para todos, pero en muchas ocasiones lo que tenemos es una gran amalgama de detalles que cuesta poner en conjunto hasta terminar de entender lo que está pasando con la evolución del algoritmo de Google.

Y es que en SEO creo que es muy sano simplificar las cosas hasta un nivel que sea comprensible para todos, pasar de esos 200 o 2.000 criterios de clasificación a un sistema lógico en el que las piezas se identifiquen sin problemas y sean más simples para todos. Es la única forma de no volverte loco y darle sentido a tanto detalle suelto. Para ello, nosotros en IKAUE tenemos nuestro "Diamante SEO", que divide lo que aprecia google de nosotros en 3 conceptos: indexación, semántica y autoridad.

diamante-seo

Este esquema (que no es el único, ni tiene por que ser el mejor, por supuesto) nos resulta ideal para entender como se conectan los distintos aspectos de la percepción que hace Google -y cualquier buscador- sobre nuestras webs. Aunque sabemos que es solo un esquema que no lo cubre todo. Así que para empezezar con una buena base a la hora de estudiar la calidad como criterio de posicionamiento debemos intentar situar esta en nuestro esquema y desde ahí seguir profundizando.

En nuestro caso, vemos que por lo general resulta complejo situar los aspectos referentes a la calidad en el diamante, pues afecta a las tres piezas del esquema a la vez. El propio concepto de calidad es ambiguo y nos habla de que un mismo recurso puede valorarse no sólo por existir sino por cómo se ha resuelto al ser creado. Tras darle muchas vueltas lo que vemos es que lo que provocamos al mejorar la calidad de una pieza del diamante afecta en realidad a como se percibe una pieza distinta. Es decir, por ejemplo, si mejoro la calidad semántica de un contenido con ello lo que hago realmente es mejorar la autoridad de ese contenido. Por eso nos cuesta tanto situarla en un esquema...

Así que en un intento de dibujar los aspectos principales que priman en la calidad del buscador vemos que no tiene sentido aplicarla directamente a estos 3 conceptos, sino que hay que relacionarla relacionada con la interacción entre ellos. Así pues una forma de dibujar la calidad sería esta:

  • De la indexación a la semántica: Nos encontramos con la fuerza que cogen los distintos sistemas de microdatos pero sobretodo con la capacidad que tiene Google de entender lo que ve y lee realmennte el usuario en las webs.
  • De la indexación a la autoridad: Nos encontramos con que los típicos aspectos de calidad técnica del site (formatos, pesos, velocidad de carga) y que se completan con la interpretación que hace Google de los aspectos de aportación de autoridad tales como calidad de los links
  • De la semántica a la autoridad: Quizás uno de los cambios más relevantes: la calidad (entendida de la forma más humana posible) afecta de forma directa e irremediable a la autoridad de los contenidos. Y en este esquema además sabemos que reputación de marca cada día es un factor más sobre la calidad de su propio contenido.
  • y de la autoridad a la semántica: Donde ya sabíamos que la semántica del origen de los factores de autoridad afectaba a la semántica del contenido pero ahora tenemos a un nuevo jugador en la autoridad: la experiencia de usuario que, medida de distintas formas, nos permite saber si un contenido ha sido consumido o ha generado rechazo.

diamante-seo-con-calidad

Son muchos detalles. Ninguno contradice las bases del SEO pero si que entre todos la completan. Podríamos decir incluso, que la búsqueda de la calidad se ha convertido en el nivel avanzado del SEO. Y es que podemos hacer SEO como siempre lo hemos hecho, incluso añadiría que es imposible hacerlo bien sin tener en cuenta las bases que manejamos desde hace años, pero lo cierto es que hay otro nivel con el que jugar y el SEO siempre va a estar peor hecho si seguimos hablando de mecánicas sueltas y no de una estrategia que tenga como trasfondo la calidad de todo lo que haces.

Como se dice en el mundillo: "El SEO no muere, se transforma", y parece que nos están obligando a transformar nuestras estrategias en conceptos algo más inteligentes que URLs y textos de 500 palabras...

Google y la calidad

La calidad de los resultados de búsqueda siempre ha estado en la boca de la gente de Google, desde sus primeras comunicaciones. Esto nos deja claro que, tengan o no éxito en obtenerla, la calidad es su máxima prioridad. Hablamos de un producto -Google Search- que en su superficie es tan simple como una caja donde escribes tu necesidad y esta responde. La calidad de esta respuesta es realmente el único parámetro por que el que podemos juzgar la herramienta y por lo tanto debe ser el principal objetivo para sus responsables.

Sin embargo esta calidad ha sido y es puesta en entredicho en multitud de ocasiones. Los SEOs estan ahí, muchos de ellos con ansias de llenar de spam el buscador, y algunos son realmente buenos en esta tarea. Así que Google en busca de esa calidad ha tenido que meter la sobreoptimización como elemento negativo. Así nacieron los updates y algoritmos negativos (los más famosos con nombres de tiernos animales blancos y negros) y empezó el juego del gato y el ratón entre SEOs y Google que si algo ha provocado es que nuestro trabajo haya pasado a dar resultados impredecibles (ya nadie garantiza subidas de un 100% como pasaba hace pocos años). Un juego, seamos claros, en el que Google -como era de esperar- va ganando poco a poco a la mayoría provocando que el SEO a largo plazo cada día sea un tono más blanco que el anterior. Cuando te pillan duele, y cada día te pillan más.

Pero, más allá de estas acciones de limpieza anti-spam, Google lleva tiempo enfrentándose a la necesidad de ser capaz de realizar un cualitativo de sus búsquedas de forma automatizada. Tiene a sus Quality Raters (personas que evalúan manualmente los resultados) pero Google necesitaba trabajar en algún sistema que le permitiese separar el contenido útil del prescindible para ayudarle a elaborar sus rankings no solo valorarlos...

¡Y algo hizo! las cosas parece que empiezan a cambiar. Lo que empezamos a intuir estos días es la prueba de que lo está consiguiendo... No significa que Google no siga lleno de Spam -ni mucho menos-, sino que cada día es más bueno en su labor de priorizar el contenido útil sobre toda la porquería que hay por Internet.

Google y el Machine Learning

Nos ponemos a hablar de calidad y es inevitable que nos salga humo por la boca. Es terreno de Guruseo y charlatanería. Y es que mi este concepto de calidad solo deja de ser palabrería y cobra sentido en el momento en el que empezamos a utilizar técnicas propias de la inteligencia artificial como parte del algoritmo de Google. Google Search quiere ser una persona. O más bien quiere pensar como lo hace la masa de personas, porque así es como consigue entender qué es la calidad fuera de simples procesos matemáticos donde solo la cantidad y la comparación directa de palabras pueden indicarle este tipo de aspectos tan poco matemáticos.

Para los que aun no lo sepan, el machine learning ("aprendizaje de maquinas" no queda lo suficientemente guay, ¡y lo sabes!) es una forma por la cual hacer "aprender" a las maquinas -ordenadores más bien- a base de gran cantidad de ejemplos de comportamiento -en este caso de las personas-. Para simplificar podríamos entender que se trata de programas dedicados a recoger información desestructurada sobre lo que hacen las personas frente a cierta situación más o menos subjetiva. A partir de ahí con procesos muy variables sacan patrones de comportamiento y así son capaces -en teoría- de dar resultados que repliquen esa creatividad o subjetividad de los individuos. Como fuentes de datos tenemos casi cualquier posibilidad (depende de como haya sido programado este aprendizaje puede haber incluso validaciones a mano). Tenemos sistemas que "simplemente" leen libros o textos para aprender a expresarse, otros que sacan patrones de datos estadísticos o sistemas ya montados para que las personas ayuden a las maquinas a aprender (un ejemplo muy claro sería el Google Image Labeler).

MachineLearningDiagram

Para terminar de aclarar del todo el concepto: El machine learnign no es inteligencia artificial -no responde a preguntas directas, ni mantiene una amena charla con John Connor mientras mantiene su escopeta en alto- pero es una base firme por la que se puede empezar a desarrollar y mejorar esta famosa inteligencia artificial y así encontrar soluciones humanas a problemas humanos. Con este tipo de técnicas y los patrones que surgen de ellas, poco a poco se están consiguiendo grandes logros al crear diálogos, respuestas automatizadas o interpretaciones automatizadas de gran cantidad de situaciones. Hay hasta una película rodada sobre un guión escrito por una máquina, que según parece es infumable, por supuesto -pobres máquinas, aun están aprendiendo- pero ya solo que consigan acabar un guión es más que notorio.

En fin, "Machine Learning"... Lo que resulta tan fácil de describir en palabras se transforma en la práctica en una ciencia que avanza a pasos agigantados y en la que muchísimas grandes empresas están invirtiendo millonadas. Entre ellos Google/Alphabet , donde por supuesto no hablamos sólo de búsquedas sino de multitud de aplicaciones. Algunas son más evidentes para el gran público como el nuevo Google Asistant -destinado a ser el corazón de Google Home y de nuestros móviles-, el reconocimiento de fotos o los coches autónomos. A estas se unen aplicaciones más cercanas a nuestro trabajo como SEOs como algunas partes de los updates de Google Panda o el reconocimiento de intención de la búsqueda que se realiza desde que el algoritmo cambió sus bases y paso a llamarse Hummingbird. Todo esto sale del mismo tipo de acciones y al final este gran mundo se resume actualmente en pequeñas aplicaciones que dan respuestas sorprendentes a casos concretos porque han estudiado el comportamiento humano (analizando millones de ejemplos) y por lo tanto pueden en mayor o menor medida replicarlo.

Google Brain Team y Google Search Rank Brain

Que Google se toma en serio todo lo que tienen que ver con sistemas de inteligencia artificial lo tenemos patente solo con mirar a uno de sus equipos/departamentos más famosos en la actualidad: Google Brain, un equipo dedicado fundamentalmente a mejorar el conocimiento sobre estos ámbitos en Google y en su empresa madre Alphabet. Especialmente interesante me parece la ronda de respuestas que lanzaron hace poco en Reddit (en inglés), aclarando a qué se dedican, qué buscan y como colaboran.

largescale-deep-learning-for-building-intelligent-computer-systems-a-keynote-presentation-from-google-1-638

Google Brain sería el pilar más académico de estas investigaciones pero no perdamos el norte y volvamos al buscador. Hablábamos de machine learning y en esta línea es inevitable terminar descubriendo como todo este uso sistemático del machine learning acaba, como no, teniendo una integración directa en todo el algoritmo. Esto sucedió hace ya unos meses con un producto que acabó siendo presentado con un nombre propio en octubre de 2015: RankBrain.

Google Rank Brain

Un añadido que se nos presenta ya como la 3ra señal más importante que toma Google para mostrar sus resultados en el buscador. Sobre cómo afecta a la interpretación de las búsquedas existe en realidad cierta polémica. Puedes buscar por internet sobre ¿qué es o qué hace Rank Brain? y verás más posts mezcando temas que no tienen nada que ver y elucubrando que diciendo realmentne lo que es.

Oficialmente sabemos que interpreta las búsquedas para ser capaz de mostrar resultados que respondan a la intención de búsqueda real del usuario, pero no por ello tengan que contener las palabras buscadas. Es decir, busca interpretar de forma humana lo que realmente buscamos. Ahí es nada. También sabemos con certeza que donde si lo están usando es en búsquedas nuevas (búsquedas que nunca antes habían sido hechas) para saber que busca realmente el usuario con ellas. Unas búsquedas que gracias al mobile y a las búsquedas por voz se van disparando y que lo harán aún más si Google Assitant termina de triunfando.

Ya dentro del terreno de la opinática el mundo SEO tiene de todo para nosotros.

-Empezamos por la más famosa: que recoge tu experiencia de búsquedas previa para saber que ofrecerte (lo que sabemos que Google hace, pero yo dudo que esto este dentro de RankBrain, más bien parece que es solo una capa de personalización más simple).
- Otras teorías nos hablan de que para búsquedas semejantes permite a Google posicionar dando pesos distintos algunos criterios de autoridad y por lo tanto así se adapta mejor a lo que realmente busca el usuario (algo que suena muy chulo y creible pero es difícil de demostrar que esté pasando realmente).
- Y luego ya llegan ideas raras que realmente no se como la gente ha terminado asociando con RankBrain.

Sea como sea, RankBrain no es el único sistema de Machine Learning de Google Search, solo es el único con nombre propio y función claramente definida dentro de la interpretación de las búsquedas. Dentro de la valoración de tus páginas, que es lo que nos ocupa tenemos otras aplicaciones que iremos perfilando.

Si te interesa este mundillo del machine learning y aun no te queda claro de que va te paso algunas lecturas con las que hacerte una idea:
- Machine learning Revolution de Moz y en inglés.
- Machine learning changiong Seo de Search Engline Journal y en inglés.
- Artículo sobre Machine Learning en El mundo y en español.

¿Cómo nos afecta la calidad que percibe Google a los SEO?

Como decíamos Google aplica lo que es capaz de intuir sobre la calidad de nuestras webs y contenidos de distintas y diversas formas. Prácticamente a cada uno de los criterios SEO les aplica este barómetro. Esto ya lo hacía hace tiempo, la diferencias radica en que ahora tiene más recursos para hacer sus valoraciones mucho más humanas y darse cuenta de que es "bueno" y que es "una mierda".

¿Significa esto que el SEO haya cambiado radicalmente? En absoluto. Los pasos siempre se dan muy poco a poco y estos criterios de calidad existen, pero no lo son todo ni mucho menos. Son solo la parte en la que ahora se está evolucionando. Pero no eliminan nada de todo el SEO que ya se venía haciendo. Seguidamente vamos a hablar de muchos matices y elementos a tener en cuenta al trabajar con nuestras webs pero por favor no entendamos que estos son los únicos. Todo lo demás sigue estando ahí y al menos a día de hoy sigue siendo más que vital para posicionar correctamente.

Para empezar a bajar al detalle vamos a ir siguiendo las partes del diamante que os presentaba al principio. Vamos a repasar cómo trabajar esta calidad en la web pieza a pieza...

La calidad en la indexación

La indexación es ese proceso por el que Google recoge y clasifica los contenidos dispersos por Internet. Habrá quien te diga que el rastreo es una cosa y la indexación otra. Bien, a mi me da igual. Al menos en este texto entenderemos el rastreo como un proceso necesario para poder realizar la indexación.

Esta es quizás la parte más técnica del diamante que dibujabamos antes. Pero aun así no se libra de esta interpretación de la calidad que realiza Google. Así que vemos que hay 2 grandes grupos de criterios a tener en cuenta (los viejos más técnicos y los nuevos más "inteligentes"). Poco a poco iremos viendo como esta dualidad la encontramos por todo el "nuevo google".

1. La perfección de la web y clasificación según su etiquetado

Aquí no hay nada que no sepamos hace tiempo. Se trata de valorar y clasificar a las webs por sus características de calidad técnica. Este tipo de criterios están ahí desde hace tiempo y vamos viendo como simplemente se ha hecho más obvio que afectan al posicionamiento.

Los elementos quizás más notorios en este ámbito serían:

  • La velocidad de proceso y conexión de los servidores
  • El peso de la web, de su HTML y de los recursos que usa para imprimirla
  • La adaptación a distintos dispositivos de la web (por ejemplo mobile)
  • El etiquetado y las ayudas que ofrecemos para dejar entender nuestro HTML y nuestros contenidos. Principalmente hablamos de HTML5, etiquetas REL y de Schema (microdata o Json-LD, lo mismo da)

Para todo esto tenemos herramientas de trabajo de sobra (pageSpeed, GSC, PingDom, Structured Data Testing Tool, etc.) y el trabajo sobre estos criterios sin dejar de ser esencialpara hacer buen SEO puede llegar a ser casi mecánico (ya se que exagero, pero algo automático si que se vuelve).

Todo muy sencillo y capaz de meterse en un manual, pero como anunciábamos ya no todo son datos técnicos. A todo esto tenemos que sumarle la calidad medida de una forma más humana.

2. La detección no técnica de criterios de calidad

Fuera de la parte técnica vamos descubriendo que Google también intenta averiguar -le ayudemos o no-, qué es lo que está recogiendo realmente. Ahí están sus avances técnicos y en machine learning dándolo todo. Sabemos que es capaz de identificar qué lugar ocupan los elementos en el diseño final, qué tamaño tienen y por lo tanto cuan relevantes serán estos contenidos para el usuario cuando los vea e interactúe con ellos. Unos cuantos millones de ejemplos de uso que hacen los usuarios al encontrarse este tipo de elementos y ya tenemos algoritmo de calidad (que fácil es describir las cosas cuando no hay que programarlas, ¿verdad?)

A nosotros sobre este aprendizaje nos van llegando píldoras en forma de pequeños updates oficiales: como el que penaliza la publicidad excesiva, el que prioriza el contenido above-the-fold, el que disminuye drásticamente el peso a contenidos y links ocultos y que necesitan clicks del usuario para ser mostrados. Esas son las píldoras, pero la base es que Google está empezando a interpretar los diseños de una forma parecida a como nosotros lo hacemos cuando los vemos. ¿Los criterios de usabilidad por lo tanto están afectando al seo? Pues no al SEO Base , pero a su calidad si, y esto va a ir a más. Llegamos a un punto donde empezamos a poner seriamente en duda que la calidad del HTML afecte al SEO. Mientras etiquetemos bien los bloques del HTML5 (header, nav, article, etc.), hagamos un correcto etiquetado de referencias (hreflang, lang, version mobile, etc) y marquemos los datos estructurados más relevantes el resto del HTML ¿Tiene sentido? Pues la sensación es que cada vez importa menos el HTML y en cambio cobra más importancia su visualización final.

Una mención especial sobre todo esto merece el tema de la medición de la calidad de los links. Un tema importantísimo tanto para temas de Autoridad OnPage (Arquitectura de la información, Link Sculping, etc.) como de autoridad OffPage (links naturales y Link Building). Aquí se dicen muchas cosas que yo soy muy reacio a creer y que nos dicen que los clicks reales de los usuarios son tenidos en cuenta para valorar los enlaces. Ya hablemos de si Google sabe esto gracias a que roba los datos de Google Analytics o si lo hace de tu historial de Chrome (desktop o mobile) a mi me parecen más teorías "conspiranoicas" que una realidad comprobable.

Reconozco que gustó mucho el post de Sistrix sobre este tema por como lo desarrollaban y como te llevan por esta pregunta tan actual. Pero igual que les menciono y pongo en valor todo su argumento podéis ver que no comparto la conclusión. Es una posibilidad, pero me parece demasiado arriesgada. Estas acciones de ser ciertas serían de dudosa legalidad y con un altísimo impacto social si Google fuese descubierto practicándolas. Dudo mucho que "desde arriba" se barajen estas posibilidades. No se, me crié en internet con el "don't be evil" de fondo...

Aquí el machine learning otra vez creo que es la clave. Nadie dice que Google no pueda valorar la actividad de miles de analytics (principalmente suyos) o los datos de los que dispone y acumula gracias a nuestros navegadores. Pero dudo mucho de que se trate de un uso directo que ataque a nuestra privacidad de forma personal. Toda esta información de la que disponen tiene mucho más sentido como muestras con las que nutrir a distintos programas de machine learning para sacar patrones que sepan predecir si un link es visible o no, si es bueno o malo y si se ha puesto ahí para hacer link building o realmente tiene sentido su incorporación para el contenido.

Y es que sabemos que esos patrones sobre los links ya han sido en parte extraídos. Existen y están mejorando día a día. En su versión más drástica se llaman Google Penguin y en su versión más dinámica lo aplican con el comportamiento de su "Reasonable Surfer" para ponderar el valor de los links al indexarlos.

La conclusión que podemos sacar sobre la indexación es que Google busca VER e INTERPRETAR como un usuario. Aun no sabe hacerlo bien, pero cada día lo hace mejor.

La calidad en la semántica

La semática es el pilar de comprensión del algoritmo. Aquí es donde se evalúan los significados de los textos que posicionamos y por lo tanto es donde entramos de cabeza en el mundo de las keywords.

Como siempre tenemos una parte más técnica y otra más humanizada por la que observar este problema.

1. La calidad semántica, observada técnicamente

Aquí nos damos de bruces con las creencias más antiguas en SEO: Necesitamos contenido textual y con una dimensión mínima para entender que nuestro contenido es de calidad. El mejor ejemplo -que no prueba- sobre esto siempre fue la Wikipedia. "Mira como siempre salen los primeros, esto es porque sus artículos son textuales y superlargos". Difícil de rebatir, pero no por ello cierto.

Otros conceptos puramente técnicos serían la vieja "densidad de keyword", el "peso de contenidos según sus etiquetas HTML" y algoritmos más o menos simples de lectura e interpretación del contenido. Todos ellos son conceptos aun vigentes en muchas charlas pero también desfasados y matizados por otros más modernos y certeros.

Siguiendo dentro del ámbito técnico tenemos los poco a poco más famosos términos de:

  • El posicionamiento por semánticas: que nos deja claro que la keyword exacta cada vez tiene menos sentido y lo que tenemos que hacer es ir a posicionar significados
  • Co-citación y Co-ocurrencia: Donde destacaría la explicación base que Jesus Lopez por lo clara que es ¿Qué es la Co-citación y la co-ocrrencia? y los casos profundos que suele ofrecer Cesar Aparicio en sus charlas y posts.
  • Y la Semántica latente: Que de forma totalmente ligada a la co-citación resume aún mejor la forma por la que los buscadores "entienden el contenido". Aquí os destacaría dos post casi contradictorios en su forma de expresarlo: Por un lado el de Human Level por lo exacto y claro del mismo. Y por otro el de Chuiso precisamente por aterrizar el concepto justo al revés, de forma más bruta y directa pero con un ejemplo práctico que puede ayudar a muchos a interiorizarlo.

Estos son ejemplos claros de como se puede entender la semántica de forma matemática pero bastante más compleja que una simple repetición de keyword. Hasta aquí todo podemos entenderlo más o menos bien. Normalizarlo y trabajar. Y lo cierto es que sin duda esta es la base de la semántica y no dudo que siga siendo una parte muy fuerte del análisis semántico que realizan las maquinas, pero estaremos de acuerdo que un análisis de cercanía en frases o citaciones no es suficiente para "comprender" lo que dicen las personas en las webs. Esta claro, que Google quiere avanzar bastante más en este terreno...

2. La calidad semántica, más cerca de la realidad

Aquí tengo que recomendaros por encima de todo este post de search Engine Land

What is Quality Content

Donde Patrick Stox pega un genial repaso a la pregunta "¿qué debe considerar Google contenido de calidad?". Se nos habla a través de documentaciones, guías de referencia y declaraciones de distintos aspectos que de forma reiterada nos guían hacia los principios de calidad que forman el trasfondo de la búsqueda que hace Google. Si no lo habéis leído apuntad el link que merece la pena.

Entre un paseo entre inputs, documentaciones y declaraciones nos deja ver la evidencia: Google no quiere que sepamos que interpreta por calidad y que no, pero le interesa que entendamos de forma clara lo que es baja calidad.

Las conclusiones prácticas que podemos sacar de este artículo serían las siguientes:

  • E-A-T: Expertise, Authoritativeness and Trustworthiness. Indicador/es de la calidad del contenido según la experiencia (tiempo y conocimiento), autoritatividad (capacidad de tomar una buena decisión) y credibilidad (capacidad para no equivocarse y no ser puesto en duda). Es decir es un sistema de medición de lo crack y fiable que es la fuente. Para ello Google necesita una información vital: reconocer quien es el responsable del contenido y/o mímimo de la web. Por eso nos anima a tener un buen "Quienes somos" y a firmar los posts.
  • PQ (page Quality) Un criterio basado en la CANTIDAD de contenido principal (MC-Main Content) de ALTA CALIDAD. Entendiendo como contenido de alta calidad aquel que hacen falta tiempo, esfuezo y conocimiento para crear. Es decir, o al menos yo lo leo así: cantidad de contenido que aporta valor diferencial que hasta entonces no existía en internet.
  • Respuesta a la Intencionalidad de búsqueda Entendiendo que Google divide las búsquedas según tipos de interés y por lo tanto si entiende que alguien busca descripción primará contenidos contrastados y con detalle pero si la búsqueda tiene una intención más ociosa blogs, vídeos y juegos saldrán beneficiados. Esta adaptación a la intención de búsqueda resulta especialmente interesante. ¿Que debo ofrecer en mis fichas de eCommerce? Pues dependerá de la keyword por las que queramos posicionarlas y por lo tanto su intencionalidad de búsqueda. Si solo vamos a por el nombre de producto, describirlo mejor que nadie y aportar valor sobre sus detalles parece la mejor opción, pero no la única.

Es un post para leer y reeler. Aun no hay normas en este sentido pero se van viendo por donde van los tiros y que este mundo de "hay que añadir 500 palabras de contenido a todas las páginas" tiende a desaparecer. Nos vamos a por la apuesta de valor y la diferenciación, aspectos mucho más cercanos a la realidad de los usuarios. Ya no se trata de que no debo duplicar contenido sino que debo dar al usuario información que el resto no de.

En coclusión lo que vemos sobre semántica es que Google lo que intenta es COMPRENDER y PONER EN VALOR la información de fondo de nuestras páginas. Acercándose así a la opinión que podría tener una persona al ver un contenido

La calidad en la autoridad

La autoridad es ese término con el que definimos toda esa amalgama de criterios que se usan para determinar si una página es más importante que otra. En circusntancias ideales dos webs con identica semántica (algo que no puede pasar porque se trataría de webs duplicadas y por lo tanto penalizables) se ordenarían en los resultados de búsqueda dependiendo de su autoridad. Por supuesto, sabemos muy poco sobre como se hace este cálculo realmente y la mayor parte de los SEOs trabajamos con indicadores de autoridad de terceros que sabemos que no son exactos pero que ayudan a entender todo esto...

Como en los dos casos anteriores mezclamos criterios antiguos con nuevos:

1. La autoridad técnica

Se resume en criterios acumulativos que se aplican de formas muy diversas:

  • Tienes tantos links, desde tantos dominios, que a su vez tenían tantos links desde tantos dominios.
  • Tienes un historial digno o eres un newbie o un piratilla.
  • Tu web es un cacharro al que le cuesta imprimir cada página o vuela sirviendo el contenido en tiempo record...

Nada que no sepamos y con lo que no trabajemos desde hace tiempo. El post me está quedando muy largo así que permitirme que no me enrede más con esto.

2. La autoridad y la calidad

Y aquí entramos en el terreno más afectado por todos estos cambios. Y es que sólo con lo que ya hemos comentado en puntos anteriores vemos que los criterios de calidad han cambiado mucho.

Pero quedemosnos solo con los 2 inputs principales:

1- Los links no se indexan ni valoran como antes sino que además dependen de la interpretación del diseño y el contexto que hace Google De la web.

2- La calidad del contenido afecta tanto a la autoridad de este contenido como a la que traspaso con sus links.

A esto sumamos distintos criterios que no sabemos cuanto llevan ahí pero que desde luego hace un par de años ni siquiera mirábamos y ahora sabemos que han cobrado bastante relevancia.

De entre todos los nuevos destacaría a dos de ellos:

1- La relevancia del creador (marca/autor) marca como criterio de calidad.

Y es que Google ya nos lo dice por activa y por pasiva. No importa solo como es tu web, cómo es tu contenido o cuantos links recibe... El E-A-T (Expertise, Authoritativeness and Trustworthiness) del que hablabamos en semántica va muy ligado a esto. Esto significa que quien redacta el texto (o a quien asigna Google esta redacción) aporta autoridad dependiendo de su reputación percibida por el buscador. Y aqui podríamos diferenciar 3 tipos de asociaciones auqnue en realdiad todas son más o menos lo mismo:

  • El dominio que contiene el cotenido como elemento más simple de asociación entre contenido-creador.
  • La marca/empresa, como una entidad superior al dominio y que se ve reflejada no solo en el mundo web, sino que tiene que ver por ejemplo con las búsquedas que realiza la gente o con la citación de sus nombres de marca aun sin links.
  • El autor, como persona física que escribe y que Google hace años nos obligó a etiquetar por todo internet para sacar su foto en los SERPS. El autor, cuyo etiquetado HTML está en desuso porque Google averiguo como detectarlo por si solo. Este aporta su propia semántica y autoridad.

En fin, que la autoridad se ha vuelto más real (que no justa). Ahora tenemos claro que no es lo mismo un texto de actualidad lo escriba un periódico que un chaval con su blog. O que tu tienda de barrio no puede competir con Carrefour sin hacer muchísimo más que ellos en SEO. El caso de la TV ya es más que evidente. Trabajas con una web sin ser una gran referencia para Google. Empiezas a hacer TV y el posicionamiento se dispara sin que los links o menciones online aún lo hayan hecho. Google sabe que ya eres mucho más relevante que antes y tus contenidos valen más.

2- La experiencia real del usuario como criterio de calidad

El otro gran añadido es también una gran incógnita en cuanto a cómo se mide. Google busca saber si cuando un usuario hace click en un resultado que él ofrece queda conforme o no. De esta forma debería poder automatizar que los resultados que más disgustan a los usuarios bajen posiciones dejando el top10 para los más satisfactorios.

Sabemos que esto está pasando pues vemos como páginas con contenidos que debería ser clasificado como mediocre por su contenido textual se mantiene en los tops al responder perfectamente a las necesidades del usuario aunque sea simplemente ofreciedno links hacia otras páginas...

¿Cómo mide esto? Tenemos dos posibilidades y un extra a añadirles:

  • Lo que todos sabemos es que se calculan los llamados "short Clicks", clicks que rápidamente provocan que el resultado vuelva a su búsqueda. Sobre esto ya escribí un post en 2012 explicando cómo puede medir Google lo que ahora conocemos como short clicks (como pasa el tiempo).
  • Pero a muchos no les parece suficiente y nos instan a que Google debe estar buscando registrar la UX completa. Nos dicen que deberíamos mejorar el CTR dentro de Google demostrando así que nuestro resultado es atractivo. De ahi salen además mil bots de dudosa utilidad. Otras opiniones aún más drásticas nos marcan a Google Analytics o Google Chrome como los grandes chivatos de Google. Cada uno que crea lo que quiera

Yo os volvería a pedir que añadieseis el machine learning a la ecuación. Con millones de ejemplos y valoraciones... ¿por qué no va a saber Google o al menos intuir si al usuario le va a gustar lo que ve? Si el diseño le dará confianza a seguir navegando, si el contenido es lo que espera recibir, si la publicidad no es excesiva, etc... No digo que no use datos reales sino que a veces nos fijamos solo en datos cuantitativos cuando hay puntos de la UX que son predecibles por una persona y por lo tanto en parte lo són también para una maquina.

Como conclusión diremos que Google está acercando los conceptos de autoridad clásicos a los de RELEVANCIA y UTILIDAD de las páginas. Conceptos mucho más humanos que links, menciones y dominios

Trabajando el nuevo SEO:
Hay 2 SEOs, pero nada muere ni deja de ser importante...

Tras todos estos detalles deberíamos entender que ahora hay una nueva forma de hacer SEO. Mucho más compleja en la parte del algoritmo pero mucho más humana en la práctica. La lógica y el sentido común siguen siendo nuestra mejor baza para averiguar como trabaja el buscador. Más aun cuando sabemos que cada vez más sus decisiones se basan justo en analizar como reaccionamos nosotros (con nuestra lógica y sentido común) a las páginas web. Así pues "hacer las cosas bien" siempre es garantía de estar haciendo un buen SEO.

Este nuevo análisis añade una capa de complejidad a nuestro trabajo sin eliminar o sustituir nada de lo que había antes.

Por fin llegó la era del SEO centrado en el usuario

Llevamos oyendo hablar de esto mucho tiempo. Si te orientas al usuario harás buen SEO. Esto siempre ha sido cierto pero solo en parte. Por un lado el usuario no necesita muchas cosas que a Google le son esenciales y por otro muchos detalles para ayudar al usuario no eran (ni son aun) percibidos por el buscador.

Así que como filosofía siempre ha estado bien esta afirmación. Pero no es hasta los últimos tiempos que realmente podemos empezar a afectar al posicionamiento con acciones dedicadas al 100% al usuario: Tocar diseño, ajustes de navegación, pequeñas mejoras en la comprensión de los textos, informaciones útiles para el usuario multimedia o que forman poco texto, etc... Todo esto ya afecta a tu posicionamiento y antes no lo hacía.

El usuario es el centro de Google, así que hay que hacerle feliz, no queda otra.

Por otro lado cada vez va perdiendo más importancia la parte técnica. Antes dos webs que parecían iguales, siendo una buena en su optimización SEO técnica y la otra mala, tenían posicionamientos realmente distintos (hasta el punto de no ver apenas a la segunda en el buscador) poco a poco esta diferenciación va siendo menos notoria pues si el usuario es feliz con ambas webs, Google debe tender a equipararlas.

Asúmelo, se acabo eso de entendamos y expliquemos las normas del algoritmo

La verdad es que nunca lo hemos terminado de entender, todo sea dicho. Pero cada vez vamos a entenderlo menos. Y Aun así todo esfuerzo dedicado a comprender por qué pasa lo que pasa en los resultados de Google siempre va a merecer la pena. Vivimos de ello. El cambio radica en que tenemos que asumir que, cada vez más, se nos escapan y escaparán cosas.

Y luego hay otro tema a tener en cuetna. Lo cierto es que si bien en SEO no hay trucos ni magia siempre han existido técnicas aisladas que se aplican incluso por la gente que no sabe por qué lo hace. Y siempre han funcionado. ¿Siempre? No, en realidad no, llevamos ya un tiempo que este tipo de mierdiptimizaciones no sirven para nada. Esto es cada día más real y por lo tanto más evidente por lo que debemos dejar de basarnos en técnicas y centrarnos en crear estrategias globales. Basta ya de alts en las imágenes y usar negritas... En serio, el SEO hace mucho que no va de eso. Poco a poco se ha transformado más en un: "Cómo damos valor al usuario", "Como nos diferenciamos de la competencia" y luego claro "y por qué semánticas puedo apostar y tener éxito".

Hemos evolucionado, pero las bases siguen siendo lo primero

Este nuevo camino es apasionante, nadie lo niega. Pero debemos evitar cometer el error de creer que ahora todo es usuario, diseño y UX. Nada más lejos de la realidad, las bases del SEO siguen ahí y siguen teniendo mucha fuerza en el posicionamiento. Si no sabes indexar, maquetar, crear una buena AI, etc. No vas a hacer un buen SEO. Te aprovecharás de que ahora Google te entiende mejor pero no llegarás al nivel de otros.

A día de hoy las bases siguen siendo más importantes que lo demás. Aplícalas o no digas que haces SEO. De hecho, si tus recursos/conocimientos son limitados harás mejor preocupándote del SEO básico y de tus usuarios por otro lado sin pensar en el SEO que ideando estrategias solo centradas en el "nuevo SEO".

A mi lo que más me preocupa de todo esto es el riesgo que tenemos con esta nueva tendencia: El número de personas que van a empezar a decir que hacen SEO y que solo hablarán de aspectos de comunicación está creciendo y va a crecer mucho más. Yo no digo que haya que ser programador para hacer SEO (ni mucho menos) pero lo que no puedes es soltar un discurso sobre el usuario y no tener ni idea de como funciona un robot al rastrear la web o no sepas validar una simple maqueta HTML. La diferencia entre el humo absoluto y una buena estrategia está en el trasfondo que aporta alguien que conoce todas las piezas de lo que se está planificando. Por desgracia, cada vez vamos a ver más este tipo de perfil (que no sabe de SEO pero vende este nuevo SEO) y esto al no tener resultados va a desprestigiar al sector... Va a pasar como ya ha pasado antes y lo sabemos todos, pero que sea inevitable no lo hace positivo.

Esto va a ir a más

Y acabo ya solo recordando que esto es solo el principio. Las máquinas no paran de aprender y de hecho ya han aprendido cosas que no hemos percibido aun. Hoy mismo, los algoritmos de machine learning se están comiendo millones de datos nuevos en todo el mundo. Bienvenido sea, lo divertido del SEO es que siempre hay cosas que hacer. Estaremos expectantes a ver que lo siguiente que nos comunican desde Google y que updates nos sorprenden moviendo todos los resultados arriba y abajo. Lo que esta claro es que si que están cambiando las cosas: Pero quizás demasiado y de forma demasiado constante como para que seamos conscientes en el día a día.

Temas Relacionados: seo

Autor:

25 Comentarios para “El nuevo SEO, Google y la medición de la calidad”

  1. ¿Cómo consigo mi diamante por haber llegado y leído hasta el final? Buen capítulo, Iñaki!

    • inaki dice:

      Un poco largo si, Sergio 😛

      Ya me conoces me pongo con una idea y no paro de añadir detalles...

      Solo espero que te haya gustado y no haya sido una perdida de tiempo hacer tanto scroll 😉

  2. Brutal! Me ha encantado el contenido, aunque voy a tener que leerlo un par de veces más, ya que esto más que un post parece la biblia xDDDD.

    Un abrazo!

  3. Daniel Peris dice:

    Buenas Iñaki!

    Muy bueno (y extenso) el post :)

    Pero... ¿Dónde está el botón para compartir en Twitter? :O

    Abraso!!!

  4. Sico dice:

    Como siempre excelente info. También me lo guardo para leerlo más detenidamente. Un abrazo Iñaki

    Falta el botón de compartir en Twitter ;(

  5. inaki dice:

    Daniel & Sico,

    Ya lo añadi! Si que había botones, pero del año de la pera y ya no funcionaban. De twitter habia uno de topsy.

    Gracias por el apunte y los comentarios!

  6. Ricard Menor dice:

    Saludos Iñaki.
    A estas alturas no voy a ser muy original felicitándote por estas reflexiones...
    Oye, ¿dónde está la pizarra blanca que no la encuentro? Una disertación así se la merece, pero no te cambies el look como Rand 😉

  7. Sergio dice:

    En resumen, contenido de calidad, reforzar la marca, y una web bien hecha (que implica un buen SEO técnico).

    Lo que Google lleva 15 años diciéndonos que digamos.

    Grandísimo post Iñaki, mi enhorabuena.

    • inaki dice:

      Bueno, son 3 puntos a destacar. Como resumen puede valer 😉

      Lo que yo creo que es un cambio de concepto mucho más profundo. Para mi es más un SEO Normal + Orientación al usuario en todo lo que quiras priorizar en SEO. En cuanto a contenido el cambio croe que es más hacia calidad mejor que cantidad.

  8. Emilio dice:

    ¿calidad = buena experiencia del usuario?

    Que ese factor cada vez es mas importante y definitivo a la hora de perder o ganar posiciones.

    Felicidades por el grandísimo post.

    • inaki dice:

      Sin duda es parte. Aunque creo que es algo más completo... Calidad = buena experancia de usaurio + buen reconocimiento del creador + aportar valor real al mundo + visibilidad clara de lo que importa en tu web

      Gracias por el comentario Emilio.

  9. Dámaso Curto dice:

    Buff!! qué currado tio, gracias!! Curiosidad absoluta cuanto porrón de horas te lleva hacer estos pedazo de post tio, si es que lo sabes 😀

    • inaki dice:

      Gracias Dámaso!

      Normalmente son cosa de una tarde o dos tardes pero a piñon y con las ideas claras.

      Este en realidad es la excepción lleva entre borradores y con reediciones unos 3 meses... 😛

  10. Asier dice:

    Buenísimo Iñaki, muchas gracias por el artículo!

  11. Tremendo artículo.
    Como siempre me pasa en éste blog, necesito releerlo un par de veces y reposar bien toda la info, pero siempre merece la pena.
    ¡Muchas gracias!

  12. Isabel dice:

    Cómo dice Sergio yo también quiero mi diamante.
    He leído todo hasta el final y apuntado las recomendaciones de artículos.
    Este sí que es un contenido de calidad
    Me ha encantado

  13. ¡Gran artículo Iñaki!
    Yo también me lo he leído entero... ¡y en vacaciones!
    La prueba: hay una falta en este enlace "¿Qué es la Co-citación y la co-ocrrencia?"
    Ahora mismo lo comparto por las redes :)

  14. Hola Iñaki,

    Enhorabuena por el articulazo. Me lo guardo para leerlo de nuevo más detenidamente porque merece la pena.

    PD: Te entiendo a la perfección con lo de las extensiones a la hora de redactar. No estás solo Iñaki jajaja 😉

    Un saludo.

  15. luis dice:

    Un buen articulo, ahora falta que google nos posicione bien nuestra web o blog.

    saludos

Anímate y deja tu comentario