Rastreo, indexación y ranking

rastreo-indexacion-ranking

Rastreo, indexación y ranking (ordenación) son tres actividades muy diferenciadas que los buscadores hacen de forma casi simultánea (como el aceite 3 en 1).  Todos los buscadores hacen lo mismo, la diferencia entre unos y otros se encuentra en la calidad de sus algoritmos.

El origen de las actividades de un buscador se encuentra en el momento en el que un robot llega a un website.

Paso 1. Rastreo. El buscador envía un crawler que rastrea el website e identifica todos los recursos que componen el website, diferenciando estructura y contenido. Al mismo tiempo hace recuento de los mismos.

  • Número de archivos HTML
    • Número de etiquetas title
    • Número de etiquetas metadescription
    • Número de etiquetas H1
    • Número de etiquetas H2
    • etc
    • Número de imágenes
  • Número de archivos CSS
  • Número de archivos JavaScript

Paso 2. Indexación. Ahora el buscador a través de diversos bots especializados identifica el contenido del site y crea una tabla (el índice del website) con el número de veces que una misma cadena de texto está recogida en el website, con el número de veces que esa misma cadena aparece en cada página, con la etiqueta con la que esa cadena está asociada dentro de la página (si es title, H1, H2, metadescription, etc). Es decir, asocia contenido y estructura y crea un índice que se llama fichero inverso. El buscador guarda este índice dentro de su base de datos, lo indexa y le asigna valores en función de la frecuencia, recuento, peso y prominencia.

Paso 3. Ordenación. Los buscadores son un software que recupera información. Los buscadores presentan los resultados ordenados en función de su relevancia, es decir, en función de la utilidad que la información tiene para la consulta del usuario. Los buscadores ordena los resultados almacenados en sus bases de daos en función del matching con la consulta de búsqueda del usuario. Tratan de inferir la necesidad latente y no expresada. Es decir, la verdadera intención que subyace detrás de cada pregunta que se hace al buscador.

Imagina por ejemplo que tengo invitados a comer. Hago la consulta “receta crema de calabaza” y el buscador me ofrece como resultado “receta de crema de calabaza para triunfar con tus invitados”. Ese resultado será sin duda muy relevante para mi en esa coyuntura puntual (preparar comida para varios comensales).

Los buscadores tienen a la redes sociales como un punto de referencia que les permiten interpretar la actualidad en tiempo real (saber a qué se refieren los usuarios) y ponderar la ordenación de sus rankings. Cualquier acontecimiento que tenga eco en redes sociales es inmediatamente trasladado al buscador (en estos momentos por ejemplo, Cifuentes, master, Carrefur Vallecas, Oil Of Olay, etc).

La relevancia es también autoridad. La autoridad puede ser propia (notoriedad de marca, recuerdo espontáneo/ sugerido), y también puede ser reconocimiento. Los enlaces entrantes (backlinks) implican reconocimiento. El valor de cada backlink depende de la autoridad que tengan los websites que nos enlazan (es recursivo).

La relevancia también depende del volumen de tráfico que recibe un website.
Los buscadores saben el volumen de tráfico que ellos mismos proporcionan a un website en función de los clics que éste recibe como resultado en la SERP. Pero también cuentan con mecanismos que les ayudan a evaluar el volumen de tráfico que ese mismo site puede recibir de otras fuentes (Google por ejemplo controla los servidores DNS).

Anuncios

Cuántos clics reciben los primeros resultados en un buscador

Clic through rates per position

Utilizamos los buscadores para encontrar con rapidez las cosas que necesitamos y nos interesan en internet. A medida que avanzamos en nuestro proceso de búsqueda vamos redifiniendo la palabras clave con las que interrogamos al buscador. Al principio comenzamos utilizando palabras muy genéricas que vamos acotando y concretando a medida avanzamos en nuestra búsqueda.

Si no encontramos en la primera página la respuesta que deseamos, el 72% de los usuarios prefiere reformular la pregunta antes que pasar a la siguiente página de resultados. Como usuarios de buscadores hemos acumulado una experiencia de uso que nos dice que a medida que descendemos por el ranking de resultados perdemos también relevancia y pertinencia, es decir que las respuestas que encontramos se alejan cada vez más de nuestra consulta.

La importancia de estos factores es clave para tratar de posicionarse en la primera página de resultados del buscador para determinada consulta. Existe además un factor que tiene un efecto multiplicador y es el ratio de clic through (el porcentaje de clic) que se obtiene en función de la posición ocupada en la SERP (Search Engine Results Page). Cuanto más alta sea esa posición (ranking), mayor será el porcentaje de clics que obtengamos.

La tabla que traemos hoy a nuestras páginas fue publicada originalmente en 2011 por nuestros colegas australianos Dejanseo como resultado de una investigación que realizaron sobre este mismo asunto. La gráfica emplea el mismo código de color que definen los mapas de calor de los test de clic tracking. Los colores cálidos indican  ratios de clic altos, los colores fríos, todo lo contrario.

  • Los resultados gratuitos (orgánicos) son vistos por el 100% de los usuarios
  • Estos resultados gratuitos reciben el 70% de los clics
  • Los resultados de pago (anuncios, PPC) son vistos por el 54% de los usuarios
  • Estos resultados de pago reciben el 30% de los clics

Con respecto a los resultados orgánicos podemos establecer que

  • El 36% de los usuarios hace clic en el primer resultado
  • El 58% de los usuarios hacen clic en los 3 primeros resultados de búsqueda
  • El 72% de los usuarios hacen clic en los 5 primeros resultados de búsqueda

Tanto los clics que reciben los resultados gratuitos, como los clics que reciben los resultados de pago son tráfico cualificado para un website. Siguen siendo usuarios anónimos (suspects), que en función de la concreción y definición de su consulta se cualifican como prospects y leads (a mayor concreción, mayor interés). Y son tráfico cualificado porque están buscando de forma activa un producto o servicio.

Gracias a la información que ha encontrado en buscadores, ese tráfico cualificado acaba adquiriendo un producto o un servicio (la atribución de la conversión se puede imputar a los buscadores).

  • El 24% de las consultas a un buscador se materializan en una compra online
  • El 28% de las consultas se concretan en una compra offline

Las palabras clave (keywords) que emplean los usuarios en sus consultas de búsqueda (cadenas de texto) definen segmentos de público (targets) alienados con los objetivos del negocio (vender productos o servicios). Convertir usuarios anónimos en clientes es un proceso que se basa en relacionar patrones de búsqueda con patrones de compra. 

Si hacemos un análisis de palabras clave y obtenemos que, por ejemplo, la palabra “implantes dentales” se busca 4.400 veces al mes en español y en España, ocupar la primera posición en la página de resultados de Google pude suponer conseguir aproximadamente 1.900 clics.

Ahora bien, hay que precisar que Google ordena los resultados en función del área geográfica en la que se realiza la consulta. Las 5 primeras ciudades de España suman más del 80% de las consultas de búsqueda. El resultado #1 no es siempre el mismo para todas las búsquedas nacionales. Es decir, que esos 1.900 clics iniciales que conseguiría la primera posición en la SERP se verían reducidos a 1/5 parte es decir aproximadamente 400 resultados mes.

Posicionamiento de una exposición temporal

La galería de arte Ignacio Redondo nos encargó en noviembre la creación de una web para la exposición colectiva que bajo el título “Singularidad y Expresión” iba a celebrar del 1 de diciembre al 7 de enero. La web tenía varios objetivos: dar a conocer la exposición temporal, reforzar el posicionamiento del website principal de la galería y salir al encuentro de las búsquedas de los artistas que participaban en la exposición colectiva.

Publicamos en tiempo récord antes de la inauguración y el 09 de diciembre analizábamos internamente los resultados obtenidos en Google. Hoy 04/03/2012 hemos vuelto a consultar el número de páginas indexadas y el posicionamiento alcanzado para las diferentes palabras clave. Puedes contrastarlo pulsando los enlaces. ¡Qué pena que esta exposición temporal haya acabado ya!

Palabra clave

Ranking 09/12/2011

Ranking 04/03/2012

# Resultados

Compruébalo en Google.es

Páginas indexadas

42

54

Comprobar

Galería de Arte Ignacio Redondo

#7

#4

78.200

Comprobar

Ignacio Redondo

#10

#6

5.020.000

Comprobar

Singularidad y expresión

#3

#1 y #2

3.170.000

Comprobar

Covadonga Tellaeche

#6

#3

131.000

Comprobar

Juan Luis Jardí

#13

#8

873.000

Comprobar

Ismael Lagares

#12

#8

96.300

Comprobar

Norberto González

#36

9.170.000

Comprobar

José Morales

#24

6.500.000

Comprobar

El algoritmo de posicionamiento

En el momento en el que el motor de búsqueda almacena la web también determina el ranking o posición que ocupará esa web en una página de resultados para determinada palabra clave (una misma página puede obtener muy distintas posiciones en la página de resultados del buscador en función de la keyword introducida en la caja de búsqueda).

Para determinar ese ranking los motores de búsqueda utilizan algoritmos de posicionamiento. Y es precisamente en los algoritmos de posicionamiento donde se encuentran las mayores diferencias entre los distintos buscadores.

Un algoritmo es una fórmula matemática que resuelve un problema. Aplicado a los buscadores, los algoritmos se utilizan para una vez dado un valor numérico a ciertos factores (como la importancia de una página, las veces que se cita una palabra, dónde está situada esa palabra en el contexto de la página, etc.), hallar un resultado final numérico, que sirva para ordenar la página web. Los algoritmos de posicionamiento son los encargados de clasificar los resultados de las búsquedas en un orden.

Cada buscador tiene su propio algoritmo de ordenación (Google tiene PageRank; Yahoo! utiliza WebRank). Todos los algoritmos son secretos, con tiempo y paciencia, se pueden inducir qué factores intervienen en él y en qué orden de importancia lo hacen, pero jamás se puede llegar a conocer la fórmula. No sólo por el número de variables (más de 500), sino porque el orden y peso de cada una de estas variables se cambia continuamente por el buscador, y es modificado tanto para poder ofrecer un mejor servicio como para evitar las maniobras de ingeniería inversa de los websites que quieren incrementar el ranking de sus páginas.

Los primeros motores (Yahoo!, AltaVista, HotBot, Lycos) organizaban la información contando la cantidad de ocurrencias en una página web de una determinada palabra (el término de búsqueda).

En 1998 los estudiantes de la Universidad de Standford en California (EE.UU.) Sergey Brin y Lawrence Page (Larry) presentaban un artículo titulado “The Anatomy of a Large-Scale Hypertextual Web Search Engine” en el que se definía una nueva forma de indexar páginas web valorando su importancia en función del número de hipervínculos que se dirigían a la misma (la apuntaban) desde otros websites.

Este artículo se basaba en la premisa comúnmente aceptada en el mundo académico de que la importancia de un artículo de investigación puede juzgarse según el número de artículos diferentes que lo citan.

El resultado ha sido una clasificación que desde el primer momento ha demostrado su eficacia para valorar la importancia de una página web. Brin y Page bautizaron a su primer buscador como BackRub para subrayar el hecho de que clasificaba las páginas en función del número de enlaces (backlinks) que apuntan a ellas.