El algoritmo de Google, sus actualizaciones y sus efectos sobre el SEO

By 9 Octubre, 2013University

No se me ocurre una forma mejor de explicar en qué consiste el algoritmo de Google, que haciendo mención a la cita con la que Larry Page y Sergey Brin, los fundadores de Google, inician su artículo The PageRank Citation Ranking: Bringing Order to the Web, publicado en Enero de 1998:

“La importancia de una página web es un problema inherentemente subjetivo que depende del interés de los lectores, de su conocimiento y de sus inclinaciones. Aun así, se puede decir objetivamente mucho sobre la importancia relativa de las páginas web. Este artículo describe PageRank, un método para valorar las páginas web de forma objetiva y mecánica, midiendo de forma efectiva la atención e interés humanos dirigidos hacia cada página. Comparamos PageRank con un “web surfer” aleatorio idealizado. Mostramos como calcular de forma eficiente el PageRank para un número grande de páginas y mostramos cómo utilizar el PageRank para la búsqueda y navegación de los usuarios”.

Lo que ellos proponían con su algoritmo PageRank, era un método para calcular la importancia de cada web a partir de los links que recibía cada una. Crearon un sistema para puntuar los sitios webs en función de la cantidad, y sobretodo, la calidad, de los enlaces que dirigían hacia ellos. La idea original era clara, se trataba de ordenar la información en base a unos criterios de relevancia, en un entorno dónde los grandes buscadores del momento, estaban vendiendo los resultados al mejor postor. Lo que Google ofrecía, era una computación eficiente dentro de una red de miles de millones de nodos, así como un método de lectura y almacenamiento web novedosos. Sin duda, tres pilares sobre los que se cimenta el éxito de lo que hoy, es una de las empresas más importantes del mundo.

algoritmo de Google 3

El primer problema al que tuvieron que enfrentarse estos estudiantes de doctorado, era encontrar una solución para lograr indexar el mayor porcentaje de urls existentes en la red. Según estimaciones razonables, podemos cifrar en 4000 millones, el número de direcciones webs distintas que existen hoy en día. Una vez dieron con la fórmula, ya podían empezar con su análisis de relevancia. El algoritmo de Google se lanzó para evaluar los links entrantes y salientes de cada web, el cual, no sólo rastrea los vínculos de primer orden, sino que también ha de seguir el rastro de las ordenes anteriores.

El uso de algoritmos ya había sido empleado en otras disciplinas como la ciencia o la economía, pero, sin lugar a dudas, uno de los que más influencia tuvo, fue el algoritmo que desarrolló Jon Kleinberg, un profesor de la Universidad de Cornell.  Su algoritmo, denominado HITS (Hipertext Induced Topic Selection) fue diseñado pocos años atrás, con el objetivo de valorar y clasificar las webs en base a su importancia. Para realizar esta valoración, Kleinberg, estableció dos categorías, las páginas “receptoras de votos” (hubs) y las “emisoras de votos” (authorities). Como veréis, guarda muchas similitudes con el algoritmo de Google.

El algoritmo de Google original, tal como hemos comentado, recibió el nombre de PageRank, y este servía como sistema para puntuar los sitios webs en función de los enlaces que apuntaban hacía ellos. La importancia del primer algoritmo de Google fue tal, que hoy en día, el concepto PageRank, sigue siendo el que comúnmente se emplea para conocer la puntuación que el buscador le otorga a una página. Se calcula, que en la actualidad, el algoritmo de Google se modifica cerca de 500 veces al año. La gran mayoría son pequeños ajustes de optimización del buscador, que prácticamente, pueden pasar desapercibidos, pero en estos 15 años, ha habido de todo, y en ocasiones, Google ha ido más allá, aplicando una profunda transformación a sus parámetros de relevancia, lo que ha originado un baile de posiciones sin precedentes, provocando auténticos quebraderos de cabeza para los profesionales del SEO. Estas son las actualizaciones más importantes del algoritmo de Google que ha habido en los últimos años:

Google Venice, 2009, se creó para mejorar los resultados de las marcas y los sitios webs con buena reputación. Con lo que, cuando introducíamos el nombre de un producto genérico, nos aparecía asociado un nombre comercial en la caja del buscador.

Google Caffeine, en Agosto de 2009. Esta actualización se centró en diseñar una estructura de la información que permitiera indexar los resultados de una forma más ágil y actualizada, a partir de servicios que se sincronizarían con Facebook, Google +, Twitter.

Google Mayday, en 2010. Pretendía mejorar la calidad de los resultados a partir del uso de palabras long tail, frases mas concretas.

Google Panda, en Febrero de 2011. Se centró sobretodo, en suprimir de las primeras posiciones de los resultados del buscador, aquellas webs que presentaban contenidos de baja calidad, o bien, contenido duplicado. Tal como hemos citado una y otra vez, en anteriores posts, El Contenido es el Rey del SEO, y es a lo que, le sigue dando mayor importancia en la actualidad Google. Según datos ofrecidos por la propia compañía, esta actualización afectó al 12% de las webs,  pero en mi opinión, fue un porcentaje bastante mayor.

Google Penguin, en Abril de 2012. Ideada para suprimir de los resultados del buscador el webspam (contenido de baja calidad posicionado artificialmente). Se empieza a sancionar a sitios que violan las directrices Webmasters de Google, o bien, que utilizan técnicas de SEO Black-hat o bien, a las páginas que estuvieran relacionadas con la compra de enlaces. Dos meses después de implementar dicha actualización del algoritmo de Google, la propia compañía se preocupó por proporcionar un cuestionario a todo aquel que se hubiera visto afectado por sus cambios, y creyera que había sido de forma injusta. Google facilitó una lista con los links artificiales que había detectado y puso a disposición de los Webmasters una herramienta que les permitía deshabilitar dichos enlaces contraproducentes.

De esta actualización, también merece la pena destacar, la inclusión de Knowledge Graph, una aproximación más hacia la búsqueda semántica, en la que se proporciona objetos adicionales en los resultados, favoreciendo a algunas páginas en las consultas.

Google Hummingbird, Septiembre de 2013. Es la última actualización del algoritmo, y la primera completa desde Caffeine, y parece, que como sus predecesoras, va a dar mucho que hablar. Y nunca mejor dicho, puesto que ha sido concebido para allanar el camino hacia la búsqueda conversacional real. La proliferación del uso de smartphones, requiere que Google esté preparado para gestionar consultas más largas y coloquiales. Esta actualización tiene en cuenta el significado de la frase de búsqueda, además de incluir la habilidad de hacer comparaciones y aplicar filtros. De esta manera, Google ofrece resultados más precisos a consultas complejas. Se incluye también la búsqueda por voz.

actualizaciones de GoogleDe este modo, podemos afirmar que, mientras Caffeine mejoraba la velocidad de rastreo e indexación, Hummingbird mejora la velocidad en la comprensión de las búsquedas más complejas. Se calcula que esta actualización ha afectado al 90% de las webs, pero esta ha sido una clara mejora en la capacidad de búsqueda. En principio, no debería de causar tantos estragos como los que causaron las controvertidas, Panda y Penguin, que eran, en realidad, filtros anti Spam.

Aquí es donde surge la pregunta ¿Qué determina lo que es y lo que no es un contenido de calidad? Consideramos un contenido de calidad aquel contenido que es único e original. Contenido atractivo, que logre atraer el mayor número de visitas. El contenido de calidad es dinamizado por los Medios Sociales, podríamos decir que, fluye sólo, con lo que logras generar enlaces externos naturales, algo por lo que Google siente especial predilección.

Esto es lo que está creando Google, un entorno donde la experiencia de usuario es el centro de todo. Un entorno, donde se generan respuestas adaptadas a las necesidades concretas de los usuarios en cada momento y lugar. Otro punto a favor de Google, es que parece que por fin ha dado en el clavo, y poco a poco, va logrando popularizar el uso de su red social, como elemento clave para identificar a los creadores de contenido, para de ese modo, poder juzgar la reputación de los mismos, en base a la respuesta que generan entre sus círculos.

Gerard Comas

Author Gerard Comas

Amante de la tecnología desde que tengo uso de razón, inquieto por conocer, aprender y conectar, CEO en allinagency_ ingeniero de formación, emprendedor por vocación, la música mi perdición, melómano empedernido y enamorado de las pequeñas cosas de la vida."Sé el cambio que quieres ver en el mundo" Mahatma Gandhi

More posts by Gerard Comas

Uso de cookies

Nos obligan a molestarte avisándote de que utilizamos cookies propias y de terceros para mejorar tu experiencia de navegación, y ofrecerte contenidos y publicidad de interés. Al continuar con la navegación entendemos que aceptas nuestra Políticas de privcidad ACEPTAR

Aviso de cookies