La compañía alemana Sea­r­ch­me­tri­cs, pro­pie­ta­ria de la conocida he­rra­mie­n­ta de SEO Sea­r­ch­me­tri­cs Suite, también se dedica desde 2012 a elaborar un estudio anual con profundos análisis en torno a la cla­si­fi­ca­ción en los bu­s­ca­do­res. Este año, sin embargo, este análisis de los factores de ranking en Google se publica en su forma actual por última vez, al co­n­si­de­rar la empresa que la era de las che­c­kli­sts generales sobre SEO ha tocado a su fin. En el futuro, el hasta ahora informe anual sobre SEO de la compañía ha de abrazar análisis es­pe­cí­fi­cos di­fe­re­n­cia­dos por sector. La razón principal reside, entre otras cosas, en el nuevo sistema de in­te­li­ge­n­cia ar­ti­fi­cial de Google RankBrain, un algoritmo que utiliza el apre­n­di­za­je au­to­má­ti­co de las máquinas para actuar de una forma mucho más flexible que los al­go­ri­t­mos de búsqueda antiguos. Fue en junio de 2016 cuando Jeff Dean, ingeniero in­fo­r­má­ti­co en Google, reveló al pe­rio­di­s­ta in­fo­r­má­ti­co Steven Levy que, en el futuro, RankBrain estaría implicado en el pro­ce­sa­mie­n­to de todas las pe­ti­cio­nes al buscador. Según el reportaje de Levys en Ba­c­k­cha­n­nel, este sistema de in­te­li­ge­n­cia ar­ti­fi­cial se cuenta hoy en día entre los tres factores de cla­si­fi­ca­ción en los bu­s­ca­do­res más im­po­r­ta­n­tes. Con el estudio actual “Ranking Factors - Rebooting for Relevance”, Sea­r­ch­me­tri­cs sigue pre­se­n­ta­n­do un catálogo de factores en co­rre­la­ción con la cla­si­fi­ca­ción en el buscador, pero las co­n­clu­sio­nes del examen se entienden más bien como valores orie­n­ta­ti­vos para análisis in­di­vi­dua­les más es­pe­cí­fi­cos adaptados a cada sector en pa­r­ti­cu­lar. Como en los años an­te­rio­res, el estudio está basado en un conjunto de 10.000 palabras clave re­le­va­n­tes. Los hallazgos actuales se in­te­r­pre­tan a la luz de las in­ve­s­ti­ga­cio­nes pre­ce­de­n­tes. A co­n­ti­nua­ción, puedes leer las co­n­clu­sio­nes más re­le­va­n­tes del estudio de Sea­r­ch­me­tri­cs sobre los factores de ranking en 2016.

Factores de contenido

Es­pe­cia­l­me­n­te desde la más reciente ac­tua­li­za­ción del principal algoritmo de Google, Sea­r­ch­me­tri­cs está aún más co­n­ve­n­ci­do de que, a la hora de optimizar una página para el buscador, el contenido es un aspecto prio­ri­ta­rio. En este sentido, un factor central es aquí la re­le­va­n­cia del contenido (content relevance), evaluado ahora por primera vez como un factor de ranking en sí mismo. En cambio, la op­ti­mi­za­ción sobre la base de palabras clave pierde im­po­r­ta­n­cia frente a una co­m­po­si­ción holística del texto.

La re­le­va­n­cia del contenido pasa a ser un factor de ranking clave

El buen contenido se ca­ra­c­te­ri­za porque se co­rre­s­po­n­de con la intención del usuario, que no es la misma en cada búsqueda. El desafío para los re­s­po­n­sa­bles de contenido es, por ello, sa­ti­s­fa­cer tantas búsquedas como sea posible con un solo texto. Una es­tra­te­gia posible a la hora de crear contenido podría apoyarse pre­ci­sa­me­n­te en la creación de textos ho­lí­s­ti­cos que observen di­fe­re­n­tes aspectos de un tema y que estén op­ti­mi­za­dos a partir de palabras clave de un campo temático re­la­cio­na­do se­má­n­ti­ca­me­n­te. El objetivo del contenido holístico es, así, lograr buenas po­si­cio­nes en las listas de re­su­l­ta­dos para varias palabras clave re­le­va­n­tes. La palabra clave aislada pierde entonces en re­le­va­n­cia.

En el estudio de Sea­r­ch­me­tri­cs se analiza la re­le­va­n­cia del contenido de un texto en relación con el término de búsqueda empleado, lo que tiene lugar sobre la base del corpus li­n­güí­s­ti­co y la co­n­ce­p­tua­li­za­ción de las re­la­cio­nes se­má­n­ti­cas. El resultado es poco so­r­pre­n­de­n­te:

[“Los URL con la mayor re­le­va­n­cia de contenido son los que se en­cue­n­tran entre la tercera y la sexta posición”]

En las po­si­cio­nes su­b­si­guie­n­tes la nota en re­le­va­n­cia va bajando de forma constante. En cuanto a la primera y la segunda posición, estas suelen co­rre­s­po­n­der, según Sea­r­ch­me­tri­cs, a páginas de marcas muy conocidas, que apro­ve­chan ranking factors co­r­po­ra­ti­vos, como re­co­no­ci­mie­n­to, confianza e imagen, para po­si­cio­nar­se bien, pero que no ne­ce­sa­ria­me­n­te han de agradecer su cla­si­fi­ca­ción a la re­le­va­n­cia del contenido.

Aumenta el número medio de palabras

La cantidad media de palabras de las páginas mejor po­si­cio­na­das aumenta de forma constante desde hace años. Según Sea­r­ch­me­tri­cs, esto sería un reflejo del trabajo intensivo en torno al tema que las ocupa, en el sentido de una creación de contenido de forma holística (total).

[“La cantidad media de palabras aumenta en un 50 % en 2016”]

Si se compara el número de palabras en los co­n­te­ni­dos para la versión de es­cri­to­rio con el de las landing pages móviles las di­fe­re­n­cias son muy claras: en general, las versiones de es­cri­to­rio de una página son de media un 30 por ciento más largas que sus homólogas móviles.

La palabra clave en el meta título pierde re­le­va­n­cia

En los de­pa­r­ta­me­n­tos de SEO, el credo sigue siendo que la palabra clave ha de estar incluida en el metatitle y, si puede ser, tan adelante como sea posible. Sea­r­ch­me­tri­cs, en cambio, demuestra en sus análisis lo poco que esta creencia se acerca a la realidad:

[“En 2016, solo un 53 % de las primeras 20 páginas tenían la palabra clave en el título”]

Esta evolución también se explica a partir del principio ho­lí­si­ti­co de la creación de contenido, por el cual los textos no se optimizan en función de las palabras clave sino de los temas. El algoritmo in­te­li­ge­n­te de Google es capaz ya de evaluar re­la­cio­nes se­má­n­ti­cas sin tener en cuenta ne­ce­sa­ria­me­n­te a las palabras clave.

Esta evolución es parecida en el caso del título y la meta de­s­cri­p­ción. Según concluye Sea­r­ch­me­tri­cs, solo un tercio de todas las landing pages en las primeras 20 po­si­cio­nes incluye la palabra clave principal en el título principal (H1).

Señales de usuario

Para de­te­r­mi­nar si el usuario de Google está sa­ti­s­fe­cho con las páginas pro­pue­s­tas por el buscador, la compañía no se limita a confiar en factores in­di­re­c­tos tales como el análisis semántico del contenido de las páginas. Otros productos de la factoría ca­li­fo­r­nia­na como el navegador Chrome, el plugin de analítica web Analytics, el sistema pu­bli­ci­ta­rio AdWords y el sistema operativo Android le entregan también in­fo­r­ma­ción exhau­s­ti­va sobre los hábitos de na­ve­ga­ción del usuario de Google.

Gracias a señales tan ine­quí­vo­cas como las tasas de clics o de rebote, así como la pe­r­ma­ne­n­cia media en las webs, co­m­bi­na­das con una base de datos gi­ga­n­te­s­ca, Google puede evaluar de­ta­lla­da­me­n­te si una página web ofrece lo que promete y aplicar este co­no­ci­mie­n­to en tiempo real al ranking uti­li­za­n­do métodos del apre­n­di­za­je au­to­má­ti­co. También en este aspecto, el estudio de Sea­r­ch­me­tri­cs ofrece un valioso input para pro­pie­ta­rios de páginas web y asesores de SEO.

La tasa media de clics en las 3 primeras po­si­cio­nes es de un 36 %

La confianza de los usuarios en la va­lo­ra­ción de la re­le­va­n­cia que efectúa el buscador es elevada. Ya lo demostró el estudio de Sea­r­ch­me­tri­cs de 2014, en el cual se extrajo la tasa media de clics (Click-Throug Rate o CTR) de los top URL ana­li­za­dos.

En co­n­se­cue­n­cia, las páginas en la posición 1 acaparan la mayor parte de clics. Para la pole position, el equipo de Sea­r­ch­me­tri­cs ha calculado una CTR media de un 44 %, un po­r­ce­n­ta­je que desciende a medida que la página baja en po­si­cio­nes. En la tercera posición la tasa de clics ya es de un 30 %.

[“Las páginas entre la primera y la tercera posición tienen una CTR media de un 36 %”]

Resulta llamativo el claro aumento de la CTR en la posición 11, que equivale a la primera landing page de la segunda página de re­su­l­ta­dos del buscador, la cual recibe de media más clics que las po­si­cio­na­das al final de la primera página.

Comparada con 2014, la tasa media de clics en las 10 primeras po­si­cio­nes ha aumentado vi­si­ble­me­n­te.

La tasa de rebote en la primera página de re­su­l­ta­dos aumenta en un 46 %

Junto a la tasa de clics, la tasa de rebote (Bounce rate) también resulta in­te­re­sa­n­te a la hora de evaluar la re­le­va­n­cia de una página web. Esta indica cuántos usuarios vuelven a Google.com después de hacer clic en un resultado, sin visitar otras su­b­pá­gi­nas de la web se­le­c­cio­na­da. En los URL exa­mi­na­dos, el equipo de Sea­r­ch­me­tri­cs detectó un aumento del 46 % en la tasa de rebote en las 10 primeras po­si­cio­nes respecto de 2014. Esta di­fe­re­n­cia resulta es­pe­cia­l­me­n­te clara en las dos primeras po­si­cio­nes.

Según los analistas, sin embargo, la tasa de rebote solo puede explicar la re­le­va­n­cia de una web pa­r­cia­l­me­n­te, porque el abandono de una página se debe siempre a motivos in­di­vi­dua­les y, en casos aislados, también si el motivo de la búsqueda se responde sa­ti­s­fa­c­to­ria­me­n­te. Este sería el caso, por ejemplo, de aquellas búsquedas puramente in­fo­r­ma­cio­na­les que un glosario o un di­c­cio­na­rio puede responder casi a primera vista.

La ex­pli­ca­ción al aumento de la tasa de rebote re­gi­s­tra­do en el estudio tiene que ver, para el equipo de analistas de Sea­r­ch­me­tri­cs, con la elevada calidad del algoritmo de Google. Gracias al nuevo sistema de in­te­li­ge­n­cia ar­ti­fi­cial el buscador tiene hoy la capacidad de se­le­c­cio­nar exac­ta­me­n­te la página que mejor se co­rre­s­po­n­de con la intención de búsqueda del usuario, de forma que este ya no tiene la necesidad de seguir buscando en el dominio hasta encontrar la in­fo­r­ma­ción que se buscaba.

Aumenta el tiempo medio de pe­r­ma­ne­n­cia

El tiempo que pasa entre el primer clic sobre el URL que ofrece el buscador y el abandono, el de­no­mi­na­do time on site, es de especial im­po­r­ta­n­cia a la hora de evaluar la re­le­va­n­cia de una página web y puede medirse exac­ta­me­n­te mediante pro­ce­di­mie­n­tos de analítica web. Sea­r­ch­me­tri­cs también presenta aquí un valor medio digno de una co­n­si­de­ra­ción di­fe­re­n­cia­da.

[“El time on site para las 10 primeras páginas es de 3 minutos y 10 segundos”]

Si se comparan los datos de este estudio con los obtenidos en 2014, se reconoce un aumento visible del tiempo de pe­r­ma­ne­n­cia en las primeras 10 po­si­cio­nes, un de­sa­rro­llo lógico si se piensa que aquellos pro­pie­ta­rios de páginas que quieren po­si­cio­nar bien en Google se esfuerzan por ofrecer contenido de gran calidad.

No obstante, aun cuando un tiempo alto de pe­r­ma­ne­n­cia permite inferir un contenido de calidad, tampoco significa au­to­má­ti­ca­me­n­te que una pe­r­ma­ne­n­cia más breve se deba a una landing page de menor calidad. Una página web puede sa­ti­s­fa­cer bastante rápido la sed de in­fo­r­ma­ción de un usuario que busca meramente qué tiempo hará mañana o el resultado del último partido de su equipo de fútbol.

Factores técnicos y de usa­bi­li­dad

La ela­bo­ra­ción de contenido cua­li­ta­ti­vo solo es uno de los pilares del SEO para Google y otros bu­s­ca­do­res. Sin unas co­n­di­cio­nes técnicas de base, incluso el mejor contenido lo tendrá difícil para alcanzar las mejores po­si­cio­nes en el ranking. Hoy, las webs co­n­te­m­po­rá­neas han de tener en cuenta factores tan re­le­va­n­tes como re­n­di­mie­n­to, seguridad y usa­bi­li­dad.

Entre los aspectos técnicos in­vo­lu­cra­dos en la pu­bli­ca­ción de contenido, además de factores generales como el tiempo de carga y el tamaño de los archivos, dos te­n­de­n­cias destacan en 2016 es­pe­cia­l­me­n­te. Por un lado, cada vez más pro­pie­ta­rios de páginas web se preocupan por ofrecer a sus visitas contenido en versión móvil, y, por el otro, Sea­r­ch­me­tri­cs subraya el si­g­ni­fi­ca­do del cifrado con HTTPS para po­si­cio­nar en el buscador.

2017 será el año de HTTPS

Los re­s­po­n­sa­bles de páginas web que en 2017 sigan ignorando la tra­n­s­mi­sión cifrada de datos con HTTPS lo van a tener muy difícil para ascender po­si­cio­nes en la cla­si­fi­ca­ción del buscador. Ya en se­p­tie­m­bre de 2016 Google anunció que aquellas páginas HTTP que procesan datos sensibles serán marcadas a partir de 2017 como inseguras. No hace falta ser ningún experto en SEO para darse cuenta de lo que este sello digital puede ocasionar en términos de visitas y clics.

No solo por este motivo aumenta co­n­s­ta­n­te­me­n­te el número de páginas cifradas con HTTPS. Si el año anterior el po­r­ce­n­ta­je de páginas entre las 10 primeras po­si­cio­nes que apostaban por el cifrado era de un 12 %, en el estudio actual Sea­r­ch­me­tri­cs pudo registrar un si­g­ni­fi­ca­ti­vo aumento del 45 %.

[“Casi la mitad de las páginas en el top ten usan el cifrado HTTPS.”]

Op­ti­mi­za­ción para móviles: requisito para un buen ranking

Las búsquedas rea­li­za­das desde di­s­po­si­ti­vos móviles aumentan co­n­s­ta­n­te­me­n­te. Según un informe de Google de 2015, el buscador registra más pe­ti­cio­nes desde di­s­po­si­ti­vos móviles que desde equipos de es­cri­to­rio en mercados tan re­le­va­n­tes como Estados Unidos o Japón. La es­tra­te­gia Mobile First de Google muestra la re­le­va­n­cia que en el futuro tendrá el enfoque mobile friendly para la cla­si­fi­ca­ción en el buscador. En octubre de 2016, la compañía anunció que en el futuro usaría el índice móvil como índice principal para la búsqueda web, de lo que se deduce que este también tendrá un efecto en la cla­si­fi­ca­ción en las búsquedas desde di­s­po­si­ti­vos de es­cri­to­rio. Aquellos ad­mi­ni­s­tra­do­res que aún no se hayan ocupado de la op­ti­mi­za­ción móvil, deberían pla­ni­fi­car para 2017 las mo­di­fi­ca­cio­nes ne­ce­sa­rias en el diseño de sus webs como tarea prio­ri­ta­ria. Para ello pueden recurrir a los su­b­do­mi­nios móviles, al diseño web re­s­po­n­si­vo o al contenido dinámico.

Señales sociales

Como ya en 2014, el estudio de Sea­r­ch­me­tri­cs sobre los factores de ranking en 2016 muestra de nuevo una elevada co­rre­la­ción entre una buena cla­si­fi­ca­ción en el buscador y los de­no­mi­na­dos social signals o señales sociales. Estas consisten en señales co­mu­ni­ca­ti­vas como Shares, Likes y co­me­n­ta­rios en redes sociales como Facebook, Twitter, Pinterest o Google+. Sin embargo, hallar la relación causal entre una buena posición en el buscador y la presencia en redes sigue siendo difícil para los analistas.

Backlinks

El número de enlaces entrantes de una página web también se co­rre­s­po­n­de con la posición de la misma en el buscador, pero, en términos de SEO, la es­tru­c­tu­ra de enlaces está pasando a un segundo plano. Según Sea­r­ch­me­tri­cs, el perfil de enlaces de una web ha dejado de ser el factor decisivo de éxito en Google para pasar a ser uno de tantos.

El buscador es hoy capaz de evaluar la calidad de una página en función de las re­la­cio­nes se­má­n­ti­cas y de las señales directas de los usuarios, de modo que el perfil de enlaces pierde su in­flue­n­cia en la re­le­va­n­cia del contenido como factor cua­li­ta­ti­vo. Si durante mucho tiempo los enlaces desde páginas re­pre­se­n­ta­ti­vas estaban muy bien valorados, en el futuro los we­b­ma­s­te­rs tendrán que pre­gu­n­tar­se en qué medida el contenido que ofrecen en sus landing pages cumple con las ex­pe­c­ta­ti­vas de los usuarios.

Por ahora, no obstante, según el recién publicado estudio de Sea­r­ch­me­tri­cs, no hay que temer por la des­apa­ri­ción completa de los backlinks del algoritmo de Google en un futuro cercano, aunque la op­ti­mi­za­ción basada ex­clu­si­va­me­n­te en el perfil de enlaces sí tiene los días contados.

[“Las co­rre­la­cio­nes para los backlinks siguen siendo altas, pero su im­po­r­ta­n­cia para el ranking seguirá de­cre­cie­n­do”]

Los factores de ranking en 2016 en co­rre­la­ción con la posición en el buscador

El siguiente gráfico muestra la co­rre­la­ción entre la cla­si­fi­ca­ción en el buscador y los factores de ranking para las veinte páginas mejor po­si­cio­na­das es­tu­dia­das por Sea­r­ch­me­tri­cs, así como su evolución en función del año anterior. Los factores de ranking para los cuales se ob­tu­vie­ron datos por primera vez en 2016, así como aquellos que se han calculado de nuevo, se han marcado con un asterisco.

Co­n­clu­sión: el futuro del SEO

El estudio “Ranking Factors - Rebooting for Relevance” de Sea­r­ch­me­tri­cs muestra que sigue habiendo factores que se re­la­cio­nan con una buena cla­si­fi­ca­ción en Google. Estos, sin embargo, no pueden aplicarse de la misma manera a todas las páginas web. Un listado general de factores de ranking deviene in­su­fi­cie­n­te para retratar las diversas exi­ge­n­cias que tanto el hombre como la máquina plantean a las páginas web en función del sector.

Es por eso que el equipo de Sea­r­ch­me­tri­cs anuncia, con la pu­bli­ca­ción de su trabajo actual, la nueva orie­n­ta­ción que este tomará en el futuro, más centrado en estudios di­fe­re­n­cia­dos que co­n­te­m­plen las pe­cu­lia­ri­da­des de los di­fe­re­n­tes sectores. El estudio anual a propósito de los factores de ranking en 2016 y su co­rre­la­ción con la posición se basará, además, en sets de palabras clave propios del sector (eCommerce, salud, finanzas, etc.) en que se mueva la web. Esto permite co­n­te­m­plar el estudio de Sea­r­ch­me­tri­cs de 2016 como una especie de aviso a na­ve­ga­n­tes para que los we­b­ma­s­te­rs dejen de fijarse en che­c­kli­sts generales e in­te­r­pre­ten te­n­de­n­cias y pro­nó­s­ti­cos de SEO en relación con su sector.

Ir al menú principal