Hace unos días desde que Google anunció que si tienes un featured snippet (fragmento destacado) con una determinada URL, esa URL ya no aparecería repetida en los resultados «normales». Aquí el tweet de la noticia:
If a web page listing is elevated into the featured snippet position, we no longer repeat the listing in the search results. This declutters the results & helps users locate relevant information more easily. Featured snippets count as one of the ten web page listings we show.
— Danny Sullivan (@dannysullivan) January 22, 2020
Este anuncio causó mucho revuelo en nuestro sector, no parece sentarnos bien este tipo de cambios. Aunque bien es cierto que, hasta que no mides los resultados pasados unos días, no puedes estar seguro de si dicho cambio te va a beneficiar o a perjudicar. Es más, esta modificación en concreto, al existir varios tipos de featured snippets (vídeo, párrafo, lista y tabla), puede beneficiarte para ciertos URLs y perjudicarte para otras.
El caso es que pasados unos días Natzir Turrado ya público sus primeros datos, ¡un 18 % menos de clics! al perder el resultado «normal» y solo aparecer el featured snippet.
Study:
> 01/22 – 01/26 vs 01/15 – 01/19
> 100 non-brand keywords FS + 1st position pre-update
> 50 keywords from a medical site + 50 from a lifestyle
> including only keywords with more than 100 clics in exact match based on SC dataResults: -18% clics
Example of a query 👇 pic.twitter.com/oqhO5t5waH
— Natzir Turrado (@natzir9) January 27, 2020
Al ocurrirte algo así te planteas si es mejor tener la posición 1 con un featured snippet o una posición 2-3 con un resultado normal. Pero, ¿cómo conocer la posición que tendría esa URL si no fuese elegible para aparecer como fragmento destacado?
Índice del contenido
¿Cómo conocer la posición real de una URL de un fragmento destacado?
Para conocer la posición de una URL con la que tenemos «ganado» el featured snippet para una query determinada basta con añadir el parámetro &num=9 a la URL generada al hacer la búsqueda en la barra de direcciones.
Por ejemplo: https://www.google.es/search?q=consulta&num=9
Con esto lo que conseguimos es desactivar la capa que genera el featured snippet al solicitar únicamente 9 resultados. También funciona con menos, pero si tu URL ocupa una posición real por debajo del número que indicas no aparecerá en la SERP.
Este tip hay que agradercerlo a Kevin Richard:
We know featured snippets are not always the most traffic-bringing spot. If I de-optimize I might go in #1 (organic), #2 but to a way lower rank (#6, #7). So how to know my "real rank"?
Use this hack: add &num=9 in your SERP url, you'll see your real rank. pic.twitter.com/cjZ0AeybPL— Kevin Richard (@512banque) January 23, 2020
Bien, con este truco podemos conocer la posición que ocupa nuestra URL para estudiar si nos interesa o no aparecer como fragmento destacado (o al menos testarlo).
Pero y, si por desgracia por suerte, tenemos una cantidad considerable de featured snippets, ¿tenemos que ir consulta a consulta realizando este truco? La respuesta es NO 😉
Si eres un SEO vago fan de las automatizaciones como yo, hay que ingeniárselas para ganar tiempo y reducir al máximo las tareas tediosas. Así que he estado un rato pegándome con ello y aquí os traigo un método para averiguar las posiciones en modo masivo.
A continuación los pasos a seguir.
Extraer las querys en las que tenemos «featured snippets»
Esto lo podéis hacer con Sistrix, en el apartado «Fragmentos enriquecidos» y exportando la lista de keywords. Vamos a ver por ejemplo los featured snippets que tiene dinosaurioss.com, la web del amigo Dean Romero.
También podéis hacerlo con cualquier otra herramienta que facilite estos datos, como Ahrefs o SEMrush. Lo único que necesitas es la lista de keywords, nada más.
Generar las URLs para realizar las consultas en Google
Como he dicho antes, esto va de automatizar, así que he preparado una hoja de cálculo para confeccionar automáticamente las URLs. Podéis descargarla aquí.
Lo único que tenéis que hacer es:
- Especificar el dominio de Google en el cuál queréis realizar la búsqueda.
- Copiar las querys en la columna correspondiente.
Con eso se generarán las URLs que necesitamos para automatizar el proceso.
Scrapear Google con Screaming Frog 🐸
Bien, aquí viene lo «gordo». Necesitarás tener instalado Screaming Frog para scrapear los resultados de Google, que no son ni más ni menos que las URLs que acabamos de generar. Los chicos de SF tienen un tutorial al respecto en su web, aquí te indico los pasos para configurar y adaptar a este caso concreto con XPath.
Configuración del Spider
Para poder scrapear la SERP de Google tenemos que configurar una serie de parámetros en Screaming Frog:
- En Configuration → Spider → Rendering: Seleccionamos Javascript
- En Configuration → robots.txt -> Settings: Ignore robots.txt
- En Configuration → Speed: Max Threads = 1 y marcamos Limit URL/s con Max URL/s = 0.5
- En Configuration → User-Agent → Preset User-Agents: Chrome (para scrapear SERP en desktop) / Google smartphone (para scrapear SERP en mobile)
- En Configuration → Include: .*search?.*
Expresiones XPath
Ahora tenemos que indicarle a Screaming Frog qué es lo que queremos extraer de cada SERP. Para ello haremos uso de su función «Custom Extraction» y unas cuantas expresiones XPath:
Para desktop (asegúrate de haber seleccionado el user-agent correcto y de mantener la configuración de la captura):
- Keyword: (//input[@name=»q»]/@value)[1]
- Posición real: count(//div[@class=»srg»]/div/div/div[@class=»rc»]/div/a[contains(@href,’tudominio.com’)]/preceding::div[@class=»rc»])+1
- URL: //div[@class=»srg»]/div/div/div[@class=»rc»]/div/a[contains(@href,’tudominio.com’)]/@href|//div[@class=»g»]/div/div[@class=»rc»]/div/a[contains(@href,’tudominio.com’)]/@href
Para mobile (asegúrate de haber seleccionado el user-agent correcto y de mantener la configuración de la captura):
- Keyword: (//input[@name=»q»]/@value)[1]
- Posición real: count((//div[@class=»srg»]//a[contains(@href,’tudominio.com’)])[1]/preceding::div[@class=»KJDcUb»])+1
- URL: (//div[@class=»srg»]//a[contains(@href,’tudominio.com’)])[1]/@href
Resultados del scraping
Cuando tengas toda la configuración solo tienes que seleccionar el modo Lista en SF y pegar o subir las URLs que habíamos generado anteriormente. Si todo va bien, dependiendo de la cantidad de keywords que vayas a analizar, en la pestaña «Custom Extraction» tendrás un resultado como este:
O este otro para el subdominio smoda.elpais.com en mobile:
Importante
Como puedes observar en esta captura, para la query «temperatura plancha» nos indica posición 1, pero si no especifica URL es que no existe ningún resultado del dominio indicado entre las posiciones 1-9.
Pues eso es todo, espero que saques provecho de esta automatización para el análisis de tus featured snippets.
Muy interesante Fede gracias por tu aporte. A evaluar resultados para tomar acción.
Excelente aporte a la comunidad Fede, vamos a ponerlo en marcha!
Aunque me hubiera encantado ver un video explicando esta tecnica.
Muy interesante artículo. Gracias por compartir. De verdad, el screaming frog es una herramienta potente. Yo la uso en version ‘free’ 🙂
Saludos
Muy buen contenido Fede! Un placer tener estos contenidos de calidad en la red.
Hola.
Interesante el post. 🙂 Screaming frog es una de mis herramientas favoritas y sin duda muy potentes. Gracias por tu aporte 🙂
Saludos