Screaming Frog, rastrea y audita tu web (Versión 14.1)

Escrito por Alberto Fernández. - 7 min de lectura

Última actualización:

Ya vamos por la versión 14.1 de Screaming Frog. No paran de sorprenderme y ayudar a muchísimos SEOs de todo el mundo. El crawler de escritorio por excelencia.

¿Por qué? Porque necesitamos vigilar cada uno de los aspectos de una página web, analizar y estudiar cada detalle para asegurar los pilares de la estrategia SEO de nuestro sitio web. Existe una gran variedad de herramientas para conseguirlo, aunque hay algunas que resaltan en este grupo debido a su eficiencia y eficacia. Screaming Frog es una de esas aplicaciones que debes tener en tu suite básica. A continuación, te daré toda la información sobre esta herramienta para que descubras el por qué.

¿Qué es y para qué sirve Screaming Frog?

Screaming Frog es un rastreador de webs, una herramienta fundamental para realizar análisis y auditar sitios web. Es una aplicación que se encuentra disponible tanto para Windows, como para Linux o Mac y nos permite realizar rastreos de enlaces en un sitio web.

Dentro de Screaming Frog podemos conseguir diferente información estructurada de una web: el título, la descripción, el estado de cada una de las URLs de la web y también las etiquetas del encabezado. Si se trata de una página web pequeña, podremos ver todos estos detalles en solo unos segundos, por otra parte, si se trata de un sitio web con numerosas páginas será un trabajo más prolongado, pero siempre igual de efectivo. Gracias a esta herramienta podemos mejorar la calidad de una página web y obtener información de mucha importancia.

Os dejo una demo rápida para que veáis la potencia de esta herramienta:

Aprende a descargarlo y configurarlo

Las oportunidades que nos ofrece Screaming Frog son muy variadas, por lo que el provecho que podemos sacar de esta herramienta depende de cómo manejemos estas opciones y el análisis que hagamos de los resultados. Pero bien, para comenzar debemos descargar la herramienta. Podemos conseguir una versión gratuita en la página web oficial de Screaming Frog que, aunque tendrá ciertas limitaciones, funciona muy bien para analizar páginas de proyectos pequeños.

Antes de seguir leyendo si no la tienes, accede y descárgala.

De igual forma, también encontraremos la versión de pago, que os aseguro que vale la pena si tenemos la posibilidad de adquirirla.

¡Vamos allá! Lo primero que debemos hacer es abrir la aplicación e introducir el dominio web en el lugar correspondiente, luego iniciamos la configuración del rastreo de esta página.

cabecera screaming frog

En la sección de configuración podremos introducir las opciones que nos interesan analizar, entre las opciones que esta herramienta nos permite rastrear tenemos: enlaces externos e internos, CSS, imágenes, Java Script, entre otros. Finalmente, cuando seleccionamos lo que queremos rastrear podemos pulsar el botón de Start y el proceso de rastreo iniciará, debemos esperar a que este finalice y luego extraer de los resultados la información que nos interesa. Cabe destacar que este procedimiento es sumamente básico, siempre podemos ahondar un poco más para conseguir información aún más detallada.

Primer acercamiento a un informe de screaming frog

Códigos de estado

En la pestaña de “Response Codes” podrás conseguir una lista de todas las direcciones de la web, acá podrás filtrar el resultado según el código de respuesta que arrojen. De este modo, podrás analizar todos los resultados que no cuenten con un buen código de respuesta y realizar los procesos necesarios para mejorar tu web. response codes Con los resultados de esta pestaña podrás comprobar si se encuentran bloqueadas por robots.txt las URLs que quieres. Así como también podrás comprobar que tu página no cuente con páginas “no response”, páginas rotas que arrojen error 404 y la calidad de las redirecciones. status code

URI

La sección URI muestra toda la información sobre las URLs de la página web, especialmente acerca de la forma cómo están escritas. Aquí podrás filtrar la información de esta manera: uri

  • Non ASCII Characters: URLs que tienen caracteres no pertenecientes a la codificación ASCII.
  • Underscores: URLs que contienen guion bajo.
  • Uppercase: URLs con mayúsculas.
  • Duplicate: acá se detectan URLs idénticos.
  • Parameters: en esta sección se muestran las URLs que tienen parámetros, tales como bloqueos por robots, noindex, entre otros.
  • Over 115 Characters: aquí se muestran los URLs muy largos.

clasificar uri

Titles

En el panel de Tittles podremos ver información sobre el “tittle” de cada página, aquí podemos ver si existe o no, si están duplicados, si son demasiado largos o cortos y también si estos son múltiples, es decir, si hay varios tittles en una misma URL. titles tipos title

Meta-description

El panel de Meta-Description se muestra junto al de Tittles, por lo que los filtros y la información que podemos conseguir es exactamente la misma. Podemos ver si la description está vacía, duplicada, si es muy corta o larga y si está multiplicada dentro de una misma página. metadescripción

Imágenes

La sección de imágenes es una de las más sencillas, en esta podremos filtrar el resultado para obtener las imágenes que pesan más de 100 kb, imágenes que carecen de atributo ALT o las que tienen este aspecto muy largo. Estos tres aspectos son muy importantes de cuidar cuando buscamos optimizar el SEO. images

Configuración del Spider

Contenido

Dentro de la opción Configuration – Spider, podemos elegir de qué forma analizamos y procesamos el contenido de la página web:

  • Text Only
  • Old AJAX Crawling Scheme
  • Javascript

configuration La opción Old AJAX Crawling Scheme es la que viene por defecto, esta emula un sistema de Google que rastrea el contenido AJAX. Este método se encuentra obsoleto desde hace unos cuantos años, sin embargo, sigue siendo uno de los métodos más cercanos al rastreo de la actualidad. Por otra parte, si seleccionas la opción Text Only podrás obtener únicamente el código HTML y la información referente a este. Mientras que la opción JavaScript rastrea el código de este tipo, el cual es sin duda el proceso más pesado de la herramienta, por lo que es normal que tarde un poco más.

Robots.txt

La siguiente opción, robots.txt, nos muestra las siguientes tres opciones dentro de la opción Settings:

  • Ignore robots.txt
  • Show internal URLs blocked by robots.txt
  • Show external URLs blocked by robots.tx

robots Dependiendo de la opción que seleccionemos podremos ignorar todos los archivos robots.txt de la web, mostrar las URLs bloqueadas por los robots.txt –la opción más recomendada– o mostrar solo las URLs externas que se encuentran bloqueadas.

Protocolo

Si has realizado una migración de tu página de http a https, te interesa la información que te aportará la pestaña Protocol, que te permite diferenciar entre los dos tipos de direcciones (http y https).  protocol

Sitemap XML

Screaming Frog nos permite crear fácilmente un Sitemap XML, para esto solo debemos hacer clic en la opción Create XML Sitemap y configurar las opciones que queramos: incluir páginas sin index, PDFs, canonical, entre otras. sitemaps Podemos dejar cada una de las opciones con su configuración por defecto y seleccionar Next. A continuación, obtendremos el mapa listo por completo, el cual puede ser guardado fácilmente. crear sitemap

Modo spider, modo list y modo SERP

Si activamos el modo spider la herramienta actuará rastreando la información de URL en URL siguiendo siempre cada uno de los enlaces internos de la página web. Por su parte, en el modo list se rastrearán las URL indicadas en una lista, está deberá hacerse de forma manual. Este modo nos permite analizar de forma práctica las URLs de un sitemap y ver si tienen errores o están dañadas. En esta opción también tenemos que hacer la carga de los URLs de forma manual, pero esta vez en un documento CSV, acá podremos ver cada uno de los tittles y las descripciones. mode

Para qué usar Screaming Frog

Las opciones que nos ofrece la herramienta Screaming Frog son muy diversas, ya que no solo podemos aplicarlas a una página web, sino que podemos también analizar la competencia y analizar otros detalles referentes al rendimiento de la web.

Analizar la propia web

Screaming Frog es una aplicación imprescindible para optimizar tu propia página web, ya que podrás conseguir información muy importante que te ayudará a mejorar la calidad de tu página web. Podrás solucionar errores y facilitar la indexación de la información por parte de los diferentes motores web.

Análisis de la competencia

Uno de los grandes beneficios que te ofrece Screaming Frog es que también puedes analizar a tu competencia. Por medio de los resultados sobre las etiquetas, tittles, descripciones y demás podrás ir descubriendo las palabras claves en las que están empleando mayor dedicación.

Gestión de linkbuilding

Screaming Frog nos permite analizar los enlaces externos o salientes, lo cual nos permite analizar los sitios a donde se están enlazando las páginas de la competencia.

Descubrir URLs sin tráfico

Esta herramienta permite ver el flujo orgánico que reciben ciertas URLs en específico, de este modo podrás prestarles mayor atención a estos y optimizar el contenido para mejorar aún más tu página web.

Últimos cambios v. 14.1

  • Modo oscuro
  • Exportación de documentos a Google Spreadsheet
  • Encabezados HTTP
  • Almacenamiento de cookies a través del rastreo
  • Cantidad de URLs descubiertas por directorio (en vista de árbol)
  • Nuevas opciones avanzadas de configuración: ignorar URLs no indexables para filtros en la página e ignorar URLs paginadas para filtros duplicados.
  • Filtro atributo alt no encontrado en la pestaña imágenes.
  • Pequeñas actualizaciones y mejoras.
Comparte este artículo