23 formas de Indexar URLs en Google

Escrito por Alberto Fernández. - 13 min de lectura

Última actualización:

No sé vosotros, pero para mí la indexación es fundamental en el trabajo de posicionamiento en buscadores, y básico en cualquier estrategia SEO.

Si una URL no está indexada, jamás vamos a poder posicionar ni rankear por nada.

¿Qué significa indexación?

Para poder trabajar con Google, es importante saber cómo funcionan sus robots y el buscador en general. No sé si sabéis que cuando alguno de sus robots llega a una página nueva, la encuentra, añade esa URL a una lista junto a otras páginas rastreadas de la misma categoría.

En esta URL de la ayuda de Google lo indica: https://support.google.com/programmable-search/answer/4513925?hl=es

En resumidas cuentas: Google descubre URLs, sus robots las crawlean y si cumple ciertos requisitos, las indexan.

Una buena indexación es la base del SEO

Como toda gestión documental, existe un orden interno dentro de Google: categorías, índices, palabras, referencias… de modo que sea más sencillo encontrar exactamente lo que estemos buscando. El buscador contiene un índice de páginas clasificadas de diversas formas. Estas páginas no son exactamente las URLs de las páginas web, sino una captura de pantalla de las páginas según fueron vistas en el último rastreo. Es lo que conocemos como caché de páginas.

    SEO que genera negocio

    Mi obsesión: la rentabilidad SEO. Control y experiencia. No te la juegues.

    Tu competencia no espera.

    • Resultados previos demostrables, sin excusas.

    • Trato personal, sin gestores intermediarios.

    • Experiencia en múltiples sectores y países.

    • Número de clientes limitado.

    Invierte en experiencia >>


    Para conocer la caché de una URL usaremos el siguiente comando en el buscador

    cache:www.albertofdez.com

    La caché puede no ser idéntica a la URL en tiempo real, por ejemplo si ha cambiado recientemente. Si Google detecta esto a menudo, hará que cada vez pase con más frecuencia por tu sitio web. Su interés es devolver siempre una última versión válida en los resultados de búsqueda. Por ello es tan importante nutrirle constantemente de contenido, preferiblemente de calidad.

    Y hay que señalar, un sitio rápido con un buen trabajo de WPO (Web Performance Optimization) será un sitio mejor capacitado para ser recorrido e indexado por los robots.

    Aquí, antes de seguir leyendo, vamos a ver este video que aunque es un poco antiguo, pero nunca está demás escuchar lo que dice Google al respecto.

    ¿Qué es eso del crawling?

    Los robots y arañas de Google necesitan ser capaces de crawlear tu sitio web (encontrarlo entre todo Internet) para poder recomendarlo en un resultado de búsqueda.

    Un ejemplo típico es imaginarnos que Google es un librero en busca de un libro para recomendárselo a un cliente. Si no encuentra el libro, no podrá recomendarlo.

    ¿Y en qué se diferencia de la indexación?

    En algún momento los robots de Google (Googlebots) serán capaces de encontrar tu contenido. Si lo hacen, querrán indexarlo en el buscador. Como si fuera una librería, los robots quieren conocer la naturaleza de la información para poder categorizarla y recomendarla a los usuarios que realicen búsquedas relacionadas con ese contenido.

    Si tu libro es anónimo o no tiene título, ¿puedes archivarlo bien? Si Google no puede leer correctamente tu contenido y prepararlo para quien lo quiera ver, no será atractivo para los usuarios, por lo que poco a poco dejarán de utilizar el buscador si pasan a creer que no responde a sus necesidades.

    Vale… y ahora vamos al turrón.

    ¿Cómo puedo indexar mi sitio en Google?

    Una vez que creamos un sitio web, tenemos que cercionarnos que cada uno de los contenidos que hemos creado son indexados en el buscador, de lo contrario difícilmente obtendremos los resultados que esperamos.

    Lógicamente, tendremos que revisar aquellas URLs destinadas a obtener tráfico, habrá muchas otras que quizá ni siquiera nos interese mostrárselas, como puede ser la página de login, etc…

    URLs candidatas a ser indexadas

    De primeras, las URLs de nuestro sitio deben cumplir ciertos requisitos:

    • No estar bloqueadas por meta robots o en cabecera a través de x-robots.
    • No estar canonicalizada
    • Código de respuesta 200 (a veces se indexan URLs con otros códigos, pero suele ser temporal)
    • Contenido útil
    • Rastreable

    Tracking de la web con Google Analytics

    ¿Qué tal si damos de alta el sitio web en Google Analytics?

    Esta es la forma básica de irle informando de las URLs de las que se compone mi sitio, ya que las irá trackeando en función de la navegación de los usuarios, aunque no es inicialmente garantía de indexación de ningún tipo.

    Subir o resubir el Sitemap XML

    Podemos generar un fichero XML con todas las URLs que nos gustaría trabajar y enviárselo a Google a través de Google Search Console (GSC).

    Si ya tenemos el sitemap creado, podemos resubirlo actualizado con las nuevas URLs que deseamos indexar.

    Podremos controlar el nivel de saturación, es decir, el número de URLs indexadas en relación con el número de URLs enviadas a Google.

    Explorar como Google

    Dentro de GSC del propio buscador, tenemos la opción de solicitar a Google que explore alguna de nuestras URLs y una vez lo haya hecho, enviársela a sus índices.

    GSC -> Inspeccionar URL de…

    explorar url en google search console

    Para posteriormente solicitar indexación directamente:

    solicitar indexación

     

    Antiguamente lo podíamos hacer 500 veces al mes si solamente queríamos que explorara una URL concreta, o 10 veces al mes si lo que deseábamos era que explorara esa URL y los enlaces que allí viera.

    Enviar URL a Google

    Durante un tiempo hemos podido enviar en mayor cantidad, pero desde finales de diciembre de 2020 (tras haber estado un tiempo sin poder utilizarse esta herramienta) podemos solicitar indexación de nuevo con ciertas limitaciones.

    Colocar URL en el campo de Adwords Keyword Planner

    Dentro del planificador de palabras clave, tenemos un sitio donde podemos indicarle una URL y que pruebe a decirnos términos relacionados en función del contenido que allí encuentre.

    De este modo, procesará esa dirección web, lo que ayudará muy probablemente a que la reconozca y la indexe con anterioridad.

    Añadir URL a los buscadores

    El método clásico para hacerle llegar a los buscadores tu URL es utilizar las direcciones típicas que ellos mismos ponen a nuestra disposición. Repasemos los principales buscadores:

    Aparecer en Google

    Google, aunque no lo tenga ubicado en primera página (quizá porque ya no es ni necesario hacerlo), dispone de una URL donde explica todas las formas posibles de aparecer en Google.

    Para ello, no tenemos más que visitar:

    https://developers.google.com/search/docs/basics/get-on-google?hl=es&visit_id=637448327884121428-3393388887&rd=1

    Seleccionaremos la opción que más nos interese en cada caso. Quizá para indexar una URL normal, en el 99,9% de los casos utilicemos Search Console, pero podemos trabajar sin problema con cualquiera de las demás herramientas. Recordar que para poder trabajar necesitaremos estar logueados en su plataforma.

    Indexar URL en Bing y Yahoo

    La interfaz del buscador Bing para enviar una URL era igual de sencilla que la de Google, y en septiembre de 2018 la dieron de baja por la baja calidad de las URLs enviadas. Para enviarlas ahora, podrá hacerse desde Bing Webmaster Tools.

    Yahoo funciona con el mismo índice de Bing, por lo que al darlo de alta en Bing automáticamente tendremos nuestras URLs en Yahoo.

    Puedes darte de alta aquí: https://www.bing.com/toolbox/webmaster

    Indexar URL en Baidu

    Para ello lo primero es darnos de alta en su herramienta para webmasters, verificar a través de SMS la cuenta y seguir los pasos para dar de alta tu sitio.

    indexar url en baidu

    La URL de las tools de este buscador es la siguiente: https://passport.baidu.com/v2/?reg

    Indexar URL en DuckDuckGo

    Duck Duck Go no tiene un sitio en el que tu le puedas hacer llegar una URL. Al contrario que el resto de buscadores, indexa de forma automática todas las URLs que encuentra en más de 400 fuentes distintas, entre las que se encuentran sitios como Wikipedia y el buscador Bing, por lo que si lo has dado de alta como te he indicado anteriormente, en breve aparecerás. Desde Duck Duck Go indican que Google no es directamente una fuente de información. Curioso.

    Envía tu publicación a Google My Business

    Inicia sensión en GMB, crea un nuevo post del tipo What´s New, agrega una foto, escribe una descripción breve, selecciona Learn more para añadir un botón, coloca la URL que deseas indexar y publica. Repite el proceso con las URLs desde donde enlazas a esa URL. Lo que ocurrirá te sorprenderá… 😉

    Utiliza la API de indexación de Google

    ¿No conocías que existe una API? Mira esto: https://developers.google.com/search/apis/indexing-api/v3/quickstart

    Podremos notificar a Google de la existencia de una nueva URL, actualizarla, eliminarla y obtener su estado actual.

    Compartir URL en redes sociales

    Las redes sociales no son santo de mi devoción en el 90% de proyectos. Pero compartirlas y que los buscadores al rastrearlas las encuentren no está demás.

    Por ello mi recomendación es realizar una estrategia, por lo menos básica, en cada red social y compartir el mensaje así como lo hayamos predispuesto. Serán links, y por tanto ayudarán a descubrir.

    Además, desde hace algún tiempo, Google indexa algunos perfiles de Twitter, algunos tweets…

    Añadir la URL a marcadores sociales

    Los marcadores sociales no son fáciles, ni sencillos, ni un juego de niños. Si realmente queremos trabajarlos nos exigirá mucho tiempo, paciencia y trabajo a fondo perdido. Muchos no requieren nada, pero los que pueden darnos alegrías a nivel de tráfico, todo lo contrario.

    Aún así, y como hablamos de indexación, es una ayuda más para conseguir llamar la atención de los buscadores y que las indexen.

    Realizar buen linkbuilding interno

    Si nuestro linkado interno es correcto, el usuario navega de una a otra página sin problemas y conseguimos buena retención en tiempo en la página de cada uno, será muy probable que para los robots también sea un estupendo parque de atracciones.

    Podríamos tratar, por ejemplo, cada vez que creamos un contenido bueno, de crear un link en alguna página relacionada que tenga aproximadamente una visita diaria del robot que la cachea. Esto nos asegurará de que en 24 horas máximo el robot pasará por la nueva URL. Por este motivo, me gusta por ejemplo colocar en la página principal de un proyecto links a los cuatro últimos artículos o noticias. De esta forma me aseguro de que pase el robot, ya que por la página principal es por donde más suele pasar en un proyecto web correctamente estructurado.

    Arquitectura compleja dificulta la indexación

    Si tenemos una arquitectura demasiado compleja, puede ser que ciertos contenidos queden ocultos a los robots de los buscadores, y si no eres demasiado relevante y popular para ellos, en seguida se cansen de indagar, por lo que si tienes muchos niveles de anidación en tu grafo de arquitectura, nunca lleguen a los nodos finales.

    Cuanto más plana sea tu arquitectura, más fácil será llegar por ejemplo a tu contenido. Esta es la forma más simple de estructurar pensando en la indexación.

    Linkbuilding general

    Nunca estará demás colocar links donde sepamos que el robot de google  pasa cada muy poco tiempo, como pueden ser los periódicos o la sección más relevante para el buscador.

    Una forma sencilla de saber esta información es mirar la sección de páginas relevantes de Webmaster Tools:

    Tráfico de Búsqueda -> Consultas de Búsqueda -> Páginas Principales

    Mantén una correcta navegación

    Si conseguimos una navegación correcta en nuestro sitio web contribuiremos a una mayor incursión del robot a nivel de indexación, como hemos visto en el punto anterior. Conseguiremos que más rápidamente nuestro sitio sea indexado. Ya sabes, recuerda usar las migas de pan.

    Genera contenido nuevo

    Añadir de forma frecuente contenido de calidad a tu sitio atraerá a los robots cada vez más y con mayor frecuencia a tu sitio web. Conseguiremos que Google reindexe y vuelva a reindexar cada vez nuestro sitio, e irá dando importancia a cada una de sus páginas. Con la rutina, cada vez lo indexará hará antes en el tiempo.

    Indexa tus posts usando Digg y Reddit

    Digg es utilizado por muchísimos usuarios, principalmente en nichos de ciencia y tecnología. Es capaz de combinar en un mismo sitio la potencia de un marcador social, blogging y sindicación.

    ¿Alguna vez has trabajado Digg y Reddit para mejorar tu indexación web?

    Reddit es una web de marcadores sociales, un agregador de noticias bastante conocido en el mundillo de internet. Su sistema de votaciones entre usuarios hará que tu noticia tenga mayor o menor visibilidad. Si escribes buen contenido atractivo para los usuarios, este es tu sitio.

    Añadir nuestro enlace si lo consideramos oportuno, también ayudará a ser encontrado más fácilmente por los buscadores. Ambos servicios conseguirán que nuestro contenido coja fuerza y popularidad si es realmente bueno, y por tanto Google siempre estará atento.

    Ping a tu URL

    No está demás avisar cuando generamos nuevo contenido, y no dar lugar a que se den cuenta o no. Lo cierto es que si tu sitio está sano, lo mejor es ver cómo se dan cuenta sin ser avisados. De vez en cuando intento no pingear para ver cuánto realmente tardan en percatarse. Si pasa de 24 horas tengo cierta preocupación.

    ping contenidos

    Para los que usamos WordPress, plugins como Yoast te permiten al crear el Sitemap pingear a los principales buscadores como Google, Bing, Yahoo o Ask. Sin embargo, muchos no conocen otro apartadito donde podemos avisar a muchos más. Esto se encuentra en

    Ajustes -> Escritura

    URLs con un mínimo de trabajo OnPage

    Hay ciertos factores onpage que deberíamos cuidar a la hora de trabajar las URLs de nuestro sitio web.

    URLs amigables

    Mantener nuestras URLs limpias y amigables ayudan no solo a los usuarios a entender el contenido interno sin ni siquiera hacer clic, también a los buscadores a interpretarla.

    ¿Sabes que trabajar las URLs amigables ayudará en tu indexación?

    Parámetros de URLs

    Si no lo sabéis, en las Webmaster Tools de Google

    Rastreo -> Parámetros de URL

    podemos trabajar cada uno de los parámetros que utilizamos en nuestro sitio web, informando a Google de:

    • ¿qué sentido o efecto tiene ese parámetro?
    • ¿cambia el contenido que se muestra al usuario?
    • ¿cómo influye si lo cambia?
    • ¿qué debería de hacer Google si lo encuentra?

    Sobre todo en proyectos como E-commerce se utilizan gran cantidad de parámetros de control. No queremos que se indexen en los buscadores la misma URL con y sin parámetros añadidos. O quizá en algún caso pueda sernos interesante, por ejemplo si trabajamos las búsquedas (si no corremos el riesgo de que nos pase como a la SGAE y lo controlamos bien)

    Si el buscador nos ha indexado más URLs de las que realmente tiene nuestro sitio web, en la mayoría de los casos es debido al mal trabajo de los parámetros en las URLs. Esto lo podemos observar al revisar el nivel de saturación, es decir, la cantidad de páginas indexadas frente a las enviadas en el Sitemap de tu sitio web.

    Código limpio

    No es lo mismo para los robots encontrarse un código fuente limpio y cuidado, que el típico código espaguetti. Para mí no es vital, pero es interesante intentar tener el mínimo de errores según la W3C. Esto podemos verlo en el validador de la W3C:

    http://validator.w3.org/

    o en herramientas como Woorank que la integran.

    Alta en directorios

    El alta en directorios se ha “prostituido” bastante en los últimos años, y ha llegado a extremos en los que muchos compañeros SEOs han decidido dejar de trabajarlos. Creo que esto es un error, dado que muchos directorios todavía pueden ayudarnos, entre otras cosas, a mejorar la indexación de nuestro sitio web.

    Mira estos criterios de calidad para el alta en directorios de tu web

    A mí me gusta trabajarlos siguiendo unos estrictos criterios de calidad:

    • DA de la Home (Domain Authority)
    • DA de las categorías que vaya a trabajar
    • Políticas claras de inclusión
    • Que no me exijan un enlace recíproco
    • Que el enlace no implique hacer redirecciones
    • El valor de Trust de Majestic
    • Alexa Rank
    • Tráfico Semrush
    • Señales sociales: followers, suscriptores, comentarios, +1…
    • Elementos onpage trabajados
    • Frescura de contenidos: fechas de publicación, actualidad, publicaciones/mes…

    En definitiva, lo que le pediría a cualquier otro enlace a mi sitio web.

    Guess posting en sitios estratégicos

    Los artículos como invitados puede ser una estupenda estrategia para poner un enlace en un sitio web importante, al que Google adore. Esto hará que salte con mayor frecuencia a nuestro sitio web.

    Por tanto, es una buena estrategia indirecta para mejorar la indexación en nuestra web.

    Y ahora, ¿conoces algún otro método interesante para ayudar a indexar URLs en Google? ¿Conoces otro método para tener un 100% de indexación? Si quieres lo comentamos en los comentarios 😉

    Mejoras en los datos de cobertura de la indexación

    El 11 de enero de 2021 Google anunció ciertas mejoras en la información que nos proporciona sobre la indexación de las URLs de nuestro sitio web:

    • Eliminó el famoso mensaje genérico de “anomalía de rastreo”.
    • Las URLs bloqueadas por robots.txt pero que se enviaron e indexaron aparecen como “indexadas pero bloqueadas” y en grado de advertencia en vez de error.
    • Se generó un nuevo aviso de advertencia para las URLs indexadas sin contenido.
    • Se amplió la información para los errores 404 leves.
    Comparte este artículo