Auditoría SEO: Indexabilidad de una web

Auditoría SEO: Indexabilidad de una web

  • Autor de la entrada:
  • Categoría de la entrada:SEO/SEM
  • Comentarios de la entrada:Sin comentarios

En esta entrada quería hablar de aquellas auditorias SEO primerizas que hacemos los SEO de forma externa a alguna empresa. En este primer post de una auitoria seo inicial, hablaremos de un primer punto: La Idexabilidad de una web. Así podemos ver a grandes rasgos, el estado de indexación de una página web.

si tienes acceso a la web que deseas auditar, es imprescindible acceder a su Search console.

Todas las herramientas mencionadas son GRATUITAS o contienen un trial gratuito.

En muchas ocasiones, (sobre todo cuando empezamos) no disponemos de los medios para poder costearnos una herramienta como «Semrush o Hrefs». Sin embargo, podemos extraer datos muy interesantes sin necesidad de estas herramientas de tal nivel.

en este artículo repasaremos todos los puntos relevantes de una auditoría SEO sin herramientas de pago ni acceso interno a la web o al search console.

Si bien es cierto, la ayuda de estas herramientas o el acceso son muy importantes para llevar a cabo una auditoría SEO profesional, (por no decir que son fundamentales).

Aún así, podemos realizar muchas de las tareas de la auditoría aunque nos lleven más tiempo y nos tengamos que suscribir a algunas herramientas.

Inicio Auditoría SEO:

auditoria SEO

En esta auditoría, he evaluado la mayoría de los aspectos internos y algunos externos a los que se puede tener acceso sin necesidad de permisos ni acceso al sitio web en cuestión. Todos tienen que ver con el SEO, y afectan a la visibilidad de un proyecto online.

 He dividido por grupos todos esos factores que he podido analizar de tu web. Estos 6 grupos engloban de forma general varios aspectos a tener en cuenta para poder posicionarse de forma natural.

Estos son: Indexacion, Contenidos, Popularidad, Rendimiento, CTR y dominio

1- Auditoría SEO de Indexabilidad En un sitio web

cincel y placa de piedra con marca google

La indexabilidad de un sitio Web es la facilidad que tienen los buscadores (como Google) de encontrarlo, rastrear sus contenidos e indexarlo. De esta forma está disponible para los usuarios cuando realizan sus búsquedas

Decimos que un sitio Web es indexable cuando su contenido está disponible en el índice de Google y es accesible para los robots de búsqueda.

Debe resultar fácil de clasificar en las categorías de búsqueda pertinentes. Es una forma de detectar errores de accesibilidad para el rastreo de los robots de los buscadores.

Hay muhchos puntos relevantes que se deben llevar a cabo en una auditoria de indexabilidad. Es más recomendable hacer un análisis de todos los puntos primero y después comenzar a optimizar en función de la relevancia y el impacto que se logrará con el cambio.

Comandos y herramientas de análisis de indexación

En cuanto a la indexación de una página web, en un primer momento, comprobamos las páginas que están indexadas y cuáles no. En muchos casos, no deberemos indexar ciertas páginas como «contacto», «aviso legal» …o páginas de etiquetas y categorías…mientras que otras como «home» u otras landing pages si deberían estarlo.

Para poder Analizar la indexación de una web podemos emplear diferentes comandos o herramientas:

-El comando «site:» Introduciendo el comando Site: tudominio.com, en la barra de búsqueda de Google, nos aparecerán las URL indexadas de ese dominio, así podemos hacernos una idea de que url se están indexando.

comando site:

-Herramienta Screaming Frog: Esta es una de las herramientas más útiles que podemos emplear si queremos ver la arquitectura de la información de un sitio web. Con screaming frog podemos, entre otras muchas cosas, «simular» un rastreo en nuestra propia web y ver todas sus url y muchos datos. La versión gratuita nos deja «Crawlear» hasta 500 url al día. Para empezar nos viene genial.

herramienta seo

Google indexacion Tester: Esta herramienta es simple: introducimos las URL y ejecutamos, después nos reporta si esa url está indexada o no.


-Archivo Robots.txt: Este archivo que está alojado en tu servidor, sirve para bloquear o permitir el acceso de diferentes rastreadores como por ejemplo el de Google hacia ciertas url o directorios: si algunas URL no nos interesa que acceda el rastreador, las incluimos en este archivo como “disallow”. Si por el contrario, queremos que acceda a url que sí nos interesa la incluimos en “allow” (acceso activo).

Para acceder a este archivo asta con introducir la URL de un dominio seguido de «/robots.txt», suele tener esta pinta:

-Sitemaps:  (no confundir con los mapas del sitio) Este es un archivo que declara las URLs que nos interesa indexar de nuestro sitio y su estructura. Ofrece una ayuda al rastreador de Google para que le sea más fácil rastrear nuestro sitio. Cuanto más grande sea nuestro sitio, más necesario es optimizarlo.

Interlinking y linkjuice

-Interlinking: Esto nos habla de cómo están enlazadas tus páginas entre sí, es decir, que leyendo un post de tu sitio, pueda acceder a otros artículos de interés dentro de tu web.

El hecho de realizar un buen ejercicio de interlinkin influye directamente en el reparto de autoridad interno (linkjuice) de un sitio web.

De esta forma, la autoridad principal, que normalmente proviene de la homepage, se reparte por las diversas URL a través de sus enlaces. A medida que navegamos y avanzamos en la profundidad de la web, la autoridad o «zumo» va decreciendo.

Además mejoramos el rastreo de las arañas de Google y permite que nuestros contenidos estén más accesibles. El interlinking debe estar alineado con la lógica de navegación del sitio.

Con ello, debemos enlazar los contenidos con sentido común, es decir, que esos enlaces y las palabras que empleas (anchor text) sean pertinentes para la navegación del usuario.

Errores de indexación, enlaces rotos…

pagina de error 404

-Errores 404: Estos “Típicos errores” indican que la URL a la que intentamos acceder no existe ya. Estos errores de direccionamiento se suelen solucionar con redirecciones 301 (si queremos que el usuario vaya a otro contenido actualizado) pero si queremos que no aparezca más deberíamos “pedir” la desindexación de las URL desde Search console (herramienta de Google) para que el error no se mantenga y Bloquear esas URL en el archivo Robots.txt mientras se desindexa. 

-Redirecciones 301/302: Usando este recurso podemos redireccionar una URL hacia otra, de esa forma llevamos al usuario automáticamente de una URL que no nos interesa (rota, desactualizada) hacia otra que sí nos interesa. Con ello traspasamos la mayoría de autoridad y posicionamiento de la URL «mala» a la URL «buena».

En general estos son los puntos más relevantes en cuanto a indexación de una web. Cuantas más url tengamos, más recomendable será tener en cuenta estos puntos. Aunque es cierto que una web de 200.000 url se considera una web de pequeña a mediana.

Con todo ello, en esta primera parte de indexabilidad «externa», e recomendable «crawlear»la web con un software como screaming frog (si contiene más de 500 URL, seleccionamos HTML en el rastreo).

Os dejo un vídeo de una masterclass de Fernando Maciá Domenec de 10 min donde habla de indexabilidad:

En resumidas cuentas podremos comprobar:

-Páginas index / noindex

-Canonicals

-Errores 404

-Redirecciones 301 y 302

-Deep Crawl

-Estructura de URL general

¿Hay otros factores de indexación que podemos analizar externamente? seguro que si, Coméntamelo!



Deja una respuesta