¿Qué puede hacer Netpeak Spider 3.0: una poderosa herramienta para el análisis de sitios SEO?

Netpeak Spider: una herramienta para el análisis integrado de sitios SEO. Esta es una aplicación de escritorio con la que puede evaluar la optimización técnica interna del recurso. Lea más sobre el uso de Netpeak Spider en la revisión.

¿Qué es Netpeak Spider y por qué usarlo?

Netpeak Spider es un software para PC que le permite escanear cualquier sitio de acceso abierto. La herramienta también escanea sitios cerrados. Para hacer esto, necesita acceso a un recurso con derechos de administrador. Es decir, Netpeak Spider se puede usar para probar recursos en la etapa de diseño.

El programa recopila datos del sitio sobre optimización técnica para los requisitos de los motores de búsqueda. Netpeak Spider extrae rápidamente casi toda la información que se necesita para evaluar el recurso de SEO. Por ejemplo, la herramienta recopila datos sobre enlaces rotos, meta etiquetas mal llenadas, tiempos de carga de la página, etc.

Se puede obtener información sobre la optimización interna del sitio sin Netpeak Spider. Algunos de los datos se pueden encontrar en Search Console y Yandex.Webmaster. Una pieza se puede ensamblar manualmente, analizando el sitio a través del área de administración o incluso sin acceso a la consola administrativa. Pero Netpeak Spider ahorra tiempo y proporciona acceso a información compleja en una interfaz.

Antes de revisar las capacidades de Netpeak Spider, se debe enfatizar un punto importante. Esta es una herramienta para usuarios calificados. Los datos obtenidos deben ser capaces de interpretar y utilizar. Algunas de las características de Netpeak Spider son únicamente útiles. Pero hay herramientas de la vieja escuela, que necesitas para poder usarlas correctamente.

Es decir, el resultado de usar Netpeak Spider depende casi completamente de qué manos está esta herramienta.

Cómo trabajar con Netpeak Spider

Regístrese en el sitio del proyecto e instale Netpeak Launcher. Este es un programa que descargará e instalará Netpeak Spider en tu PC. Active el período de prueba y use todas las características del programa durante 14 días.

Para escanear el sitio, ejecute el programa. Ingrese la URL y presione el botón "Inicio". Los ajustes predeterminados son adecuados para el primer escaneo.

Netpeak Spider también escanea rápidamente sitios de diferentes tamaños. Tomó 3 minutos procesar el sitio web de Texterra. Una vez que se completa el escaneo, se abre un panel con los resultados en la parte izquierda de la ventana del programa, y ​​un informe en forma de lista de errores aparece en la parte derecha.

Qué datos están disponibles en el panel de control

El panel muestra los enlaces a los resultados filtrados: URL rastreadas, URL internas, URL con errores importantes y URL indexadas. El enlace "URLs rastreadas" proporciona acceso a todas las páginas del sitio que fueron omitidas por Netpeak Spider.

Siga el enlace para ver una lista de URL rastreadas. Una tabla con enlaces y datos para cada página se abrirá en la pantalla. Las URL con errores críticos están marcadas con un marcador rojo, con errores de criticidad media y baja, con marcador amarillo y azul, respectivamente. Las URL sin errores no están resaltadas.

La tabla contiene información sobre cada página: código de respuesta del servidor, número de errores, tiempo de respuesta del servidor, PageRank interno, título, descripción y otra información.

Para ver los resultados de un análisis de URL específico, haga clic en él. La información resumida aparecerá en la ventana "Información".

Los errores en la página se resaltan con un marcador rojo, amarillo o azul. En la página seleccionada, el robot encontró cuatro errores: una URL incorrecta, una directiva de robots.txt incorrecta, una respuesta lenta del servidor y una indicación de una URL canónica.

Los errores de la URL y el hecho de señalar la URL canónica parecen estar relacionados con lo que Netpeak Spider ha escaneado e incluido en las URL del informe con etiquetas UTM. Este enlace se forma durante la transición a la página canónica con una ventana emergente que aparece en todas las páginas del blog Texterra. Esto explica otro error que ve Netpeak Spider: demasiado peso de referencia o PageRank de página.

Es decir, de cada cuatro errores o problemas encontrados, solo uno requiere atención real: un alto tiempo de respuesta del servidor. Esto confirma una vez más que los resultados del análisis de Netpeak Spider necesitan poder interpretar.

Con la ayuda de enlaces, puede pasar rápidamente a otros resultados filtrados. Por ejemplo, el enlace "URL con errores importantes" abrirá una lista de páginas relevantes.

En el tablero de mandos se abre una lista de páginas con errores de criticidad alta y media. Para ver la lista de errores en una página específica, haga clic en ella.

Netpeak Spider encontró varios errores en la página: una meta etiqueta de descripción vacía, una gran cantidad de enlaces internos y externos, una gran cantidad de imágenes, una baja proporción de texto a HTML.

Además de los enlaces a los resultados filtrados, los diagramas con resultados de escaneo importantes se muestran en el panel de control. Los siguientes datos están disponibles:

  • URL indexable. El diagrama muestra la proporción de enlaces indexados, no indexables y no HTML.
  • La criticidad de los errores. La relación de errores con criticidad alta, media y baja.
  • Causas de la URL no indexada. El diagrama muestra las razones principales de la ausencia de URL en el índice, por ejemplo, una prohibición en robots.txt. URL no canónica y así sucesivamente.
  • Tiempo de respuesta del servidor. En el diagrama, puede estimar la proporción de páginas con diferentes tiempos de respuesta del servidor.
  • Código de respuesta del servidor.
  • Profundidad de la URL.
  • Estado de indexación.
  • Tipo de contenido.

Diagramas seleccionables. Para ver una lista de páginas con errores de nivel de gravedad promedio, haga clic en el segmento correspondiente en el diagrama.

Con el botón "Configurar segmentos" puede obtener datos solo de una URL específica del sitio. Por ejemplo, puede incluir solo las publicaciones de blog de Texterra en un informe.

Para hacer esto, en la configuración del segmento, cree un filtro con la condición que contiene la URL. Especifique la URL deseada y guarde el filtro.

Después de eso, los resultados del escaneo de las páginas del blog se mostrarán en el panel de control y en los informes.

Qué información encontrará en los informes.

Los informes están disponibles en el lado derecho de la ventana del programa. Los datos se agrupan en diferentes pestañas.

La pestaña "Errores" proporciona información relevante. En la parte superior de la lista hay errores críticos, y en la parte inferior no críticos. Los elementos en la lista de errores son seleccionables. Por ejemplo, si hace clic en el error "Enlaces rotos", el programa muestra una lista de páginas inaccesibles en el sitio.

En los resultados filtrados, puede seleccionar una URL específica y ver los datos en ella.

En la pestaña Resumen, los datos se agrupan por estado y tipo de página, protocolo de conexión, host, código de respuesta del servidor y otros parámetros. Por ejemplo, puede seleccionar todas las páginas con el estado No permitido. En los resultados filtrados, puede ver los datos de una página específica que está cerrada desde la indexación.

En la pestaña "Estructura del sitio" se muestra la información relevante. Aquí puede seleccionar un grupo de páginas, por ejemplo, todas las publicaciones del blog. En los datos de resultados filtrados está disponible para páginas individuales.

La pestaña Análisis muestra los datos de análisis del usuario. Acerca de la configuración de esta herramienta se discutirá a continuación.

Los datos del informe se pueden exportar utilizando la función Copia avanzada. Para ello, seleccione el informe y haga clic en el botón "Copia avanzada".

Abra la tabla e inserte datos en ella.

Además, los datos del informe seleccionado se pueden guardar en una tabla utilizando la función "Exportar - Resultados en la tabla actual".

El programa guarda una tabla con un informe en el disco duro de la PC.

Los resultados del escaneo se pueden guardar en el programa. Para ello, seleccione el menú "Proyecto - Guardar". La próxima vez que inicie el programa, puede abrir inmediatamente los resultados del índice y no perder tiempo en volver a escanear el sitio.

Cómo configurar un escaneo del sitio

Usando la configuración de escaneo, puede cambiar los datos que recopila Netpeak Spider. Los ajustes están disponibles en el menú del programa correspondiente.

En la configuración básica, puede seleccionar un patrón de escaneo, un idioma de programa y una velocidad de escaneo. En la configuración básica de escaneo, puede habilitar la indexación de sección. En este caso, si escanea la URL / blog /, el robot solo pasará por alto las publicaciones del blog. También en la configuración básica, puede seleccionar el tipo de contenido que indexa Netpeak Spider.

En la configuración avanzada, puede personalizar el índice, teniendo en cuenta las instrucciones para los motores de búsqueda. Netpeak Spider reconoce las directivas en robots.txt, el atributo rel = canonical, los redireccionamientos retrasados, la etiqueta X-robots, los robots meta y el atributo rel = nofollow. Es decir, si necesita escanear el sitio con directivas reales en el archivo robots.txt, marque la opción correspondiente.

En la sección "Escanear enlaces de la etiqueta de enlace", puede deshabilitar la indexación de los enlaces a la página o publicación anterior y siguiente, los enlaces a páginas aceleradas y otros enlaces.

También en la configuración avanzada, puede seleccionar las condiciones para pausar el escaneo. Netpeak Spider puede pausar la exploración indefinidamente si el servidor devuelve el error 429. En este caso, puede reanudar la exploración en cualquier momento. El programa también detiene el análisis durante 30 segundos si se excede el tiempo de espera del servidor.

En la configuración avanzada, puede habilitar las cookies y escanear páginas con el error 4xx. La primera configuración le permite omitir páginas que son inaccesibles sin cookies. El segundo le permite obtener datos disponibles para páginas que devuelven un error.

En la sección "robots.txt virtual", puede configurar la exploración de acuerdo con las directivas de virtual, en lugar del archivo robots.txt real. Con esta función, puede verificar la corrección del archivo antes de que se publique en el sitio.

En la sección de análisis, puede personalizar la recopilación de datos de usuario. Netpeak Spider admite hasta 15 patrones de análisis a la vez. El análisis incluye cuatro métodos de búsqueda:

  • RegExp. Búsqueda de expresiones regulares. Para personalizar la búsqueda, debe poseer la sintaxis del constructor RegExp.
  • Contiene El tipo de búsqueda más fácil. Determina el número de elementos especificados por página.
  • Selector de CSS Búsqueda por CSS-selector HTML-documento. Para personalizar este tipo de búsqueda, necesita poseer HTML y CSS.
  • Xpath. Busca documentos HTML de XPath. Para personalizar la búsqueda, debe poseer la sintaxis de XPath.

Dependiendo del método seleccionado, puede personalizar el área de búsqueda.

Vale la pena considerar un ejemplo de configuración de análisis. Imagina que el sitio necesita encontrar páginas que mencionen un término. Especifique el nombre de la plantilla de análisis. Usando el menú desplegable, seleccione el método "Contiene". Especifique el término a buscar. Use el menú desplegable para seleccionar el campo de búsqueda "Sólo texto".

Mediante el selector CSS, puede encontrar páginas con cualquier elemento. Por ejemplo, utilizando un selector puede encontrar páginas con enlaces.

En la sección Agente de usuario, puede seleccionar una plantilla de escaneo. De forma predeterminada, el agente de usuario de Googlebot está habilitado para escritorios. En el contexto de la prueba del índice Mobile-First, tiene sentido mirar el sitio a través de los ojos de un robot móvil de Google. Para hacer esto, encienda la plantilla apropiada.

Si es necesario, usa otros bots.

En la sección "Restricciones", cambie la configuración si es necesario. La opción de tamaño de contenido merece atención. De forma predeterminada, Netpeak Spider considera que el contenido tiene menos de 500 y más de 50,000 caracteres como un error. Reduzca el valor mínimo a 100 y el máximo a 500,000, para no perder tiempo en errores falsos. Los ajustes restantes no se pueden cambiar.

En la sección "Reglas", configure las reglas de escaneo. Hay dos tipos de filtros disponibles: predeterminado con lógica "o" y avanzado con lógica "y". El primero se activa cuando al menos una de las condiciones del filtro coincide. El segundo está diseñado para crear reglas complejas en las que coinciden dos o más condiciones.

Por ejemplo, al usar la regla, puede configurar excepciones para las páginas de la sección "Cartera" en el sitio web de nuestra agencia. Puede agregar tres páginas diferentes a las excepciones a su vez: "Clientes", "Testimonios" y "Trabajos". Y puede ahorrar tiempo y excluir todas las páginas de la sección con una regla de "URL contiene".

Todas las páginas de la sección "Cartera" comienzan con la URL / progreso /, por lo tanto, después de configurar el filtro, el programa las ignorará.

En la sección "Exportar", si es necesario, cambie la configuración de exportación de datos predeterminada. En la sección "Autenticación", agregue los datos de acceso al sitio cerrado. En la sección "Proxy", si es necesario, especifique el servidor proxy.

Cómo utilizar herramientas adicionales Netpeak Spider

Las herramientas están disponibles en la sección correspondiente del menú.

Con el Análisis de código fuente y la herramienta Encabezados HTPP, puede extraer y analizar datos relevantes de cualquier página.

El código fuente de la página se puede guardar en el disco duro. La herramienta también extrae el texto de la página.

Se presta especial atención a la herramienta "Cálculo del PageRank interno". De acuerdo con la terminología de los desarrolladores de Netpeak Spider, PageRank es el peso de referencia relativo de una página. El cálculo del PageRank interno es necesario para comprender "cómo se distribuye exactamente el peso de referencia en todo el sitio y dónde se concentra".

El resultado del análisis del PageRank interno se ve así (vea la ilustración).

De forma predeterminada, las páginas se agrupan por PageRank interno de mayor a menor. Hay diferentes valores en la columna "Estado del enlace":

  • Ok Estas URL están bien
  • Nudo colgante. Estas son las páginas a las que conducen los enlaces entrantes, pero de las cuales no hay enlaces salientes.
  • Redirigir URL con redirecciones o apuntando a una página canónica.
  • Nodo desconectado URLs que no tienen enlaces entrantes.

Por ejemplo, Netpeak Spider ha definido la página del Servicio de desarrollo de contenido como un nodo colgante.

Esta es la página de destino, en cuyo texto realmente no hay enlaces salientes. Esto se hizo específicamente para que los usuarios no abandonen la página y completen el formulario de conversión a continuación.

¿La ausencia de enlaces salientes en el texto de la página impide la distribución del llamado jugo de referencia? Atención a la ilustración.

La herramienta "Análisis de PageRank interno" se debe utilizar con cuidado. Forma la relación con el enlace interno. Un webmaster inexperto puede verse tentado a agregar enlaces a "nodos colgantes" no para la comodidad de los usuarios, sino para el desbordamiento semimítico del jugo de referencia. Debido a esto, la usabilidad y la conversión pueden sufrir. Un ejemplo con la ausencia de enlaces salientes en la página de destino lo confirma.

Mi posición es: si el sitio tiene un menú, se implementan migajas de pan, navegación a través de categorías, olvídate de desbordar el jugo de referencia. Destruye las páginas por el bien de la felicidad de los usuarios, no para SEO. Un jugo de referencia fluirá sin su participación. Por cierto, Google ha abandonado durante mucho tiempo el cálculo público de PageRank.

Usando el validador de sitemap XML, puede analizar un sitemap. Para hacer esto, ingrese la URL apropiada y haga clic en el botón "Iniciar".

Para ver la información del error, haga clic en los enlaces correspondientes en el lado derecho de la pantalla del programa.

La herramienta Generador de Sitemap crea un sitemap para el sitio seleccionado. La configuración predeterminada es correcta, pero puede cambiarla si es necesario. Por ejemplo, para sitios grandes, tiene sentido dividir el mapa del sitio en 100 o 1000 segmentos de URL. Para ahorrar tráfico, puede archivar el mapa del sitio.

En el menú "Análisis" puede obtener datos sobre duplicados, enlaces entrantes y cadenas de URL canónicas. En el menú "Bases de datos", puede acceder a un resumen del análisis, ir a los resultados generales del análisis y la tabla de encabezado de URL.

Mini caso: cómo Netpeak Spider ayudó a eliminar errores en el sitio

Para el mini-caso utilicé mi plataforma experimental, ya que aquí no tengo miedo de romper algo. Antes de comenzar a trabajar con Netpeak Spider, restauré la configuración predeterminada.

Especifiqué la URL del recurso y lancé la exploración.

Dentro de un minuto recibí el resultado del escaneo. En primer lugar, me interesan los errores con un alto nivel de criticidad.

Comencé con uno simple: agrego un descriptor a dos páginas.

En el sitio de administración vi que realmente no hay descripción. Se corrigió el error en dos páginas.

Por cierto, en la Consola de búsqueda de Google no hay ninguna notificación sobre la descripción que falta.

Para ser justos, en el Webmaster en la sección de posibles errores se cuelga una notificación sobre la ausencia de descripción.

Analizando errores críticos "enlaces rotos". Ignoré el primer error, porque el acceso a xmlrpc.php fue cerrado por mí mismo debido al deseo paranoico de proteger el sitio de los piratas informáticos.

Los enlaces rotos restantes apuntan al directorio virtual de la API REST. Tales enlaces están preferiblemente cerrados de la indexación. Por ejemplo, esto se puede hacer a través de robots.txt.

Los errores de error del cliente también están relacionados con el directorio xmlrpc.php y wp-json para la API REST. Los enlaces ya están cerrados para que los motores de búsqueda no los indexen, por lo que puede ignorarlos.

Usando el botón "Reiniciar", repetí la exploración para ver la reacción del programa a los errores corregidos. La ilustración muestra que las advertencias sobre la descripción faltante han desaparecido. El estado de los enlaces rotos al directorio wp-json ha cambiado de No encontrado a No encontrado y No permitido. Es decir, los enlaces de servicio problemáticos están cerrados para que no sean indexados por los motores de búsqueda.

Luego de eliminar los errores críticos, analizó los problemas de criticidad promedio.

Algunas advertencias no requieren atención, estos no son errores:

  • Отсутствует заголовок H1. Я специально так настроил главную страницу блога.
  • Редиректы 301. Они связаны с перенаправлением пользователей на ЧПУ.
  • Заблокировано в robots.txt. Здесь действительно заблокированы служебные ссылки, которые не должны индексировать поисковики.
  • Заблокировано в Meta Robots. Здесь с помощью плагина All in One SEO Pack заблокированы для ПС страницы категорий.
  • Заблокировано в X-Robots Tag. Блокируем служебные ссылки.
  • PageRank: перенаправление. Программа включает в этот пункт страницы пагинации. На моем сайте пагинация настроена корректно, ошибок там нет.

Другие ошибки требуют внимания. Например, ошибку "Изображения без атрибута Alt" надо исправлять. С помощью кнопки "Отчет по ошибке" я получил список страниц, на которых есть фото без атрибута Alt. Фронт работы понятен.

Также требуют исправления ошибки:

  • Tamaño máximo de la imagen. Las fotos se pueden optimizar utilizando el servicio Tiny PNG o la imagen Compress JPEG & PNG para el complemento de WordPress.
  • Largo tiempo de respuesta del servidor. Este es un tema para otra conversación seria.

Después de analizar los errores con un nivel promedio de criticidad, presté atención a los errores no críticos. No requieren corrección inmediata. Me ocuparé de estos errores si se rascan las manos.

Por ejemplo, Netpeak Spider incluye en el error "PageRank: enlaces faltantes" todas las páginas aceleradas del sitio.

Notifico a Google la disponibilidad de una versión acelerada de las páginas utilizando el atributo rel = "amphtml". No considero necesario notificar a los usuarios que han alcanzado la versión completa de la versión AMP del sitio. Google mismo dirige a los usuarios a AMP, si lo considera necesario. Es decir, no hay error.

Estoy tratando de obtener datos útiles de los resultados del análisis que ayudarán a trabajar en el sitio. En el panel, veo que el tiempo de respuesta del servidor para el 2% de las páginas del sitio supera los 2 segundos.

Por el bien del interés, cuento el PageRank interno. El programa clasifica las páginas por el peso de referencia y les asigna el estado de Ok, "Redirect" o "Disjoint node". Netpeak Spider llama a los nodos no relacionados con AMP a los que no se hace referencia. La perelinkovka en mi sitio está configurada correctamente y con el cuidado del usuario, por lo tanto, no veo información práctica en el cálculo del PageRank interno.

Cuál es el resultado: el uso de Netpeak Spider encontró varios errores importantes. Esta falta de descripción en dos páginas, enlaces indexados al directorio wp-json, la ausencia del atributo alt en algunas fotos y la lenta respuesta del servidor para el 2% de las páginas del sitio. Algunos errores, como las etiquetas meta que faltan y los atributos alternativos, pueden solucionarse rápidamente. Sobre otros, en particular, sobre la velocidad de carga de las páginas y el tiempo de respuesta del servidor, tendrán que trabajar más tiempo.

Si es necesario, puedo extraer de los resultados del análisis otros datos útiles, que se trataron en la descripción de la funcionalidad del programa.

La efectividad de Netpeak Spider depende de la habilidad del usuario.

Netpeak Spider es una herramienta para usuarios calificados. El programa recopila instantáneamente información sobre el sitio. La utilidad real de la información recibida depende del propietario del sitio.

Netpeak Spider encuentra errores graves que la consola de búsqueda no ve. Además, al usar el programa, puede obtener datos sobre la estructura del sitio, ideas para la navegación y enlaces.

Gracias al análisis personalizado, las capacidades de Netpeak Spider son virtualmente infinitas. Con esta herramienta puede obtener cualquier dato del sitio público. Esta puede ser una lista de páginas que usan un término, elemento o fragmento de código específico.

Los usuarios no calificados deben usar Netpeak Spider con cuidado. En el mejor de los casos, trabajar con el programa amenaza a los usuarios con una pérdida de tiempo. Y en el peor de los casos, el usuario puede malinterpretar la información recopilada y cometer errores al trabajar con el sitio. Sin embargo, esto es cierto para cualquier instrumento. Sobre el hacha en manos de un famoso héroe literario dicho arriba.

Comparte tu experiencia con Netpeak Spider en los comentarios. ¿Cómo utiliza los datos obtenidos utilizando el programa para mejorar su sitio o su análisis competitivo? ¿Qué funciones del programa te gustan y cuáles te parecen incomprensibles o inútiles?

Deja Tu Comentario