Cómo excluir correctamente los subdirectorios de Google

¡Hola!

La forma más fácil de solicitar a los investigadores que no indexen su sitio es a través del archivo robot.txt. En ese archivo, indica las páginas que desea que los investigadores omitan. Buena introducción al archivo robot.txt en estos dos enlaces: – El archivo robots.txt y decirle a Google que no indexe una página en los resultados de búsqueda

Informe de recursos de bloque: herramienta de webmasters

Sin embargo, debes tener cuidado. Los Googlebots necesitan acceder a varios recursos en su página para representar e indexar estas páginas de manera óptima: JavaScript, CSS, videos y archivos de imágenes … Si su archivo robots.txt no permite rastrear estos recursos, puede afectar qué tan bien Google representa e indexa la página, en otras palabras, al ranking de su página en Google …

Mi consejo es que una vez que haya hecho su robot.txt vaya a Google Seach Tool y ejecute un escaneo para verificar si algún recurso clave se está bloqueando accidentalmente:

Más información en este enlace: Informe de recursos bloqueados

¡Espero eso ayude!

¡Más sobre marketing digital en mi blog [1]! 🙂

Notas al pie

[1] digitalmarketingvandv

Recomiendo que el directorio /sv/ no esté disponible usando su archivo robots.txt.

Se verá algo así como:

Agente de usuario: *
No permitir: / sv /

Si las páginas de ese directorio están indexadas en este momento, la mejor manera de eliminarlas es usar Google Search Console y Bing Webmaster Tools para eliminarlas utilizando las herramientas de eliminación de URL.

Escribí un artículo sobre archivos robots.txt que podría serle útil. Cubre todo lo que necesita saber: archivo Robots.txt: la guía de referencia definitiva.

Además de las otras respuestas, le recomiendo que use el “noindex”. Leer más: Bloquear la indexación de búsqueda con metaetiquetas