Uso de robots.txt y sitemaps en la administración pública española

Autores/as

  • Bonifacio Martí­n-Galán El profesional de la información
  • Tony Hernández-Pérez
  • David Rodrí­guez-Mateos
  • Daniel Peña-Gil

DOI:

https://doi.org/10.3145/epi.2009.nov.05

Palabras clave:

Robots, Crawlers, Sitemaps, Motores de búsqueda, Recuperación de información, Visibilidad, Sitios web

Resumen

Se explica la importancia que tienen los ficheros robots.txt y los sitemaps para los sitios web. Se realiza un estudio sobre más de 4.000 webs de la administración pública española para analizar el uso de ficheros robots.txt y sitemaps como medio de optimización para los crawlers o arañas de los motores de búsqueda.

Descargas

Los datos de descargas todavía no están disponibles.

Descargas

Publicado

2009-08-08

Cómo citar

Martí­n-Galán, B., Hernández-Pérez, T., Rodrí­guez-Mateos, D., & Peña-Gil, D. (2009). Uso de robots.txt y sitemaps en la administración pública española. Profesional De La información Information Professional, 18(6), 625–632. https://doi.org/10.3145/epi.2009.nov.05

Número

Sección

Artí­culos de investigación / Research articles