Previo al proceso de indexación, los motores de búsqueda realizan un barrido sistemático a la Red para recopilar la mayor cantidad de direcciones posibles. Este proceso se conoce como crawling y es realizado por aplicaciones especiales llamadas web crawlers .
Desarrollado por Google, el Sitemap es un protocolo que facilita a los motores de búsqueda el crawling de sitios. En sí, se trata de un archivo .XML que deberá alojarse en el sitio y que contiene un listado con las direcciones que están disponibles para ser indexadas, además de información adicional como su última actualización, cada cuanto se actualiza o el grado de importancia.
En http://www.sitemaps.org/ las compañías ofrecen más detalles sobre este protocolo.
Extraido de La Nación
No hay comentarios.:
Publicar un comentario