Aranas Distribuidas. Asignacion Efectiva de Trabajo (Spanish, Paperback)

,
La computacion desde sus inicios, como en la actualidad, es utilizada como una herramienta que le ayuda al hombre a resolver problemas de su vida diaria. En este trabajo nos enfocamos a hallar y recuperar documentos que yacen en la Web, por medio de programas que los localizan y los recuperan, a texto completo. Estos programas (llamados aranas, o crawlers en ingles) pueden ser instalados en una o varias maquinas. En este ultimo caso se coordinan entre si para evitar duplicar (o sextuplicar, si se instalaran en seis maquinas) esfuerzos. Un documento se recupera una sola vez, aunque varias aranas se "topen" con el. Un Web crawler es un programa que inspecciona de manera metodica y automatizada las paginas de la Internet. Para un Web crawler es sumamente importante no duplicar trabajo, pues una direccion URL duplicada puede originarle perder varias horas o incluso dias de trabajo ya que otra de sus tareas es extraer direcciones URL incluidas dentro de ella y procesarlas de igual manera. El presente trabajo muestra la definicion de una arquitectura que resuelve el problema de duplicidad y optimiza el espacio asociando a cada pagina web 4 de los principales temas de los que trata."

R1,053

Or split into 4x interest-free payments of 25% on orders over R50
Learn more

Discovery Miles10530
Mobicred@R99pm x 12* Mobicred Info
Free Delivery
Delivery AdviceShips in 10 - 15 working days


Toggle WishListAdd to wish list
Review this Item

Product Description

La computacion desde sus inicios, como en la actualidad, es utilizada como una herramienta que le ayuda al hombre a resolver problemas de su vida diaria. En este trabajo nos enfocamos a hallar y recuperar documentos que yacen en la Web, por medio de programas que los localizan y los recuperan, a texto completo. Estos programas (llamados aranas, o crawlers en ingles) pueden ser instalados en una o varias maquinas. En este ultimo caso se coordinan entre si para evitar duplicar (o sextuplicar, si se instalaran en seis maquinas) esfuerzos. Un documento se recupera una sola vez, aunque varias aranas se "topen" con el. Un Web crawler es un programa que inspecciona de manera metodica y automatizada las paginas de la Internet. Para un Web crawler es sumamente importante no duplicar trabajo, pues una direccion URL duplicada puede originarle perder varias horas o incluso dias de trabajo ya que otra de sus tareas es extraer direcciones URL incluidas dentro de ella y procesarlas de igual manera. El presente trabajo muestra la definicion de una arquitectura que resuelve el problema de duplicidad y optimiza el espacio asociando a cada pagina web 4 de los principales temas de los que trata."

Customer Reviews

No reviews or ratings yet - be the first to create one!

Product Details

General

Imprint

Eae Editorial Academia Espanola

Country of origin

United States

Release date

March 2012

Availability

Expected to ship within 10 - 15 working days

First published

April 2012

Authors

,

Dimensions

229 x 152 x 7mm (L x W x T)

Format

Paperback - Trade

Pages

120

ISBN-13

978-3-8484-5051-0

Barcode

9783848450510

Languages

value

Categories

LSN

3-8484-5051-8



Trending On Loot