Hi.
Ich will ein wenig mit Web-Spidern experiementieren und habe dazu ein paar Fragen.
- Wie verhindere ich mehrmaliges anfordern von Dateien?
Ich habe schon die Möglichkeit in Betracht gezogen alle URLs intern gespeichert zu halten, aber dies würde ja dazu führen das das Programm immer mehr RAM verbrauchen würde und nur eine bestimmte Anzahl von URLs möglich wäre.
- Was muss ich beachten? zB Wieviel Clients dürfen max auf einen Host zugreifen?
Schonmal danke im Voraus für jene die mir da weiterhelfen.
Lesezeichen