PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : urls in einem file automatisch zeilenweise abarbeiten/downloaden?



d@tenmaulwurf
22-05-2004, 22:52
Moin!

Ich habe eine laaaange List an URLs zu gzip-files die ich via SSh downloaden möchte - jedoch bin ich zu faul immer einzugeben: wget [URL]
Kann ich jetzt einfach alle URL's in ein textfile schreiben und dann mit einem kleinen Script alle Downloads automatisch downloaden lassen kann?

Wie würde so ein Script aussehen und worin würde es geschrieben sein?

THX im voraus,

d@tenmaulwurf

Badsteve
23-05-2004, 09:58
wget -i file.txt


so! :) steve

Hans-Georg Normann
23-05-2004, 12:48
Die Lösung von Badsteve würde ich auch nehmen.

Es wurde aber nach SSH gefragt, also käme da wohl eher scp zum Zuge. Funktioniert wie cp, aber eben mit zusätzlichen ssh Komponenten. Weiteres siehe Manpages.

Hans

ThorstenS
25-05-2004, 12:10
Ich nehme immer ncftp für sowas:

get *.gz oder mget *.gz bei dem 'normalen FTP-Client'

Bei scp sieht es ähnlich aus cp *.gz /Pfad/wo/es/hin/soll