mamue
29-09-2007, 11:25
Hallo,
ich habe hier einige client-PC, die ich gelegentlich über ein Image mit neuer Software versorge. Es gibt viele Alternativen, aber im großen und ganzen hat sich das in den letzten drei Jahren bewährt. Vor kurzem ging es allerdings dramatisch schief: Der Switch war beim Verteilen des Images auf die Zielpartition ausgefallen und somit alle Clients eines Raumes (30 Stück) unbrauchbar. Den Fehler zu finden, zu beseitigen und die PC neu zu betanken dauerte zwei Tage.
Ich würde so etwas gerne in Zukunft vermeiden. Mein Gedanke ist:
Ich erstelle ein Image und speichere das auf dem Server, wie gewohnt.
Die Clients holen sich die Image-Datei und speichern die auf einer seperaten Partition ab. Wenn das schiefläuft, weil das Netzwerk Defekte hat, wär's schade, aber eben nicht dramatisch.
Wenn alle Clients die Datei/en haben, wird das Image lokal von der Datei auf die Zielpartition geschrieben. Das mag langsam sein, aber eigentlich kann nichts mehr schiefgehen, oder?
Mein Problem: Ich muß im Hintergrund, wärend ein Anwender den PC nutzt, die Datei kopieren und das muß folglich sehr ressourcenschonend und sehr sicher ablaufen. Zeit spielt eigentlich kaum eine Rolle.
Tools die nicht verwendet werden können sind zum Beispiel:
1) copy, xcopy: Keine Bandbreitenbegrenzung, keine (blockweise) Konsistenzprüfung
2) rsync: laut Webseite unter Umständen zu Speicherhungrig - ich habe teilweise nur 128MB RAM.
3) torrent-clients, Azureus: Sehr robust, brauchen aber viel RAM (Azureus) und keines läuft ohne GUI AFAIK.
Ich weiß auch gar nicht, ob sich ein Filesharing im LAN realisieren ließe, aber ich hoffe, es ist ein wenig klar geworden, worauf ich hinaus will.
Die clients laufen unter Windows.
Kommentare und Ideen wäre willkommen.
Danke,
mamue
ich habe hier einige client-PC, die ich gelegentlich über ein Image mit neuer Software versorge. Es gibt viele Alternativen, aber im großen und ganzen hat sich das in den letzten drei Jahren bewährt. Vor kurzem ging es allerdings dramatisch schief: Der Switch war beim Verteilen des Images auf die Zielpartition ausgefallen und somit alle Clients eines Raumes (30 Stück) unbrauchbar. Den Fehler zu finden, zu beseitigen und die PC neu zu betanken dauerte zwei Tage.
Ich würde so etwas gerne in Zukunft vermeiden. Mein Gedanke ist:
Ich erstelle ein Image und speichere das auf dem Server, wie gewohnt.
Die Clients holen sich die Image-Datei und speichern die auf einer seperaten Partition ab. Wenn das schiefläuft, weil das Netzwerk Defekte hat, wär's schade, aber eben nicht dramatisch.
Wenn alle Clients die Datei/en haben, wird das Image lokal von der Datei auf die Zielpartition geschrieben. Das mag langsam sein, aber eigentlich kann nichts mehr schiefgehen, oder?
Mein Problem: Ich muß im Hintergrund, wärend ein Anwender den PC nutzt, die Datei kopieren und das muß folglich sehr ressourcenschonend und sehr sicher ablaufen. Zeit spielt eigentlich kaum eine Rolle.
Tools die nicht verwendet werden können sind zum Beispiel:
1) copy, xcopy: Keine Bandbreitenbegrenzung, keine (blockweise) Konsistenzprüfung
2) rsync: laut Webseite unter Umständen zu Speicherhungrig - ich habe teilweise nur 128MB RAM.
3) torrent-clients, Azureus: Sehr robust, brauchen aber viel RAM (Azureus) und keines läuft ohne GUI AFAIK.
Ich weiß auch gar nicht, ob sich ein Filesharing im LAN realisieren ließe, aber ich hoffe, es ist ein wenig klar geworden, worauf ich hinaus will.
Die clients laufen unter Windows.
Kommentare und Ideen wäre willkommen.
Danke,
mamue