100GB Backuppen

balufreak

balufreak

Aktives Mitglied
Thread Starter
Dabei seit
12.10.2003
Beiträge
1.563
Reaktionspunkte
28
Hallo leute!

Ich habe zwei Server. Beide haben die Geliche Hardware Config und Laufen beide au RH 9. Nun auf dem einten Server habe ich 100 GB Daten. Wie bringe ich diese jetzt auf meinen zweiten server? Habs per FTP versucht. Dann ist das ganze netzwerk (Gigabit) zusammengebrochen. Habt ihr da ne idee? Wäre dankbar.

Greets balu
 
Backuppen...

Tach.

Was für eine Platform ? (Hardware-mässig)

Und welche Rolle spielen die Zugriffsrechte bei den Daten ?

Gruß,

Apfeldompteur
 
Also Platform ist ein Dell PowerEdge Server. Wenn du das meinst. Das OS ist Red Hat Linux 9. Es wäre nice 2 have mit den zugriffsrechten. Muss aber nicht.
 
Dein Problem liegt eher darin, das dein Netzwerk zusammengebrochen ist. Es ist nebensächlich, wie du die Dateien rüberkopierst...in allen Fällen sollte die Netzwerkverbindung dabei nicht schlappmachen. Also erstmal den Fehler debuggen.

Ansonst...FTP, NFS oder sogar SMB....oder vielleicht mit der Kommandozeile über Telnet/SSH durchpipen...
Alternativ: Platte ausbauen, und kurz im anderen Rechner anschließen. Das wäre die schnellste Variante.

cu
Carsten
 
ja scp ist sicher das einfachste
 
Hi

schau in den logfiles des Servers warum die Verbindung gekappt wurde.
 
So! Habe eine mehr oder weniger gute Lösung gefunden. ich mache das ganze mit
Code:
wget -r [URL]ftp://user:password@192.168.0.201//home/daten/[/URL]
aber...
Wenn ich jetzt die Dateien hole dann macht er mir in dem Ordner indem ich die Dateien will, folgende Ordnerstruktur
---192.168.0.201
--home
-daten

Aber ich will die Daten, die er holt genau in diesem Ordner, wo sich jetzt "192.168.0.201" befindet.

Weiss jemand wie dass geht?
 
Das kannst du doch in Sekunden beheben, indem du dein Datenverzeichnis nach dem Transfer in den gewünschten Ordner verschiebst...entweder über den Finder, oder über das Terminal.

cla
 
hmm... ja stimmt schon. Ich machs glaube ich auch so :)

dieses Attribut -r heisst ja rekursives Kopieren oder so ähnlich. Nun was ist das aber genau? *gG*
 
Rekursiv heisst einfach, dass alle Unterverzeichnisse und deren Inhalte kopiert werden.
 
Achso. In der hilfe von wget stand, dass man dieses Attribut nur bedingt anwenden soll. Das hat mich ein bisschen irritiert. Aber danke :)

greets balu
 
scp -r * user@zielrechner:/<zielverzeichnis>
 
Sorry ich bins schon wieder :)

Man kann ja solche shellscripts machen oder? Ich möchte gerne eines machen, welches den wget befehl ausführt und dann die heruntergeladenen Dateien automatisch an ein anderen Ort kopiert. Nur das Problem ist, dass ich keine Ahnung von dem hab. :D Kennt da vielleicht ein gutes Tutorial oder hat per zufall gleich so ein script?

greets balu
 
Zurück
Oben Unten