Cron-Script für Backup beim Hoster

G

garraty47

Aktives Mitglied
Thread Starter
Dabei seit
18.11.2004
Beiträge
547
Reaktionspunkte
5
Da mein Hoster mir jetzt ein paar Cron-Scripte im neuen Tarif schenkt, würde ich gerne folgendes machen:

sicherung eines bestimmten ordners jeweils irgendwann nachts als zip datei, bennenen mit dem erstellungsdatum, und - jetzt kommt's - löschen aller anderen dateien bis auf vier ältere backups. (oder ähnlich, dass halt der backupordner nicht platzt).

jetzt denke ich dass das ja eine sehr häufige anforderung an ein cron-script sein könnte - da gibt es doch bestimmt schon was fertiges das man anpassen kann?
man muss j nicht das rad dreimal täglich neu erfinden, deswegen würde ich mich über tips, wo es sowas gibt sehr freuen.
gregor
 
hmm, frage .. warum postest du das unter web-programmierung? .. Im unix Unterforum past das wohl besser rein .. ausser du hast keinen richtigen Zugang auf den Server ...
 
ich kann nur "fertige" cron-scripte in meinem ordner ablegen und den ausführungszeitpunkt angeben, aber ich hab keinen ssh- o.ä. zugang zum server.
 
ok das suckt ;)
 
Im Grunde ist das nicht schwer.
Was hast Du denn selbst schon probiert?
An welcher Stelle hängst Du?
in welcher Sprache kannst/möchtest Du das realisieren?
Seh ich es richtig, dass die backups auch auf dem Server Deines Hosters liegen sollen?
Wieviel Sinn macht das?

Fragen über Fragen.
 
im orinzip geht's nur ums zippen, sodass sich das leichter und schneller runterladen lässt. also:
per script aufm server zippen, dann von hand runterladen.
aber der support von meinem provider hat schon erkennen lassen, dass sie davon nicht begeistert sind wegen der serverlast durch's zippen
 
Dann hängts doch im wesentlichen davon ab, welche Programme auf dem Server installiert und von Dir benutzbar sind.
 
wenn ich darauf keine antowrt weiss sind das wahrscheinlich keine bis ganz rudimentäre, oder?
 
Das weiß ich nicht. Du hast ja noch nicht einmal veraten, was für ein System auf dem Server läuft. Wenn da ein Linux oder Unix drauf ist, würde ich als erstes versuchen, ob tar verfügbar ist.
Wenn es sich nciht gerade um gewaltige Datenmengen dreht, würde ich das mit der komprimierung ganz lassen und nur ein lokales Script schreiben, das regelmäßig neue und/oder genänderte Daten abholt.

Leider bist Du sehr sparsam mit Informationen, worum es eigentlich geht, insofern kann man auch keine spezifischen Tipps geben.
 
Naja, mit tar kannste ja auch nur mal packetieren ohne komprimierung .. dann ist das schon eine Entlastung für den Server ...

Aber ja, mehr Infos wären schon von Vorteil ... klingt ziemlich spartanisch was du uns da mitteilst ...
 
Grundsätzlich richtig, aber wo tar ist, da sind auch meist gzip und bzip2 nicht weit ;). Hätt' ich vielleicht ausdrücklich erwähnen können.
 
Das ist mir schon klar .. nur, wenn der Hoster nicht erfreut ist über die Serverlast ... dann gzip/bz2 part weglassen ... das meinte ich ;)
 
es geht einfach darum von der kompletten website inkl. coppermine bildergalerie backups zu machen.
jedesmal das ganze zu backuppen ist wohl schlecht, da wird der hoster verrückt.
ein inkrementelles baclup wird bei einem normalen webhostingtarif wohl nicht möglich sein.
welche infos braucht ihr denn?
 
garraty47 schrieb:
es geht einfach darum von der kompletten website inkl. coppermine bildergalerie backups zu machen.
...
Wie kommen die Bilder denn auf den Server?

Ein inkrementelles Backup im eigentlichen Sinn auf dem Server zu erstellen, ist sicher nicht nicht so einfach möglich.
Du könntest aber vielleicht ein Skript schreiben, welches halt alle neuen oder geänderten Datein herunterläd in ein lokales Verzeichnis. Auch das ist nicht ganz einfach, mit ein weing Einsatzbereitschaft lässt sich das aber lösen.
garraty47 schrieb:
...
welche infos braucht ihr denn?

...
Ich hatte oben einige Fragen gestellt, die bisher nicht beantwortet wurden
Außerdem stellst Du die falschen Fragen, daher drehen wir uns im Kreis.
Frage nicht nach einem Schritt, sondern beschreibe das Ziel und die Umgebung. Evtl. liest Du Dir mal das hier durch.
 
eventuell kann er sich ein wget skript schreiben ...
 
is gut, ich probier mal selber rum oder sichere einfach weiterhin per ftp.
 
Zurück
Oben Unten