Datenbanksicherung der Webhoster

  1. Orion7

    Orion7 Thread StarterMacUser Mitglied

    Mitglied seit:
    26.01.2004
    Beiträge:
    102
    Zustimmungen:
    7
    Hallo liebe Leute,

    nachdem ich wegen Serverproblemen und unzuverlässiger Wiederherstellung der Daten den Webhoster gewechselt habe, erlebe ich bei dem neuen nun fast das gleiche: Es wurden ca. 6 Wochen alte Daten wiederhergestellt.
    In den AGBs steht auch bei weiteren Hostern - selbst wenn sie tägliche Datensicherung bewerben -, dass der Kunde für die Datensicherung zuständig ist.
    Ich habe immer wöchentlich selbst über die Weboberfläche mehrere Datenbanken gesichert, würde aber gerne ein tägliches automatisiertes Verfahren bevorzugen.

    Wie geht ihr mit diesem Problem um?
     
    Orion7, 07.12.2006
  2. oneOeight

    oneOeightMacUser Mitglied

    Mitglied seit:
    23.11.2004
    Beiträge:
    48.160
    Zustimmungen:
    3.885
    mit einem cron job, der regelmässig mysqldump ausführt...
     
    oneOeight, 07.12.2006
  3. Orion7

    Orion7 Thread StarterMacUser Mitglied

    Mitglied seit:
    26.01.2004
    Beiträge:
    102
    Zustimmungen:
    7
    ...und wo wird die Datei gespeichert ?
     
    Orion7, 07.12.2006
  4. oneOeight

    oneOeightMacUser Mitglied

    Mitglied seit:
    23.11.2004
    Beiträge:
    48.160
    Zustimmungen:
    3.885
    auf der lokalen platte oder besser auf einer anderen ;)
    wenn du es auf der server platte speicherst, solltest du es natürlich runter laden oder auf einen anderen server sichern...
     
    oneOeight, 08.12.2006
  5. AxlF

    AxlFMacUser Mitglied

    Mitglied seit:
    04.04.2004
    Beiträge:
    618
    Zustimmungen:
    14
    Ich denke sein Problem ist, dass er keine Zugriff auf den Servern hat um einen solchen Cron Job einzurichten.

    Einzigste Lösung: Zu einem Hoster wechseln der das wirklich macht. Das sollte man aber vorher mit dem Support klären, und sich nicht auf die Webseiten verlassen...

    Ärgerliche geschichte. Ich weiss das.
     
    AxlF, 08.12.2006
  6. maceis

    maceisMacUser Mitglied

    Mitglied seit:
    24.09.2003
    Beiträge:
    16.696
    Zustimmungen:
    602
    Bei Webseiten mit ausreichend vielen Zugriffen kann man in Ermangelung der Möglichkeit einen echten Cronjob einzurichten, ein Skript schreiben, das beim jeweils ersten Zugriff eines Tages (oder in anderen Zeitintervallen) bestimmte Skripte auslöst.
     
    maceis, 08.12.2006
  7. Orion7

    Orion7 Thread StarterMacUser Mitglied

    Mitglied seit:
    26.01.2004
    Beiträge:
    102
    Zustimmungen:
    7
    Schon mal vielen Dank für die Anregungen.

    Wäre das eine sinnvolle Vorgehensweise:
    1.) automatisch täglich auf einen anderen Server sichern
    2.) von diesem Server wöchentlich die Kopien lokal sichern.

    Punkt 1.) könnte
    a) wie oneOeight vorschlägt per cron job passieren
    b) wie maceis vorschlägt per Skript bei erstem Zugriff pro Tag passieren.

    Für 1.)a) müsste ich tatsächlich den Hoster wechseln. Daher würde ich 1.)b) erst mal ins Auge fassen. Gibt es dafür irgendwo Beispiel Skripte, an denen man sich orientieren könnte ?
     
    Orion7, 08.12.2006
  8. wegus

    wegusMacUser Mitglied

    Mitglied seit:
    13.09.2004
    Beiträge:
    14.982
    Zustimmungen:
    1.545
    Mit ausreichend Geld :)
    Klingt vielleicht blöd, ist aber die richtige Lösung, denn "you get what you pay for"! Sind die Daten und der Betrieb so wichtig ( etwa geschäftlich relevant) würd ich von Billigprovidern Abstand nehmen. Teurere Pakete haben nicht nur weniger überbuchte Bandbreite, da stimmt auch die Datensicherung schon eher und ab gewissem Preisniveau ist ein SSH-Zugang inklusive ( dann geht auch das von OneOeight beschriebene mysqldump was eh die einzig zuverlässige Datensicherung ist). Wenn man halt Gold aus Preisgründen in Plastiktaschen trägt, dann reißen die nunmal! ==> Profitasche kaufen !
     
    wegus, 08.12.2006
  9. Orion7

    Orion7 Thread StarterMacUser Mitglied

    Mitglied seit:
    26.01.2004
    Beiträge:
    102
    Zustimmungen:
    7
    @wegus:

    Ist ab einem gewissen Umfang sicher richtig. Ich betreibe die ganze Web-Programmiererei als Hobby, aber mit professionellem Anspruch. Und da hat mich das mit den 6 Wochen alten Sicherheitskopien des Webhosters schon geärgert. Aber eben auch das meine Sicherheitskopie 1 Woche alt war, und der Server wohl gerade ein paar Stunden bevor ich meine wöchentliche Sicherung machen wollte, abgeraucht ist.

    Habe schon mal etwas über die Idee von maceis nachgedacht, die insofern bestechend ist, da sie doch auch bei wenig Traffic funktionieren würde. Datensicherung ist ja nur ab dem Zeitpunkt notwendig, wenn Daten verändert wurden.
     
    Orion7, 08.12.2006
  10. maceis

    maceisMacUser Mitglied

    Mitglied seit:
    24.09.2003
    Beiträge:
    16.696
    Zustimmungen:
    602
    Ach so, ein mysqldump geht auch ohne ssh-Zugang, wenn der Datenbankserver von außen erreichbar ist.
    So mach ich das bei all-inkl.com, wo ich einige Domains habe.
    Ob man den als Billig Provider einstufen muss weiß ich nicht, aber ich finde den recht günstig, bezogen auf das Preis/Leistungs-Verhältnis
     
    maceis, 08.12.2006