Datenbanksicherung der Webhoster

Diskutiere mit über: Datenbanksicherung der Webhoster im Datenbanksysteme für das Web Forum

  1. Orion7

    Orion7 Thread Starter MacUser Mitglied

    Beiträge:
    102
    Zustimmungen:
    7
    Registriert seit:
    26.01.2004
    Hallo liebe Leute,

    nachdem ich wegen Serverproblemen und unzuverlässiger Wiederherstellung der Daten den Webhoster gewechselt habe, erlebe ich bei dem neuen nun fast das gleiche: Es wurden ca. 6 Wochen alte Daten wiederhergestellt.
    In den AGBs steht auch bei weiteren Hostern - selbst wenn sie tägliche Datensicherung bewerben -, dass der Kunde für die Datensicherung zuständig ist.
    Ich habe immer wöchentlich selbst über die Weboberfläche mehrere Datenbanken gesichert, würde aber gerne ein tägliches automatisiertes Verfahren bevorzugen.

    Wie geht ihr mit diesem Problem um?
     
  2. oneOeight

    oneOeight MacUser Mitglied

    Beiträge:
    46.776
    Zustimmungen:
    3.629
    Registriert seit:
    23.11.2004
    mit einem cron job, der regelmässig mysqldump ausführt...
     
  3. Orion7

    Orion7 Thread Starter MacUser Mitglied

    Beiträge:
    102
    Zustimmungen:
    7
    Registriert seit:
    26.01.2004
    ...und wo wird die Datei gespeichert ?
     
  4. oneOeight

    oneOeight MacUser Mitglied

    Beiträge:
    46.776
    Zustimmungen:
    3.629
    Registriert seit:
    23.11.2004
    auf der lokalen platte oder besser auf einer anderen ;)
    wenn du es auf der server platte speicherst, solltest du es natürlich runter laden oder auf einen anderen server sichern...
     
  5. AxlF

    AxlF MacUser Mitglied

    Beiträge:
    618
    Zustimmungen:
    14
    Registriert seit:
    04.04.2004
    Ich denke sein Problem ist, dass er keine Zugriff auf den Servern hat um einen solchen Cron Job einzurichten.

    Einzigste Lösung: Zu einem Hoster wechseln der das wirklich macht. Das sollte man aber vorher mit dem Support klären, und sich nicht auf die Webseiten verlassen...

    Ärgerliche geschichte. Ich weiss das.
     
  6. maceis

    maceis MacUser Mitglied

    Beiträge:
    16.645
    Zustimmungen:
    596
    Registriert seit:
    24.09.2003
    Bei Webseiten mit ausreichend vielen Zugriffen kann man in Ermangelung der Möglichkeit einen echten Cronjob einzurichten, ein Skript schreiben, das beim jeweils ersten Zugriff eines Tages (oder in anderen Zeitintervallen) bestimmte Skripte auslöst.
     
  7. Orion7

    Orion7 Thread Starter MacUser Mitglied

    Beiträge:
    102
    Zustimmungen:
    7
    Registriert seit:
    26.01.2004
    Schon mal vielen Dank für die Anregungen.

    Wäre das eine sinnvolle Vorgehensweise:
    1.) automatisch täglich auf einen anderen Server sichern
    2.) von diesem Server wöchentlich die Kopien lokal sichern.

    Punkt 1.) könnte
    a) wie oneOeight vorschlägt per cron job passieren
    b) wie maceis vorschlägt per Skript bei erstem Zugriff pro Tag passieren.

    Für 1.)a) müsste ich tatsächlich den Hoster wechseln. Daher würde ich 1.)b) erst mal ins Auge fassen. Gibt es dafür irgendwo Beispiel Skripte, an denen man sich orientieren könnte ?
     
  8. wegus

    wegus MacUser Mitglied

    Beiträge:
    15.034
    Zustimmungen:
    1.314
    Registriert seit:
    13.09.2004
    Mit ausreichend Geld :)
    Klingt vielleicht blöd, ist aber die richtige Lösung, denn "you get what you pay for"! Sind die Daten und der Betrieb so wichtig ( etwa geschäftlich relevant) würd ich von Billigprovidern Abstand nehmen. Teurere Pakete haben nicht nur weniger überbuchte Bandbreite, da stimmt auch die Datensicherung schon eher und ab gewissem Preisniveau ist ein SSH-Zugang inklusive ( dann geht auch das von OneOeight beschriebene mysqldump was eh die einzig zuverlässige Datensicherung ist). Wenn man halt Gold aus Preisgründen in Plastiktaschen trägt, dann reißen die nunmal! ==> Profitasche kaufen !
     
  9. Orion7

    Orion7 Thread Starter MacUser Mitglied

    Beiträge:
    102
    Zustimmungen:
    7
    Registriert seit:
    26.01.2004
    @wegus:

    Ist ab einem gewissen Umfang sicher richtig. Ich betreibe die ganze Web-Programmiererei als Hobby, aber mit professionellem Anspruch. Und da hat mich das mit den 6 Wochen alten Sicherheitskopien des Webhosters schon geärgert. Aber eben auch das meine Sicherheitskopie 1 Woche alt war, und der Server wohl gerade ein paar Stunden bevor ich meine wöchentliche Sicherung machen wollte, abgeraucht ist.

    Habe schon mal etwas über die Idee von maceis nachgedacht, die insofern bestechend ist, da sie doch auch bei wenig Traffic funktionieren würde. Datensicherung ist ja nur ab dem Zeitpunkt notwendig, wenn Daten verändert wurden.
     
  10. maceis

    maceis MacUser Mitglied

    Beiträge:
    16.645
    Zustimmungen:
    596
    Registriert seit:
    24.09.2003
    Ach so, ein mysqldump geht auch ohne ssh-Zugang, wenn der Datenbankserver von außen erreichbar ist.
    So mach ich das bei all-inkl.com, wo ich einige Domains habe.
    Ob man den als Billig Provider einstufen muss weiß ich nicht, aber ich finde den recht günstig, bezogen auf das Preis/Leistungs-Verhältnis
     

Diese Seite empfehlen

Benutzerdefinierte Suche