Verschlüsselung auf FTP Server

A

apes

Mitglied
Thread Starter
Dabei seit
25.01.2005
Beiträge
91
Reaktionspunkte
0
Hallo,

nach Tagen des Web und Forendurchsuchens bin ich immer noch nicht auf die Lösung für mein Problem gestossen, vielleicht wisst ihr eine Lösung?

Folgende Aufgabe:
- ich möchte meine wichtigsten Daten regelmäßig (per Scheduler) auf unseren externen FTP Server sichern. Dieser ist jedoch gleichzeitig Webserver und daher theoretisch hackbar. Aus diesem Grund will ich dass die Dateien verschlüsselt übertragen werden. Also ich meine nicht die Verbindung, die ist sowieso SSH-verschlüsselt. Ich meine stattdessen eine Verschlüsselung der Dateien an sich.

Warum ich keine Containerlösung will, wie Disk Utility oder TrueCrypt, etc.?
Da ich große Datenbestände (80-100 GB) regelmäßig sichern will und daher inkrementelle Backups machen will und nicht täglich 100 GB auf den FTP in Form eines Disk Images schaufeln will.

Ist das unmöglich?

Danke!

Ape
 
Ein inkrementelles Backup ist mit verschlüsselten Dateien nicht möglich.

EDIT: Wenn ich Dich richtig verstehe (keine Containerlösung) willst Du jede einzelne Datei verschlüsseln und dann per SFTP (Du schreibst von SSH also nehme ich an, dass Du SFTP benutzt) ein inkrementelles Backup erstellen.
Das ist weder sinnvoll, noch besonders praktisch. Evtl. wäre es mit viel Arbeit machbar. Du könntest die Dateien per SFTP im Original auf den FTP-Server übertragen (Datei selbst unverschlüsselt). Ein Skript (müsstest Du schreiben) erkennt den Dateinamen der eintreffenden Datei, entschlüsselt das bereits vorhandene Gegenstück, vergleich den Inhalt, speichert die aktuellste Version ab und verschlüsselt wieder. Programmiertechnisch würde das per Bash-Script gehen, ist aus praktischer Sicht jedoch Blödsinn.

Ich sichere auch verschlüsselte Dateien per FTP, aber eben als Container (Sparse-Image) und dann muss es eben immer eine Vollsicherung sein.
 
Zuletzt bearbeitet:
du müsstest dann die daten vor oder nach der übertragung verschlüsseln...
da bietet sich entweder ein pipe mit gnupg an, oder halt doch ein container, dann aber nur für das backup gemountet auf dem server als zielverzeichnis...
 
Ja, mir schwant aber immer der Worst Case im Kopf, das jemand den Remote Server hackt und dann ja auch Zugriff auf die Daten des aktuell gemounteten Container hat. Der Remote Server ist ein XServe mit Tiger drauf.
 
Naja, aber Deine Überlegungen identifizieren den Server als unsicher, bzw. angreifbar. Vielleicht solltest Du dann generell überlegen, ob eine Sicherung auf dieses Gerät sinnvoll ist.
 
tja, dann bleibt dir nur übrig die dateien zu verschlüsseln bevor du die an den ftp/sftp client gibst, damit das inkrementelle backup funktioniert...
das ist doch ein wenig bastel arbeit...
 
ja, ist schade, dass das nicht anders geht, bzw. das all die mit features aufgeblasenen FTP Programme sowas nicht als Feature anbieten.
Also bleibt wohl nur Terminal Gehacke mit dem Crypt Befehl :(
 
Naja, was Du willst ist nicht sinnvoll, deshalb gibt es so etwas nicht ;)
Du willst Daten auf einem potenziell unsicherem System sichern und diese Unsicherheit durch Verschlüsselung ausgleichen. Das macht keinen Sinn, wenn man sich Gedanken über Datensicherheit macht, sichert man nicht auf ein potenziell unsicheres Medium.
 
Ja, Du hast natürlich Recht. Nur sehe ich einen Server, der hier um Büro steht auch als unsicher an (wegen Brandgefahr). Und Server die über das Internet erreichbar sind und sei es nur per FTP, sind für mich auch unsicher.

Also ist wohl alles unsicher, ausser man macht tägliche Backups einer 100 GB Platte und schickt die in ein Schweizer Bergverließ. Jeden Tag...
 
naja, deine paranoia in ehren, aber warum machst du dir sorgen, dass jemand auf die backup daten des servers im büro kommt und nicht auf den rechner, wo die daten auch unverschlüsselt liegen?
dann solltest du doch eher den zugriff von aussen auf den server unterbinden, oder ist der gleichzeitig die webpräsenz?
 
Tja, bei Datensicherung bin ich auch paranoid, auch weil wir Kundendaten sichern. Deshalb liegt eine Kopie der Backups (alle vier Wochen) auf einer USB-Platte und diese ist im Safe mit Feuerschutz. Kostet nicht die Welt und Du bist auf jeden Fall abgesichert.
 
ja das ist gleichzeitig die webpräsenz...
über einen safe mit feuerschutz habe ich noch gar nicht nachgedacht. werde ich mir mal im web durchforsten.
 
Hoi,

meiner Ansicht nach macht hier nur eine schon angesprochende Containerlösung für dich Sinn. Klar hast du das Risiko, das jemand während der Container auf dem Server geöffnet ist darauf zugreift.

Aber da du ein inkrementelles Backup machen willst bleib die Zugriffzeit recht beschränkt. Wenn du das noch mit entsprechenden Rechten versiehst z.b. das die Einfallstore (webserver, usw.) keinen direkten Zugriff haben machst du es zusätzlich schwieriger.

Der Angreifer müßte in der knappen Zeit des Backups z.b. den Apache übernehmen, von dort Root werden und dann auf deinen Container zugreifen.

Btw. dies wären sicherlich aber keine automatischen Methode. Du müßtest manuell die Container mounten und dann das Backup starten. Dann die Process-ID's überprüfen die Zugriff auf das Verzeichnis nehmen. (Btw. zum syncen von Daten über ssh guck dir mal Dirvish an)

Btw. so unüblich finde ich die Idee im übrigen nicht. Ich stell mir da eine Backup-Server Software vor die auf einem Container selbstständig arbeitet. Die Authentifizierung erhält sie per Backup-Client, öffnet den zugehörigen Backup-Container (verschlüsselt mit Zugriffkennwort des Client) und zieht ein inkrementelles Backup da rein. Der Container dürfte nicht als Device gemountet, sondern direkt von der Server Software angesprochen werden (oder sie überprüft permament, das sie die einzige Prozess-ID ist die auf das Verzeichnis zugreift).

Find ich eigentlich ne sinnvolle Idee, für Backup-Systeme im gleichen wie auch in entfernten Gebäude. Die Clients sind da auf den verschiedenen Systemen installiert und enthalten neben dem Server-Zertificate, ein Password und eine Configuration über die zu backupen Verzeichnisse. Der Server enthält wiederrum eine Configuration der konfigurierten Clients und in welchen Intervallen diese ein Backup abliefern. Meldet sich ein Client nicht, kann der Server Alarm geben.

Klingt nach einer brauchbaren Software.

Bzgl. Zweckentfremdung der Webpräsenz.
Ich halte das für keine gute Idee, gerade wenn ein Konkurent an eure Informationen möchte, so kennt er gleich den Server wo er mit der Suche anfangen kann. Ich würde vorschlagen einen kleiner Server zu mieten, der keine DNS-Url hat und keine anderen Dienste laufen lässt als den benötigten SSH. Zudem würde ich den SSH-Zugriff auf nur eine IP beschränken, die eurer Firma. Den zu remote zu hacken sollte ziemlich schwierig werden. Sofern nicht die Firewall nen Bug hat (unwahrscheinlich bei z.b. iptables) müßte der Angreifer aus eurem Netz kommen, dann bräuchte er aber das Backup nicht mehr.

Alex

PS Bringe mal bitte Ordnung in deine Begriffbezeichnung. FTP ist eine unverschlüsselter Dateieübertragungsdienst. SSH ist eine SecureShell und Sftp ist secureFTP. Du nennst deinen Server immer ungünstigerweise FTP und redest dann von ssh verschlüsselten Übertragungen.
 
Zuletzt bearbeitet:
Hi Alex,

danke für die Info. Ja, die Idee mit einem eigenen kleinen Linuxserver hatte ich auch schon, gibt es ja schon für 80 EUR bei den bekannten Webhostern. Den könnte ich dann managen lassen, da ich kein Linux-Experte bin und die könnten mir dann nur eine secureFTP-Verbindung aufmachen auf unsere Firmen-IP.

So eine Software wäre toll, ich bereue immer mehr, dass ich keine Zeit habe um das Programmieren von Mac OS X Software zu lernen.
 
Zurück
Oben Unten