Energiequant
Mitglied
Thread Starter
- Dabei seit
- 31.12.2004
- Beiträge
- 25
- Reaktionspunkte
- 3
Es geht um einen Fileserver auf Arbeit, der aktuell ersetzt werden soll. Bisher lief der noch mit OS X 10.4 und AFP-Freigabe, aufgrund diverser Fehler in den vergangenen Jahren soll jetzt aber endlich (wie schon länger für alles andere) Linux als Fileserver zum Einsatz kommen.
Unsere Probleme mit AFP:
AFP fällt bei uns im Schnitt alle zwei Monate einmal aus, häufiger aber mehrmals hintereinander und zum Teil recht heftig. Die nichtssagenden oder komplett fehlenden Fehlermeldungen am Server machen OS X dafür eher unattraktiv.
Die zum Einsatz kommenden OS X-Clients laufen aktuell mehrheitlich mit 10.5, je einer mit 10.4 (zu alt) und 10.6 (gezwungenermaßen wegen XCode). Da wir noch viele PowerPCs im Einsatz haben, können wir 10.6 nicht voraussetzen.
Die in Kombination mit Linux bereits in Betracht gezogenen Alternativen, um wie bisher möglichst direkt per Finder auf der Freigabe zu arbeiten sind folgende:
In letzter Verzweiflung bliebe uns noch, nicht mehr im Netzwerk sondern immer lokal zu arbeiten und alle Dateien nach ihrer Bearbeitung per Cyberduck o.ä. z.B. per FTP zum Server zu schieben. Erfahrungsgemäß werden dann aber nicht alle Dateien überspielt, die überspielt werden sollten, und es herrscht über kurz oder lang ein ziemliches Durcheinander an Versionsständen einzelner Dateien, weil man irgendwann mal nicht dran gedacht hat, die Dateien manuell vor/nach ihrer Bearbeitung mit dem Server abzugleichen.
Womit arbeitet Ihr, könnt Ihr noch irgendwas empfehlen bzw. irgendeiner unserer Erfahrungen widersprechen? Es kann ja nicht sein, dass bei Apple alles gnadenlos verbuggt ist, inkl. hauseigenem AFP-Dienst, und das Arbeiten auf Netzwerkdateisystemen so dermaßen schlecht realisierbar ist.
Unsere Probleme mit AFP:
- sporadisch verlieren Benutzer ihre Rechte oder Locks bleiben dauerhaft über Wochen im System hängen, zur "Lösung" hilft ein Abschalten des AFP, ein mehrfaches Neusetzen aller Rechte und ein Reboot
- der Server hat mehrmals sporadisch Daten verloren: ohne erkennbarem Grund hat AFP seine Daten über mehrere Tage dann nicht mehr vollständig auf das Dateisystem geschrieben - das über das Dateisystem arbeitende Backup konnte die verloren gegangenen Daten in der Zwischenzeit natürlich auch nicht sichern weil sie einfach nicht da waren
AFP fällt bei uns im Schnitt alle zwei Monate einmal aus, häufiger aber mehrmals hintereinander und zum Teil recht heftig. Die nichtssagenden oder komplett fehlenden Fehlermeldungen am Server machen OS X dafür eher unattraktiv.
Die zum Einsatz kommenden OS X-Clients laufen aktuell mehrheitlich mit 10.5, je einer mit 10.4 (zu alt) und 10.6 (gezwungenermaßen wegen XCode). Da wir noch viele PowerPCs im Einsatz haben, können wir 10.6 nicht voraussetzen.
Die in Kombination mit Linux bereits in Betracht gezogenen Alternativen, um wie bisher möglichst direkt per Finder auf der Freigabe zu arbeiten sind folgende:
- AFP unter Linux: Dafür gäbe es einen Server, aber das ganze ist scheinbar mit Voodoo-Programmierung gewürzt, denn soweit ich das verstanden habe, laufen alle Daten in eine Containerdatei die einfach nur ein Dump der Kommunikation mit den Clients ist und aus der man ohne AFP keine Dateien herauslesen kann. Irgendwann sind die Transaktions-IDs dann mal aufgebraucht und es hilft nur ein Löschen der Datei, dadurch sind dann auch alle Daten weg - also komplett nutzlos.
- SMB/CIFS: Irgendein Fehler in der Kombination Linux-Server <=> OS X-Client sorgt seit einem bestimmten 10.5er Update dafür, dass OS X seine Daten nur noch byteweise verschickt: Massenhaft 1 Byte große SMB-Pakete (Nutzlast!) verstopfen das Netzwerk; Dateien werden dadurch extrem langsam befördert (minutenlanges Spinning Wheel). So langsam, dass sich SMB überhaupt nicht mehr zum Arbeiten nutzen lässt. Daran hat sich bis zum aktuellsten 10.6 nichts geändert. Die entsprechenden Optionen der Config werden von OS X ignoriert (wieder irgendeine Apple-eigene Fummelei an Samba?).
- NFS3: Funktionierte testweise anfangs gut, dann hab ich Client und Server irgendwie in den Abgrund gerissen; was die Ursache war, ließ sich nicht herausfinden. NFS3 + ReiserFS vertragen sich wohl allgemein nicht allzu gut (ReiserFS benutzt keine festen inodes, NFS3 gibt aber quasi Pointer darauf heraus oder sowas) und darüber hinaus gibts wiedermal zusätzlich irgendwas, das Apple clientseitig vermurkst hat, jedenfalls gab es auf allen verbundenen Rechnern eine Kernel Panic und am Server ein kaputtes Dateisystem (das sich aber reparieren ließ). Getestet mit OS X 10.4 und 10.5 (10.6 war noch nicht draußen). Da der Server mehr zu tun hat als nur Fileserver zu sein, machen sich Kernel Panics gar nicht gut.
- NFS4: Gibts nicht funktionierend unter OS X. Apple hat seine Implementierung zurückgezogen, nachdem es mal eine Preview vor 10.6 gab. Es gibt noch ein anderes Kernelmodul, dem ich aber nicht unbedingt für den Produktiveinsatz traue.
- AFS (Andrew File System): Wäre eine gute Option, arbeitet mit einem lokalen Cache und sollte in unserem Anwendungsfall die Zugriffe ganz gut beschleunigen. Gibt nur ein großes Problem: AFS ist für Festrechner konzipiert. Hat ein Notebook keine Verbindung zum AFS-Server, verabschiedet es sich beim Booten für mehrere Minuten und dreht Däumchen. Absolut unakzeptabel, da wir 2 Notebooks als Arbeitsrechner einsetzen, die auch als Notebooks benutzt werden (heißt: wir sind mit denen häufig unterwegs und dann gibt es keine Verbindung zum AFS-Server) und z.B. WLAN erst nach AFS startet (AFS hängt schon vor dem Login-Fenster alles auf).
- FTP: Da hat Apple auch was verkorkst mit 10.5/10.6, geht nicht mehr richtig. (früher gings)
- WebDAV: Sah prima aus, weshalb wir über dieses Wochenende auch eine Kopie des Fileservers durchführen wollten. Allerdings hat OS X auch hier wieder Implementierungsfehler, durch die am Server 0-Byte-Dateien zustande kommen, der Client seinen Fehler aber nicht bemerkt. Den Fehler konnte ich leider in den bei uns kopierten Daten auch schon in mehreren Fällen bestätigen. Außerdem können wir scheinbar keine Dateien >4GB übertragen.
In letzter Verzweiflung bliebe uns noch, nicht mehr im Netzwerk sondern immer lokal zu arbeiten und alle Dateien nach ihrer Bearbeitung per Cyberduck o.ä. z.B. per FTP zum Server zu schieben. Erfahrungsgemäß werden dann aber nicht alle Dateien überspielt, die überspielt werden sollten, und es herrscht über kurz oder lang ein ziemliches Durcheinander an Versionsständen einzelner Dateien, weil man irgendwann mal nicht dran gedacht hat, die Dateien manuell vor/nach ihrer Bearbeitung mit dem Server abzugleichen.
Womit arbeitet Ihr, könnt Ihr noch irgendwas empfehlen bzw. irgendeiner unserer Erfahrungen widersprechen? Es kann ja nicht sein, dass bei Apple alles gnadenlos verbuggt ist, inkl. hauseigenem AFP-Dienst, und das Arbeiten auf Netzwerkdateisystemen so dermaßen schlecht realisierbar ist.