Einstiegsfragen Mac OS Server

darker07

darker07

Mitglied
Thread Starter
Dabei seit
09.04.2007
Beiträge
65
Reaktionspunkte
0
Hallo zusammen und einen schönen Feiertag! ;)

Für gewöhnlich recherchiere ich lieber, als dass ich Fragen stelle, aber ich bräuchte nun doch mal eine Übersicht auf eine Hand voll Fragen - ich hoffe der ein oder andere erfahrene OS Server-Nutzer kann mir da weiterhelfen. :)

In unserer Agentur gibt es 5 Mac-Arbeitsplätze und einen PC für Notfälle. Seit letztes Jahr unser Linux-Server abgeschmiert ist arbeiten wir alle bloß noch lokal und tauschen Daten ggf. über Briefkästen oder iChat aus, was weder besonders zeitsparend, noch effektiv ist, da es statt global zugänglicher Datenquelle rudimentäre Daten auf verschiedenen Rechnern gibt - im schlimmsten Fall in völlig unterschiedlichen Versionen. Zur Sicherheit läuft an jedem Rechner für sich eine Time-Machine über eine externe Festplatte.

Für unsere Web-Projekte haben wir uns einen Debian-Webserver auf einem Shuttle aufsetzen lassen. Obwohl ich technisch bei uns die größte Kompetenz habe, traue ich mir fortgeschrittenes Terminal-Gefuchtel nicht recht zu und es fehlt leider die Zeit sich vernünftig einzuarbeiten. Daher liegt der Fokus nun auf einem Mac OS Server - entweder auf einem XServe oder einem kompatiblen PC.

Nun zu einigen Fragen:
  1. Gibt es vielleicht Erfahrungen zu OS Server auf einem Hackintosh? Spricht etwas dagegen und sollte man lieber gleich in einen Xserve investieren?
  2. Filesharing soll die Hauptaufgabe des Servers sein - wenn der Platz mal knapp wird, einfach ein neues Festplatten-Modul einschieben und fertig?
  3. Gibt es die Möglichkeit, dass beispielsweise der Chef per iCal Server Kalendar-Einträge bei einer Gruppe von Mitarbeitern machen kann, diese aber nicht die Einträge der Chef-Etage sehen?
  4. Könnte man später einen Webserver mit Zugriff per SFTP aufsetzen - PHP und MySQL inklusive?
  5. Wie einfach gestaltet sich der Fernzugriff auf Dateien etc. von zu Hause aus? Wie sieht's mit DynDNS aus? Das kann die Airport ja leider nicht.

So, ich hoffe ihr seid nicht genervt von den Fragen - vielen Dank schonmal für Feedback!


beste Grüße!
MJ
 
dagegen sprechen die apple lizenzbedingungen ;)
os x darf man nur auf apple rechner installieren...
wenn man das auch noch in einer firma machen will, dann ...

nimm halt linux, wenn du einen schnöden pc willst ;)
 
Okay, dann hat sich Frage 1 erübrigt. ;)
Will natürlich keinen schnöden PC und möglichst einfach und schnell alles eingestellt haben - Zeit gibt es noch weniger als Geld. :D
 
Ein Mac Mini könnte die Anforderungen erfüllen, abhängig davon, wie umfangreich die Daten sind, die ihr austauschen wollt (bei großen Datenmengen könnte man eine externe Firewire800 Platte dranhängen, eventuell auch mit RAID).
 
Für eine zentrale Datenablage, empfehle ich dir ein NAS. Braucht keine grosse Wartung und ist je nach Modell auch ausbaubar und beinhaltet php web und mysql etc.
Auch ein Zugriff von aussen ist ohne weiteres Möglich und Dyndns integriert.
Schau doch mal auf synology webseite nach.

Gruss
Andy
 
Hallo,

ich hoffe, es gibt jetzt keine Randale, aber aufgrund meiner *persönlichen* Erfahrungen gilt bei uns im Serverbereich(!):

Linux, wenn möglich.
Mac, wenn muss.

In der Umsetzung bedeutet das: Mac OS X 10.5 ist bei uns Fileserver, und der Einfachheit halber auch Netboot-Server.

Alles andere, Router, POP3, IMAP, SMTP, NTP, DNS, DHCP, diverse HTTP, WebDAV, SVN-Server und VPN mache ich mit Linux-Kisten.

Ich möchte kurz meine Beweggründe auflisten, vielleicht können wir die undiskutiert stehen lassen, weil es mir darum geht, meine Präferenzen aufzulisten und nicht darum, allgemeine Wahrheiten zu verkaufen.

Zunächst mal die Lizenzgeschichte:
Für das gleiche Geld kriege ich mehrere Geräte, und das nutze ich aus, indem die eine ähnliche Konfig haben. Geht ein Gerät kaputt, kann das andere einspringen. Habe ich Probleme, kann ich die Resultate mit der zweiten Kiste vergleichen. Geht eine der Kisten kaputt, bin ich binnen 15 Minuten vom PC-Höker von gegenüber mit einem Ersatz wieder da, notfalls mit einem 299-Euro-Schrott, der hält, bis ich was vernünftiges bestellt habe. Bei Apple dauert das alles länger (Für das Modell kein Netzteil da, Apple-Händler gibt es nur zwei und die haben schon zu,…)

Dann die Qualität:
Mit schöner Regelmässigkeit ist irgendwas nicht lauffähig. Ich rede nicht von meiner persönlichen Inkompetenz (Die kommt natürlich auch vor), sondern dass man im Apple-Support-Forum guckt und feststellt: OK, 10.5.3 (oder so) kann grad kein SoftwareUpdateService. Pech. Gedulde dich 6 Wochen. Letztens war es dann Homefolders auf dem Server: Ging halt monatelang nicht. Gedulde dich …ein paar Monate. Ist das eigentlich schon gefixt? DNS war monatelang ungefixtes Sicherheitsproblem. In die Tüte gesprochen: Ich glaube, bei Apple kommen auf einen Server-Programmierer hundert Programmierer, die sich um Telefone und Musikplayer kümmern.
Ohne jetzt jeden Fall dokumentiert zu haben: In den letzten Jahren war ich desöfteren froh, dass mein Server ein reines Intranetgerät ist, von aussen nicht zugänglich.



Dann an grundlegenden Sachen:
Ich weiss, dass es da zwei Meinungen gibt. Ich persönlich finde aus meiner unixoiden Erfahrung, dass auf einen Server nur Software gehört, die man auch braucht. Das heisst in erster Linie keine grafische Oberfläche, mit Sicherheit auch keine Suchtechnologie, die alle Dateien anfasst (Spotlight), und schon gar kein Musik-Abspielprogramm mit Shopanbindung (iTunes). Wenn ich kein SMB nutze, dann soll Samba nicht installiert sein. Wenn ich keinen Apache nutze, dann soll kein… Wenn ich keinen Zeitserver anbiete, soll kein ntpd… und so weiter, und so fort. Das ist einfach un-unixoid.


Es gibt natürlich auch gute Gründe, auf Mac OS X Server zu setzen, die werden andere mit Sicherheit auflisten.

Zu meiner Ausnahme „Fileserver“: Ich verwende neben unserem richtigen, großen Fileserver auch kleinere, über die wir interne Webentwicklung machen (Webroot=Fileroot, selbstredend so ein Konstruktion rein im Intranet), und sowohl netatalk als auch samba sehe ich nicht wirklich im professionellen Einsatz. Wir nutzen sowas mit zwei Leutchen aus der Webabteilung, wir sind beide Techniker, wir können auch mal schnell was fixen, aber Normalusertauglich ist das nicht wirklich. Das hängt auch von der Clientsoftware ab, falls Microsoft oder Adobe im Spiel sind, dann bloß nix anderes als einen original Mac OS X Server. Der macht zwar trotzdem Ärger, aber dann hat man wenigstens einen Schuldigen, der das dann nach ein paar Monaten fixen kann, weil ER das Problem verursacht.

Also, mein Rat: Verwende beides. Jedes für die Sache, die es besser kann. und die 600 Euronen für einen guten PC mit Ubuntu sollten keinen Betrieb reinreissen.

Gruß,
Jörg
 
  • Gefällt mir
Reaktionen: Zapfenzieher
Erstmal vielen Dank für deinen ausführlichen Kommentar, Jörg.

Grundlegen würde ich ja auch in Richtung Linux tendieren und ich traue mir zwar zu, mir die Tricks und Kniffe anzueignen, aber da wir eine kleine Firma sind, fehlen dazu Zeit - sowohl zum Lernen, als auch zum Rumkonfigurieren.

Den Webserver würde ich sowieso erstmal weiter parallel laufen lassen und ein Fernzugriff ist auch nicht unbedingt notwendig.

Ach, und Adobe ist reichlich im Spiel - fast ausschließlich. ;)
 
Erstmal vielen Dank für deinen ausführlichen Kommentar, Jörg.

Grundlegen würde ich ja auch in Richtung Linux tendieren und ich traue mir zwar zu, mir die Tricks und Kniffe anzueignen, aber da wir eine kleine Firma sind, fehlen dazu Zeit - sowohl zum Lernen, als auch zum Rumkonfigurieren.

Den Webserver würde ich sowieso erstmal weiter parallel laufen lassen und ein Fernzugriff ist auch nicht unbedingt notwendig.

Ach, und Adobe ist reichlich im Spiel - fast ausschließlich. ;)

Kann ich vollstens verstehen!

…ich würde aber davor warnen, zu glauben, ein Mac OS X Server wäre ähnlich „easy going“ wie sich einen Mac auf den Schreibtisch zu stellen und loszulegen. Das ist nicht so. Das „generische“ Fachwissen wie z.B. allgemeine Netzwerkkenntnisse und Diagnose brauchst du unter allen Systemen, ob nun Linux/Kommandozeile, Mac/GUI , Windows/GUI,…

Unter Mac/GUI hast Du natürlich den Vorteil, dass Du einfach per Maus Sachen ein/ausklicken kannst, ohne dich in irgendwelche Dateien einzuarbeiten, welcher Parameter da nun reingehört…

…andererseits hast Du es im Falle eines Problems auch nicht einfacher. Ich will dir Beispiele der letzten Monate aus der Praxis geben:

- Netboot geht plötzlich nicht. Ich weiss nicht, woran es liegt, die Clients finden plötzlich keinen Netboot-Server mehr, wenn sie starten. Hat man hingegen ein normal gestartetes System, kann man in der Systemeinstellung „Startvolumen“ den Netbootserver auswählen, als wäre nix.
Es könnte ein unerwünschter DHCP-Server im Netz aufgetaucht sein (Kollegen sind manchmal merkwürdig), und den suche ich gerade.

- Plötzlich wurde der Fileserver irre langsam. Der afpd-Prozess sog alle CPU-Power. Ich habe längere Zeit nach dem Problem gesucht. Ursache: Das RAID war zu voll. Ich war davon ausgegangen, dass die Faustregel, 10% Platz zu haben, nicht mehr so streng auszulegen ist, wenn wir von 10% von 3 TB sprechen. Ist aber wohl so. Warum der Rechner selbst lokal kein Problem hat, aber der afpd - ???

- Immer mal wieder Ausfälle. syslog zeigt Netzwerk an-aus-an-aus-an-aus… ifconfig en0 zeigt errors. Ursache: Das Kabel war hinne.

- Netboot klemmt schon wieder. Feststellung: Nur am Terminal mit einem „killall nfs-master nfs-irgendwas“ wird der hängende automountd wieder „freigelassen“, netboot geht wieder. Andere im Netz haben das Problem auch. Ursache seit Jahren unklar. Verdächtige die dhcp-bridge…

Da helfen dann keine Dialoge und Häkchen. Das ist natürlich nicht die Erfahrung jeden Tages — aber Mac OS X Server ist nicht das geheiligte Land der Problemlösungen. ;-)


Das mit Adobe habe ich mir schon gedacht - 5 Leute und ´n Mac-Server, das kann ja nur ´ne Agentur sein. ;-)

Gruß,
Jörg
 
  • Gefällt mir
Reaktionen: Zapfenzieher
Ich kann die Ausführungen von Jörg nur unterschreiben. Wir haben "für wichtig" auch einen Linux Server.

Der OS X Server ist nur "zum spielen".

Alex
 
Ich habe mittlerweile auch einige Erfahrungen im Serverbereich sammeln könnten.

Wir arbeiten zu zweit im Medienbereich (selbstständig) und hier liefen die letzten Jahre headless ein Mac mini und ein G4 als "Server" im Gigabit LAN. Der G4 war Backupstation (knapp 3 TB) und der Mini Webentwicklungsserver und Datenablage für gemeinsames Zeug. Als Softwarebasis diente das normale Desktop OS X mit ein paar Serverdiensten aufgebohrt. Auf den MAMP hole ich z. B. die Kunden für die laufenden Projekte per C-Name Record von aussen per DynDNS, dafür habe ich den enthaltenen Apache vorher jedoch wegen der Sicherheit umkonfiguriert.

"Draussen" laufen ein paar produktive Linuxkisten mit Debian 4 und 5, die ich auf der Shell administriere (und mit Projekten vollmache).

Als ich noch kein Linux konnte, war ich immer heiss auf einen Xserver. Bisschen rumklicken und schon läuft alles. Dazu gibt es fancy designte Hardware.

Davon bin ich nun seit Linux total abgekommen, und zwar auch aus den schon genannten Gründen:

Kosten

Ein OS X Server kostet >2.500 EUR und den gibt es nur als 19" Kiste - beides ist im Prinzip für ein kleines Büro (ohne schallisolierten Rackschrank) indiskutabel.

Hardware

Auf Ersatzteile muss man bei Apple warten (werden bestellt) - es sei denn, man legt sich für 900 Steine ein Xserver Reparaturkit in den Schrank :eek: Dafür kann man 2 x86 Rechner aufbauen. Ausserdem habe ich kaum Flexibilität bei der Hardwareauswahl, entweder ein Xserve oder ein Mac Pro. Die Storagebox muss man extra kaufen.

Software

Ich habe mich nie so richtig intensiv mit der Unix Basis von OS X beschäftigt und bin auch die GNU Linuxe gewohnt. Das bisschen, was ich auf der OS X Shell gemacht habe fand ich z. T. umständlich. Z. B. ist es fast nicht möglich, den MAMP Apache automatisch beim Rechnerstart zu starten. Nehme ich den eingebauten, brauche ich wieder ein externes PHP, weil Apple PHP ziemlich nackich kompiliert. Klar, kann man alles selber machen - aber ich persönlich möchte für Basiswerkzeuge nicht jedesmal den Compiler anwerfen müssen. Wahrscheinlich lag es an mir, aber so dolle Konsolero bin ich dann doch nicht, dass ich mir den ganzen Mist für unterschiedliche Betriebssysteme merken kann.


Hier stand jetzt eine Plattenerweiterung an und da waren beide Rechner am Limit. Externe Platten gehen mal gar nicht, das ist mir viel zu unsicher. In den Mini geht nix rein und der G4 ist schon voll ausgebaut. Mehr als 3 Platten verträgt das Netzteil auch nicht über einen längeren Zeitraum.

Ich habe ein bisschen mit netatalk und avahi unter Linux experimentiert und nun selbst einen Rechner zusammengebaut. Ca. 35 Watt im Leerlauf, sehr leise, Übertragungsrate zwischen 2x 3.5" Mac <-> Linux über afp 90 MB/s. Die Macs hier untereinander schaffen nur knapp 50 MB/s. Storagemäßig habe ich nun insgesamt 4 TB mit einfacher Redundanz zur Verfügung (Raid 1 + Raid 5). Den RAID 5 Verbund -aus 3 Platten bestehend- lege ich einfach per Cronjob schlafen. Dazu ist das Ding noch ziemlich leistungsfähig (Dualcore Athlon). Und bei den Hardwarepreisen lege ich mir gerne ein Ersatzmainboard für schlechte Zeiten in den Schrank (45 EUR netto). Dazu gibt es alles an Möglichkeiten, was man sonst mit Linux machen kann (daapd, Mediatomb + Plex/XBMC) uswusf..


Wegen den NAS-Boxen: Das war ursprünglich auch mein Plan, also etwas fertiges zu kaufen. Allerdings reichen mir da die Konfigurationsoptione für den AMP-Stack nicht aus. Bei Thecus z. B. gibt es erst ab 600 EUR ein Apache Modul. Und auch hier wieder die Frage: Was passiert, wenn die Kiste verspackt und das Array nicht mehr gelesen werden kann? Muss ich dann warten, bis der Hersteller das Ding repariert hat?

Die flexiblen Linuxkisten sind in Verbindung mit der günstigen Hardware als Serverplattform einfach unkompliziert. Dafür lohnt sich auch das tiefere Eintauchen in die z. b. ätzende und frustrierende Materie. Und ja: Es kostet Unmengen an Zeit :)

ratti schrieb:
und sowohl netatalk als auch samba sehe ich nicht wirklich im professionellen Einsatz.

Kannst Du noch ein paar Worte dazu verlieren? AFP und der Finder sind mein grösster Nervfaktor seit längerem. So verschwinden immer mal wieder die gebroadcasteten Freigaben aus dem Findern, sowohl im reinen Mac Netzwerk als auch bei Linux mit netatalk/avahi. Und 3x in der Woche startet mein lokaler Finder einfach mal so neu. Das zieht sich nun schon von 10.5.0 - 10.5.7. Mal sehen, wie meine Langzeiterfahrungen mit Debian und netatalk werden. Aber schlechter wird es sicher nicht :D
 
  • Gefällt mir
Reaktionen: Zapfenzieher
und sowohl netatalk als auch samba sehe ich nicht wirklich im professionellen Einsatz.

Kannst Du noch ein paar Worte dazu verlieren? AFP und der Finder sind mein grösster Nervfaktor seit längerem. So verschwinden immer mal wieder die gebroadcasteten Freigaben aus dem Findern, sowohl im reinen Mac Netzwerk als auch bei Linux mit netatalk/avahi. Und 3x in der Woche startet mein lokaler Finder einfach mal so neu. Das zieht sich nun schon von 10.5.0 - 10.5.7. Mal sehen, wie meine Langzeiterfahrungen mit Debian und netatalk werden. Aber schlechter wird es sicher nicht :D

Bei uns gibt es eine Webabteilung, die ist klein (2 Leute) und beide sind Techies.

Und es gibt eine „klassische“ Designabteilung, die macht fast die ganze Firma aus (16 Leute), und die meisten sind technisch unbewandert.

Wir haben seinerzeit die Web-Abteilung auf Linux-Server-Basis hochgezogen, denn wir wollten kein Windows, und Apple hatte noch gar kein OS X.
Die Designabteilung lief unter AppleShareIP, dem alten Apple-Server.

Seitdem gab es natürlich immer mal wieder den Denkansatz, ob man nicht die teuren Apple-Server durch billige Linuxe ersetzen könne. Und ich rate ganz vehement davon ab.

Zum einen ist AFP ähnlich SMB eine gewachsene Geschichte, bei der sich der Eindruck aufdrängt, dass niemand sie mehr so richtig versteht, inklusive Apple selbst. Es gibt immer wieder Bugfixes in den offiziellen OS X Updates, in denen Sätze vorkommen wie „…konnten nicht sehen…“, „Etiketten verschwinden…“, „…langsam unter 10.3 auf 10.5…“. Es ist deutlich stiller darum geworden, seit kein Mensch mehr OS 9 oder älter als 10.3 einsetzt, aber alternative Implementierungen (netatalk, helios, MS) scheinen davon doch betroffen. Apple kann wenigstens seinen Müll durchtracen, alle Nachmacher müssen dann auch noch am Interface mitlesen oder Darwin-Code durchwühlen, um das ähnlich umzusetzen. Das ist einfach mehr Arbeit, die nach meinem Eindruck zwangsläufig trial-and-error ist.

Das andere ist die Anwendungssoftware. Ich stelle mal drei Namen in den Raum: 1. Alles von Adobe. 2. Microsoft Office. 3. (nicht mehr im Einsatz) QuarkXpress.
Alle diese Programme scheinen ganz erheblich von „merkwürdigen“ Features gebrauch zu machen. Man sollte meinen, ein gemountetes Volume wäre von der Handhabung für eine höhere API immer gleich, egal, ob es nun ein Netzwerkvolume ist oder physikalisch am Rechner hängt, aber dem ist offensichtlich nicht so. Alle diese Programme haben MEHRFACH (lies als: Zu mehreren Zeitperioden) ihre Dokumente zerschossen, und zwar unter ALLEN AFP-Implementierungen. Weil sie irgendwie an offenene Files rumschrauben, statt alles temporär lokal zu holen. Wohlgemerkt, auch unter Apple Server war das so. Und Adobe weisst explizit darauf hin, das der Einsatz eines Fileservers eine unsupportet config sei. Das ist TOTAL beknackt.

Das ärgerliche ist, dass ich hier als Kunde letztlich am besten trotzdem beim Bösewicht kaufe: Adobe und Apple werden eher hektisch zusammenarbeiten, um sowas zu fixen, als Adobe und netatalk. Ich sehe förmlich vor mir, wie bei Adobe der Hörer auf die Gabel knallt — „netaWTF? Click.“


Das wäre das eine.

Das nächste ist, das einige Software auf dem Mac einfach nicht mit smb oder netatalk zurecht kommt. So behauptet unser grafischer svn Client z.B., er könne auf ein netatalk-Volume nicht schreiben. Keiner weiss, wieso, die Permissions sind richtig, alles andere geht ja. Als wir dann einfach auf samba umgeswitcht sind, musste ich ewig lang drehen, habe es dann aber zum Laufen bekommen. Das Programm wurde einfach nicht damit fertig, dass samba merkwürdige permissions anzeigte, nach denen man nicht schreiben dürfte, weil das Programm die ACL nicht auswertete. Da kann man jetzt lange philosophieren, wer da jetzt „falsch“ ist — de facto will ich einfach schnell arbeiten, es geht nicht, und ich suche mir Wege.


Aus solchen Erfahrungen der letzten 9 Jahre heraus in unserer technischen Abteilung versuche ich erst gar nicht, den Designern ein ähnliches Konstrukt vorzusetzen. Übrigens aber auch nicht umgekehrt: Nicht im Traum käme ich auf die Idee, Webentwicklung auf einem Apple Server zu treiben.

Gruß,
Jörg
 
Guten Morgen

Linux Server kann alles, klar. Nach der Beschreibung denke ich aber eher an etwas einfacheres, damit sich die Agentur auf Ihr Hauptgeschäft konzentrieren kann.
Von Preis/Leistung finde ich persönlich diese gut:
http://www.synology.com/deu/products/features/valueapps.php


Wegen den NAS-Boxen: Das war ursprünglich auch mein Plan, also etwas fertiges zu kaufen. Allerdings reichen mir da die Konfigurationsoptione für den AMP-Stack nicht aus. Bei Thecus z. B. gibt es erst ab 600 EUR ein Apache Modul. Und auch hier wieder die Frage: Was passiert, wenn die Kiste verspackt und das Array nicht mehr gelesen werden kann? Muss ich dann warten, bis der Hersteller das Ding repariert hat?

Bis jetzt hatte ich noch nie einen Ausfall dieser Dinger (ausser einen bei dem die Kundin das falsche Netzgerät angehängt hat). Natürlich muss eine USV vornedran um vor Netzeinwirkungen zu schützen.

Schützen muss man sich natürlich trotzdem, z.B. ein 2te kleinere Synology, dann kann eine Netzwerksicherung automatisch auf die 2te gespielt werden und im Ausfall diese genutzt werden. Auch die Sicherung auf ein USB Medium ist Zeitgesteuert möglich. Sollte das Teil ausfallen, schnell ein neues besorgen, USB anstecken und wiederherstellen.

Ich arbeite einfach gerne mit diesen Geräten (könnten auch andere Produkte sein), da bei einem Hardwareausfall innerhalb von wenigen Minuten weitergearbeitet werden kann. Hatte mal einen Serverausfall, bei dem sich das RAID verabschiedet hat. Server rausgenommen, auf NAS gemappt, und alle konnten wieder arbeiten. Ist sicher nicht hochprofessionell, aber effektiv.

Soll einfach ein Input für die Evaluation sein (Kaufpreis hätte sich sicher schon lange gelohnt zum dezentralen Arbeiten). Was die beste Lösung mit vertretbarem Zeitaufwand ist, muss jeder für sich entscheiden.

Gruss Andy
 
@2nd: Wir haben hier OS X Server auf einem Mini laufen, das funktioniert wunderbar, es muss kein Xserve sein.

Der grosse Unterschied ist, dass der Mini kein LOM hat, und keine Hot-Swappable PowerSupplies. Für unseren Einsatz (alles, was wirklich wichtig ist ist auf einen Linux Box) ist das völlig OK.

Alex
 
ratti schrieb:
Zum einen ist AFP ähnlich SMB eine gewachsene Geschichte, bei der sich der Eindruck aufdrängt, dass niemand sie mehr so richtig versteht, inklusive Apple selbst. Es gibt immer wieder Bugfixes in den offiziellen OS X Updates, in denen Sätze vorkommen wie „…konnten nicht sehen…“, „Etiketten verschwinden…“, „…langsam unter 10.3 auf 10.5…“.

Gut, das funktioniert hier alles. Allerdings haben wir ein reines 10.5 Netzwerk mit 5-6 Rechnern.


ratti schrieb:
Das andere ist die Anwendungssoftware...

Vor einiger Zeit war Photoshop und 10.5.3 doch in den Medien, da im Netzwerk geöffnete Arbeitsdateien getrasht worden: http://www.macnotes.de/2008/06/04/fazit-eine-woche-mac-os-x-1053/

Das war als nächster Schritt hier geplant. Die lokalen Arbeitsdateien ins Netzwerk legen und dort arbeiten, damit wir nur noch ein zentrales Projektdateien-Repository haben. Zum Teil machen wir das mit einzelnen Dokumenten schon. Jetzt weiss ich allerdings, warum Indesign immer bei diesen Dateien abstürzt. Ich werde wohl vorher noch einmal viel testen.

ratti schrieb:
So behauptet unser grafischer svn Client z.B., er könne auf ein netatalk-Volume nicht schreiben. Keiner weiss, wieso, die Permissions sind richtig, alles andere geht ja.

Ich arbeite mit Zennaware Cornerstone als SVN GUI auch auf einer Apple afp-Freigabe (http://www.zennaware.com/) und das funktioniert, allerdings schraubt sich die Last auf dem Mini beim Aktualisieren auf 2x 90+ %. Mit der Linuxkiste habe ich das natürlich auch probiert und es ging auf den ersten Blick, ich checke das gerade noch einmal... *bibber*

Also alles in allem deckt sich das mit meinen Beobachtungen. Danke für die Infos!

Das Problem ist bloss: Welches Protokoll soll man sonst nehmen, dass die OS X Metainfos unterstützt und auf beiden Seiten gut implementiert ist?

@HugodieMaus: Ich finde die fertigen NAS-Kisten auch prinzipiell sehr verlockend. Will man allerdings ein paar Bays und Leistung, ist man ohne Platten schnell im Bereich 650-1200 EUR nur für die Hardware. Dazu muss man dann noch in Kauf nehmen, dass man auf die Softwarekonfig vom Hersteller angewiesen ist....


@Alex: Also wenn das Mac mini Netzteil (50 EUR?) nicht hot pluggable ist, dann weiss ich auch nicht :D Es stellt sich allerdings die Frage, wie man 5x 3.5" Platten im Mini unterbringen soll ;)

Edit_1: Also SVN fkt. mit Cornerstone gut, sogar schneller als auf dem Mini. Alternativ wäre noch http://versionsapp.com/ zu nennen.
Nun habe ich aber das Problem, dass ich mit Coda den local root nicht über die netatalk afp-Freigabe setzen kann, da passiert nichts (/Volumes/nas/htdocs/projektxyz/) bei Aufrufen des Projektes :confused: Ausserdem erscheinen die Freigaben nicht im "Datei öffnen"-Dialog, nur der Server, der dann 'leer' angezeigt wird. Ui, gleich mal suchen...

Edit_2: Mein Fehler, ich habe den falschen Pfad eingebunden, die Freigabe muss ohne den Servernamen eingebunden werden -> Volumes/htdocs/projektxyz/. Manuell geht es nun genau so wie auf dem Mini per Apple afp. Nach wie vor werden die Freigaben im Finder von Coda nicht angezeigt (siehe Bild), warum auch immer. Aber das wird so ein netatalk-Problem sein und es wird noch mehr Applikationen geben.

Welches Protokoll ist eine schnelle und stabile Alternative für Netzwerkmounts?

attachment.php
 

Anhänge

  • Bild 2.png
    Bild 2.png
    8,8 KB · Aufrufe: 322
Zuletzt bearbeitet:
Offtopic @ Ratti: SVN sollte eigentlich immer über WebDAV und HTTPS laufen oder als Notlösung als svnserver. Ich sehe nicht in welcher Konfiguration ein SVN Client direct auf eine Freigabe schreibt.

@2nd: Mit SMB/CIFS habe ich unter OS X extrem schlechte Erfahrungen gemacht. Obwohl ein HP DL380 mit 15k SAS Platten am anderen Ende hängt ist die Latenz und die Performance unter aller Sau. AFP ist wohl das einzige wirklich unterstüzte Protokoll.

Ein "Consumer-NAS" wie sämtliche Geräte von Synology würde ich niemals für eine Firma kaufen. Entweder ein richtiges NAS mit Support oder einen zertifizierten Server mit Openfiler oder ähnliches.
 
Ahh, ok, danke.

Also ich habe jetzt mal das Netzwerk mit 380 GB und 2 Finderinstanzen unter Last gesetzt und war in 85 Minuten durch. Ich bin ganz zufrieden mit meiner Lösung, die Zertifizierung bin ich selbst :D

Nun will ich mal mit Jumbo Frames experimentieren, vielleicht kann ich die Performance bzw. CPU Last noch verbessern.

Stichwort SVN: Es geht ja nicht um die Verbindung zum Repository, sondern zu den Working Copies. Und die scheint bei Ratti auf Netzwerkshares zu liegen, genauso wie hier bei mir auch.
 
Also ich habe jetzt mal das Netzwerk mit 380 GB und 2 Finderinstanzen unter Last gesetzt und war in 85 Minuten durch. Ich bin ganz zufrieden mit meiner Lösung, die Zertifizierung bin ich selbst :D

Wenn es über eine halbe Million Dateien waren ist das okey. Einzelne grössere Dateien sind eigentlich selten ein Problem.

Stichwort SVN: Es geht ja nicht um die Verbindung zum Repository, sondern zu den Working Copies. Und die scheint bei Ratti auf Netzwerkshares zu liegen, genauso wie hier bei mir auch.

Und warum? Das macht für mich jetzt gerade überhaupt keinen Sinn.
 
Die Working Copy ist gleichzeitig der lokale Webroot. Der liegt auf einem anderen Rechner, da dieser Rechner permanent an ist, meine Arbeitsrechner jedoch nicht.
 
(svn auf Fileserver)

Und warum? Das macht für mich jetzt gerade überhaupt keinen Sinn.

Weil wir Webentwicklung machen. Wenn ich meine „lokale“ Working-Copy auschecke auf /Volumes/Entwicklungsserver/joergs_svn/projekt22/ , dann kann ich darin ganz normal mit BBedit drinrumhacken, und das Resultat gleichzeitig im Browser unter http://entwicklungsserver/joergs_svn/projekt22/ angucken.

Wenn man mit mehreren Leuten entwickelt, will man einen gemeinsamen Webserver nutzen, und erst recht nicht das php von Apple. Man will auch keinen mysql-Server im Netzwerk freigeben oder jeder sein eigenes mysql benutzen.


Das ist von der Umgebung her halt ein Unterschied zur normalen Anwendungsentwicklung, wo man eher seinen Kram lokal haben will.


Gruß,
Jörg
 
Vor einiger Zeit war Photoshop und 10.5.3 doch in den Medien, da im Netzwerk geöffnete Arbeitsdateien getrasht worden:

Genau, explizit daran hatte ich beim Schreiben auch gedacht. Das war der letzte Bug einer längeren Liste unerfreulicher Vorkommnisse.

Das war als nächster Schritt hier geplant. Die lokalen Arbeitsdateien ins Netzwerk legen und dort arbeiten, damit wir nur noch ein zentrales Projektdateien-Repository haben. Zum Teil machen wir das mit einzelnen Dokumenten schon. Jetzt weiss ich allerdings, warum Indesign immer bei diesen Dateien abstürzt. Ich werde wohl vorher noch einmal viel testen.

Indesign unter 10.5.6 würde ich mal als „stable“ deklarieren. 10.5.7 habe ich noch nicht rundumverteilt.

Ach so, ja, bei der Gelegenheit: Den Softwareupdate-Server von Apple nutzen wir auch. Neben der Bandbreiten- und Zeitersparnis hat das auch den Vorteil, dass man dann ein Update wie obiges zentral wegsperren kann.



Ich arbeite mit Zennaware Cornerstone als SVN GUI auch auf einer Apple afp-Freigabe (http://www.zennaware.com/) und das funktioniert, allerdings schraubt sich die Last auf dem Mini beim Aktualisieren auf 2x 90+ %. Mit der Linuxkiste habe ich das natürlich auch probiert und es ging auf den ersten Blick, ich checke das gerade noch einmal... *bibber*

Als wir von CVS auf SVN umstiegen, habe ich relativ viele Clients getestet, und das Problem war fast immer die Geschwindigkeit. Wie gesagt, meine working copy liegt remote. Wir sind dann bei einer inzwischen alten Version von SmartSVN gelandet.
Wenn ich da jemals wieder wegmigriere, dann wohl nur noch zum Kommandozeilenclient. Wir nutzen den ohnehin, weil wir von den Webservern unserer Kunden aus einfach auschecken, statt Websites hochzuladen, und das Teil ist rattenschnell.

Das Problem ist bloss: Welches Protokoll soll man sonst nehmen, dass die OS X Metainfos unterstützt und auf beiden Seiten gut implementiert ist?

Zunächst mal sind mir die Metainfos als Webentwickler vollkommen egal, im Gegenteil, ich wäre froh, wenn ich sie gezielt für unseren Server abschalten könnte. Ich muss dauernd Software von der Stange ändern, damit sie neben . und .. auch ._* und .DS_* ignoriert…

Was man nimmt? Gute Frage. NFS klappte gar nicht gut. netatalk ist eine Option, samba auch. Ich würde es an der Software festmachen, die ihr nutzt. Tendenziell eher samba, aber das ist aus dem Bauch raus entschieden. Es ist halt weiter verbreitet als Apple-Protokolle samt Nachbauten.

Gruß,
Jörg
 
Zurück
Oben Unten