Festplatten größer als 2TB

E

einseinsnull

Aktives Mitglied
Thread Starter
Dabei seit
17.07.2020
Beiträge
535
Reaktionspunkte
182
Nehmen wir an ich möchte auf einem alten PPC eine Festplatte mit mehr als 2TB nutzen. Nutzen im Sinne von sicher nutzen.

In der Theorie sollte man das erreichen können, indem man einfach größere Blöcke verwendet als bei HFS Plus üblich.

Die maximal mögliche Anzahl verschiedener Dateien auf dem Drive (von 2^63) bliebt dann zwar immer noch gleich, aber bei einer Verdoppelung der Blockgröße müsste man in der Summe eigentlich 4,6 statt 2,3 TB adressieren, i.e. schreiben und lesen können.

Mir steht für das Experiment ein freier Rechner (QS rev2) mit ATA intern, ATA PCI, SATA PCI, mit OS9 und OSX, sowie 2 Stück herkömmliche HDDs mit 4TB und mehrere Wochen Zeit zur Verfügung.

Das Ziel ist, dass die HDDs mindestens mit beiden Betriebssystemen, im Idealfall aber auch via Firewire oder Ethernet sicher und zuverlässig funktionieren.

Außerdem sollte nach Möglichkeit verhindert werden, dass durch die von der Norm abweichenden Block- und Sektorgrößenverhältnissen beim Be-Schreiben eines Blocks ein zusätzlicher sinnloser Lesevorgang entsteht. (Dieses Problems bin ich mir bewusst - habe es aber noch nicht ganz verstanden)

Meine erste Frage hierzu ist jetzt zunächst einmal:

Mit welchen Tools (unter MacOS9 bis OSX 10.5.8) kann man so etwas überhaupt bewerkstelligen?

die LLF Programme der Hersteller sind ja alle nur für DOS.
 
  • Gefällt mir
Reaktionen: Fritzfoto
Das Problem ist doch nur die Volume Size, d.h. du kannst auch 2 Volumes mit 2TB für OS9 machen.
Ab 10.2 geht ja schon 8TB.
Mit 10.3 16TB und mit 10.4 8EB.
Also Probleme wird es nur mit OS9 geben.
 
  • Gefällt mir
Reaktionen: Macschrauber
Das Limit mit der 32 bit Adressierung ist leider wohl schon per drive.

Und Partitionierung wäre auch nur die halbe Miete, damit stieße man dann bei 4 Stück 16 TB SSDs (== 24 volumes) schon wieder an die Grenze dessen, was OS9 noch automounted. :) Okay, das lässt sich mit Scripten lösen, ist klar. Oder mit nicht-dauernd-neustarten.

Ich probiere das alles erst mal mit 4TB und habe mir extra eine IDE karte besorgt, weil man ja bei Apple auch immer damit rechnen muss, dass die internen Busse als solches noch irgendwelche undokumentierten Krüppel-Limits haben. :/
 
ich habe auch nie verstanden, wie jaguar überhaupt 8 TB unterstützen kann, wo es doch nur APM hat.

gleichzeitig hat APM aber maximal nur 8 partitionen. das passt nicht zusammen.
 
8TB kannst ja auch nur bei GPT machen.
Davon kannst du eh nicht booten.
Da muss man schon eine Boot Platte mit weniger machen, die dann APM ist.

Was für einen IDE Controller denn?
Der sollte doch 48Bit können.
Es gibt auch günstig SATA Controller, zumindest wenn man die flasht.
Bei den QS ist ATA-5 am internen Bus, 48bit kam erst mit ATA-6.

Aber ich versteh gerade eh nicht warum du solche Massen an TB unterbringen willst.

Eventuell hilft dir FWB Hard Disk Toolkit unter OS9.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dg2rbf
8TB kannst ja auch nur bei GPT machen.

weswegen es eben unsinn ist wenn apple irgendwo auflistet, dass 10.2 das könnte, da dort GUID ja nur über die konsole herstellbar ist.

Der sollte doch 48Bit können.

was ja bei apple eh nix heisst. die QS rev2 und MDD können es aber - jedenfalls bis 2 TB.

Bei den QS ist ATA-5 am internen Bus

ne, eben nicht. :)

die DA und die QS rev 1 haben alle 48 bit - und machen trotzdem nur 137 gb. wie auch immer apple so etwas schafft.

nur die rev2 machen 2200.

wobei man die ersteren mit tricks durchaus dazu bekommen kann, volle 2 TB zu formatieren - jedoch nur unter OS9 - und OSX macht das volume dann wieder kaputt. dadurch wird es sinnlos zu versuchen die größenlimits zu umgehen indem man dafür einen treiber schreibt.

hier geht es aber nur um rev2 und höher, da sollte eine neue treibersoftware eigentlich vermeidbar sein. die idee sektorisize vs blocksize zu verändern ist alt, aber bislang haben wir das noch nicht probiert.

aber ich versteh gerade eh nicht warum du solche Massen an TB unterbringen willst.

größere speichermedien bedeutet weniger speichermedien. ich persönlich hätte z.b. mit 4x 32 mittelfristig ausgesorgt und könnte alle externen HDDs abschaffen. die belegen inclusive stromversorgung zur zeit ein halbes musikerrack. intern ist vor allem auch 3 mal schneller.

in einem QS rev2 ohne zusätzliche PCI karten hast du nur 2 busse (denn der vom optical ist echt zu langsam). da liegt also das aktuelle limit bei 2x 2. das ist wirklich nicht sehr viel.

FWB und vor allem lacie sind mit am start. muss ich mir aber erst mal anschauen, was die leisten. das war ja im prinzip meine frage. denke zwar nicht, dass FWB LFF optionen hat, aber wer weiß, so manches löst sich ja mit eher älterer als neuer software.

HFS+ sollte von der theorie her 256 schaffen, genau wie exFAT. ich suche nur den knopf, der dafür gedrückt werden muss, damit man das dann systematisch durchtesten kann und es in eine allgemeine handlungsanleitung gießen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dg2rbf
Vorher stammen deine Informationen?

es gibt nur eine möglichkeit die wahrheit herauszufinden bzw sich wissen anzueignen: man probiert es selbst aus.

wenn man bei DA und QS rev1 partitionen von über 137 gb immerhin anlegen kann, dann kann der controller des computers zwingend auch 48 bit LBA.

jegliche einschränkungen liegen demnach also am finder, am system, am ROM, an der firmware des controllers oder an sonst etwas, aber nicht am verwendeten standard des controllers.

das kennt man auch von enclosures, die ja auch oft limits von 2, 3 oder 8 TB haben obwohl es theoretisch keines geben sollte. dort liegt es z.b. an der firmware (so dass dann auch der lösungsansatz ebendort liegt)

Everymac listet die als ATA 5/UDMA 66.

das internet erzählt viel wenn der tag lang ist. auf everymac wird auch behauptet, OS9 könnte nur mit partitionen von 200 mb arbeiten und ähnliches.

von gleicher qualität sind die informationen, die man vor 20 jahren beim apple support zu solchen bekommen hat.

aber das internet behauptet ja auch man könnte MDDs oder MacMinis nicht in OS9 booten. ;)

es gibt z.b. auch eine kleine sub-serie vom QS rev2 dual 1.0, der auch keine "großen" festplatten erlaubt. dokumentiert ist das nirgends.

Changelogs angucken, bei 1.8 irgendwas stand drin, dass mit System 7.5.2 2TB gehen.

genau, du meinst also auch eher älter als neuer. denn historisch kommt die variable sector size ja sowieso von scsi. hab jetzt mal 1.6 1.8 und 2.1 hier liegen.

eine kollege hat mir allerdings gestern schon darüber berichtet, dass silverlining das zwar kann, dass bei ihm sein 4TB medium aber schon von silverlining nicht erkannt wurde. kann also auch noch passieren, dass schon diese software wiederum ein limit hat. :/

nicht geprüft habe ich in ermangelung von möglichkeiten bislang auch ob nicht die üblichen billigadapter für IDE2SATA solche adressraumlimits haben könnte.

morgen weiß ich dazu mehr.
 
  • Gefällt mir
Reaktionen: Fritzfoto
es gibt z.b. auch eine kleine sub-serie vom QS rev2 dual 1.0, der auch keine "großen" festplatten erlaubt. dokumentiert ist das nirgends.
Den dual 1ghz hab ich auch, aber nie eine größere HDD probiert. Irgendwann werde ich mal eine SSD rein bauen, da aber noch nicht schlüssig ob über IDE oder SATA.
genau, du meinst also auch eher älter als neuer. denn historisch kommt die variable sector size ja sowieso von scsi. hab jetzt mal 1.6 1.8 und 2.1 hier liegen.
Ich hab das letzte Mal noch auf meinem Power100 oder 8600 benutzt, um eine nicht Apple SCSI Platte zu nutzen.
Aber ich würde auch die letzte 4.x probieren.
 
re:version - hatte ich eh mit silverlining´s versionsnummern verwechselt. hab das zeug nie benutzt, kenne namen und versionen nur noch aus der guten alten warezsammlung auswendig.
 
so, silverlining weigert sich auch mehr als 2TB zu erledigen. jetzt gilt es die ursache dafür zu finden.

spannend wäre mal ob eine 4k fesplatte - bei der bereits größere sektoren drauf sind - erkannt werden würde. hab aber keine da.
 
Brauchst du denn mehr als 2TB am Stück?
Da sollte doch die OS9 Warez Sammlung locker drauf passen.
Oder ist das einfach sportliche Herausforderung und Machbarkeitsstudie?
 
ich habs doch oben dargelegt, es ist zum einen mein ganz persönliches bedürfnis, zum anderen geht es aber auch um die theoretische machbarkeit. das ganze soll einfach mal ausprobiert und dann dokumentiert werden, ähnlich wie auch schon manches andere erst "im nachhinein" und unabhängig der "fehlerhaften" dokumentation von apple herausgefunden wurde.

OS9 software ist weniger als 2TB, und die ist auf bluray oder firewirefestplatten gut aufgehoben. aber es gibt auch OSX und windows software und ich bin auch programmierer, sounddesigner und aktuell rendere ich täglich tausende von bildern auf einem mac studio, auch solche daten müssen irgendwo hin und ich sehe den G4 nach wie vor als zentrale meines 12-computer-wohnzimmers. :)

ein quicksilver hat im schlimmsten fall - nämlich dann, wenn du deine PCI slots schon für was anderes brauchst - nur 2 interne ports. wenn du an diese 2 internen ports nur 2 TB anschließen kannst, dann sind das 900% weniger wie mit 2 stück 20 TB platten.

mal ganz davon abgesehen, dass eine neue 20 TB festplatte billiger ist wie 10 gebrauchte 2 TB festplatten. und die ganz großen haben auch mehr cache.

herauszufinden, warum das derzeit nicht formatierbar ist, ist am rande auch ein bischen dazu geeignet, sich diesem thema LLF, sectors and blocks mal ein bischen anzunähern. wenn du sagst, dass auch auf rechnern von anno dazumal schon 2TB mit SL möglich waren, dann scheint das ja schon mal kein limit der verwendenten IDE controller oder deren firmware zu sein. (so wie es bei externen gehäusen auftritt)

sofern man die tatsache, dass bei HFS+ jede veränderung sofort im b-tree abgebildet wird, und die dadurch verursachten schwierigkeiten im bereich "wiederherstellung" nicht als störend empfindet, ist HFS+ eigentlich das beste system, was es je gab. aber leider ist es auch das komplizierteste und mit hardware und maschinensprache stehe ich ein bischen auf kriegsfuss.
 
wenn du sagst, dass auch auf rechnern von anno dazumal schon 2TB mit SL möglich waren, dann scheint das ja schon mal kein limit der verwedenten IDE controller oder deren firmware zu sein. (so wie bei externen gehäusen üblich)
Das sind zwei verschiedene Dinge.
Hfs+ hat als Dateisystem halt ein Limit und die Hardware hat auch welche.
Zur Zeit der Quicksilver war das theoretische Limit doch gar nicht erreichbar.
Mein QS 1.0 DP 2002 kam mit einer 80GB Platte.

Am besten umschiffst du das Controller Problem wohl mit einer SATA Karte, nach der hab ich neulich auch mal geguckt, weil ich mit dem Gedanken des SSD Upgrades gespielt habe.
Aber wenn du eh keinen Slot frei hast, dann geht das ja eh nicht.
Wobei eine 20TB per SATA/IDE Adapter zu betreiben, halte ich für Overkill.

Wie oft bootest du denn noch OS9 bei dem?
Vielleicht wäre es die bessere Strategie neben 10.5.8 noch 10.4.11 für Classic zu installieren.
Oder ist bei den OS9 Apps was dabei , das nicht mit Classic geht?

Als Fileserver scheint mir ein NAS besser geeignet als der QS.
Lautstärke, Stromverbrauch und Softwarestand sprechen für das NAS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pk2061 und dg2rbf
  • Gefällt mir
Reaktionen: dg2rbf und einseinsnull
900% weniger viel :)
 
Das sind zwei verschiedene Dinge.
Hfs+ hat als Dateisystem halt ein Limit und die Hardware hat auch welche.

wobei die zahlen, die du oben nanntest, und die von apple kommunizert werden, schon überwiegend unzutreffend sind.

aber du unterschätzt vor allem beide komponenten meines motivs. :)

Am besten umschiffst du das Controller Problem wohl mit einer SATA Karte

an SATA karten besteht das 2 TB limit auch.

in meinem QS hatte ich schon imer SATA, weil ich mit 2 platten sowieso nicht klarkomme.

daneben habe ich 20 externe mit insgesamt über 50 TB.

Wie oft bootest du denn noch OS9 bei dem?

überwiegend

Oder ist bei den OS9 Apps was dabei , das nicht mit Classic geht?

hunderte.

vor allem entwickle ich selbst noch programme auf und für diese plattform.

Als Fileserver scheint mir ein NAS besser geeignet als der QS.

von anderen rechnern drauf zugreifen tue ich auch nicht.

wenn man sowas viel braucht ist es ab gewissen datenmengen mit ethernet oder firewire 400 auch nicht sehr lustig.

wenn ich das mal brauche, dann träume ich da eher davon, mir einer der internen SSDs nach draußen zu legen - bei einem QS könnte man sich da in den blödsinnigen zip drive slot einen art SATA dockingstation einrichten.


meine frage lautet eigentlich nur mit welchen software, die noch auf PPC läuft, kann man mit alternativen block sizes medien formartieren. weil das blöde HFS+ ja mickrige 4kb von seinem schöpfer geschenkt bekommen hat.

jetzt kommt silverlining daher und erkennt auch nur 2TB und man muss wieder erst die ursache dafür suchen. kopf -> tisch.
 
meine frage lautet eigentlich nur mit welchen software, die noch auf PPC läuft, kann man mit alternativen block sizes medien formartieren.
So viel HDD Tools gab es da ja nicht.
Vielleicht noch die Intech Hard Disk Speed Tools oder TechToolPro/Drive 10?
 
wenn, dann silverlining. aber es weigert sich leider. :)

am rande ist es dennoch eine überlegung wert, aktuelle 3-4 TB platten zu benutzen anstatt 8 jahre alter 2TB.

die machen nicht nur 180mb/s wo ältere 2er 110mb/s machen und nutzten damit IDE 133 und SATA 150 genau so gut voll aus wie SSDs, sondern die haben auch statt 64 jetzt 512 cache (WD - toshiba nur 128)

ich habe da so ganz spezielle anwendungen, bei denen ca. 1 GB daten aus dem RAM offline gerendert und geschrieben werden müssen, und da ist die berechnung manchmal schon fast zu schnell um das ergebnis auf die platten geschrieben zu bekommen. (denn die software kann nicht "warten" sondern haut ihren thread durch - und gibt auch kein feedback über schreibfehler)

500 cache sind aus der perspektive eines solchen 20 jahre alten systems (mit max. 1500 RAM) fast schon so eine art "hybrid drive", gleichzeitig aber um das 5-fache billiger wie meine SSDs.

das alleine rechtfertigt locker, dass man von den 4 nur 2,2 nutzen kann.

(bis ich es dann vielleicht doch irgendwann schaffe.)
 
Zurück
Oben Unten