lupusoft
Aktives Mitglied
Thread Starter
- Dabei seit
- 05.01.2004
- Beiträge
- 250
- Reaktionspunkte
- 4
Moin,
ich habe mySQL 4.0.21 auf einem Dual G5/1.8GHz unter Panther 10.3.5 laufen. Die Datenbank ist von der Anzahl der Datensätze her gesehen nicht besonders gross (die grösste Tabelle hat ca. 12000 rows), allerdings gibt es eine Tabelle mit ca. 1500 Datensätzen, die in einem blob Feld gezippte Dateien zwischen 500k und 6MB enthalten. Bei anfänglich durchaus akzeptabler Geschwindigkeit (entweder direkte SQL Anfragen oder über PHP), bricht mir der mysqld mittlerweile ziemlich zusammen. Ich habe versucht, einige Pufferwerte hochzusetzen, aber letztendlich kommt er offensichtlich nicht mit der Grösse der Datensätze zurecht. Wenn ich mir das Verhältnis von gelesenen zu geschriebenen Dateien anschaue, dann liege ich derzeit bei 1.8 Terabyte (!!!) zu 12 Gigabyte. Für mich ein deutliches Zeichen, dass er zuviel über die Platte arbeitet. Wenn ich das richtig interpretiere, dann liegt es weniger am Swappen (394943 pageins und 787265 pageouts), als daran, dass er die nicht die kompletten Tabellen ins RAM bekommt. Insgesamt hat die Bank eine Grösse von ca. 1.3 GB, der Mac hat 1.2 GB RAM. Virtuell hat mysqld 1.06 GB Speicher, bei 100 bis 200 MB physikalischem RAM.
Was kann ich tun, um die Bank wieder flotter zu machen. Momentan ist es wirklich inakzeptabel; über das Webinterface dauert ein select query mittlerweile 1 bis 3 Minuten. Das kann es doch nicht sein, oder? mySQL sollte in der Lage sein Millionen von Datensätzen ohne Probleme zu handeln. Ist die MacOSX Implementation schlechter als bei anderen Platformen? Gibt es eigentlich eine Möglichkeit (oh, oh jetzt kommt die dumme Unix-Nichtwisser-Frage), bestimmten Programmen mehr physikalischen Speicher fest zuzuordnen. Da liegen über 800 MB RAM rum, die top als "inactive" markiert. Oder ist die einzige Chance, noch mehr RAM in den Rechner zu stopfen?
Danke für eure Vorschläge, Lupus
ich habe mySQL 4.0.21 auf einem Dual G5/1.8GHz unter Panther 10.3.5 laufen. Die Datenbank ist von der Anzahl der Datensätze her gesehen nicht besonders gross (die grösste Tabelle hat ca. 12000 rows), allerdings gibt es eine Tabelle mit ca. 1500 Datensätzen, die in einem blob Feld gezippte Dateien zwischen 500k und 6MB enthalten. Bei anfänglich durchaus akzeptabler Geschwindigkeit (entweder direkte SQL Anfragen oder über PHP), bricht mir der mysqld mittlerweile ziemlich zusammen. Ich habe versucht, einige Pufferwerte hochzusetzen, aber letztendlich kommt er offensichtlich nicht mit der Grösse der Datensätze zurecht. Wenn ich mir das Verhältnis von gelesenen zu geschriebenen Dateien anschaue, dann liege ich derzeit bei 1.8 Terabyte (!!!) zu 12 Gigabyte. Für mich ein deutliches Zeichen, dass er zuviel über die Platte arbeitet. Wenn ich das richtig interpretiere, dann liegt es weniger am Swappen (394943 pageins und 787265 pageouts), als daran, dass er die nicht die kompletten Tabellen ins RAM bekommt. Insgesamt hat die Bank eine Grösse von ca. 1.3 GB, der Mac hat 1.2 GB RAM. Virtuell hat mysqld 1.06 GB Speicher, bei 100 bis 200 MB physikalischem RAM.
Was kann ich tun, um die Bank wieder flotter zu machen. Momentan ist es wirklich inakzeptabel; über das Webinterface dauert ein select query mittlerweile 1 bis 3 Minuten. Das kann es doch nicht sein, oder? mySQL sollte in der Lage sein Millionen von Datensätzen ohne Probleme zu handeln. Ist die MacOSX Implementation schlechter als bei anderen Platformen? Gibt es eigentlich eine Möglichkeit (oh, oh jetzt kommt die dumme Unix-Nichtwisser-Frage), bestimmten Programmen mehr physikalischen Speicher fest zuzuordnen. Da liegen über 800 MB RAM rum, die top als "inactive" markiert. Oder ist die einzige Chance, noch mehr RAM in den Rechner zu stopfen?
Danke für eure Vorschläge, Lupus