W
WiKainZwaida
Mitglied
Thread Starter
- Dabei seit
- 21.04.2006
- Beiträge
- 131
- Reaktionspunkte
- 0
Hallo zusammen !
Bin seit langem mal wieder dabei, mit FM rumzubasteln. Und zwar wollte ich es so einrichten, dass man, wenn man später einen Datensatz bearbeitet, die Möglichkeit hat, entweder die Änderungen zu bestätigen oder die Änderungen rückgängig zu machen.
Daher wird der entsprechende Datensatz vor den Änderungen samt seinen Bezugsdatensätzen dupliziert. Die Änderungen werden am "Original"datensatz vorgenommen. Bestätigt der Benutzer diese Änderungen, wird das Duplikat (und automatisch die duplizierten Bezugsdatensätze) einfach wieder gelöscht. Will der Benutzer die Änderungen rückgängig machen, wird dementsprechend der "Original"datensatz gelöscht und sozusagen durch das Duplikat ersetzt.
Funktioniert soweit wunderbar! Nur habe ich festgestellt, dass die fortlaufende Nr., über die mein Testdatensatz eindeutig identifiziert wird, mittlerweile bei 54 liegt. Ich weiß, dass jedem Datensatz ohnehin eine interne Nr. oder sowas zugeordnet wird.
Situation ist also: Ich habe erst einen Datensatz, der aber schon die fortlaufende Nr. 54 und interne Nr. was-weiß-ich-wie-viel inne hat.
Ich denke mal, dass diese Zahl wahrscheinlich ohne Probleme in die Millionen gehen kann und es keine Fehlermeldung wie "Zahl zu groß" etc. geben wird. Aber ist diese Lösung wirklich "sauber"? Bei mehreren Datensätzen, die immer wieder bearbeitet werden, gerät man sicher ganz schnell in den 1.000er bis 10.000er-Bereich. Was sagen die FM-Cracks dazu?
Bin seit langem mal wieder dabei, mit FM rumzubasteln. Und zwar wollte ich es so einrichten, dass man, wenn man später einen Datensatz bearbeitet, die Möglichkeit hat, entweder die Änderungen zu bestätigen oder die Änderungen rückgängig zu machen.
Daher wird der entsprechende Datensatz vor den Änderungen samt seinen Bezugsdatensätzen dupliziert. Die Änderungen werden am "Original"datensatz vorgenommen. Bestätigt der Benutzer diese Änderungen, wird das Duplikat (und automatisch die duplizierten Bezugsdatensätze) einfach wieder gelöscht. Will der Benutzer die Änderungen rückgängig machen, wird dementsprechend der "Original"datensatz gelöscht und sozusagen durch das Duplikat ersetzt.
Funktioniert soweit wunderbar! Nur habe ich festgestellt, dass die fortlaufende Nr., über die mein Testdatensatz eindeutig identifiziert wird, mittlerweile bei 54 liegt. Ich weiß, dass jedem Datensatz ohnehin eine interne Nr. oder sowas zugeordnet wird.
Situation ist also: Ich habe erst einen Datensatz, der aber schon die fortlaufende Nr. 54 und interne Nr. was-weiß-ich-wie-viel inne hat.
Ich denke mal, dass diese Zahl wahrscheinlich ohne Probleme in die Millionen gehen kann und es keine Fehlermeldung wie "Zahl zu groß" etc. geben wird. Aber ist diese Lösung wirklich "sauber"? Bei mehreren Datensätzen, die immer wieder bearbeitet werden, gerät man sicher ganz schnell in den 1.000er bis 10.000er-Bereich. Was sagen die FM-Cracks dazu?