doppelte Datensätze vermeiden

Dieses Thema im Forum "Datenbanken und Archiv Software" wurde erstellt von alwin, 18.02.2006.

  1. alwin

    alwin Thread Starter MacUser Mitglied

    Beiträge:
    19
    Zustimmungen:
    0
    MacUser seit:
    12.02.2006
    Hallo,
    ich habe wieder mal eine einfache Frage. Könnt Ihr mir sagen wie ich beim Importieren großer Datenmengen nach FM8 doppelte Datensätze vermeiden bzw. gleich entfernen kann?
    alwin
     
  2. ThoRo

    ThoRo MacUser Mitglied

    Beiträge:
    846
    Zustimmungen:
    58
    MacUser seit:
    22.08.2005
    Hallo alwin,

    beim Datenimport gibt es eine Importvariante, die gleiche Datensätze aktualisiert und nur neue Datensätze hinzufügt.
    Beim FM 6 heißt die "Passende Datensätze ersetzen" (wird beim FM8 ähnlich heißen).
    Grundvoraussetzung ist ein Schlüsselfeld, das in den zu importierenden und den bereits bestehenden Daten identisch ist....

    MfG

    ThoRo
     
  3. alwin

    alwin Thread Starter MacUser Mitglied

    Beiträge:
    19
    Zustimmungen:
    0
    MacUser seit:
    12.02.2006
    Dieses Problem ist genau anders herum. Ich möchte keine Datensätze aktualisieren und sondern das importieren doppelter Datensätze (welche in der zu importierenden Datei doppelt sind) verhindern.

    alwin
     
  4. ThoRo

    ThoRo MacUser Mitglied

    Beiträge:
    846
    Zustimmungen:
    58
    MacUser seit:
    22.08.2005
    Hallo alwin,

    das hatte ich anders verstanden.

    Wenn die doppleten Datensätze bereits im Ausgangsmaterial vorliegen, dann gibt es zwei Möglichkeiten:

    1. das Ausgangsmaterial vor dem Import in FileMaker aufbereiten
    oder
    2. in FileMaker nach dem Import anhand einer Funktion die doppelten Datensätze suchen und löschen.

    Beim Import selbst kann leider nicht gefiltert werden....

    Grundsätzlich ist es besser erst gar keine doppelten Datensätze zu importieren, das nachträgliche Suchen und Löschen ist aufwendig und fehleranfällig.

    MfG

    ThoRo
     
  5. alwin

    alwin Thread Starter MacUser Mitglied

    Beiträge:
    19
    Zustimmungen:
    0
    MacUser seit:
    12.02.2006
    Hallo ThoRo,

    mein Problem ist, das der Ausgangsdatensatz sehr viele retundante Daten hat, weswegen ich sie in mehrere Tabellen normalisieren möchte und dafür aber andere Parameter der Datensätze mit retundanten Parametern für weitere Tabellen brauche. Somit kann ich die Datensätze mit retundanten Parametern in der Ausgangsdatei nicht löschen. Und um doppelte zu suchen und dannn von Hans so zu löschen, dass im einer übrig bleibt, habe ich einfach zu viele Datensätze.

    alwin
     
  6. ThoRo

    ThoRo MacUser Mitglied

    Beiträge:
    846
    Zustimmungen:
    58
    MacUser seit:
    22.08.2005
    Hallo alwin,

    das Suchen und Löschen muß ja nicht von Hand geschehen, FileMaker kennt ja bei der Suche einen Platzhalter für doppelte Werte: "!" (sofern man nicht zu Schleifenkonstruktionen mit Markierungsfeldern greifen möchte).

    Was ich bislang noch nicht so ganz verstehe, ist, was da an Datenmaterial ankommt...
    Wenn es sich um Datensätze mit teilweise redundanten Angaben handelt, die nach dem Import in einer oder mehreren Tabellen "aufbereitet" werden sollen ("Normalisierung"), dann müssen doch erst alle Daten eingelesen werden, da ansonsten die Aufbereitung ja nicht stattfinden kann. Erst danach kann nach Doppelungen gesucht werden...

    MfG

    ThoRo
     
  7. joachim14

    joachim14 MacUser Mitglied

    Beiträge:
    7.295
    Zustimmungen:
    433
    MacUser seit:
    08.02.2005
    Die Menge der Datensätze wird es doch wohl nicht sein.
    Angenommen, Du hast eben 10.000 Datensätze importiert, darunter 1.000 Doubletten. Die suchst Du mit der Suche nach Doubletten. Die Sucher ergibt 1.001 Datensätze, weil einer dieser Datensätze schon in der Datei enthalten war. Den schließt Du aus und löscht die verbleibenden 1.000 Datensätze. Das geht mit Script und dauert vielleicht einige Sekunden.
     
  8. alwin

    alwin Thread Starter MacUser Mitglied

    Beiträge:
    19
    Zustimmungen:
    0
    MacUser seit:
    12.02.2006
     
  9. alwin

    alwin Thread Starter MacUser Mitglied

    Beiträge:
    19
    Zustimmungen:
    0
    MacUser seit:
    12.02.2006
    Es ist aber leider nicht uter 10000 Datensätzen einer, der 1000 ma vorkommt, sondern es sind unter den 100000 Datensätzen 1000 die zweimal und 1000 Datensätze die 3 mal vorkommen. (zumindest vom Prinzip)
    MfG
    alwin
     
  10. joachim14

    joachim14 MacUser Mitglied

    Beiträge:
    7.295
    Zustimmungen:
    433
    MacUser seit:
    08.02.2005
    Genau für solche Fälle, die Du jetzt beschreibst, ist eine Datenbank auch da.

    Warum soll folgendes nicht funktionieren: Du markierst alle Datensätze in Deiner Datei (zB mit "ok", "ja" oder so ähnlich).
    Dann importierst Du.
    Dann suchst Du alle Doubletten (die bei Dir zweimal vorkommen), und schließt in der Abfrage Deine markierten Datensätze aus. Die Ergebnismenge wird gelöscht.
    Dto. mit weiteren Doubletten (die bei Dir dreimal vorkommen).
    Das ist doch wohl alles in einem Script unterzubringen.

    So jedenfalls nach den Beschreibungen, die Du bislang zu dem Problem gegeben hast.
     
Die Seite wird geladen...

Diese Seite empfehlen