Suche Tool zum analysieren von Websites

  • Ersteller scheibenwischer
  • Erstellt am
scheibenwischer

scheibenwischer

Aktives Mitglied
Thread Starter
Dabei seit
30.01.2004
Beiträge
359
Reaktionspunkte
1
Grüß Euch!

Muß für die Uni ein paar Websites auf Herz und Nieren prüfen und suche dafür nun ein passendes Tool für OS X.
Mir geht es dabei hauptsächlich um Daten wie Dateianzahl, Verzeichnisebenen, verlinke Websites, etc. Eine grafische Aufbereitung dieser Infos wäre natürlich auch ein Knaller.
Ich weiß nicht genau, welche Daten auf einer Website automatisiert analysiert werden können, deshalb tu ich mir mit einer genauen Beschreibung des Tools auch ein wenig schwer. Hoffe es ist trotzdem rübergekommen, was ich meine!

Danke jedenfalls schon mal für Eure Tipps! :)
 
Ich beziehe mich jetzt einfach mal auf Dein "auf Herz und Nieren prüfen" und folgere daraus, dass Du auch an Folgendem Interesse haben könntest, auch wenn Du es nicht explizit genannt hast:

W3C-Validator - Zur Kontrolle auf Fehlerfreiheit im HTML-Code
W3C-CSS-Validator - Zur Kontrolle auf Fehlerfreiheit im CSS-Code
Bobby Zur Kontrolle der Guidelines für behindertengerechten Webinhalt

Solltest Du die Links schon kennen oder sie für Dich unnütz sein, gräme Dich nicht - freu Dich stattdessen lieber, dass mein Post Dein Thema nach oben schubst... ;)

Gruß. godn
 
Zuletzt bearbeitet:
THX für den Tipp, aber ich brauche ein etwas anderes Tool.
Tyrantula analysiert ja scheinbar nur einzelne Seiten, aber keine kompletten Sites! Ich brauche ein Tool, das sich durch alle Seiten/Links auf einer Website wühlt und mir dann z.B. die Struktur, die Links auf fremde Websites, die Anzahl der Seiten, ihre Gesamtgröße, etc. als Ergebnis liefert.

EDIT:
@godn:
Danke auch dir für die Hinweise! An diese Punkte hab ich noch gar nicht gedacht! Werd ich gleich mit einbauen! :)
 
Zuletzt bearbeitet:
brauchst du das für usability engineering?
(tu-wien?)
 
also ein tool welches alle verzeichnisse eines servers durchsucht wäre nicht so ganz legal, da die daten auf jedem webserver dem Datenschutz des jeweiligen inhabers unterliegen, und wenn der sie nicht offenkundig macht darfst du sie auch nicht analysieren/laden/oder ansehen. aslo wäre ich da vorsichtig mit tools aus dem ausland, da es dort möglicherweise nicht so streng zugeht wie hier.
Grüße Rupp
 
Max02 schrieb:
brauchst du das für usability engineering?
(tu-wien?)

TU Wien --> Informationssysteme des öffentlichen Sektors ;)

Rupp schrieb:
also ein tool welches alle verzeichnisse eines servers durchsucht wäre nicht so ganz legal, da die daten auf jedem webserver dem Datenschutz des jeweiligen inhabers unterliegen, und wenn der sie nicht offenkundig macht darfst du sie auch nicht analysieren/laden/oder ansehen. aslo wäre ich da vorsichtig mit tools aus dem ausland, da es dort möglicherweise nicht so streng zugeht wie hier.
Grüße Rupp

Deine Bedenken verstehe ich nicht ganz. Seiten einer Website sind ja ohnehin öffentlich zugänglich. Ich versuche ja nicht in geschlossene Bereiche einzudringen, sondern ich bzw. das gesuchte Tool folgt einfach nur den Links auf der Site und fängt nebenbei ebenderen Eigenschaften (Größe, Dateianzahl, etc.) ein. Genausogut könnte ich jede einzelne Seite manuell herunterladen, durchzählen, die Größe anzeigen lassen und die Verlinkung im Dreamweaver darstellen lassen. Das ist sicher nicht "legaler" als es automatisiert zu erledigen, oder? ;)
 
Rupp schrieb:
also ein tool welches alle verzeichnisse eines servers durchsucht wäre nicht so ganz legal, da die daten auf jedem webserver dem Datenschutz des jeweiligen inhabers unterliegen, und wenn der sie nicht offenkundig macht darfst du sie auch nicht analysieren/laden/oder ansehen. aslo wäre ich da vorsichtig mit tools aus dem ausland, da es dort möglicherweise nicht so streng zugeht wie hier.
Grüße Rupp

naja, gehen würde es schon (mit php) aber nur wenn directory listing erlaubt ist sonst kannst du das auch vergessen, hatte sogar mal soetwas (mal suchen), ich hab damit die sicherheit meines servers getestet ;-)
 
Cool! Immer mehr Daten, die ich einbauen kann! :)

Was ich aber auf jeden Fall brauche ist die Größe der Site und zwar hinsichtlich Anzahl der Dateien und der Datenmenge.

Mit einem Offline-Browser sollte sich sowas wohl bewerkstelligen lassen. Unter Windows hab ich dafür mal Webcopier (siehe http://www.soft-ware.net/internet/browsertools/offlinebrowser/p00347.asp). Aber dabei muß man aber alle Seiten erstmal herunterladen. Vielleicht gibt's ja unkompliziertere Möglichkeiten um Größe und Dateianzahl zu ermitteln. Und irgendein Tool von Mercury Interacive (kann mich nicht mehr genau erinnern) hab ich auch mal gesehen. Hat die Verzeichnisstruktur in einer Art virtueller Landkarte darstellen können.
So etwas in der Richtung suche ich nun eben für OS X...je mehr Funktionen, desto besser! :)
 
Zuletzt bearbeitet von einem Moderator:
Hat keiner mehr eine Idee?

Sorry für's Bumping...ist dringend, bin verzweifelt... :(
 
Hallo,

Deine Anforderungen scheinen sehr speziell. Wenn Du Java kannst, schreib Dir doch selbst sowas. Sehr zweckdienliches Paket dazu:
http://htmlparser.sourceforge.net/
Sogar mit LinkExtractor als Tutorial-Progrämmchen.

Gruß,

Kay
 
Ui! Nö! Mit Programmieren hab ich echt nix am Hut! :D
Findest Du, daß meine Anforderungen so speziell sind? Im Endeffekt suche ich ja nix anderes als einen Offline-Browser, der die Dateien nicht herunterlädt, sondern einfach nur allen Links folgt, die einzelnen Stationen (=Seiten) durchzählt und nebenbei noch die Größe der Dateien ermittelt.
So etwas muß es doch geben. Diese Link Checker-Tools funktionieren ja nach demselben Prinzip. Ich hatte so ein Ding mal für Windows, aber ich kann es nicht mehr finden und weiß auch nicht mal mehr, wie das heißt. :rolleyes:
 
oder wie wäre es damit (DevonAgent)

Macht das, was Suchmaschinen ala Google auch machen
 
Nope! Soweit ich sehen konnte, haben die beiden Tools keine solchen Funktionen.
 
Zurück
Oben Unten