Bild einer Webseite Serverseitig erstellen

martinibook

martinibook

Aktives Mitglied
Thread Starter
Dabei seit
20.08.2005
Beiträge
8.730
Reaktionspunkte
350
Ich habe eine selbst programmierte Lesezeichendatenbank (PHP & MySQL) auf meinem eigenen Server liegen. Der Vorteil ist einfach, dass ich das unter Kontrolle habe, exportieren kann wie ich mag und auf jedem Rechner ohne Synchronisation da ist.

Bisher war das ganze einfach als Linkliste organisiert, jedoch wollte ich es graphisch haben, so wie bei Safari 4 oder Opera, das hat mir zugesagt. Jetzt brauche ich jedoch ein Bild der Webseite. Bisher habe ich das per Hand gemacht, aber das wird mir etwas zu viel, da sich die Seiten oft ändern.

Kann man irgendwie eine 300x200 Pixel große PNG Datei erstellen, die einen 3:2 Ausschnitt von der Webseite enthält?

Also den Inhalt der Seite kann ich ja auslesen mit file() z.B., aber für ein Bild müsste ich sie ja rendern. Geht das überhaupt Serverseitig, oder gäbe es da vielleicht einen Dienst für?

Danke,

Martin
 
  • Gefällt mir
Reaktionen: martinibook
Also Thumbalizr sieht gut aus, wohl mit der API auch nett zu gebrauchen. Websnapper auch nicht schlecht.

Das schöne ist ja wohl, dass das auf deren Servern läuft und mein Server dadurch keine Traffic-/CPU- und vor allem Speicherplatzprobleme bekommen wird.

Nachteil ist eindeutig die Privatsphäre, da die Leute dann letztlich wissen, was ich als Lesezeichen haben. Aber das lässt sich ja einfach mit einem Kompromiss machen, ein Flag in der Datenbank bestimmt, ob diese Seite so allgemein ist (und nicht mein Facebook Profil), dass man das ruhig durch den Snapper jagen kann.

Vielen Dank euch Beiden :xsmile:
 
Du wirst schon Traffic haben, denn du musst das Bild ja von deren Server zu dir übertragen.

Edit: Oder willst du es gar nicht bei dir Zwischenspeichern? Dann entfällt das…
 
Gute Frage ;)

Wenn ich die Bilder direkt verlinke, also die ganze Arbeit mein Browser und deren Server haben, ist mein Webserver nicht betroffen.

Zwischenspeichern würde Platz und Traffic brauchen, jedoch hätte man dann einmal die Bilder sicher drin, und zweitens würden die nur einmal die Seiten sehen. Jedoch wäre das eigentlich egal, wenn es nur sowas wie www.macuser.de wäre. Da werden ja, bis auf die Seite selbst, keine Informationen zu meiner Person gegeben. Nutzungsprofile könnten trotzdem erstellt werden, aber das hat Google ja eh schon fertig. Von daher...

Ich denke dann speichere ich die nicht zwischen, wenn die Bilder weg sind ist das halb so wild und dann spare ich mir auch den wertvollen Platz auf meinem Server.
 
Mal ein anderer grober Ansatz, kene Ahnung inwiefern das umsetzbar ist: Verzichte auf Grafiken und nutze stattdessen IFrames. Wenn Du es schaffst die IFrames zu verkleinern, per CSS-Eigenschaft zoom, hast Du ein Live-Image der Seite. Dann legst Du einfach noch ein transparentes Bild drüber dass mit der Seite verlinkt wird.

Sollte das nicht hinhauen, kannst Du mal versuchen einen Nightly-Build von Safari/Webkit zu ziehen. Darin gibt es wohl Support für kompletten page-zoom. Dann verkleinerst Du nicht die einzelnen IFrames, sondern die Seite selbst.

Wäre interessant ob das funktioniert. Halt uns auf dem Laufenden, wenn Du das versuchst. :)
 
Das Problem damit ist wohl, dass ich damit enormen Traffic habe, einfach ein gecachtes Bild zu laden geht schneller als die ganze Seite, vor allem bei SSL-Seiten.

Wenn Firefox Page-Zoom kann, dann werde ich das aber mal austesten ;)


Ich habe jetzt mal Thumbalizr eingebaut, schade ist der Schriftzug unten im Bild. Der Snapr macht das anscheinend nicht, dafür kann man die Größe nicht so frei wählen. Mal schauen, das ist ja ganz schnell ausgetauscht.

PHP:
$bild = 'http://api.thumbalizr.com/?url='.$m['url'].'&width=128';
 
Zuletzt bearbeitet:
Naja, dafür wäre es live. :) Diese Dienste wie thumbalizer kenne ich so, dass Du das Bild eben nicht sofort bekommst. Du meldest Deine Anliegen und nach ein paar Minuten/Stunden, je nach Aufkommen bekommst Du die Grafik. thumbalizer selbst habe ich jetzt nicht getestet, aber so ähnliche Dienste. Kann durchaus sein dass das da anders ist.
 
Habe gerade bei einigen meiner Lesezeichen erlaubt, dass sie an den Snapper gesendet werden dürfen, beim zweiten Aufruf der Seite nach 10 Sekunden waren die Bilder dann da. Ich sehe da momentan kein Problem.

Was mich nur irritiert hatte war, dass auf den Bildern Werbung drauf war, währen die in FF netterweise entfernt wird.
 
Wenn Dein Server eine Unix-Kiste oder eine Linux-Gurke ist, könntest Du mit ein 'wenig' Unix KnowHow Dir eine Lösung aus Xvfb, dem Browser Deiner Wahl, xwd und ImageMagick zusammenstricken.

Xvfb ist ein virtueller Framebuffer. Browser und andere Programme die normalerweise X benötigen können so ganz normal starten, ohne das eine Grafikkarte im Rechner steckt. Mit xwd kannst Du Screenshots vom virtuellen Desktop machen und mittels ImageMagick ins JPEG-Format oder was auch immer konvertieren. Natürlich musst Du noch den Browser fernsteuern, damit er die URL aufruft und 'darstellt'.

Im I-Net gibt es Lösungen dazu, die Stichworte dazu hast Du nun.

Gruß B.
 
BSDheld, vielen Dank für deine Erklärung, jedoch ist "mein Webserver" nur ein Paket bei Strato, das war etwas ungeschickt ausgedrückt :eek:

Mein jetzige Lösung mit den eingeklinkten Grafiken von einem anderen Dienst funktioniert jetzt ganz passabel.
 
Das "Erlauben" vom fotografieren von Seiten sollte doch unnötig sein. Wenn die Seite nicht öffentlich zugänglich ist, kann der Snapr ja auch nicht darauf zugreifen.
 
Erlauben ist wohl wirklich quatsch, da hast du recht. Allerdings kann der Snapper bei den privaten (.htaccess o. Ä.) nichts machen und dann käme da nur "Picture Failed". Von daher muss man die dann selbst machen.
 
Zurück
Oben Unten