naomi_watts schrieb:
at maceis:
Sobald du dich mit der Internationalisierung von Websites beschäftigen wirst, wirst du merken was für ein Unsinn es ist länderspezifische Zeichensätze wie iso-8859-1 zu benutzen, da du hier zwei Zeichensätze auf einer Seite nicht mischen kannst.
...
Das mag ab einem gewissen Komplexitätsrad stimmen.
Ich nehme an, Du meinst damit, dass auf einer Seite sowohl deutsche Umlaute als auch kyrilische Schrift und/oder japanische Zeichen vorkommen (oder habe ich Dich jetzt missverstanden?).
Diese Anforderung hatte ich bisher nicht, und es ist fraglich, ob sie in absehbarer Zeit auf mich zukommt
.
Insofern erwarte ich keine Probleme, wenn ich meine in iso-8859-1 abgespeicherten Dokumente mit dem char-set 8859-1 ausliefere, solange ich keine Zeichen benötige, die in diesem Zeichensatz nicht enthalten sind.
Wenn es um Internationalisierung im west-/mitelleuropäischen und US-amerikanischen Raum geht, kommt man mit iso-8859-1 meiner Erfahrung nach recht weit. Auf Eurozeichen und Gedankenstrich muss man vielleicht verzichten, das ist wahr. Andererseits kann man AFAIK ohnehin nicht sicherstellen, dass diese Zeichen in jedem verwendeteten Zeichensatz verfügbar sind.
Nicht umsonst wird der Zeichensatz iso-8859-1 von Apache (einem
international eingesetzten Webserver) als DefaultCharset verwendet.
naomi_watts schrieb:
...
Entscheidend ist nicht der (X)HTML-Header (Datei) sondern der HTTP-Header (Auslieferung Server).
...
Ist es nicht so, dass letztendlich beides entscheiden ist, wenn beides vorhanden ist?
Was nützt es, wenn der Server die in schönstem utf-8 abgespeicherten Dokumente im HTTP Header korrekt als solche bezeichnet ausliefert, der Browser aber durch den meta Tag im HTML Header z.B. auf japanisch umgestellt wird?
Ich lasse mich aber in allen Punkten auch gerne eines Besseren belehren.
Anscheinend kennst Du Dich ja in diesem ganzen Themenbereich recht gut aus;.