Und dann frage ich mich ob ich demnächst auf die Maus verzichten kann und mit dem Finger meine Menüs aufrufe bis der Arm schwer wird.
Vielleicht kann ich ja einfach nicht weit genug denken um die Vorzüge am heimischen oder am Arbeitsplatzcomputer zu erahnen.
Helft mir dabei
Hallo,
ich denke, wenn wir über touchsensitive Interfaces reden, müssten wir uns von dem bisherigen Aufbau einer GUI mit Fensterkontrollelementen, sich überlagernde Fenster, Menüleisten, Untermenüs, Auswahlbuttons, Symbolleisten, Werkzeugpaletten etc. verabschieden.
D. h. es müsste eine vollkommen neues grafisches Interface her, was einen effizienten Workflow mit solchen Eingabegeräten erst richtig möglich macht. Man muss damit eine Symbiose zwischen touchsensitiver Hardware und virtuellen Kontrollelementen schaffen.
Ich denke zunächst, dass die herkömmliche, mechanische Tastatur ersetzt wird durch einen Touch-Screen gleicher Größe bzw. sogar etwas grösser, so das bei einen Notebook beispielsweise die gesamte untere Innenfläche aus einem Touchscreen besteht.
Dadurch bleibt die natürliche Haltung beim Arbeitern erhalten; die Hände berühren den unteren Teil, während man die Ergebnisse am herkömmlichen Bildschirm betrachtet. Um in gewissen Maße auch blind zu "tippen", müsste ein taktiles Feedback integriert werden. Aber dazu gibt es ja bereits schon Technologien und Apple hat für etwas ähnliches kürzlich wohl auch ein Patent beantragt.
Grundsätzlich müsste man die herkömmliche GUI, wie sie heute existiert, analysieren und entsprechend der Funktionen der einzelnen Elemente aufteilen. Ich würde zunächst zwei Arten unterscheiden: Eingabe/Ausgabekontrollen und Präsentationsteil.
Zu den Eingabe/Ausgabekontrollen gehören all die Bereiche einer heutigen GUI, die zur direkten Eingabe inkl. eines optischen Feedbacks in einem gewissen Rahmen dienen (Menüs, Buttons in Symbolleisten, etc). Man könnte die jetzige Struktur, die man durch Menüs abbildet, auf die Touch-Tastatur verlagern, und zwar nicht weiterhin als aufklappbares Menü im herkömmlichen Sinne (Platzverschwendung), sondern als eine Art vertikale Kontrollleiste mit mehreren Buttons, aus der man dann eine Auswahl trifft, worauf sich dann eine neue Kontrollleiste aufbaut, wobei die zuvor gewählte Funktion klein in einen oberen oder unteren Bereich verschoben wird und der Rest der ursprünglichen Kontrollleiste ausgeblendet wird, weil man dort in dem aktuellen Kontext eh nichts aktivieren kann. Es baut sich dann an der Stelle eine neue Substruktur auf, ich denke an so etwas wie eine senkrechte Leiste mit genügend großen Buttons zur Anwahl. Hat man etwas ausgewählt, kann das aktuelle Element z.B. durch eine Animation verschwinden und das Unterelement wird angzeigt, damit man stets die Übersicht behält, wo und in welchem Programmbereich man sich gerade befindet, welche Funktionen auslösbar sind und zur Verfügung stehen. Natürlich gibt es dann auch einen Bereich, mit dem man wieder zur Hauptebene bzw. zum Programordner etc. kommt. Programme selbst könnten z.B. so auch ungestartet durch die Buttons ähnlich wie auf dem iPhone dargestellt werden. Tippt man eins an, animiert sich das Ikon in einer Ecke, während sich für das Programm die erforderlichen Strukturen auf der Touchoberfläche verteilen - je nach den Funktionen des Programms.
Das ist jedoch nur ein Teil der Elemente auf der touchsensitiven Oberfläche. Man kann dort auch je nach Art des Programms unterschiedliche Kontrollelemente unterbringen. Arbeitet man z.B. in Photoshop, sind dort die Funktion der derzeit eingeblendeten Werzeugpaletten abgebildet, die man durch logische Strukturierung durch weglassen nicht-aktivierbarer Funktionen im Programmworkflow sinnvoll darstellt.
Befindet man sich in einem Office-Programm gerade im Bereich des zu bearbeitenden Dokumentes, wird auf einem Teil der Touch-Oberfläche eine Tastatur zur Eingabe eingeblendet. Beim Betrachten von Webseiten genauso, falls man sich in einem Chat oder in Texteingabebereichen befindet.
Ich weiß nicht, ob man auf einen Cursor verzichten kann, um in Webseiten beispielsweise einen Link anzusteuern. Man könnte jedoch sogar soweit gehe, dass Webseiten zukünftig dahingehend gestaltet werden, dass die Links gar nicht nicht mehr auf der Seite direkt aktivierbar sind, sondern dass der Bereich nur noch als Link, z.B. farblich hervorgehoben ist und das die aktuell sichtbaren Links aus dem Webseitenausschnitt auf der Touchoberfläche positioniert sind mit speziellen sprechenden Bezeichnungen versehen. Das bedeutet, die Bedienoberflächen der Zukunft würden auch die herkömmliche Art der Webseitenprogrammierung beeinflussen, denn auch hier müssen eine neue Struktur Einzug halten.
Ich halte es auch für möglich, dass kleinere Meldungen oder direkt zur Aktivierung erforderliche visuellen Merkmale auch auf der Touch-Oberfläche angezeigt werden. Möglich wäre auch ein Bereich, der als Touch-Pad benutzt werden kann, um damit einen notwendigen Cursor zu steuern. Denkbar wäre auch bei gewissen Programmen oder Dokumenten eine verkleinerte Übersicht davon auf der Touch-Oberfläche, auf der man dann Bereiche anwählt, wobei die Auswirkungen auf den herkömmlichen Bildschirm sichtbar sind.
Womit ich zum zweiten Teil so eines System komme, nämlich den Präsentationsteil, was den heutigen, herkömmlichen Bildschirmen entspricht. Während man über die Touch-Oberfläche alle Einheiten zur Auswahl und Steuerung zur Verfügung hat, braucht man diese Elemente logischerweise nicht mehr im Präsentationsteil, also der herkömmliche Bildschirm, auf den man blickt. Dadurch hat man praktischerweise auch mehr Platz für reine Inhalte zur Verfügung.
Denn es genügt vollkommen, wenn dort tatsächlich nur noch die reinen Inhalte angezeigt werden: Das Photoshop-Bild ist sichtbar im Präsentationsteil, während die Paletten und Kontrollelemente von Photoshop auf der Touchoberfläche liegen. Ein Video beispielsweise wird auf dem Präsentationsteil abgespielt, während die Kontrollelemente für Play, Pause, Vorlauf, Rücklauf, Menüauswahl etc. auf der Touch-Oberfläche liegen. Die Webseite ist eingeblendet auf dem Präsentationsteil, während die Elemente für Vor, Zurück, anwählbare Links, Downloadordner etc. auf der Touchoberfläche liegen usw. Dabei benötigt man auch keine Fenster mehr (die sich auch noch überlagern können), weil der Inhalt automatisch angepasst und ggf. verkleinert wird, wenn zusätzliche Informationen angezeigt werden müssen.
Dieser Aufbau ist je nach jeweiligen Programm geartet. Dabei ist es egal, ob man nun eine Datenbank vor sich hat oder iTunes oder iPhoto oder irgend ein anderes Programm. Durch diese Aufteilung in Eingabe/Ausgabekontrollen auf der Touchoberfläche und den reinen Inhalt des Programms auf dem Präsentationsteil (=herkömmlicher Bildschirm) gibt es auch keine zwingende Notwendigkeit dafür, den herkömmlichen Bildschirm berühren zu müssen, sodass dort auch keine Fingerabdrücke sichtbar sind.
Ich denke, das dahin - vielleicht erst in 5 oder 10 Jahren (vielleicht auch schon früher
) der Trend gehen wird. Maus, Tastatur, Menüleisten, Fensterüberlagerungen (und generell Fenster) sind heute bereits schon eine in die Tage gekommene Technik, die langsam abgelöst werden sollte. Ich habe mal gelesen, dass iPhone-Benutzer, wenn sie länger mit der iPhone-Tastatur gearbeitet haben, eine herkömmliche, mechanische Tastatur als "hart und rückständig" empfanden.
Verfeinert man die Techniken zur Eingabe auf touchsensitiven Oberflächen, kommen zwangsläufig auch neue und neu strukturierte Oberflächen dabei raus. Star Trek hat es uns vorgemacht:
http://en.wikipedia.org/wiki/Lcars
Und es würde mich wundern, wenn Steve hier nicht noch mal der Erste wäre, der hier eine völlig neue Ära der Computerbenutzung einleiten würde
Gruß
--
k-mac